Errores en la comprensión estadística
Errores en la comprensión estadística
Consulte las discusiones, las estadísticas y los perfiles de los autores de esta publicación en: [Link]
DOI: 10.1080/0020739940250406
CITAS LECTURAS
204 7,471
DR Verde
Universidad de Loughborough
VER PERFIL
Todo el contenido que sigue a esta página fue subido por Carmen Batanero el 20 de mayo de 2014.
En este artículo se presenta un estudio de las investigaciones realizadas sobre errores, dificultades y
concepciones de los estudiantes en relación con conceptos estadísticos elementales. La información
relacionada con los procesos de aprendizaje es esencial para el diseño curricular en esta rama de las
matemáticas. En particular, la identificación de errores y dificultades que presentan los estudiantes es
necesaria para organizar programas de formación estadística y preparar situaciones didácticas que
permitan a los estudiantes superar sus obstáculos cognitivos.
Este artículo no intenta informar sobre los conceptos de probabilidad, un área que ha recibido mucha
atención, sino que se concentra en otros conceptos estadísticos, que hasta ahora han recibido poca
atención.
1. Introducción
El mayor énfasis que se da a la estadística en los diferentes currículos, por ejemplo, los Estándares NCTM
en los [Link]. [9], el Currículo Nacional de Matemáticas para Inglaterra y Gales [10] y la nueva propuesta curricular
española [11, 12] requiere una preparación intensiva de los docentes, con el fin de permitirles cumplir con éxito su
objetivo educativo. Muchos docentes necesitan aumentar su conocimiento tanto de la materia de estadística como
de las formas apropiadas de enseñar la materia. Esta preparación también debe incluir el conocimiento de las
dificultades y errores que los estudiantes experimentan durante el aprendizaje de este tema.
El objetivo de este trabajo es contribuir a la difusión de los resultados de investigaciones relacionadas con
las dificultades y errores, que no son suficientemente conocidos por los docentes. Se han publicado algunos
estudios sobre investigaciones en educación en probabilidad y estadística: Hawkins y Kapadia [13], Garfield y
Alhgren [14], Scholz [1 5] y Shaughnessy [16], pero estos trabajos han estado orientados a investigadores más
que a docentes y su principal objetivo ha sido identificar nuevas preguntas de investigación. Además, se han
centrado principalmente en la probabilidad, porque la investigación en esta área es mucho más extensa que la
relacionada con los conceptos estadísticos, aunque una excepción relevante es el nuevo libro para profesores de
estadística de Hawkins et al. [17].
En este artículo analizamos los resultados de investigaciones relativas a algunos de los principales
conceptos y procedimientos estadísticos elementales que se han incluido en muchas propuestas curriculares recientes.
Machine Translated by Google
Propuestas para la enseñanza de la estadística en los niveles elementales. Este análisis muestra la complejidad de algunos de
estos temas y debería proporcionar al docente una comprensión más profunda del razonamiento estocástico de los alumnos.
Consideramos necesario comenzar esta exposición explicando la relevancia de este tipo de investigación y
definiendo algunos conceptos teóricos relacionados. Sin embargo, advertimos al lector que: • la estadística ha
recibido,
hasta la fecha, menos atención que otros temas matemáticos; • la mayor parte de la investigación
se ha llevado a cabo en situaciones experimentales y muy poco se ha relacionado con la práctica normal en el
aula; • gran parte se ha realizado con sujetos muy
jóvenes o estudiantes universitarios de 18 años o más y bastante poco con los estudiantes de la escuela secundaria.
Rango de edad 1116;
• la mayoría de las primeras investigaciones fueron realizadas por psicólogos en lugar de educadores estadísticos,
Aunque eso ha empezado a cambiar.
Una parte importante de la investigación teórica y experimental que se está realizando actualmente en la enseñanza de
las matemáticas surge del hecho de que los estudiantes fracasan cuando se les pide que completen algunas tareas. A veces
sus respuestas son incorrectas, si se comparan con una respuesta estándar aceptada. O, simplemente, son incapaces de
proporcionar ninguna respuesta. Si este fracaso no se debe únicamente a la falta de atención, decimos que la tarea es
demasiado difícil para esos estudiantes en particular. Como señala Centeno ([18] p. 142), "una dificultad es algo que inhibe al
estudiante para realizar correctamente o para comprender rápidamente un elemento dado. Las dificultades pueden deberse a
varias causas: relacionadas con el concepto que se está aprendiendo, con el método de enseñanza utilizado por el profesor,
con el conocimiento previo del estudiante o con su capacidad".
Un principio ampliamente compartido en psicología educativa es el establecido por Ausubel et al. [21]: “el factor más
importante que influye en el aprendizaje es el conocimiento previo del estudiante. Debemos descubrirlo y enseñar en
consecuencia”. Un interés reciente en la investigación de la educación matemática es explorar las concepciones de los
estudiantes (Confrey [22]), lo cual es una consecuencia del principio mencionado anteriormente.
Una dificultad es que algunas de estas concepciones, que permiten al estudiante resolver correctamente un conjunto
dado de problemas, resultan inapropiadas o inadecuadas cuando se aplican a situaciones más generales. El estudiante muestra
resistencia a reemplazar estas concepciones. En estas circunstancias, hablamos de la existencia de un obstáculo cognitivo que
podría explicar los errores y dificultades observados. Brousseau [23] describe las siguientes características de los obstáculos:
a. Un obstáculo es un conocimiento, no una falta de conocimiento. b. El estudiante emplea este conocimiento para producir la
respuesta correcta en un contexto dado, que se encuentra con frecuencia.
c. Cuando este conocimiento se utiliza fuera de este contexto, genera errores. Una respuesta universal requiere un punto de
vista diferente. d. El estudiante
ignora las contradicciones producidas por el obstáculo y se resiste a establecer un conocimiento más profundo. Es esencial
identificar el obstáculo y reemplazarlo en el nuevo
contexto.
Machine Translated by Google
aprendiendo.
e. Después de que el estudiante ha superado el obstáculo, reconociendo su inexactitud, no obstante éste vuelve a
presentarse esporádicamente.
b. Los obstáculos didácticos surgen de las opciones didácticas elegidas en las situaciones de enseñanza.
Por ejemplo, introduciendo un nuevo simbolismo como
(∑xi )/n
c. Los obstáculos epistemológicos están intrínsecamente relacionados
con el concepto mismo y conllevan parte del significado del concepto. Por ejemplo, las circularidades que se dan en las
diferentes definiciones del significado de probabilidad (clásica, subjetiva, . . .) que muestran la necesidad de una
definición axiomática. Por lo tanto, una condición necesaria para construir una concepción pertinente para un
concepto dado es identificar y superar esos obstáculos, utilizando el análisis histórico y didáctico.
Finalmente, observamos que otras dificultades que experimentan los estudiantes se deben a la falta de
conocimientos básicos necesarios para una correcta comprensión de un determinado concepto o procedimiento. El
objetivo de la caracterización de las concepciones y obstáculos matemáticos es que esto nos permita identificar los
diferentes componentes que están implicados en la comprensión de un determinado concepto. Investigaciones recientes,
por ejemplo, las relativas a los "actos de comprensión" en el contexto del límite de una secuencia numérica (Sierpinska
[24]), muestran la complejidad del significado de los objetos matemáticos.
Comenzamos nuestra exposición sobre errores y dificultades en el aprendizaje de la estadística con aquellos
relacionados con las tablas de frecuencias y representaciones gráficas.
La capacidad de leer datos de manera crítica es un componente de la alfabetización numérica y una necesidad
en nuestra sociedad tecnológica. Curcio [25] ha distinguido los siguientes tres niveles diferentes en la comprensión de
datos: a. Lectura de los datos
en la que no se necesita interpretación. Solo se tienen en cuenta los hechos expresados explícitamente en
Se requiere el gráfico o la tabla.
b. Leer dentro de los datos, lo que requiere comparaciones y el uso de conceptos y habilidades matemáticas.
c. Leer más allá de los datos donde se necesita una extensión, predicción o inferencia.
Por ejemplo, si analizamos las tareas relacionadas con la interpretación de un gráfico de dispersión, la “lectura
de los datos” se refiere a preguntas sobre el etiquetado del gráfico, la interpretación de escalas o la búsqueda del valor
de una de las coordenadas de un punto dado el otro. La “lectura dentro de los datos” se refiere, por ejemplo, a preguntas
sobre la intensidad de la covariación, sobre si esta relación podría representarse o no mediante una función lineal o
sobre si la dependencia es directa o inversa. Por último, si requerimos la predicción del valor de y para un valor de la
coordenada x no incluido explícitamente en el gráfico, estaríamos trabajando en el nivel de “lectura más allá de los datos”.
Curcio evaluó el efecto del conocimiento previo del tema, el contenido matemático y la forma gráfica en la
comprensión de las relaciones matemáticas expresadas en gráficos. Encontró que las principales dificultades aparecen
en los dos niveles altos ('leer dentro de los datos' y
leyendo más allá de los datos') en la interpretación de los gráficos y también mostró el efecto de
Machine Translated by Google
En otras ocasiones, el uso inadecuado de un software gráfico esconde un error de concepto, como, por
ejemplo, cuando en un gráfico circular los sectores no son proporcionales a las frecuencias de las categorías. La
facilidad de hacer gráficos con un ordenador conlleva el peligro de no aplicar el sentido común; por ejemplo,
comparar en un mismo gráfico 30 sillas con 50 kg de carne. Estos problemas pueden surgir de una excesiva
variedad de opciones que ofrece el software.
4.1. La media La
media no es sólo uno de los conceptos más importantes en estadística, sino que también tiene muchas
aplicaciones en la vida cotidiana. Este concepto es simple en apariencia, pero Pollatsek et al.
[28] encontraron errores al combinar dos medias ponderadas como si fueran medias simples, como en el siguiente
ítem:
Hay diez personas en un ascensor, cuatro mujeres y seis hombres. El peso medio de las mujeres es de
120 libras y el peso medio de los hombres es de 180 libras. ¿Cuál es el peso medio de las diez personas
en el ascensor?
Hay varias maneras de equivocarse al aplicar la regla de cálculo: por ejemplo, en la investigación antes
mencionada se informó que se utiliza (120+180)/2 = 150.
Hawkins et al. [17] señalan que esta no es una pregunta sensata, debido a las dos distribuciones diferentes
involucradas, pero este problema podría plantearse en términos de un estudiante que realiza diferentes cantidades
de horas en diferentes trabajos de vacaciones.
Los estudiantes no identifican fácilmente las situaciones en las que se debe calcular una media ponderada.
Li y Shen [27] observaron que, al utilizar datos agrupados en intervalos, los estudiantes a veces ignoran la
frecuencia de cada uno de los intervalos al calcular la media.
Tradicionalmente se ha hecho mucho hincapié en los aspectos computacionales del análisis de datos y
esto se ha reflejado en la investigación. Es innegable que el significado de muchos conceptos estadísticos
depende de un contexto numérico. Una pregunta importante que aún no se ha abordado es: "¿En la práctica, se
puede separar la comprensión conceptual de la competencia computacional?"
Otro elemento diferente utilizado en la investigación de Pollatsek et al. [28] fue diseñado para evaluar las
concepciones de los estudiantes universitarios sobre el valor esperado de una observación de una variable
aleatoria para la cual se conoce la media poblacional.
Usted sabe que, en promedio, la puntuación verbal de la población de estudiantes de último año de secundaria en una
Machine Translated by Google
El sistema escolar grande tiene 400 alumnos. Eliges una muestra de 5 alumnos. Los primeros 4 alumnos
de tu muestra tienen las siguientes puntuaciones: 380, 400, 600, 400. ¿Cuál esperas que sea la puntuación
del quinto alumno?
La respuesta "correcta" a esta pregunta es 400, el valor esperado en la población. Sin embargo, algunos
estudiantes pensaron erróneamente que obtendrían una mejor estimación de la puntuación del último estudiante
calculando el número que haría que las cinco puntuaciones promediaran 400.
Estos resultados muestran que las dificultades con la media no se producen sólo a nivel computacional.
Skemp [29] ha establecido la distinción entre comprensión instrumental y relacional de un concepto. La
comprensión instrumental consiste en disponer de una colección de reglas aisladas para llegar a la respuesta a
problemas específicos. La comprensión relacional consiste en disponer de esquemas adecuados y suficientes
para resolver una clase mucho más amplia de problemas. En un sentido similar, Hiebert et al. [30] hablan de
conocimiento conceptual y conocimiento procedimental.
Mevarech [31] observó que una posible explicación a los errores de procedimiento encontrados por
Pollatsek et al. [28] es que los estudiantes asumen erróneamente que un conjunto de números junto con la
operación de media aritmética constituye un grupo matemático que satisface los cuatro axiomas de clausura,
asociatividad, elemento identidad y elemento inverso. Esta creencia es obviamente falsa, como se puede ver en
los siguientes ejemplos: a. Al calcular la media
general de tres números dados, se obtendrá una media diferente al promediar los dos primeros números con el
tercer número que al promediar los dos últimos números con el primer número.
b. No existe un número de identidad, porque el valor de la media está influenciado por el valor de cada puntuación
en la distribución. Sin embargo, algunos estudiantes creen que agregar un nuevo valor de cero a una
distribución no altera el valor de la media.
Cuando las medidas estadísticas media y varianza se presentan por primera vez a los estudiantes,
constituyen operaciones completamente diferentes, no extensiones de las que ya se conocen.
Sin embargo, los estudiantes novatos pueden relacionar inconscientemente las propiedades que saben que se
cumplen para las operaciones aritméticas con la media y la varianza. Por lo tanto, el énfasis puesto en el
aprendizaje de las propiedades fundamentales de las operaciones aritméticas puede constituir un obstáculo para
comprender el cálculo del valor medio, porque a esta operación se le atribuyen algunas propiedades inexistentes.
Las investigaciones a las que nos hemos referido anteriormente se refieren a los aspectos computacionales
de la media. En lo que respecta a la comprensión conceptual , Strauss y Bichler [32] estudiaron el desarrollo de la
comprensión de la media por parte de los niños y distinguieron las siguientes propiedades: a. La media se
encuentra
entre los valores extremos. b. La suma de las desviaciones de la
media es cero. c. La media está influenciada por todos los valores.
d. La media no necesariamente es igual a uno de los
valores que se sumaron. e. La media puede ser una fracción que no tiene contrapartida en la
realidad física. f. Cuando se calcula la media, se debe tener en cuenta un valor cero, si
aparece. g. La media es representativa de los valores que se promedian.
Para cada una de estas propiedades se utilizaron distintas tareas, variando el material utilizado en la
prueba (continuo, discreto) y el medio de presentación (historia, concreto y numérico). No se encontraron efectos
significativos ni para el material ni para el medio de presentación.
Sus resultados también sugieren que la comprensión de los niños sobre la media cambia con la edad y que las
propiedades (a), (c), (d) son más fáciles que (b), (f) y (g).
Hemos afirmado que la media es un valor “típico” o “representativo” de la distribución.
Campbell [33] notó que, por esta razón, hay una tendencia a situar la media en el
Machine Translated by Google
centro del rango de variación de los datos. Esto es cierto cuando la distribución es simétrica, pero, si no lo es, la
media se desplaza hacia uno de los extremos y la mediana o la moda serían una mejor representación de los
datos. Comprender la idea de "valor típico" implica, según Russell y Mokros [34] tres tipos diferentes de
habilidades:
Russell y Mokros [34] estudiaron las concepciones de los estudiantes de 4º a 8º grado sobre los promedios,
utilizando este tipo de tareas, y descubrieron que el segundo tipo era el más difícil. Este tipo de tarea también fue
propuesta por Goodchild [35], quien proporcionó a los estudiantes cajas de cerillas en las que estaba impreso
"contenido promedio 35 cerillas". Una de sus preguntas requería que el alumno creara una distribución hipotética
para el contenido de 100 cajas. La característica más notable de estas distribuciones era su falta de forma,
porque el gráfico no parecía en absoluto una campana.
Goodchild sugirió que esto se debe a una falta de comprensión del promedio como medida de ubicación de la
distribución que resulta de un proceso estocástico.
Russell y Mokros también encontraron cuatro categorías generales para clasificar a los estudiantes:
conceptos erróneos sobre los
promedios: a. el "valor más frecuente" o
moda; b. el "valor razonable";
c. el "punto medio";
d. una "relación algorítmica".
Cada uno de estos aspectos puede ser cierto en una circunstancia dada pero no ser apropiado en otra.
Terminaron su artículo señalando la necesidad de utilizar diferentes contextos y representaciones en la enseñanza
de un concepto matemático.
En resumen, la incapacidad de algunos estudiantes para resolver problemas se debe a que aún no han
adquirido un concepto puramente formal de la media. El conocimiento de una regla computacional no sólo no
implica una comprensión profunda del concepto subyacente, sino que puede inhibir la adquisición de un
conocimiento conceptual más completo. Aprender una fórmula computacional es un pobre sustituto de la
comprensión del concepto básico subyacente. La mayoría de los estudiantes conocen la regla por la que se
calcula la media. Sin embargo, si los estudiantes sólo tienen el conocimiento computacional de la media, es
probable que cometan tipos predecibles de errores en todos los problemas, salvo en los más transparentes.
La desviación estándar mide en qué medida los datos se alejan de la tendencia central.
Sin embargo, Loosen et al. [37] observaron que muchos libros de texto ponen un mayor énfasis en la
heterogeneidad entre las observaciones que en sus desviaciones de la tendencia central. Como señalan Loosen
et al. , las palabras utilizadas: variación, dispersión, diversidad, dispersión, fluctuación, etc., están abiertas a
diferentes interpretaciones. Es claro para el profesor si estas palabras se refieren a una diversidad relativa o
absoluta. En un experimento, tomaron 154 estudiantes de primer año de psicología que no habían recibido
ninguna conferencia sobre variabilidad. Les mostraron dos conjuntos diferentes de bloques, A y B. Las longitudes
de los bloques en el conjunto A eran 10, 20, 30, 40, 50 y 60 cm. y las
Machine Translated by Google
Las longitudes de los bloques insertados en el punto B fueron 10, 10, 10, 60, 60 y 60 cm.
Los estudiantes respondieron de la siguiente manera: el 50% dijo que el conjunto A era más variable, el
36% dijo que el B y el 14% dijo que eran igualmente variables. Loosen et al. interpretaron esto como una muestra
de que el concepto intuitivo de variabilidad se relaciona con la "falta de similitud", es decir, cuánto difieren los
valores entre sí (en lugar de con algún valor fijo como la media). En este sentido, el conjunto A ciertamente puede
considerarse más variable que el conjunto B. Sin embargo, la desviación estándar para el conjunto A es menor
que para el conjunto B, lo que indica que la desviación estándar es una medida especial de variabilidad.
Mevarech [31] encontró, en estudiantes universitarios, dificultades similares en el cálculo de la varianza que
en el cálculo de la media. En particular, los estudiantes tienden a asumir que el conjunto de datos y la operación
de varianza constituyen juntos una estructura de grupo. Sin embargo, el análisis de Mevarech no es del todo
convincente.
Uno de los usos más comunes de la media y la desviación típica es el cálculo de puntuaciones z. La
mayoría de los estudiantes no tienen dificultad en comprender este concepto ni en calcular puntuaciones z para
un conjunto de datos en particular. Sin embargo, Huck et al. [38] han observado dos conceptos erróneos
generalizados entre los estudiantes en relación con el rango de variación de las puntuaciones z calculadas a partir
de una muestra finita o de una distribución uniforme.
Por un lado, algunos estudiantes creen que los valores z siempre oscilarán entre 3 y +3. Otros estudiantes
piensan que no hay ninguna restricción sobre los valores máximos positivos y negativos de los valores z. Cada
una de esas creencias está vinculada a una idea errónea sobre la distribución normal. Los estudiantes que
piensan que los valores z siempre varían entre 3 y +3, han utilizado con frecuencia una imagen o una tabla de la
curva normal estándar, con este rango de variación. De manera similar, los estudiantes que creen que los valores
z no tienen límites superiores o inferiores, han aprendido que las colas de la curva normal son asintóticas a la
abscisa y hacen una generalización incorrecta, porque no se dan cuenta de que ninguna distribución finita es
exactamente normal.
Por ejemplo, si consideramos el número de niñas de cada diez bebés recién nacidos, esta es una variable
aleatoria X que sigue la distribución binomial con n = 10 y p = 0,5. La media de esta variable es np = 5 y la
varianza es npq = 2,5. Por lo tanto, el valor z máximo que se puede obtener de esta variable es zmax 2,5 = 3,16
y, por lo tanto, tenemos un límite finito, pero√es mayor = = (105)/ que 3.
En los últimos años, el tema de las estadísticas de pedidos ha recibido mucha atención por dos motivos:
diferentes razones:
• El análisis exploratorio de datos, que comenzó con Tukey [39], se basa en estadísticas de orden, porque son
robustas, es decir, no son muy sensibles a las fluctuaciones de los datos o a los valores atípicos.
• Los métodos no paramétricos se basan en estadísticas de orden. Estos métodos requieren menos suposiciones
para su aplicación, por lo que pueden emplearse más ampliamente que la inferencia paramétrica.
El estudio de las estadísticas de orden presenta dificultades tanto computacionales como conceptuales.
En primer lugar, el cálculo de medianas, cuantiles y percentiles se enseña con un algoritmo diferente para datos
agrupados en intervalos que para datos no agrupados. Como sabemos, la decisión de agrupar o no los datos y la
selección de la amplitud de los intervalos la toma la persona que realiza el análisis. Schuyten [40] ha sugerido que
incluso a los estudiantes universitarios les resulta difícil aceptar dos algoritmos diferentes para el mismo concepto
y, además, valores diferentes para el mismo parámetro en función del algoritmo elegido o de la amplitud de los
intervalos.
Si trabajamos con datos no agrupados, la representación gráfica de las frecuencias acumuladas es una
función discontinua, que toma un valor constante entre dos valores consecutivos de las variables. Estepa [41]
observó las dificultades de los estudiantes cuando
Machine Translated by Google
interpretando el gráfico de frecuencia acumulada, porque un valor en el eje y puede tener dos imágenes diferentes,
o varios valores diferentes en el eje y pueden tener la misma imagen.
Schuyten [40] ha señalado la gran distancia que existe entre el conocimiento conceptual de la mediana y el
algoritmo empleado para obtener su valor. Al pasar de la definición de la mediana como 'valor medio de la
distribución' o como el 'valor tal que exactamente la mitad de los datos son inferiores a él' a su cálculo, hay muchos
pasos que no siempre están suficientemente enunciados o no se entienden suficientemente. El algoritmo final
consiste en resolver la desigualdad: F(x) ≤ n /2, donde n es el número de datos. Es necesario resolver esta
inecuación en la que F(x) es la función de distribución empírica y no puede darse de forma algebraica sino sólo
mediante una tabla de valores numéricos. Por lo tanto, se debe utilizar la interpolación para aproximar F(x).
Barr [42] también observó la falta de comprensión de la mediana en un estudio piloto con estudiantes de
entre 17 y 21 años. Alrededor del 50% de los estudiantes dieron una respuesta incorrecta a la siguiente pregunta:
La mayoría de los estudiantes habían comprendido la idea de que la mediana es un valor central de algo.
La duda sobre qué es ese algo era evidente. Los estudiantes podían interpretar la mediana como el punto medio
de las cifras en la columna de frecuencias, o como el punto medio en la columna de valores de las variables, o
incluso como el punto medio en la lista de números antes de que hayan sido ordenados.
5. Asociación y regresión
A nivel elemental, existen varios conceptos diferentes en esta área temática: tablas de contingencia,
regresión lineal y correlación entre variables cuantitativas. Otro tema relacionado con la idea de asociación es el
diseño experimental mediante el cual estudiamos cómo las herramientas estadísticas permiten llegar a conclusiones
sobre un mundo en el que una gran cantidad de variables influyen en cualquier medición en particular (Rubin y
Rosebery [43].
Podríamos proponer a los alumnos diferentes problemas en torno a este tipo de tablas, por ejemplo: •
Interpretar
la información contenida en la tabla. • Emitir un juicio sobre la
existencia de asociación entre las variables. • Calcular e interpretar un coeficiente para medir la fuerza
de la asociación.
En cuanto a la primera categoría, observamos que este trabajo es relativamente complejo, pues a partir de la
frecuencia absoluta contenida en una celda, por ejemplo la celda a, se podrían deducir tres tipos diferentes de
frecuencias relativas: la frecuencia relativa incondicional [a/(a+b+c+d)]
y las frecuencias relativas condicionales dadas las filas [a/(a+b)] o dadas las columnas [a/(a+c)] de la tabla.
Se han realizado muy pocos estudios sobre la interpretación que hacen los estudiantes de las frecuencias
relativas en la tabla de contingencia o del coeficiente de correlación. Sin embargo, la investigación sobre el juicio de
asociación humano ha sido objeto de gran interés en el ámbito de la psicología.
Los psicólogos han utilizado tablas de contingencia 2x2, como en el siguiente ejemplo.
Nos interesa evaluar si un determinado fármaco produce problemas digestivos en personas mayores.
Durante un periodo suficiente se ha realizado un seguimiento de 25 personas mayores y se han obtenido estos
resultados:
Tomando el medicamento 9 3 17
No tomar el medicamento 7 16 1 3
9 25
Utilizando los datos de la tabla, razone si para esta muestra, tener problemas digestivos depende o no de la toma del
medicamento.
Si analizamos en detalle la tarea propuesta, se puede observar que, aunque aparentemente sencilla, se trata
de un problema complejo para el alumno. Su dificultad depende de ciertos datos contenidos en el enunciado. En el
ejemplo, existe una asociación inversa, ya que una proporción menor de los que toman el fármaco tienen problemas
digestivos. En función de los valores que aparecen en las cuatro celdas de la tabla, es posible que se produzca una
asociación directa, una asociación inversa o que no se produzca ninguna asociación.
Otro hecho que aumenta la dificultad de la tarea es el diferente número de ancianos en los dos grupos, es
decir, la frecuencia marginal de la variable independiente (tomar o no tomar el fármaco) no es la misma para sus
diferentes valores Todos estos aspectos que pueden influir en la dificultad del problema se denominan variables de
tarea del problema (Kilpatrick [44]). Otras posibles variables de tarea en este caso son la fuerza de la relación y la
concordancia entre la asociación empírica en la tabla y las creencias del estudiante sobre la asociación esperada El
estudio del razonamiento sobre la asociación estadística comenzó con Piaget e Inhelder [45], quienes consideraron
la comprensión de la idea
de asociación como el último paso en el desarrollo de la idea de probabilidad. Así que el desarrollo evolutivo
de los conceptos de asociación y probabilidad están relacionados, y la comprensión de la idea de asociación tiene
como prerrequisitos los conceptos de proporcionalidad y probabilidad. Por esta razón, Inhelder y Piaget [46] solo
estudiaron el razonamiento sobre asociación con niños en sus etapas de operación formal IlIa y IIlb.
Encontraron que los niños en estadio IIIa sólo analizan la relación entre los casos positivos favorables (celda a en la
tabla 1) y el número total de casos. En nuestro ejemplo sobre un fármaco, los niños en estadio IIIa deducirían,
incorrectamente, la existencia de una asociación positiva entre las variables, debido al mayor número de personas
que cumplen las dos condiciones Fármaco consumido y Problemas digestivos (es decir, celda a) en comparación con
las frecuencias en las otras
Machine Translated by Google
tres celdas.
Los adolescentes del nivel IIIa sólo comparan las celdas de dos en dos. Una vez que admiten que los
casos de la celda d (ausenciaausencia) son favorables a la existencia de asociación, no calculan la relación
entre los casos que confirman la asociación (a+ d) y los demás casos (b+c). Esto sólo se produce a los 15
años (estadio IIlb) según Piaget e Inhelder.
Las mismas conclusiones se han obtenido en otras investigaciones realizadas con estudiantes
adultos, por ejemplo, Smedslund [47]. La mayoría de los estudiantes adultos basan su juicio únicamente en
la celda a o comparando a con h, es decir, utilizan únicamente la distribución condicional de tener o no
problemas digestivos en quienes toman el fármaco. Esta estrategia llevaría, en nuestro caso, a concluir
incorrectamente la existencia de una relación directa entre ambas variables, ya que en el grupo de personas
que toman el fármaco hay más con problemas digestivos que sin ellos.
La dificultad de este tipo de tarea se muestra en el hecho de que, como señalaron Jenkins y Ward
[48], incluso la estrategia de comparar las diagonales en la tabla considerada como correcta por Piaget e
Inhelder, sólo es válida en el caso de tablas que tienen frecuencias marginales iguales para la variable
independiente. Nuestro ejemplo ilustra esta dificultad. Para el caso general, Jenkins y Ward han propuesto
como estrategia correcta examinar la diferencia entre las dos probabilidades condicionales de que A ocurra
cuando B es verdadero y de que A ocurra cuando B es falso:
δ = a/(a+b) c/(c+d)
Entonces, en nuestro caso, sería necesario comparar las razones 9/17 con 7/8 (frecuencias condicionales).
Además de la dificultad de este tema, Chapman y Chapman [49] demostraron que existen expectativas
y creencias comunes sobre la relación entre las variables que causan la impresión de contingencias
empíricas. Este fenómeno se ha descrito como "correlación ilusoria", porque las personas mantienen sus
creencias y sobreestiman la asociación cuando creen que existe una causalidad entre las dos variables
(Jennings et al. [50]). Finalmente, como ha descrito Scholz [15], estudios posteriores han demostrado que
para la misma estructura de un problema de asociación, las personas adoptan diferentes estrategias e
incluso la misma persona puede utilizar diferentes estrategias en diferentes contextos.
El estudio de la relación entre dos variables cuantitativas incluye dos problemas diferentes: correlación
y regresión. En el estudio de la correlación las dos variables juegan un papel simétrico. El objetivo es
determinar si las dos variables covarían o no, si esto ocurre en la misma dirección (correlación positiva) o
en dirección opuesta (correlación negativa) y medir la fuerza de esta asociación.
Si se percibe una asociación relativamente fuerte, surge el problema de encontrar una función y=f(x) (línea
de regresión) que pueda usarse aproximadamente para predecir los valores de y, a partir de los valores de x.
Como la dependencia no es funcional, esta predicción se refiere al valor medio de y para x dado. Como sabemos,
este problema no tiene una solución única, y se necesita una secuencia de elecciones personales: • Seleccionar
la familia de funciones
de la que se seleccionará la línea de regresión (lineal, exponencial, .
...). La decisión se basaría en el conocimiento previo sobre el fenómeno, así
como en el análisis de la forma del diagrama de dispersión.
• Elegir los criterios de decisión. Cuando hemos decidido, por ejemplo, tomar una decisión lineal
Machine Translated by Google
Para la aproximación, se podría utilizar como criterio el método de mínimos cuadrados o utilizar la
recta de Tukey. La comprensión por parte del alumno del criterio elegido le permitirá interpretar
correctamente la recta de regresión y la relación de la recta con los datos (bondad de ajuste).
6. Inferencia
6.1. Muestreo
La idea clave de la inferencia es que una muestra proporciona "alguna" información sobre la
población y, de esta manera, aumenta nuestro conocimiento sobre la población. No proporciona
información completa, sino una aproximación. Como señala Moses [52], "se puede pensar en la inferencia
estadística como una colección de métodos para aprender de la experiencia". Rubin et al. [53] observaron
que, en la práctica, esto implica la posibilidad de encontrar los valores de los parámetros de interés en la
población, es decir, obtener intervalos de confianza para estos parámetros.
Entender esta idea fundamental supone un equilibrio entre dos ideas aparentemente antagónicas:
la representatividad y la variabilidad de la muestra. La primera nos sugiere que, cuando el proceso de
selección de la muestra se ha realizado adecuadamente, la muestra tendrá a menudo características
similares a las de la población. La segunda nos muestra que no todas las muestras son idénticas; por lo
que no todas pueden parecerse a la población de la que han sido seleccionadas. Encontrar el punto de
equilibrio entre la información total y la información nula sobre la población es complejo, debido a la
dependencia de tres factores: variabilidad poblacional, tamaño de la muestra y nivel de confianza.
La investigación sobre los errores relacionados con la idea del muestreo ha sido importante en
psicología en el contexto de la toma de decisiones, en particular el trabajo de Kahneman y Tversky. Se
puede encontrar un resumen de su trabajo en Kahneman et al. [54], quienes atribuyen estos errores al
uso de ciertas heurísticas de juicio en personas estadísticamente ingenuas. El término heurística se emplea en
Machine Translated by Google
Psicología, inteligencia artificial y resolución de problemas (Groner et al. [55]). Aunque no existe un consenso general
sobre el significado del término heurística, normalmente se utiliza para referirse a procesos o mecanismos cognitivos
que se emplean para reducir la complejidad de un problema, durante el proceso de solución.
Kahneman y Tversky han definido tres heurísticas fundamentales en los juicios probabilísticos: representatividad,
disponibilidad y ajuste y anclaje. También han estudiado los sesgos asociados y sus implicaciones teóricas y prácticas.
Según la heurística de representatividad, la probabilidad de las muestras se estima en función de lo bien que
representan algunos aspectos de la población original. En consecuencia, existe insensibilidad al tamaño de la muestra
y exceso de confianza en muestras pequeñas.
Este fenómeno se conoce como "creencia en la ley de los números pequeños". Por ejemplo, consideremos el
siguiente problema:
En una ciudad determinada hay dos hospitales. En el hospital más grande nacen unos 45 bebés al día y en el
más pequeño unos 15. Como ya sabes, aproximadamente el 50% de los bebés son varones. Sin embargo, el
porcentaje exacto varía de un día para otro.
A veces puede ser superior al 50%, a veces inferior. Durante un período de un año, cada hospital registró los
días en los que más del 60% de los bebés nacidos fueron varones.
¿Qué hospital cree usted que registró más días de este tipo? (a) El
hospital más grande, (b) El hospital más pequeño y (f) aproximadamente lo mismo.
Muchas personas creen que (c) debe ser la respuesta correcta, debido a que consideran que en ambos
hospitales la proporción de niños es la misma, y creen que este es el único hecho importante para determinar la
probabilidad de los eventos requeridos. No prestan atención al tamaño de la muestra, aunque la teoría de la
probabilidad nos muestra que hay más fluctuación en los valores de la proporción en muestras pequeñas que en
muestras grandes.
Según Kahneman y Tversky, este exceso de confianza en las muestras pequeñas tiene graves consecuencias
en la aplicación de la estadística, especialmente en la investigación. El "creyente en la ley de los números pequeños"
subestima el tamaño de los intervalos de confianza, sobreestima la significación en las pruebas de hipótesis y confía
demasiado en obtener los mismos resultados en réplicas de figuras del experimento.
Otra consecuencia de la aplicación de la heurística de representatividad es la "falacia del jugador". Por ejemplo,
muchas personas creen que después de una racha de caras, es más probable que salga cruz.
Al comparar los sesgos en los juicios probabilísticos con la concepción de los expertos sobre el muestreo
aleatorio, Pollatsek et al. [56] observaron que los expertos utilizan ampliamente el "extracción de la urna" como
modelo para el muestreo aleatorio. En este modelo, el muestreo aleatorio se considera isomorfo al proceso de extraer
una cantidad de bolas de una urna, reemplazarlas y luego extraer nuevamente.
Los sujetos ingenuos podrían no tener una forma mecanicista de pensar sobre este proceso o podrían tener un
modelo de proceso erróneo de muestras aleatorias, del cual se desprendería la representatividad incluso de muestras
pequeñas. Dado que estas personas pueden no haber sacado nunca una bola de una urna, este modelo es en sí
mismo teórico y no genuinamente práctico. Como Steinbring [57] ha señalado, la idea de independencia también tiene
un carácter teórico y es difícil estar seguro de su aplicabilidad en un contexto práctico. Por esta razón, la independencia
proporciona un ejemplo de la distancia entre la comprensión conceptual de un concepto y la capacidad de aplicar
este concepto en la resolución de problemas (Heitele [58]).
Otro problema relacionado con el muestreo son los diferentes niveles de concreción del mismo concepto
estadístico en la estadística descriptiva y en la inferencia (Schuyten [40]). En la estadística descriptiva el caso es la
unidad de análisis (por ejemplo una persona, un objeto) y calculamos la media x
de una muestra de dichas unidades. En la inferencia, nos interesa obtener información sobre la media teórica o
expectativa E(X) en la población de la que se ha tomado la muestra.
Consideramos la muestra particular como una unidad de otra población diferente: el conjunto de todos
Machine Translated by Google
las posibles muestras con el tamaño dado que podrían obtenerse de la población original.
Hemos cambiado la unidad de análisis, que ahora es la muestra , y hablamos de la media de la muestra
como una variable aleatoria. Así, estudiamos la distribución de la media en el proceso de muestreo y la
esperanza E(X) de esta variable aleatoria. Es necesario distinguir entre la media teórica en la población,
que es una constante desconocida, la media particular obtenida en nuestra muestra, los posibles valores
de las distintas medias que se obtendrían con las distintas muestras posibles de tamaño n en la población
(una variable aleatoria), y la media teórica de esta variable aleatoria, que coincide con la media
poblacional para un proceso de muestreo aleatorio. Esto es muy difícil conceptualmente.
Reeves y Brewer [61], Johnson [62] y Shoesmith [63] han descrito dificultades similares.
Falk [64] ha señalado el intercambio del evento condicional y la condición como un error frecuente en esta
definición y la interpretación errónea del nivel de significancia como 'la probabilidad de que la hipótesis nula sea
verdadera, una vez que se ha tomado la decisión de rechazarla', es decir:
Sugiere como una de las posibles causas de este error el lenguaje empleado en la definición del
nivel de significancia, al que también se denomina “la probabilidad de cometer un error de tipo I”. En esta
expresión no se establece explícitamente que se trate de una probabilidad condicional, por lo que el
estudiante supone que es posible definir un “evento condicional”. En consecuencia, la distinción entre
las dos probabilidades condicionales
Machine Translated by Google
(i) Un nivel de significancia del 5% significa que, en promedio, 5 veces de cada 100 veces que la hipótesis nula
es verdadera, la rechazaremos.
Las investigaciones de Birnbaum [65] y otros han demostrado que algunos estudiantes consideran
correcta la siguiente definición incorrecta de:
(ii) Un nivel de significancia de 5", significa que, en promedio, 5 veces de cada 100 veces
Rechacemos la hipótesis nula y estaremos equivocados.
Vallecillos [66] presentó las afirmaciones (i) y (ii) a estudiantes universitarios, les preguntó si cada una de
ellas era verdadera o falsa y luego analizó el razonamiento de los estudiantes. También analizó el concepto de
nivel de significación y su relación con otros conceptos que intervienen en una prueba de hipótesis. Distinguió
cuatro aspectos diferentes en la comprensión de este concepto e identificó conceptos erróneos relacionados con
cada uno de estos aspectos:
(a) El contraste de hipótesis como problema de decisión. El contraste de hipótesis puede considerarse
como un problema de decisión entre dos hipótesis excluyentes y complementarias, con las posibles consecuencias
de cometer o no uno de los dos tipos de error, que son eventos disjuntos pero no complementarios. Sin embargo,
algunos estudiosos consideran los errores de tipo I y 11 como eventos complementarios, por lo que en su opinión
la probabilidad de cometer uno u otro de estos errores sería la unidad.
(b) Probabilidades de error y relación entre ellas. Los dos tipos de error tienen probabilidades α (tipo I) y
β (tipo II). Es necesario entender las probabilidades condicionales que se dan en la definición de α y β, de la
dependencia de β en función del valor desconocido del parámetro, y la relación entre α y β. Además del error
señalado por Falk [64], mencionado anteriormente, se han encontrado otras interpretaciones engañosas del nivel
de significación: suprimir la condición en la probabilidad condicional que se utiliza para definir a; interpretar a como
la probabilidad de cualquier tipo de error (tanto de tipo I como II) en la decisión tomada.
nivel de significancia de 0,05, entonces como 150 x 0,05 = 7,5, se esperan 7,5 'resultados estadísticamente
significativos', en promedio, incluso si la enfermedad no tiene relación alguna con ninguna de las variables
estudiadas (Moses [52]).
Por último, remitimos al lector al libro editado por Morrison y Henkel [68] que documenta la considerable
cantidad de uso indiscriminado de pruebas de significancia en la investigación, lo que es una clara indicación
de la dificultad, mala interpretación y mal uso de las pruebas de significancia.
7. Observaciones finales
En un estudio de la literatura de investigación, Garfield y Ahlgren [141 enunciaron razones para algunas
de las dificultades que han surgido en la enseñanza de conceptos estadísticos a nivel universitario: •
Muchos de los conceptos estadísticos, como probabilidad, correlación, porcentaje, requieren razonamiento
proporcional, conocido por ser un concepto difícil en matemáticas... • La existencia de
intuiciones falsas que los estudiantes traen al aula de estadística Muchas de estas intuiciones son bien
conocidas en el caso de la probabilidad (Piaget e Inhelder [45]), (Fischbein [69]), pero muy pocas han sido
estudiadas para conceptos estadísticos.
• A veces los estudiantes han desarrollado un desagrado por las estadísticas, porque han estado expuestos al
estudio de la probabilidad y la estadística de una manera altamente abstracta y formal.
Existen dos razones más que posiblemente influyen en la dificultad del tema. En primer lugar, la
probabilidad y la estadística se han desarrollado recientemente. Aunque en la actualidad existe un sistema
axiomático bien establecido para la probabilidad, debido al trabajo de Kolmogorov la controversia sobre el
significado del término "probabilidad" no ha sido estropeada y existen diferentes tradiciones: empiristas,
subjetivistas, etc. (Fine [70]). 1 Esta controversia se muestra en la inferencia estadística, existe un debate
sobre si es posible o no atribuir una probabilidad a una hipótesis tanto en el enfoque clásico como en el
bayesiano (Rivadulla [71]).
Numerosos trabajos de investigación han demostrado que, durante el proceso de aprendizaje, el estudiante
debe superar con frecuencia las mismas dificultades epistemológicas que se han encontrado en el desarrollo
histórico del conocimiento.
En segundo lugar, muchos conceptos estadísticos han surgido fuera de las matemáticas. La estadística
ha sido desde sus inicios una ciencia interdisciplinaria. Los períodos más importantes de su desarrollo han
estado marcados por las aportaciones de diferentes campos en los que existía la necesidad de resolver
problemas específicos. En el aula, los conceptos se presentan de forma aislada de sus aplicaciones originales,
lo que contribuyó a su significado global (Steinbring [72]). Por ejemplo, el concepto de media tiene significados
especiales y diferentes cuando se aplica al centro de gravedad, a la esperanza de vida o a un número índice.
En resumen, como ha señalado Green [73]: “Los conceptos estadísticos ofrecen un área fascinante para
explorar. Lo que el estadístico considera sencillo y obvio (términos como promedio, variabilidad, distribución,
correlación, sesgo, aleatoriedad, etc.) son la sabiduría destilada de varias generaciones de las mentes más
capaces. Es demasiado esperar que no haya una lucha para transmitir esta herencia”.
Referencias
[1] HOLMES, P. et al., 1980, Estadísticas en su mundo (Slough: Foulsham Educational).
[2] LANDEWEHR, J. y WATKINS, AE, 1986, Explorando datos (Palo Alto: Dale
(Seymour).
[3] LANDEWEHR, J., WATKINS, AE y SWIFT, J., 1987, Explorando encuestas: información de muestras (Palo
Alto: Dale Seymour).
[4] GNANADESIKAN, N., SCHEAFFER, RL y SWIFT, J., 1987, El arte y la
Técnica de simulación (Palo Alto: Dale Seymour).
[5] GODINO, JD, BATANERO, MC y CAÑIZARES, MJ, 1987, Azar y Probabilidad Fundamentos didácticos y
propuestas curriculares (Madrid: Síntesis).
Machine Translated by Google
[6] GREY, DR, HOLMES, P., BARNETT, V. y CONSTABLE, GM, (eds), 1982, Actas de la Primera Conferencia
Internacional sobre Enseñanza de la Estadística (Sheffield: Universidad de Sheffield).
[7] DAVIDSON, R., y SWIFT, J., (eds), 1987, Actas de la Segunda Conferencia Internacional
Conferencia sobre enseñanza de estadística (Voorburg, Países Bajos: Instituto Internacional de Estadística).
[8] VEREJONES, D. (ed.), 1991, Actas de la Tercera Conferencia Internacional sobre Enseñanza de la Estadística
(Universidad de Otago, Dunedin, (Voorburg, Países Bajos: Instituto Internacional de Estadística).
[12] MEC, 1988b, Diseño curricular base para la enseñanza secundaria obligatoria (Madrid Ministerio de Educación y
Clencia).
[13] HAWKINS, A., y KAPADIA, R., 1984, Concepciones de probabilidad de los niños: una revisión psicológica y
pedagógica. Educ. Estudios en Matemáticas, 15, 349377.
[14] GARFIELI), J., y ALHGREN, A., 1988, Dificultades en el aprendizaje de conceptos básicos de probabilidad y
estadística: implicaciones para la investigación. J. Res. Math. Educ., 19(1), 4463.
[15] SCHOI.Z, R., 1 991, Investigación psicológica sobre el concepto de probabilidad y su adquisición. En R. Kapadia
(ed.) Encuentros casuales: probabilidad en la educación
(Ámsterdam: Reidel), págs. 213249.
[16] SHAUGHNESSY, JM, 1992, Investigación en probabilidad y estadística: reflexiones y direcciones. En DA Grouws
(ed.) Manual de investigación en educación matemática
(Nueva York: McMillan), págs. 46594.
[17] HAWKINS, A., JOLLIFFE, F., y [Link], L... 1992, Enseñanza de la estadística
Conceptos (Londres: Longman).
[18] CENTENO, J., 1988, Numeros diezma ¿por qué? ¿.para que? (Madrid: Síntesis).
[19] RADATZ, HC, 1980, Errores de los estudiantes en el aprendizaje matemático: una encuesta .
Aprendizaje de las Matemáticas, 1(1), 1620.
[20] BORASSI, R., 1987, Explorando las matemáticas a través del análisis de errores. Para el
Aprendizaje de las Matemáticas, 7 (3), 28.
[21] AUSUBEL, DI, NOVAK, JD y HANESIAN, H., 1983, Psicología educativa. Naciones Unidas
punto de vista cognoscitivo. (México: Trillas).
[22] CONFREY, J., 1990, Una revisión de la investigación sobre las concepciones de los estudiantes en matemáticas,
Ciencia y programación. Rev. Res. Educ., 16, 335.
[23] BROUSSEAU, G., 1983, Les obstáculos epistémologiques et les problémes en
matemáticas. Investigación en Didactique des Mathématiques, 4 (2), 164198.
[24] SIERPINSKA, A., 1991, Algunas observaciones sobre la comprensión en matemáticas. Para el aprendizaje de
las matemáticas, 10 (3), 2436.
[25] CURCIO, F. R., 1987, Comprensión de relaciones matemáticas expresadas en
gráficos. J. Res. Math. Educ., 18 (5), 382393.
[26] PEREIRAMENDOZA, L., y MELLOR, J., 1991, Conceptos de gráficos de barras por parte de los estudiantes:
algunos hallazgos preliminares. En D. VereJones (ed.) Actas de la Tercera Conferencia Internacional sobre
Enseñanza de la Estadística, (Voorburg, Países Bajos: Instituto Internacional de Estadística), págs. 150157.
[27] LI, KY y SHI:N, SM, 1992, Debilidades de los estudiantes en proyectos estadísticos. Enseñanza
Estadística, 14(1), 28.
[28] POLLATSEK, A. LIMA, S., y WELL, AD, 1981, Concepto o cálculo: comprensión de la media por parte de los
estudiantes. Educ. Estudios en Matemáticas, 12, 191204.
Machine Translated by Google
[35] GOODCHILD, S., 1988. Comprensión del promedio por parte de los alumnos escolares. Teaching Statistics, 10
(3), 7781.
[36] LOVIE, P., y LOVIE, AA, 1976. Enseñanza de estadística intuitiva: estimación de medias y varianzas. Int. J.
Math. Educ. Sci. Technol., 7(1), 2939.
[37] LOOSEN, F., LIOEN, M., y LACANTE, M., 1985, La desviación estándar: algunas desventajas de un enfoque
intuitivo. Teaching Statistics, 7(1), 25.
[38] HUCK, S., CROSS y [Link], SB, 1986, Superando conceptos erróneos sobre las puntuaciones z. Teaching
Statistics, 8 (2), 38—40.
[39] TUKEY, JW, 1977, Análisis exploratorio de datos (Reading, MA: AddisonWesley).
[40] SCHUYTEN, G., 1991, Pensamiento estadístico en psicología y educación. En D. VereJones (ed.), Actas de
la Tercera Conferencia Internacional sobre Enseñanza de la Estadística.
(Voorburg, Países Bajos: Instituto Internacional de Estadística), págs. 486490.
[41] ESTEPA CASTRO, A., 1990, Enseñanza de la Estadística basada en el uso de ordenadores: Un Estudio
exploratorio. Memoria del Tercer Ciclo. (Universidad de Granada: Departamento de Didáctica de la
Matemática).
[42] BARR, GV, 1980, Algunas ideas de estudiantes sobre la mediana y la moda. Teaching Statistics, 2 (2), 38 41.
[43] RUBIN, A., y ROSEBERY, AS, 1990, Malentendidos de los profesores en el razonamiento estadístico; evidencia
de una prueba de campo de materiales innovadores. En A. Hawkins (ed.), Training Teachers to Teach
Statistics (Voorburg, Países Bajos: ISI), 7289.
[44] KILPATRICK, J., 1978, Variables y metodologías en la investigación sobre resolución de problemas. En LL
Hartfield y DA Bradbard (eds), Resolución de problemas matemáticos. Documentos de un taller de
investigación (Columbus, Ohio: ERIC/SMEAC).
[45] PIAGET, J. e INHELDER, B., 1951, La génese de I'idée de hasard chez I'enfant
(París: Presses Umversitaires de France).
[46] INHELDER, B. y PIAGET, J., 1955, De la logique de l'enfant a la logique de
el adolescente (París: PUK).
[47] [Link], J., 1963, El concepto de correlación en adultos. Scand. J. Psvchol., 4, 165
173.
[48] JENKINS, HM, y WARD, WC, 1965, Juicio de contingencia entre respuestas y resultados. Psychological
Monographs, 79.
[49] CHAPMAN, I.. J., y CHAPMAN, JP, 1967, Correlación ilusoria como obstáculo para el uso de signos
psicodiagnósticos válidos. J. Abnormal Psychol., 74, 271280.
[50] JENNINGS, DL, AMABII.E, TM y Ross, L., 1982, Evaluación informal de la covariación: juicios basados en
datos versus juicios basados en teoría. En D. Kahneman; P. Slovic y A. Tversky (eds.), Juicio bajo
incertidumbre: heurísticas y sesgos (Nueva York: Cambridge University Press), págs. 21130.
Machine Translated by Google
[51] SCHOLZ, R., 1987, Toma de decisiones bajo incertidumbre (Ámsterdam: Holanda Septentrional).
[52] MOSES, LE, 1992, El razonamiento de la inferencia estadística. En DC Hoaglin y DS
Moore (eds), Perspectivas sobre estadística contemporánea ([Link].: Mathematical Association of America),
págs. 107121.
[53] RUBIN, A., BRUCE, B. y TENNEY, Y., 1991, Aprendiendo sobre muestreo: problemas en el núcleo de las
estadísticas. En D. VereJones (ed.), Actas de la Tercera Conferencia Internacional
Conferencia sobre enseñanza de estadística (Voorburg, Países Bajos: Instituto Internacional de Estadística),
págs. 314319.
[54] KAHNEMAN, D., SLOVIC, P. y TVERSKY, A., 1982, Sentencia
Incertidumbre: heurísticas y sesgos (Nueva York: Cambridge University Press).
[55] GRONER, R., GRONER, M., y BISCHOF, WF, 1983, El papel de la heurística en los modelos de decisión. En
RW Scholz (ed.): Toma de decisiones en condiciones de incertidumbre .
(Ámsterdam: Holanda Septentrional), págs. 87108.
[56] POLLATSEK, A., KONOLD, CK, WEI.I., AD, y LIMA, S., 1991, Creencias subyacentes al muestreo aleatorio.
Memoria y cognición, 12, 395—401.
[57] STEINBRING;, H., 1986, L'independence stochastique. Búsquedas didácticas de
Matemáticas, 7 (3), 991 18.
[58] HEITELE, D., 1975, Una visión epistemológica de las ideas estocásticas fundamentales. Educ.
Estudios en Matemáticas., 6, 187205.
[59] BREWER, JK, 1986, Libros de texto de estadística del comportamiento: ¿fuente de mitos y conceptos erróneos?
En R. Davidson y J. Swift (eds), Actas de la Segunda Conferencia Internacional
Conferencia sobre enseñanza de estadística (Voorburg, Países Bajos: Instituto Internacional de Estadística),
págs. 127131.
[60] PESKUN, PH, 1987, Construcción de pruebas simétricas de hipótesis. Enseñanza de la estadística,
9 (1), 19 23.
[61] REEVES, CA, y BREWER, JK, 1980, Prueba de hipótesis y demostración mediante
Contradicción: una analogía. Enseñanza de la Estadística, 2 (2), 5759.
[62] JOHNSON, LM, 1981, La enseñanza de la estadística como un proceso de seis pasos. La enseñanza de la estadística,
3(2) 4749.
[63] SHOESMITH, E., 1983, Construcciones de curvas de potencia simples. Teaching Statistics, 5 (3),
7883.
[64] FALK, R., 1986, Conceptos erróneos sobre la significación estadística. J. Structural [.earning 9, 83
96.
[65] BIRNBAUM, I., 1982, Interpretación de la significación estadística. Teaching Statistics, 4(1), 24
27.
[66] VALLECILLOS, A., 1992, Nivel de significación en un contraste estadístico de hipótesis. Un estudio teórico
experimental de errores en estudiantes universitarios.
Memoria del Tercer Ciclo. (Universidad de Granada: Departamento de Didáctica de la Matemática).
[67] WHITE L., 1980, Cómo evitar errores en la investigación educativa En RJ Shumway (ed.), Investigación en
educación matemática (Reston, VA. NCTM) pp. 49 65.
[68] MORRISON, DE, y HENKEL, RE (eds), 1970, La controversia de la prueba de significancia (Chicao: Aldine).
[69] FISCHBEIN, E., Las fuentes intuitivas del pensamiento probabilístico en niños (Dordrecht:
(Reidel).
[70] FINE, TL, 1973. Teorías de probabilidad. Un examen de los fundamentos. (Nueva York: Academic Press).
[72] STEINBRING, H., 1990, La naturaleza del conocimiento estocástico y el currículo de matemáticas tradicional.
Algunas experiencias con la capacitación en servicio y el desarrollo de materiales. En A. Hawkins (ed.),
Training Teachers to Teach Statitics (Voorburg, ISI).
Machine Translated by Google
[73] GREEN, DR, 1992, Análisis de datos: ¿qué investigación necesitamos? Documento presentado en la Octava Conferencia de Mesa Redonda del ISL sobre Enseñanza