0% encontró este documento útil (0 votos)
36 vistas20 páginas

Errores en la comprensión estadística

Cargado por

Brenda
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como PDF, TXT o lee en línea desde Scribd
0% encontró este documento útil (0 votos)
36 vistas20 páginas

Errores en la comprensión estadística

Cargado por

Brenda
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como PDF, TXT o lee en línea desde Scribd

Machine Translated by Google

Consulte las discusiones, las estadísticas y los perfiles de los autores de esta publicación en: [Link]

Errores y dificultades en la comprensión de conceptos estadísticos elementales

Artículo en la Revista Internacional de Educación Matemática en Ciencia y Tecnología ∙ Julio de 1994

DOI: 10.1080/0020739940250406

CITAS LECTURAS

204 7,471

5 autores, entre ellos:

Carmen Batanero Juan D. Godino


Universidad de Granada Universidad de Granada

507 PUBLICACIONES 11.001 CITAS 385 PUBLICACIONES 12,086 CITAS

VER PERFIL VER PERFIL

DR Verde

Universidad de Loughborough

26 PUBLICACIONES 723 CITAS

VER PERFIL

Todo el contenido que sigue a esta página fue subido por Carmen Batanero el 20 de mayo de 2014.

El usuario ha solicitado la mejora del archivo descargado.


Machine Translated by Google

Errores y dificultades en la comprensión de conceptos estadísticos elementales

C. BATANERO, JD GODINO, A. VALLECILLOS DR GREEN y P.


HOLMES
Revista Internacional de Educación Matemática en Ciencia y Tecnología, 25(4), 527­547

En este artículo se presenta un estudio de las investigaciones realizadas sobre errores, dificultades y
concepciones de los estudiantes en relación con conceptos estadísticos elementales. La información
relacionada con los procesos de aprendizaje es esencial para el diseño curricular en esta rama de las
matemáticas. En particular, la identificación de errores y dificultades que presentan los estudiantes es
necesaria para organizar programas de formación estadística y preparar situaciones didácticas que
permitan a los estudiantes superar sus obstáculos cognitivos.
Este artículo no intenta informar sobre los conceptos de probabilidad, un área que ha recibido mucha
atención, sino que se concentra en otros conceptos estadísticos, que hasta ahora han recibido poca
atención.

1. Introducción

La enseñanza de la estadística está aumentando sustancialmente en muchos países en la actualidad,


debido a su lugar ampliamente reconocido en la educación general de los ciudadanos. Algunos países han
dedicado mucho esfuerzo a diseñar currículos y materiales específicos, por ejemplo los producidos para el Schools
Council Project on Statistical Education en Inglaterra por Holmes et al. [I], el Quantitative Literacy Project en EE.
UU. Landewehr y Watkins [2], Landewehr et al. [3], Gnanadesikan et al. [4]), y Azar y Probabilidad en España
(Godino et al. [5]). El creciente interés en la enseñanza de la estadística también se muestra por la existencia de
revistas específicas (Teaching Statistics; Induizioni; Stochastik in der Schule); El interés se ha manifestado también
en la organización de conferencias internacionales periódicas (ICOTS I en Sheffield, 1982 [6]; ICOTS II en Victoria,
1986 [7]; ICOTS III en Otago, 1990 [8]), en una serie continua de conferencias de mesa redonda promovidas por
el ISI (la más reciente en Lennoxville en 1992) y en la formación en 1992 de una asociación internacional, IASE
(Asociación Internacional para la Educación Estadística). Este interés también se demuestra con la creación de
Centros para la Educación Estadística en Inglaterra, Italia y Estados Unidos, el Boletín del Grupo de Estudio
Internacional para la Investigación sobre el Aprendizaje de la Probabilidad y la Estadística de la Universidad de
Minnesota, el tablón de anuncios de Edstat y, muy recientemente, la revista electrónica o Journal/or Statistical
Education publicada por la Universidad Estatal de Carolina del Norte.

El mayor énfasis que se da a la estadística en los diferentes currículos, por ejemplo, los Estándares NCTM
en los [Link]. [9], el Currículo Nacional de Matemáticas para Inglaterra y Gales [10] y la nueva propuesta curricular
española [11, 12] requiere una preparación intensiva de los docentes, con el fin de permitirles cumplir con éxito su
objetivo educativo. Muchos docentes necesitan aumentar su conocimiento tanto de la materia de estadística como
de las formas apropiadas de enseñar la materia. Esta preparación también debe incluir el conocimiento de las
dificultades y errores que los estudiantes experimentan durante el aprendizaje de este tema.

El objetivo de este trabajo es contribuir a la difusión de los resultados de investigaciones relacionadas con
las dificultades y errores, que no son suficientemente conocidos por los docentes. Se han publicado algunos
estudios sobre investigaciones en educación en probabilidad y estadística: Hawkins y Kapadia [13], Garfield y
Alhgren [14], Scholz [1 5] y Shaughnessy [16], pero estos trabajos han estado orientados a investigadores más
que a docentes y su principal objetivo ha sido identificar nuevas preguntas de investigación. Además, se han
centrado principalmente en la probabilidad, porque la investigación en esta área es mucho más extensa que la
relacionada con los conceptos estadísticos, aunque una excepción relevante es el nuevo libro para profesores de
estadística de Hawkins et al. [17].
En este artículo analizamos los resultados de investigaciones relativas a algunos de los principales
conceptos y procedimientos estadísticos elementales que se han incluido en muchas propuestas curriculares recientes.
Machine Translated by Google

Propuestas para la enseñanza de la estadística en los niveles elementales. Este análisis muestra la complejidad de algunos de
estos temas y debería proporcionar al docente una comprensión más profunda del razonamiento estocástico de los alumnos.

Consideramos necesario comenzar esta exposición explicando la relevancia de este tipo de investigación y
definiendo algunos conceptos teóricos relacionados. Sin embargo, advertimos al lector que: • la estadística ha
recibido,
hasta la fecha, menos atención que otros temas matemáticos; • la mayor parte de la investigación
se ha llevado a cabo en situaciones experimentales y muy poco se ha relacionado con la práctica normal en el
aula; • gran parte se ha realizado con sujetos muy
jóvenes o estudiantes universitarios de 18 años o más y bastante poco con los estudiantes de la escuela secundaria.
Rango de edad 11­16;
• la mayoría de las primeras investigaciones fueron realizadas por psicólogos en lugar de educadores estadísticos,
Aunque eso ha empezado a cambiar.

2. Investigación sobre errores, concepciones y obstáculos: algunos conceptos teóricos

Una parte importante de la investigación teórica y experimental que se está realizando actualmente en la enseñanza de
las matemáticas surge del hecho de que los estudiantes fracasan cuando se les pide que completen algunas tareas. A veces
sus respuestas son incorrectas, si se comparan con una respuesta estándar aceptada. O, simplemente, son incapaces de
proporcionar ninguna respuesta. Si este fracaso no se debe únicamente a la falta de atención, decimos que la tarea es
demasiado difícil para esos estudiantes en particular. Como señala Centeno ([18] p. 142), "una dificultad es algo que inhibe al
estudiante para realizar correctamente o para comprender rápidamente un elemento dado. Las dificultades pueden deberse a
varias causas: relacionadas con el concepto que se está aprendiendo, con el método de enseñanza utilizado por el profesor,
con el conocimiento previo del estudiante o con su capacidad".

Además, los errores y las dificultades no surgen de forma aleatoria e impredecible.


Con frecuencia es posible descubrir regularidades en ellos, encontrar alguna asociación con otras variables de las tareas
propuestas, de los sujetos o de las circunstancias presentes y pasadas.
La investigación didáctica se dirige a caracterizar estas regularidades y a construir modelos explicativos, en términos de
relaciones entre las variables intervinientes. Algunos autores, como Radatz [19], consideran que el análisis de errores “debería
considerarse una estrategia de investigación prometedora para aclarar algunas cuestiones fundamentales del aprendizaje
matemático” (p. 16). Del mismo modo, Borassi [20] presenta el análisis de errores en la educación matemática como “un
dispositivo motivacional y como un punto de partida para la exploración matemática creativa, que implica valiosas actividades
de resolución y planteamiento de problemas” (p. 7).

Un principio ampliamente compartido en psicología educativa es el establecido por Ausubel et al. [21]: “el factor más
importante que influye en el aprendizaje es el conocimiento previo del estudiante. Debemos descubrirlo y enseñar en
consecuencia”. Un interés reciente en la investigación de la educación matemática es explorar las concepciones de los
estudiantes (Confrey [22]), lo cual es una consecuencia del principio mencionado anteriormente.

Una dificultad es que algunas de estas concepciones, que permiten al estudiante resolver correctamente un conjunto
dado de problemas, resultan inapropiadas o inadecuadas cuando se aplican a situaciones más generales. El estudiante muestra
resistencia a reemplazar estas concepciones. En estas circunstancias, hablamos de la existencia de un obstáculo cognitivo que
podría explicar los errores y dificultades observados. Brousseau [23] describe las siguientes características de los obstáculos:
a. Un obstáculo es un conocimiento, no una falta de conocimiento. b. El estudiante emplea este conocimiento para producir la
respuesta correcta en un contexto dado, que se encuentra con frecuencia.
c. Cuando este conocimiento se utiliza fuera de este contexto, genera errores. Una respuesta universal requiere un punto de
vista diferente. d. El estudiante
ignora las contradicciones producidas por el obstáculo y se resiste a establecer un conocimiento más profundo. Es esencial
identificar el obstáculo y reemplazarlo en el nuevo
contexto.
Machine Translated by Google

aprendiendo.
e. Después de que el estudiante ha superado el obstáculo, reconociendo su inexactitud, no obstante éste vuelve a
presentarse esporádicamente.

Brousseau ha identificado tres tipos de obstáculos:


a. Los obstáculos ontogénicos (a veces llamados obstáculos psicogenéticos) se deben a características del desarrollo
infantil. Por ejemplo, se requiere razonamiento proporcional para comprender la idea de probabilidad.

b. Los obstáculos didácticos surgen de las opciones didácticas elegidas en las situaciones de enseñanza.
Por ejemplo, introduciendo un nuevo simbolismo como
(∑xi )/n
c. Los obstáculos epistemológicos están intrínsecamente relacionados
con el concepto mismo y conllevan parte del significado del concepto. Por ejemplo, las circularidades que se dan en las
diferentes definiciones del significado de probabilidad (clásica, subjetiva, . . .) que muestran la necesidad de una
definición axiomática. Por lo tanto, una condición necesaria para construir una concepción pertinente para un
concepto dado es identificar y superar esos obstáculos, utilizando el análisis histórico y didáctico.

Finalmente, observamos que otras dificultades que experimentan los estudiantes se deben a la falta de
conocimientos básicos necesarios para una correcta comprensión de un determinado concepto o procedimiento. El
objetivo de la caracterización de las concepciones y obstáculos matemáticos es que esto nos permita identificar los
diferentes componentes que están implicados en la comprensión de un determinado concepto. Investigaciones recientes,
por ejemplo, las relativas a los "actos de comprensión" en el contexto del límite de una secuencia numérica (Sierpinska
[24]), muestran la complejidad del significado de los objetos matemáticos.

3 Tablas de frecuencias y representación gráfica de datos

Comenzamos nuestra exposición sobre errores y dificultades en el aprendizaje de la estadística con aquellos
relacionados con las tablas de frecuencias y representaciones gráficas.
La capacidad de leer datos de manera crítica es un componente de la alfabetización numérica y una necesidad
en nuestra sociedad tecnológica. Curcio [25] ha distinguido los siguientes tres niveles diferentes en la comprensión de
datos: a. Lectura de los datos
en la que no se necesita interpretación. Solo se tienen en cuenta los hechos expresados explícitamente en
Se requiere el gráfico o la tabla.
b. Leer dentro de los datos, lo que requiere comparaciones y el uso de conceptos y habilidades matemáticas.

c. Leer más allá de los datos donde se necesita una extensión, predicción o inferencia.

Por ejemplo, si analizamos las tareas relacionadas con la interpretación de un gráfico de dispersión, la “lectura
de los datos” se refiere a preguntas sobre el etiquetado del gráfico, la interpretación de escalas o la búsqueda del valor
de una de las coordenadas de un punto dado el otro. La “lectura dentro de los datos” se refiere, por ejemplo, a preguntas
sobre la intensidad de la covariación, sobre si esta relación podría representarse o no mediante una función lineal o
sobre si la dependencia es directa o inversa. Por último, si requerimos la predicción del valor de y para un valor de la
coordenada x no incluido explícitamente en el gráfico, estaríamos trabajando en el nivel de “lectura más allá de los datos”.

Curcio evaluó el efecto del conocimiento previo del tema, el contenido matemático y la forma gráfica en la
comprensión de las relaciones matemáticas expresadas en gráficos. Encontró que las principales dificultades aparecen
en los dos niveles altos ('leer dentro de los datos' y ­
leyendo más allá de los datos') en la interpretación de los gráficos y también mostró el efecto de
Machine Translated by Google

Diferencias de grado y edad en estas dificultades


Pereira­Mendoza y Mellor [26] investigaron las concepciones de los estudiantes de 9 a 11 años en gráficos
de barras. Reportaron errores en las escalas, falta de identificación de patrones en los gráficos, errores en las
predicciones y uso inadecuado de la información.
Li y Shen [27] encontraron muchos ejemplos de elección incorrecta de gráficos en proyectos estadísticos
por parte de estudiantes de secundaria. Algunos utilizaron un gráfico de líneas con variables cualitativas o un
gráfico de barras para representar la evolución de un número índice a través de una secuencia de años. El
problema de la elección incorrecta de la representación gráfica se ve agravado por la creciente disponibilidad de
software gráfico. Li y Shen han señalado que debido a las restricciones del software y la falta de conocimiento de
los estudiantes sobre el mismo, muy a menudo las escalas elegidas son inadecuadas. Otras debilidades técnicas
comunes informadas por Li y Shen fueron: • Se omiten las escalas de uno o ambos ejes vertical y
horizontal. • No se especifica el origen de las coordenadas. • Se proporcionan divisiones
insuficientes en las escalas de los ejes. • Los ejes no
están etiquetados.

En otras ocasiones, el uso inadecuado de un software gráfico esconde un error de concepto, como, por
ejemplo, cuando en un gráfico circular los sectores no son proporcionales a las frecuencias de las categorías. La
facilidad de hacer gráficos con un ordenador conlleva el peligro de no aplicar el sentido común; por ejemplo,
comparar en un mismo gráfico 30 sillas con 50 kg de carne. Estos problemas pueden surgir de una excesiva
variedad de opciones que ofrece el software.

4. Resúmenes de la distribución: medidas estadísticas

4.1. La media La
media no es sólo uno de los conceptos más importantes en estadística, sino que también tiene muchas
aplicaciones en la vida cotidiana. Este concepto es simple en apariencia, pero Pollatsek et al.
[28] encontraron errores al combinar dos medias ponderadas como si fueran medias simples, como en el siguiente
ítem:

Hay diez personas en un ascensor, cuatro mujeres y seis hombres. El peso medio de las mujeres es de
120 libras y el peso medio de los hombres es de 180 libras. ¿Cuál es el peso medio de las diez personas
en el ascensor?

Hay varias maneras de equivocarse al aplicar la regla de cálculo: por ejemplo, en la investigación antes
mencionada se informó que se utiliza (120+180)/2 = 150.
Hawkins et al. [17] señalan que esta no es una pregunta sensata, debido a las dos distribuciones diferentes
involucradas, pero este problema podría plantearse en términos de un estudiante que realiza diferentes cantidades
de horas en diferentes trabajos de vacaciones.
Los estudiantes no identifican fácilmente las situaciones en las que se debe calcular una media ponderada.
Li y Shen [27] observaron que, al utilizar datos agrupados en intervalos, los estudiantes a veces ignoran la
frecuencia de cada uno de los intervalos al calcular la media.
Tradicionalmente se ha hecho mucho hincapié en los aspectos computacionales del análisis de datos y
esto se ha reflejado en la investigación. Es innegable que el significado de muchos conceptos estadísticos
depende de un contexto numérico. Una pregunta importante que aún no se ha abordado es: "¿En la práctica, se
puede separar la comprensión conceptual de la competencia computacional?"

Otro elemento diferente utilizado en la investigación de Pollatsek et al. [28] fue diseñado para evaluar las
concepciones de los estudiantes universitarios sobre el valor esperado de una observación de una variable
aleatoria para la cual se conoce la media poblacional.

Usted sabe que, en promedio, la puntuación verbal de la población de estudiantes de último año de secundaria en una
Machine Translated by Google

El sistema escolar grande tiene 400 alumnos. Eliges una muestra de 5 alumnos. Los primeros 4 alumnos
de tu muestra tienen las siguientes puntuaciones: 380, 400, 600, 400. ¿Cuál esperas que sea la puntuación
del quinto alumno?

La respuesta "correcta" a esta pregunta es 400, el valor esperado en la población. Sin embargo, algunos
estudiantes pensaron erróneamente que obtendrían una mejor estimación de la puntuación del último estudiante
calculando el número que haría que las cinco puntuaciones promediaran 400.
Estos resultados muestran que las dificultades con la media no se producen sólo a nivel computacional.
Skemp [29] ha establecido la distinción entre comprensión instrumental y relacional de un concepto. La
comprensión instrumental consiste en disponer de una colección de reglas aisladas para llegar a la respuesta a
problemas específicos. La comprensión relacional consiste en disponer de esquemas adecuados y suficientes
para resolver una clase mucho más amplia de problemas. En un sentido similar, Hiebert et al. [30] hablan de
conocimiento conceptual y conocimiento procedimental.

Mevarech [31] observó que una posible explicación a los errores de procedimiento encontrados por
Pollatsek et al. [28] es que los estudiantes asumen erróneamente que un conjunto de números junto con la
operación de media aritmética constituye un grupo matemático que satisface los cuatro axiomas de clausura,
asociatividad, elemento identidad y elemento inverso. Esta creencia es obviamente falsa, como se puede ver en
los siguientes ejemplos: a. Al calcular la media
general de tres números dados, se obtendrá una media diferente al promediar los dos primeros números con el
tercer número que al promediar los dos últimos números con el primer número.

b. No existe un número de identidad, porque el valor de la media está influenciado por el valor de cada puntuación
en la distribución. Sin embargo, algunos estudiantes creen que agregar un nuevo valor de cero a una
distribución no altera el valor de la media.

Cuando las medidas estadísticas media y varianza se presentan por primera vez a los estudiantes,
constituyen operaciones completamente diferentes, no extensiones de las que ya se conocen.
Sin embargo, los estudiantes novatos pueden relacionar inconscientemente las propiedades que saben que se
cumplen para las operaciones aritméticas con la media y la varianza. Por lo tanto, el énfasis puesto en el
aprendizaje de las propiedades fundamentales de las operaciones aritméticas puede constituir un obstáculo para
comprender el cálculo del valor medio, porque a esta operación se le atribuyen algunas propiedades inexistentes.

Las investigaciones a las que nos hemos referido anteriormente se refieren a los aspectos computacionales
de la media. En lo que respecta a la comprensión conceptual , Strauss y Bichler [32] estudiaron el desarrollo de la
comprensión de la media por parte de los niños y distinguieron las siguientes propiedades: a. La media se
encuentra
entre los valores extremos. b. La suma de las desviaciones de la
media es cero. c. La media está influenciada por todos los valores.
d. La media no necesariamente es igual a uno de los
valores que se sumaron. e. La media puede ser una fracción que no tiene contrapartida en la
realidad física. f. Cuando se calcula la media, se debe tener en cuenta un valor cero, si
aparece. g. La media es representativa de los valores que se promedian.

Para cada una de estas propiedades se utilizaron distintas tareas, variando el material utilizado en la
prueba (continuo, discreto) y el medio de presentación (historia, concreto y numérico). No se encontraron efectos
significativos ni para el material ni para el medio de presentación.
Sus resultados también sugieren que la comprensión de los niños sobre la media cambia con la edad y que las
propiedades (a), (c), (d) son más fáciles que (b), (f) y (g).
Hemos afirmado que la media es un valor “típico” o “representativo” de la distribución.
Campbell [33] notó que, por esta razón, hay una tendencia a situar la media en el
Machine Translated by Google

centro del rango de variación de los datos. Esto es cierto cuando la distribución es simétrica, pero, si no lo es, la
media se desplaza hacia uno de los extremos y la mediana o la moda serían una mejor representación de los
datos. Comprender la idea de "valor típico" implica, según Russell y Mokros [34] tres tipos diferentes de
habilidades:

a. Dado un conjunto de datos, comprender la necesidad de emplear un valor central y elegir


b. Construir un conjunto de datos que
tenga un valor medio determinado. c. Entender el efecto que un
cambio en la totalidad o en una parte de los datos tiene sobre los promedios.
(media, mediana, moda).

Russell y Mokros [34] estudiaron las concepciones de los estudiantes de 4º a 8º grado sobre los promedios,
utilizando este tipo de tareas, y descubrieron que el segundo tipo era el más difícil. Este tipo de tarea también fue
propuesta por Goodchild [35], quien proporcionó a los estudiantes cajas de cerillas en las que estaba impreso
"contenido promedio 35 cerillas". Una de sus preguntas requería que el alumno creara una distribución hipotética
para el contenido de 100 cajas. La característica más notable de estas distribuciones era su falta de forma,
porque el gráfico no parecía en absoluto una campana.
Goodchild sugirió que esto se debe a una falta de comprensión del promedio como medida de ubicación de la
distribución que resulta de un proceso estocástico.
Russell y Mokros también encontraron cuatro categorías generales para clasificar a los estudiantes:
conceptos erróneos sobre los
promedios: a. el "valor más frecuente" o
moda; b. el "valor razonable";
c. el "punto medio";
d. una "relación algorítmica".

Cada uno de estos aspectos puede ser cierto en una circunstancia dada pero no ser apropiado en otra.
Terminaron su artículo señalando la necesidad de utilizar diferentes contextos y representaciones en la enseñanza
de un concepto matemático.
En resumen, la incapacidad de algunos estudiantes para resolver problemas se debe a que aún no han
adquirido un concepto puramente formal de la media. El conocimiento de una regla computacional no sólo no
implica una comprensión profunda del concepto subyacente, sino que puede inhibir la adquisición de un
conocimiento conceptual más completo. Aprender una fórmula computacional es un pobre sustituto de la
comprensión del concepto básico subyacente. La mayoría de los estudiantes conocen la regla por la que se
calcula la media. Sin embargo, si los estudiantes sólo tienen el conocimiento computacional de la media, es
probable que cometan tipos predecibles de errores en todos los problemas, salvo en los más transparentes.

4.2. Medidas de propagación


El estudio de frecuencias no puede reducirse al estudio de promedios; dos conjuntos de datos diferentes
con el mismo promedio pueden tener diferentes grados de variabilidad. Campbell [33] ha señalado que un error
frecuente es ignorar la dispersión de los datos. Lovie y Lovie [36] informaron que al estimar medias, la varianza
es un factor y que la precisión en la estimación de la varianza depende de las magnitudes involucradas.

La desviación estándar mide en qué medida los datos se alejan de la tendencia central.
Sin embargo, Loosen et al. [37] observaron que muchos libros de texto ponen un mayor énfasis en la
heterogeneidad entre las observaciones que en sus desviaciones de la tendencia central. Como señalan Loosen
et al. , las palabras utilizadas: variación, dispersión, diversidad, dispersión, fluctuación, etc., están abiertas a
diferentes interpretaciones. Es claro para el profesor si estas palabras se refieren a una diversidad relativa o
absoluta. En un experimento, tomaron 154 estudiantes de primer año de psicología que no habían recibido
ninguna conferencia sobre variabilidad. Les mostraron dos conjuntos diferentes de bloques, A y B. Las longitudes
de los bloques en el conjunto A eran 10, 20, 30, 40, 50 y 60 cm. y las
Machine Translated by Google

Las longitudes de los bloques insertados en el punto B fueron 10, 10, 10, 60, 60 y 60 cm.
Los estudiantes respondieron de la siguiente manera: el 50% dijo que el conjunto A era más variable, el
36% dijo que el B y el 14% dijo que eran igualmente variables. Loosen et al. interpretaron esto como una muestra
de que el concepto intuitivo de variabilidad se relaciona con la "falta de similitud", es decir, cuánto difieren los
valores entre sí (en lugar de con algún valor fijo como la media). En este sentido, el conjunto A ciertamente puede
considerarse más variable que el conjunto B. Sin embargo, la desviación estándar para el conjunto A es menor
que para el conjunto B, lo que indica que la desviación estándar es una medida especial de variabilidad.

Mevarech [31] encontró, en estudiantes universitarios, dificultades similares en el cálculo de la varianza que
en el cálculo de la media. En particular, los estudiantes tienden a asumir que el conjunto de datos y la operación
de varianza constituyen juntos una estructura de grupo. Sin embargo, el análisis de Mevarech no es del todo
convincente.
Uno de los usos más comunes de la media y la desviación típica es el cálculo de puntuaciones z. La
mayoría de los estudiantes no tienen dificultad en comprender este concepto ni en calcular puntuaciones z para
un conjunto de datos en particular. Sin embargo, Huck et al. [38] han observado dos conceptos erróneos
generalizados entre los estudiantes en relación con el rango de variación de las puntuaciones z calculadas a partir
de una muestra finita o de una distribución uniforme.
Por un lado, algunos estudiantes creen que los valores z siempre oscilarán entre ­3 y +3. Otros estudiantes
piensan que no hay ninguna restricción sobre los valores máximos positivos y negativos de los valores z. Cada
una de esas creencias está vinculada a una idea errónea sobre la distribución normal. Los estudiantes que
piensan que los valores z siempre varían entre ­3 y +3, han utilizado con frecuencia una imagen o una tabla de la
curva normal estándar, con este rango de variación. De manera similar, los estudiantes que creen que los valores
z no tienen límites superiores o inferiores, han aprendido que las colas de la curva normal son asintóticas a la
abscisa y hacen una generalización incorrecta, porque no se dan cuenta de que ninguna distribución finita es
exactamente normal.
Por ejemplo, si consideramos el número de niñas de cada diez bebés recién nacidos, esta es una variable
aleatoria X que sigue la distribución binomial con n = 10 y p = 0,5. La media de esta variable es np = 5 y la
varianza es npq = 2,5. Por lo tanto, el valor z máximo que se puede obtener de esta variable es zmax 2,5 = 3,16
y, por lo tanto, tenemos un límite finito, pero√es mayor = = (10­5)/ que 3.

4.3. Estadísticas de pedidos

En los últimos años, el tema de las estadísticas de pedidos ha recibido mucha atención por dos motivos:
diferentes razones:
• El análisis exploratorio de datos, que comenzó con Tukey [39], se basa en estadísticas de orden, porque son
robustas, es decir, no son muy sensibles a las fluctuaciones de los datos o a los valores atípicos.

• Los métodos no paramétricos se basan en estadísticas de orden. Estos métodos requieren menos suposiciones
para su aplicación, por lo que pueden emplearse más ampliamente que la inferencia paramétrica.

El estudio de las estadísticas de orden presenta dificultades tanto computacionales como conceptuales.
En primer lugar, el cálculo de medianas, cuantiles y percentiles se enseña con un algoritmo diferente para datos
agrupados en intervalos que para datos no agrupados. Como sabemos, la decisión de agrupar o no los datos y la
selección de la amplitud de los intervalos la toma la persona que realiza el análisis. Schuyten [40] ha sugerido que
incluso a los estudiantes universitarios les resulta difícil aceptar dos algoritmos diferentes para el mismo concepto
y, además, valores diferentes para el mismo parámetro en función del algoritmo elegido o de la amplitud de los
intervalos.

Si trabajamos con datos no agrupados, la representación gráfica de las frecuencias acumuladas es una
función discontinua, que toma un valor constante entre dos valores consecutivos de las variables. Estepa [41]
observó las dificultades de los estudiantes cuando
Machine Translated by Google

interpretando el gráfico de frecuencia acumulada, porque un valor en el eje y puede tener dos imágenes diferentes,
o varios valores diferentes en el eje y pueden tener la misma imagen.
Schuyten [40] ha señalado la gran distancia que existe entre el conocimiento conceptual de la mediana y el
algoritmo empleado para obtener su valor. Al pasar de la definición de la mediana como 'valor medio de la
distribución' o como el 'valor tal que exactamente la mitad de los datos son inferiores a él' a su cálculo, hay muchos
pasos que no siempre están suficientemente enunciados o no se entienden suficientemente. El algoritmo final
consiste en resolver la desigualdad: F(x) ≤ n /2, donde n es el número de datos. Es necesario resolver esta
inecuación en la que F(x) es la función de distribución empírica y no puede darse de forma algebraica sino sólo
mediante una tabla de valores numéricos. Por lo tanto, se debe utilizar la interpolación para aproximar F(x).

Barr [42] también observó la falta de comprensión de la mediana en un estudio piloto con estudiantes de
entre 17 y 21 años. Alrededor del 50% de los estudiantes dieron una respuesta incorrecta a la siguiente pregunta:

La mediana en el siguiente conjunto de números: 1,5,1,6,1,6,8, es: (a) 1


(A) 4 (r) 5 (r/) 6 (e) otro valor (/) no sé­

La mayoría de los estudiantes habían comprendido la idea de que la mediana es un valor central de algo.
La duda sobre qué es ese algo era evidente. Los estudiantes podían interpretar la mediana como el punto medio
de las cifras en la columna de frecuencias, o como el punto medio en la columna de valores de las variables, o
incluso como el punto medio en la lista de números antes de que hayan sido ordenados.

5. Asociación y regresión

La idea de asociación estadística extiende la dependencia funcional y es fundamental para muchos


métodos estadísticos que nos permiten modelar numerosos fenómenos en diferentes ciencias.
El término asociación se utiliza para referirse a la existencia de dependencia estadística entre dos variables
aleatorias, ya sean cuantitativas o cualitativas. La palabra correlación suele referirse a la asociación entre dos
variables cuantitativas. Ambos términos no implican necesariamente una relación causa­efecto, sino simplemente
la existencia de una covariación entre las variables.

A nivel elemental, existen varios conceptos diferentes en esta área temática: tablas de contingencia,
regresión lineal y correlación entre variables cuantitativas. Otro tema relacionado con la idea de asociación es el
diseño experimental mediante el cual estudiamos cómo las herramientas estadísticas permiten llegar a conclusiones
sobre un mundo en el que una gran cantidad de variables influyen en cualquier medición en particular (Rubin y
Rosebery [43].

5.1 Tablas de contingencia


Una tabla de contingencia o tabulación cruzada, se utiliza para presentar, de forma resumida, las
frecuencias en una población o muestra, clasificadas por dos variables estadísticas. En su forma más simple,
cuando las variables sólo involucran dos categorías diferentes, tiene el formato presentado en la Tabla 1.

Tabla 1. Formato típico de la tabla de contingencia 2x2


A No­A suma
B a a+b
no­B do c+d
Total a+c bd b+d a+b+c+d
Machine Translated by Google

Podríamos proponer a los alumnos diferentes problemas en torno a este tipo de tablas, por ejemplo: •
Interpretar
la información contenida en la tabla. • Emitir un juicio sobre la
existencia de asociación entre las variables. • Calcular e interpretar un coeficiente para medir la fuerza
de la asociación.

En cuanto a la primera categoría, observamos que este trabajo es relativamente complejo, pues a partir de la
frecuencia absoluta contenida en una celda, por ejemplo la celda a, se podrían deducir tres tipos diferentes de
frecuencias relativas: la frecuencia relativa incondicional [a/(a+b+c+d)]
y las frecuencias relativas condicionales dadas las filas [a/(a+b)] o dadas las columnas [a/(a+c)] de la tabla.

Se han realizado muy pocos estudios sobre la interpretación que hacen los estudiantes de las frecuencias
relativas en la tabla de contingencia o del coeficiente de correlación. Sin embargo, la investigación sobre el juicio de
asociación humano ha sido objeto de gran interés en el ámbito de la psicología.
Los psicólogos han utilizado tablas de contingencia 2x2, como en el siguiente ejemplo.

Nos interesa evaluar si un determinado fármaco produce problemas digestivos en personas mayores.
Durante un periodo suficiente se ha realizado un seguimiento de 25 personas mayores y se han obtenido estos
resultados:

Problemas Sin problemas Total


digestivos

Tomando el medicamento 9 3 17
No tomar el medicamento 7 16 1 3
9 25

Utilizando los datos de la tabla, razone si para esta muestra, tener problemas digestivos depende o no de la toma del
medicamento.

Si analizamos en detalle la tarea propuesta, se puede observar que, aunque aparentemente sencilla, se trata
de un problema complejo para el alumno. Su dificultad depende de ciertos datos contenidos en el enunciado. En el
ejemplo, existe una asociación inversa, ya que una proporción menor de los que toman el fármaco tienen problemas
digestivos. En función de los valores que aparecen en las cuatro celdas de la tabla, es posible que se produzca una
asociación directa, una asociación inversa o que no se produzca ninguna asociación.

Otro hecho que aumenta la dificultad de la tarea es el diferente número de ancianos en los dos grupos, es
decir, la frecuencia marginal de la variable independiente (tomar o no tomar el fármaco) no es la misma para sus
diferentes valores Todos estos aspectos que pueden influir en la dificultad del problema se denominan variables de
tarea del problema (Kilpatrick [44]). Otras posibles variables de tarea en este caso son la fuerza de la relación y la
concordancia entre la asociación empírica en la tabla y las creencias del estudiante sobre la asociación esperada El
estudio del razonamiento sobre la asociación estadística comenzó con Piaget e Inhelder [45], quienes consideraron
la comprensión de la idea
de asociación como el último paso en el desarrollo de la idea de probabilidad. Así que el desarrollo evolutivo
de los conceptos de asociación y probabilidad están relacionados, y la comprensión de la idea de asociación tiene
como prerrequisitos los conceptos de proporcionalidad y probabilidad. Por esta razón, Inhelder y Piaget [46] solo
estudiaron el razonamiento sobre asociación con niños en sus etapas de operación formal IlIa y IIlb.

Encontraron que los niños en estadio IIIa sólo analizan la relación entre los casos positivos favorables (celda a en la
tabla 1) y el número total de casos. En nuestro ejemplo sobre un fármaco, los niños en estadio IIIa deducirían,
incorrectamente, la existencia de una asociación positiva entre las variables, debido al mayor número de personas
que cumplen las dos condiciones Fármaco consumido y Problemas digestivos (es decir, celda a) en comparación con
las frecuencias en las otras
Machine Translated by Google

tres celdas.
Los adolescentes del nivel IIIa sólo comparan las celdas de dos en dos. Una vez que admiten que los
casos de la celda d (ausencia­ausencia) son favorables a la existencia de asociación, no calculan la relación
entre los casos que confirman la asociación (a+ d) y los demás casos (b+c). Esto sólo se produce a los 15
años (estadio IIlb) según Piaget e Inhelder.
Las mismas conclusiones se han obtenido en otras investigaciones realizadas con estudiantes
adultos, por ejemplo, Smedslund [47]. La mayoría de los estudiantes adultos basan su juicio únicamente en
la celda a o comparando a con h, es decir, utilizan únicamente la distribución condicional de tener o no
problemas digestivos en quienes toman el fármaco. Esta estrategia llevaría, en nuestro caso, a concluir
incorrectamente la existencia de una relación directa entre ambas variables, ya que en el grupo de personas
que toman el fármaco hay más con problemas digestivos que sin ellos.
La dificultad de este tipo de tarea se muestra en el hecho de que, como señalaron Jenkins y Ward
[48], incluso la estrategia de comparar las diagonales en la tabla considerada como correcta por Piaget e
Inhelder, sólo es válida en el caso de tablas que tienen frecuencias marginales iguales para la variable
independiente. Nuestro ejemplo ilustra esta dificultad. Para el caso general, Jenkins y Ward han propuesto
como estrategia correcta examinar la diferencia entre las dos probabilidades condicionales de que A ocurra
cuando B es verdadero y de que A ocurra cuando B es falso:

δ = a/(a+b)­ c/(c+d)

Entonces, en nuestro caso, sería necesario comparar las razones 9/17 con 7/8 (frecuencias condicionales).
Además de la dificultad de este tema, Chapman y Chapman [49] demostraron que existen expectativas
y creencias comunes sobre la relación entre las variables que causan la impresión de contingencias
empíricas. Este fenómeno se ha descrito como "correlación ilusoria", porque las personas mantienen sus
creencias y sobreestiman la asociación cuando creen que existe una causalidad entre las dos variables
(Jennings et al. [50]). Finalmente, como ha descrito Scholz [15], estudios posteriores han demostrado que
para la misma estructura de un problema de asociación, las personas adoptan diferentes estrategias e
incluso la misma persona puede utilizar diferentes estrategias en diferentes contextos.

5.2. Regresión lineal y correlación


Como hemos señalado, la investigación psicológica sobre la asociación se ha vinculado a la
problemática de la toma de decisiones en entornos inciertos (Scholz [51]). El interés de estos estudios es
analizar la forma en que los seres humanos toman decisiones, por las profundas implicaciones que tienen
en áreas como el diagnóstico médico, la economía o el derecho. La docencia no es el objetivo, en general.
Esto explica el escaso interés de estas investigaciones por la comprensión de conceptos vinculados a la
regresión lineal y la correlación, poco utilizados en el ámbito de la toma de decisiones.

El estudio de la relación entre dos variables cuantitativas incluye dos problemas diferentes: correlación
y regresión. En el estudio de la correlación las dos variables juegan un papel simétrico. El objetivo es
determinar si las dos variables covarían o no, si esto ocurre en la misma dirección (correlación positiva) o
en dirección opuesta (correlación negativa) y medir la fuerza de esta asociación.

Si se percibe una asociación relativamente fuerte, surge el problema de encontrar una función y=f(x) (línea
de regresión) que pueda usarse aproximadamente para predecir los valores de y, a partir de los valores de x.
Como la dependencia no es funcional, esta predicción se refiere al valor medio de y para x dado. Como sabemos,
este problema no tiene una solución única, y se necesita una secuencia de elecciones personales: • Seleccionar
la familia de funciones
de la que se seleccionará la línea de regresión (lineal, exponencial, .
...). La decisión se basaría en el conocimiento previo sobre el fenómeno, así
como en el análisis de la forma del diagrama de dispersión.
• Elegir los criterios de decisión. Cuando hemos decidido, por ejemplo, tomar una decisión lineal
Machine Translated by Google

Para la aproximación, se podría utilizar como criterio el método de mínimos cuadrados o utilizar la
recta de Tukey. La comprensión por parte del alumno del criterio elegido le permitirá interpretar
correctamente la recta de regresión y la relación de la recta con los datos (bondad de ajuste).

Finalmente, cuando se ha determinado la línea de regresión, todavía es posible cometer errores en


su interpretación o en su empleo para hacer predicciones. Campbell [33] ha señalado que algunos
estudiantes consideran que la extrapolación es imposible.

5.3. Diseño experimental


Rubin y Rosebery [43] planificaron y observaron un experimento de enseñanza para estudiar las
dificultades de los profesores con las ideas estocásticas. Informaron que tanto los estudiantes como su
profesor habían malinterpretado algunas de las ideas básicas que subyacen al diseño experimental.
En una de las lecciones de la experiencia docente antes mencionada se utilizó una actividad de
lanzamiento de baloncesto cuyo propósito era determinar el efecto de la distancia (las distancias se
variaban regularmente de 1 a 9 pies) y el ángulo posicional (para ángulos de 0, 45 y 90 grados). Cada
estudiante lanzó una pelota de cada combinación de distancia y ángulo. El objetivo de la lección era
explorar los efectos por separado y la interacción de estas dos variables.
La observación de la discusión entre el profesor y los alumnos sobre la idea de variables
independientes, dependientes y ajenas en el experimento de tiro ha puesto de manifiesto la confusión
entre estos conceptos. Algunos estudiantes sugirieron como posibles variables independientes
características individuales, como la altura o la habilidad de cada alumno.
La altura de la canasta, que se fijó durante el experimento, fue considerada como una variable
independiente por algunos de los estudiantes.
Algunos otros estudiantes sugirieron que la iluminación podía diferir para diferentes combinaciones
de ángulo y distancia, por lo que los estudiantes y el profesor se quedaron con la impresión de que la
presencia de tales influencias hacía imposible sacar conclusiones sobre el ángulo y la distancia.
Por último, Rubin y Rosebery han señalado la dificultad de distinguir entre las características de los
individuos que no tienen efecto sobre el resultado del experimento y otras variables que sí pueden tener
influencia. También se ha descubierto que la comprensión del papel de la asignación aleatoria al no tener
en cuenta las diferencias individuales es una causa de dificultad.

6. Inferencia

6.1. Muestreo
La idea clave de la inferencia es que una muestra proporciona "alguna" información sobre la
población y, de esta manera, aumenta nuestro conocimiento sobre la población. No proporciona
información completa, sino una aproximación. Como señala Moses [52], "se puede pensar en la inferencia
estadística como una colección de métodos para aprender de la experiencia". Rubin et al. [53] observaron
que, en la práctica, esto implica la posibilidad de encontrar los valores de los parámetros de interés en la
población, es decir, obtener intervalos de confianza para estos parámetros.
Entender esta idea fundamental supone un equilibrio entre dos ideas aparentemente antagónicas:
la representatividad y la variabilidad de la muestra. La primera nos sugiere que, cuando el proceso de
selección de la muestra se ha realizado adecuadamente, la muestra tendrá a menudo características
similares a las de la población. La segunda nos muestra que no todas las muestras son idénticas; por lo
que no todas pueden parecerse a la población de la que han sido seleccionadas. Encontrar el punto de
equilibrio entre la información total y la información nula sobre la población es complejo, debido a la
dependencia de tres factores: variabilidad poblacional, tamaño de la muestra y nivel de confianza.

La investigación sobre los errores relacionados con la idea del muestreo ha sido importante en
psicología en el contexto de la toma de decisiones, en particular el trabajo de Kahneman y Tversky. Se
puede encontrar un resumen de su trabajo en Kahneman et al. [54], quienes atribuyen estos errores al
uso de ciertas heurísticas de juicio en personas estadísticamente ingenuas. El término heurística se emplea en
Machine Translated by Google

Psicología, inteligencia artificial y resolución de problemas (Groner et al. [55]). Aunque no existe un consenso general
sobre el significado del término heurística, normalmente se utiliza para referirse a procesos o mecanismos cognitivos
que se emplean para reducir la complejidad de un problema, durante el proceso de solución.

Kahneman y Tversky han definido tres heurísticas fundamentales en los juicios probabilísticos: representatividad,
disponibilidad y ajuste y anclaje. También han estudiado los sesgos asociados y sus implicaciones teóricas y prácticas.

Según la heurística de representatividad, la probabilidad de las muestras se estima en función de lo bien que
representan algunos aspectos de la población original. En consecuencia, existe insensibilidad al tamaño de la muestra
y exceso de confianza en muestras pequeñas.
Este fenómeno se conoce como "creencia en la ley de los números pequeños". Por ejemplo, consideremos el
siguiente problema:

En una ciudad determinada hay dos hospitales. En el hospital más grande nacen unos 45 bebés al día y en el
más pequeño unos 15. Como ya sabes, aproximadamente el 50% de los bebés son varones. Sin embargo, el
porcentaje exacto varía de un día para otro.
A veces puede ser superior al 50%, a veces inferior. Durante un período de un año, cada hospital registró los
días en los que más del 60% de los bebés nacidos fueron varones.
¿Qué hospital cree usted que registró más días de este tipo? (a) El
hospital más grande, (b) El hospital más pequeño y (f) aproximadamente lo mismo.

Muchas personas creen que (c) debe ser la respuesta correcta, debido a que consideran que en ambos
hospitales la proporción de niños es la misma, y creen que este es el único hecho importante para determinar la
probabilidad de los eventos requeridos. No prestan atención al tamaño de la muestra, aunque la teoría de la
probabilidad nos muestra que hay más fluctuación en los valores de la proporción en muestras pequeñas que en
muestras grandes.
Según Kahneman y Tversky, este exceso de confianza en las muestras pequeñas tiene graves consecuencias
en la aplicación de la estadística, especialmente en la investigación. El "creyente en la ley de los números pequeños"
subestima el tamaño de los intervalos de confianza, sobreestima la significación en las pruebas de hipótesis y confía
demasiado en obtener los mismos resultados en réplicas de figuras del experimento.

Otra consecuencia de la aplicación de la heurística de representatividad es la "falacia del jugador". Por ejemplo,
muchas personas creen que después de una racha de caras, es más probable que salga cruz.

Al comparar los sesgos en los juicios probabilísticos con la concepción de los expertos sobre el muestreo
aleatorio, Pollatsek et al. [56] observaron que los expertos utilizan ampliamente el "extracción de la urna" como
modelo para el muestreo aleatorio. En este modelo, el muestreo aleatorio se considera isomorfo al proceso de extraer
una cantidad de bolas de una urna, reemplazarlas y luego extraer nuevamente.
Los sujetos ingenuos podrían no tener una forma mecanicista de pensar sobre este proceso o podrían tener un
modelo de proceso erróneo de muestras aleatorias, del cual se desprendería la representatividad incluso de muestras
pequeñas. Dado que estas personas pueden no haber sacado nunca una bola de una urna, este modelo es en sí
mismo teórico y no genuinamente práctico. Como Steinbring [57] ha señalado, la idea de independencia también tiene
un carácter teórico y es difícil estar seguro de su aplicabilidad en un contexto práctico. Por esta razón, la independencia
proporciona un ejemplo de la distancia entre la comprensión conceptual de un concepto y la capacidad de aplicar
este concepto en la resolución de problemas (Heitele [58]).

Otro problema relacionado con el muestreo son los diferentes niveles de concreción del mismo concepto
estadístico en la estadística descriptiva y en la inferencia (Schuyten [40]). En la estadística descriptiva el caso es la
unidad de análisis (por ejemplo una persona, un objeto) y calculamos la media x
de una muestra de dichas unidades. En la inferencia, nos interesa obtener información sobre la media teórica o
expectativa E(X) en la población de la que se ha tomado la muestra.
Consideramos la muestra particular como una unidad de otra población diferente: el conjunto de todos
Machine Translated by Google

las posibles muestras con el tamaño dado que podrían obtenerse de la población original.
Hemos cambiado la unidad de análisis, que ahora es la muestra , y hablamos de la media de la muestra
como una variable aleatoria. Así, estudiamos la distribución de la media en el proceso de muestreo y la
esperanza E(X) de esta variable aleatoria. Es necesario distinguir entre la media teórica en la población,
que es una constante desconocida, la media particular obtenida en nuestra muestra, los posibles valores
de las distintas medias que se obtendrían con las distintas muestras posibles de tamaño n en la población
(una variable aleatoria), y la media teórica de esta variable aleatoria, que coincide con la media
poblacional para un proceso de muestreo aleatorio. Esto es muy difícil conceptualmente.

6.2. Prueba de hipótesis


En algunos países, uno de los temas que se introducen en los últimos años de la educación
secundaria es la prueba de hipótesis. El ámbito de aplicación de la prueba de hipótesis es, en efecto,
amplio, pero, como ha comentado Brewer [59], esta área de inferencia es probablemente la más
incomprendida, confusa y abusada de todos los temas estadísticos. Por esta razón, y porque este tema
puede considerarse complejo para el estudiante, es un área muy extendida y apasionante para que la
exploren los investigadores de la educación matemática.
El término prueba de hipótesis podría aplicarse a un gran número de procedimientos estadísticos: pruebas
de diferencias entre medias, análisis de varianza, procedimientos no paramétricos, pruebas multivariantes...
Todos estos procedimientos comparten un núcleo común: un conjunto de
conceptos básicos (hipótesis nula e hipótesis alternativa, nivel de significación, función de potencia, etc.),
y algunos procedimientos generales que se modifican para casos particulares. La correcta aplicación de
estos procedimientos implica muchos tipos de elecciones, entre ellas: el tamaño de la muestra, el nivel
de significación a y el estadístico apropiado. En particular, Peskun [60] ha señalado las dificultades de
los estudiantes con los siguientes aspectos:
a. la determinación de la hipótesis nula H0 y la hipótesis alternativa H1; b. la distinción
entre errores de tipo I y tipo II; c. la comprensión del
propósito, uso y disponibilidad de las curvas características operativas o de las curvas de potencia.
curvas; y d.
comprender la terminología utilizada para enunciar la decisión.

Reeves y Brewer [61], Johnson [62] y Shoesmith [63] han descrito dificultades similares.

Uno de los aspectos claves en la correcta aplicación de un test de hipótesis es comprender el


concepto de nivel de significación, el cual se define como la “probabilidad de rechazar la hipótesis nula,
cuando ésta es verdadera”. Esta definición se expresa en la siguiente identidad:

(1) α = P(Rechazando H0 H0 verdadero)

Falk [64] ha señalado el intercambio del evento condicional y la condición como un error frecuente en esta
definición y la interpretación errónea del nivel de significancia como 'la probabilidad de que la hipótesis nula sea
verdadera, una vez que se ha tomado la decisión de rechazarla', es decir:

(2) P(Ho cierto hemos rechazado Ho)

Sugiere como una de las posibles causas de este error el lenguaje empleado en la definición del
nivel de significancia, al que también se denomina “la probabilidad de cometer un error de tipo I”. En esta
expresión no se establece explícitamente que se trate de una probabilidad condicional, por lo que el
estudiante supone que es posible definir un “evento condicional”. En consecuencia, la distinción entre
las dos probabilidades condicionales
Machine Translated by Google

Las probabilidades (1) y (2) no se realizan.


La definición correcta del nivel de significancia a se expresaría en el siguiente enunciado:

(i) Un nivel de significancia del 5% significa que, en promedio, 5 veces de cada 100 veces que la hipótesis nula
es verdadera, la rechazaremos.

Las investigaciones de Birnbaum [65] y otros han demostrado que algunos estudiantes consideran
correcta la siguiente definición incorrecta de:

(ii) Un nivel de significancia de 5", significa que, en promedio, 5 veces de cada 100 veces
Rechacemos la hipótesis nula y estaremos equivocados.

Vallecillos [66] presentó las afirmaciones (i) y (ii) a estudiantes universitarios, les preguntó si cada una de
ellas era verdadera o falsa y luego analizó el razonamiento de los estudiantes. También analizó el concepto de
nivel de significación y su relación con otros conceptos que intervienen en una prueba de hipótesis. Distinguió
cuatro aspectos diferentes en la comprensión de este concepto e identificó conceptos erróneos relacionados con
cada uno de estos aspectos:

(a) El contraste de hipótesis como problema de decisión. El contraste de hipótesis puede considerarse
como un problema de decisión entre dos hipótesis excluyentes y complementarias, con las posibles consecuencias
de cometer o no uno de los dos tipos de error, que son eventos disjuntos pero no complementarios. Sin embargo,
algunos estudiosos consideran los errores de tipo I y 11 como eventos complementarios, por lo que en su opinión
la probabilidad de cometer uno u otro de estos errores sería la unidad.

(b) Probabilidades de error y relación entre ellas. Los dos tipos de error tienen probabilidades α (tipo I) y
β (tipo II). Es necesario entender las probabilidades condicionales que se dan en la definición de α y β, de la
dependencia de β en función del valor desconocido del parámetro, y la relación entre α y β. Además del error
señalado por Falk [64], mencionado anteriormente, se han encontrado otras interpretaciones engañosas del nivel
de significación: suprimir la condición en la probabilidad condicional que se utiliza para definir a; interpretar a como
la probabilidad de cualquier tipo de error (tanto de tipo I como II) en la decisión tomada.

(c) nivel de significancia como riesgo del decisor. Los valores α y β


Determinar los riesgos que el decisor está dispuesto a asumir en su decisión y, junto con la hipótesis, servirá para
establecer el criterio de decisión. Algunos estudiantes creen que cambiar el nivel de significancia no cambia el
riesgo de error de tipo II.

(d) Interpretación de un resultado estadísticamente significativo. Obtener un resultado estadísticamente


significativo lleva al rechazo de la hipótesis nula. Sin embargo, obtener un resultado estadísticamente significativo
no implica necesariamente ninguna significación práctica, pero algunos estudiantes confunden estos conceptos.
Además, algunos estudiantes creen que un resultado estadísticamente significativo corrobora la hipótesis nula en
lugar de rechazarla.

White [67] ha mencionado el caso de una interpretación errónea de un resultado estadísticamente no


significativo. También consideró un aspecto diferente relacionado con la comprensión de la significación estadística
por parte de las personas, que es el problema de la comparación múltiple que ocurre cuando se aplican muchas
pruebas de significación a un conjunto de datos. Por ejemplo, una investigación epidemiológica podría medir 150
variables en cada persona de un grupo de personas sanas y también medir las mismas variables en cada persona
de un grupo de personas con una determinada enfermedad. Ahora bien, si elegimos un
Machine Translated by Google

nivel de significancia de 0,05, entonces como 150 x 0,05 = 7,5, se esperan 7,5 'resultados estadísticamente
significativos', en promedio, incluso si la enfermedad no tiene relación alguna con ninguna de las variables
estudiadas (Moses [52]).
Por último, remitimos al lector al libro editado por Morrison y Henkel [68] que documenta la considerable
cantidad de uso indiscriminado de pruebas de significancia en la investigación, lo que es una clara indicación
de la dificultad, mala interpretación y mal uso de las pruebas de significancia.

7. Observaciones finales

En un estudio de la literatura de investigación, Garfield y Ahlgren [141 enunciaron razones para algunas
de las dificultades que han surgido en la enseñanza de conceptos estadísticos a nivel universitario: •
Muchos de los conceptos estadísticos, como probabilidad, correlación, porcentaje, requieren razonamiento
proporcional, conocido por ser un concepto difícil en matemáticas... • La existencia de
intuiciones falsas que los estudiantes traen al aula de estadística Muchas de estas intuiciones son bien
conocidas en el caso de la probabilidad (Piaget e Inhelder [45]), (Fischbein [69]), pero muy pocas han sido
estudiadas para conceptos estadísticos.
• A veces los estudiantes han desarrollado un desagrado por las estadísticas, porque han estado expuestos al
estudio de la probabilidad y la estadística de una manera altamente abstracta y formal.

Existen dos razones más que posiblemente influyen en la dificultad del tema. En primer lugar, la
probabilidad y la estadística se han desarrollado recientemente. Aunque en la actualidad existe un sistema
axiomático bien establecido para la probabilidad, debido al trabajo de Kolmogorov la controversia sobre el
significado del término "probabilidad" no ha sido estropeada y existen diferentes tradiciones: empiristas,
subjetivistas, etc. (Fine [70]). 1 Esta controversia se muestra en la inferencia estadística, existe un debate
sobre si es posible o no atribuir una probabilidad a una hipótesis tanto en el enfoque clásico como en el
bayesiano (Rivadulla [71]).
Numerosos trabajos de investigación han demostrado que, durante el proceso de aprendizaje, el estudiante
debe superar con frecuencia las mismas dificultades epistemológicas que se han encontrado en el desarrollo
histórico del conocimiento.
En segundo lugar, muchos conceptos estadísticos han surgido fuera de las matemáticas. La estadística
ha sido desde sus inicios una ciencia interdisciplinaria. Los períodos más importantes de su desarrollo han
estado marcados por las aportaciones de diferentes campos en los que existía la necesidad de resolver
problemas específicos. En el aula, los conceptos se presentan de forma aislada de sus aplicaciones originales,
lo que contribuyó a su significado global (Steinbring [72]). Por ejemplo, el concepto de media tiene significados
especiales y diferentes cuando se aplica al centro de gravedad, a la esperanza de vida o a un número índice.

En resumen, como ha señalado Green [73]: “Los conceptos estadísticos ofrecen un área fascinante para
explorar. Lo que el estadístico considera sencillo y obvio (términos como promedio, variabilidad, distribución,
correlación, sesgo, aleatoriedad, etc.) son la sabiduría destilada de varias generaciones de las mentes más
capaces. Es demasiado esperar que no haya una lucha para transmitir esta herencia”.

Referencias
[1] HOLMES, P. et al., 1980, Estadísticas en su mundo (Slough: Foulsham Educational).
[2] LANDEWEHR, J. y WATKINS, AE, 1986, Explorando datos (Palo Alto: Dale
(Seymour).
[3] LANDEWEHR, J., WATKINS, AE y SWIFT, J., 1987, Explorando encuestas: información de muestras (Palo
Alto: Dale Seymour).
[4] GNANADESIKAN, N., SCHEAFFER, RL y SWIFT, J., 1987, El arte y la
Técnica de simulación (Palo Alto: Dale Seymour).
[5] GODINO, JD, BATANERO, MC y CAÑIZARES, MJ, 1987, Azar y Probabilidad Fundamentos didácticos y
propuestas curriculares (Madrid: Síntesis).
Machine Translated by Google

[6] GREY, DR, HOLMES, P., BARNETT, V. y CONSTABLE, GM, (eds), 1982, Actas de la Primera Conferencia
Internacional sobre Enseñanza de la Estadística (Sheffield: Universidad de Sheffield).

[7] DAVIDSON, R., y SWIFT, J., (eds), 1987, Actas de la Segunda Conferencia Internacional
Conferencia sobre enseñanza de estadística (Voorburg, Países Bajos: Instituto Internacional de Estadística).

[8] VERE­JONES, D. (ed.), 1991, Actas de la Tercera Conferencia Internacional sobre Enseñanza de la Estadística
(Universidad de Otago, Dunedin, (Voorburg, Países Bajos: Instituto Internacional de Estadística).

[9] NCTM, 1989, Estándares de currículo y evaluación/matemáticas escolares (Reston,


VA: NCTM).
[10] DES, 1991, Matemáticas en el currículo nacional (Londres: Departamento de Educación y Ciencia y Oficina de
Gales).
[11] MEC, 1988a., Diseño curricular base para la enseñanza primaria. (Madrid: Ministerio de Educación y Ciencia).

[12] MEC, 1988b, Diseño curricular base para la enseñanza secundaria obligatoria (Madrid Ministerio de Educación y
Clencia).
[13] HAWKINS, A., y KAPADIA, R., 1984, Concepciones de probabilidad de los niños: una revisión psicológica y
pedagógica. Educ. Estudios en Matemáticas, 15, 349­377.
[14] GARFIELI), J., y ALHGREN, A., 1988, Dificultades en el aprendizaje de conceptos básicos de probabilidad y
estadística: implicaciones para la investigación. J. Res. Math. Educ., 19(1), 44­63.
[15] SCHOI.Z, R., 1 991, Investigación psicológica sobre el concepto de probabilidad y su adquisición. En R. Kapadia
(ed.) Encuentros casuales: probabilidad en la educación
(Ámsterdam: Reidel), págs. 213­249.
[16] SHAUGHNESSY, JM, 1992, Investigación en probabilidad y estadística: reflexiones y direcciones. En DA Grouws
(ed.) Manual de investigación en educación matemática
(Nueva York: McMillan), págs. 465­94.
[17] HAWKINS, A., JOLLIFFE, F., y [Link], L... 1992, Enseñanza de la estadística
Conceptos (Londres: Longman).
[18] CENTENO, J., 1988, Numeros diezma ¿por qué? ¿.para que? (Madrid: Síntesis).
[19] RADATZ, HC, 1980, Errores de los estudiantes en el aprendizaje matemático: una encuesta .
Aprendizaje de las Matemáticas, 1(1), 16­20.
[20] BORASSI, R., 1987, Explorando las matemáticas a través del análisis de errores. Para el
Aprendizaje de las Matemáticas, 7 (3), 2­8.
[21] AUSUBEL, DI, NOVAK, JD y HANESIAN, H., 1983, Psicología educativa. Naciones Unidas
punto de vista cognoscitivo. (México: Trillas).
[22] CONFREY, J., 1990, Una revisión de la investigación sobre las concepciones de los estudiantes en matemáticas,
Ciencia y programación. Rev. Res. Educ., 16, 3­35.
[23] BROUSSEAU, G., 1983, Les obstáculos epistémologiques et les problémes en
matemáticas. Investigación en Didactique des Mathématiques, 4 (2), 164­198.
[24] SIERPINSKA, A., 1991, Algunas observaciones sobre la comprensión en matemáticas. Para el aprendizaje de
las matemáticas, 10 (3), 24­36.
[25] CURCIO, F. R., 1987, Comprensión de relaciones matemáticas expresadas en
gráficos. J. Res. Math. Educ., 18 (5), 382­393.
[26] PEREIRA­MENDOZA, L., y MELLOR, J., 1991, Conceptos de gráficos de barras por parte de los estudiantes:
algunos hallazgos preliminares. En D. Vere­Jones (ed.) Actas de la Tercera Conferencia Internacional sobre
Enseñanza de la Estadística, (Voorburg, Países Bajos: Instituto Internacional de Estadística), págs. 150­157.

[27] LI, KY y SHI­:N, SM, 1992, Debilidades de los estudiantes en proyectos estadísticos. Enseñanza
Estadística, 14(1), 2­8.
[28] POLLATSEK, A. LIMA, S., y WELL, AD, 1981, Concepto o cálculo: comprensión de la media por parte de los
estudiantes. Educ. Estudios en Matemáticas, 12, 191­204.
Machine Translated by Google

[29] SKEMP, R., 1978, Comprensión relacional y comprensión instrumental. Aritmética


Maestro, del 9 al 15 de noviembre.
[30] HIEBERT, J, y LEFEBRE, P., 1986, Conocimiento conceptual y procedimental en matemáticas: un análisis
introductorio. En J. Hiebert (ed.), Conocimiento conceptual y procedimental
Conocimiento: el caso de las matemáticas (Hillsdale, NJ: Lawrence Eribaum), págs. 1­27.
[31] MEVARECH, ZR, 1983, Un modelo de estructura profunda de los conceptos erróneos estadísticos de los
estudiantes. Educ. Estudios en Matemáticas, 14, 415­429.
[32] STRAUSS, S., y BICHLER, E., 1988, El desarrollo de los conceptos de los niños sobre la media aritmética. J.
Res. Math. Educ., 19 (1), 64­80.
[33] CAMPBELL, SK, 1974, Defectos y falacias en el pensamiento estadístico (Nueva Jersey:
(Prentice Hall).
[34] RUSSELL, SJ y MOKROS, JR, 1991, ¿Qué es típico?: las ideas de los niños sobre el promedio. En D. Vere­
Jones (ed.) Actas de la Tercera Conferencia Internacional sobre Enseñanza de la Estadística (Voorburg,
Países Bajos: Instituto Internacional de Estadística), págs. 307­313.

[35] GOODCHILD, S., 1988. Comprensión del promedio por parte de los alumnos escolares. Teaching Statistics, 10
(3), 77­81.
[36] LOVIE, P., y LOVIE, AA, 1976. Enseñanza de estadística intuitiva: estimación de medias y varianzas. Int. J.
Math. Educ. Sci. Technol., 7(1), 29­39.
[37] LOOSEN, F., LIOEN, M., y LACANTE, M., 1985, La desviación estándar: algunas desventajas de un enfoque
intuitivo. Teaching Statistics, 7(1), 2­5.
[38] HUCK, S., CROSS y [Link], SB, 1986, Superando conceptos erróneos sobre las puntuaciones z. Teaching
Statistics, 8 (2), 38—40.
[39] TUKEY, JW, 1977, Análisis exploratorio de datos (Reading, MA: Addison­Wesley).
[40] SCHUYTEN, G., 1991, Pensamiento estadístico en psicología y educación. En D. Vere­Jones (ed.), Actas de
la Tercera Conferencia Internacional sobre Enseñanza de la Estadística.
(Voorburg, Países Bajos: Instituto Internacional de Estadística), págs. 486­490.
[41] ESTEPA CASTRO, A., 1990, Enseñanza de la Estadística basada en el uso de ordenadores: Un Estudio
exploratorio. Memoria del Tercer Ciclo. (Universidad de Granada: Departamento de Didáctica de la
Matemática).
[42] BARR, GV, 1980, Algunas ideas de estudiantes sobre la mediana y la moda. Teaching Statistics, 2 (2), 38 41.

[43] RUBIN, A., y ROSEBERY, AS, 1990, Malentendidos de los profesores en el razonamiento estadístico; evidencia
de una prueba de campo de materiales innovadores. En A. Hawkins (ed.), Training Teachers to Teach
Statistics (Voorburg, Países Bajos: ISI), 72­89.
[44] KILPATRICK, J., 1978, Variables y metodologías en la investigación sobre resolución de problemas. En LL
Hartfield y DA Bradbard (eds), Resolución de problemas matemáticos. Documentos de un taller de
investigación (Columbus, Ohio: ERIC/SMEAC).
[45] PIAGET, J. e INHELDER, B., 1951, La génese de I'idée de hasard chez I'enfant
(París: Presses Umversitaires de France).
[46] INHELDER, B. y PIAGET, J., 1955, De la logique de l'enfant a la logique de
el adolescente (París: PUK).
[47] [Link], J., 1963, El concepto de correlación en adultos. Scand. J. Psvchol., 4, 165­
173.
[48] JENKINS, HM, y WARD, WC, 1965, Juicio de contingencia entre respuestas y resultados. Psychological
Monographs, 79.
[49] CHAPMAN, I.. J., y CHAPMAN, JP, 1967, Correlación ilusoria como obstáculo para el uso de signos
psicodiagnósticos válidos. J. Abnormal Psychol., 74, 271­280.
[50] JENNINGS, DL, AMABII.E, TM y Ross, L., 1982, Evaluación informal de la covariación: juicios basados en
datos versus juicios basados en teoría. En D. Kahneman; P. Slovic y A. Tversky (eds.), Juicio bajo
incertidumbre: heurísticas y sesgos (Nueva York: Cambridge University Press), págs. 211­30.
Machine Translated by Google

[51] SCHOLZ, R., 1987, Toma de decisiones bajo incertidumbre (Ámsterdam: Holanda Septentrional).
[52] MOSES, LE, 1992, El razonamiento de la inferencia estadística. En DC Hoaglin y DS
Moore (eds), Perspectivas sobre estadística contemporánea ([Link].: Mathematical Association of America),
págs. 107­121.
[53] RUBIN, A., BRUCE, B. y TENNEY, Y., 1991, Aprendiendo sobre muestreo: problemas en el núcleo de las
estadísticas. En D. Vere­Jones (ed.), Actas de la Tercera Conferencia Internacional
Conferencia sobre enseñanza de estadística (Voorburg, Países Bajos: Instituto Internacional de Estadística),
págs. 314­319.
[54] KAHNEMAN, D., SLOVIC, P. y TVERSKY, A., 1982, Sentencia
Incertidumbre: heurísticas y sesgos (Nueva York: Cambridge University Press).
[55] GRONER, R., GRONER, M., y BISCHOF, WF, 1983, El papel de la heurística en los modelos de decisión. En
RW Scholz (ed.): Toma de decisiones en condiciones de incertidumbre .
(Ámsterdam: Holanda Septentrional), págs. 87­108.
[56] POLLATSEK, A., KONOLD, CK, WEI.I., AD, y LIMA, S., 1991, Creencias subyacentes al muestreo aleatorio.
Memoria y cognición, 12, 395—401.
[57] STEINBRING;, H., 1986, L'independence stochastique. Búsquedas didácticas de
Matemáticas, 7 (3), 99­1 18.
[58] HEITELE, D., 1975, Una visión epistemológica de las ideas estocásticas fundamentales. Educ.
Estudios en Matemáticas., 6, 187­205.
[59] BREWER, JK, 1986, Libros de texto de estadística del comportamiento: ¿fuente de mitos y conceptos erróneos?
En R. Davidson y J. Swift (eds), Actas de la Segunda Conferencia Internacional
Conferencia sobre enseñanza de estadística (Voorburg, Países Bajos: Instituto Internacional de Estadística),
págs. 127­131.
[60] PESKUN, PH, 1987, Construcción de pruebas simétricas de hipótesis. Enseñanza de la estadística,
9 (1), 19 23.
[61] REEVES, CA, y BREWER, JK, 1980, Prueba de hipótesis y demostración mediante
Contradicción: una analogía. Enseñanza de la Estadística, 2 (2), 57­59.
[62] JOHNSON, LM, 1981, La enseñanza de la estadística como un proceso de seis pasos. La enseñanza de la estadística,
3(2) 47­49.
[63] SHOESMITH, E., 1983, Construcciones de curvas de potencia simples. Teaching Statistics, 5 (3),
78­83.
[64] FALK, R., 1986, Conceptos erróneos sobre la significación estadística. J. Structural [.earning 9, 83
96.
[65] BIRNBAUM, I., 1982, Interpretación de la significación estadística. Teaching Statistics, 4(1), 24­
27.
[66] VALLECILLOS, A., 1992, Nivel de significación en un contraste estadístico de hipótesis. Un estudio teórico­
experimental de errores en estudiantes universitarios.
Memoria del Tercer Ciclo. (Universidad de Granada: Departamento de Didáctica de la Matemática).

[67] WHITE L., 1980, Cómo evitar errores en la investigación educativa En RJ Shumway (ed.), Investigación en
educación matemática (Reston, VA. NCTM) pp. 49­ 65.
[68] MORRISON, DE, y HENKEL, RE (eds), 1970, La controversia de la prueba de significancia (Chicao: Aldine).

[69] FISCHBEIN, E., Las fuentes intuitivas del pensamiento probabilístico en niños (Dordrecht:
(Reidel).
[70] FINE, TL, 1973. Teorías de probabilidad. Un examen de los fundamentos. (Nueva York: Academic Press).

[71] RIVADULLA, A., 1991, Probabihdad e Inferencia científica (Barcelona: Anthropos).

[72] STEINBRING, H., 1990, La naturaleza del conocimiento estocástico y el currículo de matemáticas tradicional.
Algunas experiencias con la capacitación en servicio y el desarrollo de materiales. En A. Hawkins (ed.),
Training Teachers to Teach Statitics (Voorburg, ISI).
Machine Translated by Google

[73] GREEN, DR, 1992, Análisis de datos: ¿qué investigación necesitamos? Documento presentado en la Octava Conferencia de Mesa Redonda del ISL sobre Enseñanza

de la Estadística, Lennoxville, 1992.

Ver estadísticas de publicación

También podría gustarte