Significado y comprensión de la distribución normal en un curso introductorio de análisis de datos Carmen Batanero, Universidad de Granada, España Liliana M. Tauber, Universidad Nacional del Litoral, Santa Fe, Argentina Victoria Sánchez, Universidad de Sevilla, España Quadrante, En prensa RESUMEN: En este artículo describimos una experiencia de enseñanza de la distribución normal dentro de un curso de análisis de datos basado en el uso de ordenadores y dirigido a estudiantes en su primer año de estudios universitarios. Basándonos en un marco teórico sobre el significado de objetos matemáticos, describimos diversos elementos de significado de la distribución normal y analizamos los elementos específicos introducidos por el uso del ordenador. Evaluamos el conocimiento adquirido por nuestros estudiantes al final del curso usando dos instrumentos: a) Un cuestionario escrito; b) Tres tareas relacionadas a un fichero de datos nuevo para ser resueltas con la ayuda del ordenador. Un análisis detallado de las respuestas de los estudiantes muestran que ellos aprendieron a utilizar el software y adquirieron muchos de los elementos de significado considerados en la enseñanza. Por el contrario, observamos dificultades en la discriminación entre los datos empíricos y los modelos matemáticos, en interpretar en ciertos gráficos y resúmenes estadísticos y escasa capacidad de análisis y síntesis. Palabras clave: Significado y comprensión, distribución normal, enseñanza y aprendizaje de la estadística, ordenadores. ABSTRACT: In this paper we describe an experience for teaching the normal distribution inside a course of data analysis based on the use of computers, and directed to students in their first year of University studies. Basing on a theoretical framework about the meaning of mathematical objects, we describe different elements of meaning in the normal distribution and emphasize the specific elements induced by the use of computers. We assess the knowledge acquired by our students, at the end of the course by using two different instruments: a) A written questionnaire; b) Three tasks regarding a new data file to be solved with the help of computers. A detailed analysis of students' responses show that the students learnt to use the software and acquired many elements of meanings considered in the teaching. On the contrary, we observed difficulties in discriminating empirical data and mathematical models, interpreting some statistics summaries and graphs and lack of analysis and synthesis ability. Keywords: Meaning and understanding; normal distribution, teaching and learning statistics; computers. Introducción Uno de los problemas didácticos principales en un curso introductorio de estadística a nivel universitario es hacer la transición del análisis de datos a la inferencia (Moore, 1997). La escasez del tiempo disponible y de los conocimientos previos de los estudiantes impide llevar a cabo un estudio completo de la probabilidad. Es necesario, sin embargo, proporcionar a los estudiantes nociones básicas sobre las distribuciones de probabilidad, ya que las dificultades de comprensión de las mismas influyen en los errores de aplicación de los procedimientos inferenciales, tales como la estimación por intervalos o los contrastes de hipótesis (Vallecillos, 1996, 1999). Como afirman Cohen y Chechile (1997), estas distribuciones son un tópico importante, incluso en un curso inicial, y los ordenadores, que han hecho más accesible el análisis de datos para los estudiantes, también facilitan la enseñanza del tema. En la Universidad de Granada estamos desarrollando una investigación, cuyo objetivo principal es el estudio de las dificultades y errores de compresión de la distribución normal en estudiantes del primer curso universitario, que no han seguido un bachillerato científico, y apenas han adquirido conocimientos estadísticos durante la educación secundaria. Los resultados que aquí presentamos corresponden al primer año del estudio y complementan los publicados en Batanero, Tauber y Meyer (1999) y Tauber, Batanero y Sánchez (2000). 1 Nos hemos centrado en la distribución normal, cuya relevancia en estadística se debe a que muchos fenómenos físicos, biológicos, psicológicos o sociológicos, pueden ser adecuadamente modelizados mediante ella. La distribución normal es también una buena aproximación de otras distribuciones, como la binomial, Poisson o T de Student, para ciertos valores de sus parámetros. Los teoremas de límite en cálculo de probabilidades aseguran que la media y otros parámetros de las muestras aleatorias tienen una distribución aproximadamente normal para muestras de suficiente tamaño, incluso en poblaciones no normales, y muchos métodos estadísticos requieren la condición de normalidad para su correcta aplicación. A pesar de esta importancia, no hemos encontrado un estudio sistemático de los errores y dificultades de aprendizaje referidos a este tema y también son muy escasos los antecedentes que hemos encontrado en relación al aprendizaje de la inferencia estadística en alumnos universitarios. Es claro que la dificultad de un tema depende en gran medida de la enseñanza implementada. Por ello hemos decidido diseñar nosotros mismos una secuencia de enseñanza, tomando como fundamento nuestro marco teórico sobre el significado institucional y personal de los objetos matemáticos (Godino, 1996; Godino y Batanero, 1998). Nuestra secuencia incorpora el uso de ordenadores, en su doble vertiente de herramienta didáctica y dispositivo de cálculo y representación gráfica, que ha sido resaltada, entre otros, por Biehler (1997). En particular, usamos el paquete estadístico Statgraphics, disponible en el laboratorio de informática de la universidad de Granada. Los objetivos del primer año de estudio, que describimos en este trabajo, fueron los siguientes: 1. Diseñar una secuencia de enseñanza de la distribución normal, basada en el uso de ordenadores y describir el cambio que el útil informático produce en el significado de la distribución presentado a los estudiantes, respecto al significado presentado en el curso introductorio de estadística en los textos universitarios. 2. Experimentar y realizar una primera evaluación de la secuencia didáctica en un grupo de 57 alumnos, dentro de una de las asignaturas optativas de la Universidad de Granada. 3. Construir instrumentos de evaluación adaptados a la naturaleza del curso, que permitan evaluar el significado construido por los estudiantes al finalizar el mismo. En lo que sigue describimos brevemente los fundamentos de nuestro estudio, el diseño de la secuencia didáctica, comparándolo con la presentación del tema en una muestra de libros de texto universitarios y la evaluación realizada tras la experiencia de enseñanza. Finalmente describimos las principales conclusiones y cómo se han tenido en cuenta en la segunda fase del estudio. Fundamentos del estudio En esta sección describiremos primeramente algunas investigaciones previas relacionadas con la distribución normal y a continuación describiremos el marco teórico, caracterizando los elementos del significado de la distribución normal presentados a los alumnos en el curso (significado institucional). Se resaltarán aquellos elementos específicos implicados por el uso del software estadístico. Investigaciones Previas Son pocas las investigaciones previas específicamente centradas sobre la comprensión de la distribución normal y las que hemos encontrado estudian sólo puntos aislados en su comprensión. El primer antecedente lo hallamos en el estudio de Piaget e Inhelder (1951) sobre el desarrollo espontáneo en los niños de la comprensión de la convergencia estocástica. En este trabajo, tratan de ver si los niños perciben la regularidad progresiva que aparece en la disposición de una serie de granos de arena que caen a través de un pequeño orificio (en un 2 aparato de Galton o en un reloj de arena). Estos autores consideran que, para predecir la distribución final es preciso captar la simetría de las trayectorias posibles de los granos al caer por el orificio, la equivalencia entre las partes simétricas, la dispersión y el papel de la repetición del experimento en la regularidad final, que produce una distribución en forma de campana (normal). Esta comprensión se produce en la etapa de las operaciones formales. Respecto a los estudiantes universitarios, Huck, Cross y Clark (1986) han identificado dos concepciones erróneas sobre las puntuaciones normales tipificadas: Por un lado, algunos alumnos creen que todas las puntuaciones tipificadas han de tomar un valor comprendido entre -3 y +3, mientras que otros estudiantes piensan que no hay límite para los valores máximo y mínimo de estas puntuaciones. Hawkins, Jolliffe y Glickman (1992) describen errores en la aproximación de una distribución binomial mediante la distribución normal, que se deben a la no diferenciación entre lo discreto y lo continuo, lo que lleva a aplicar la corrección por continuidad de una forma mecánica, sin entender su significado. La comprensión del teorema central del límite y su implicación sobre las distribuciones muestrales es un tema en el que se han descrito dificultades por parte de los estudiantes quienes no perciben el efecto del tamaño de la muestra en la variabilidad (Rubin, Bruce y Tenney, 1991) o no comprenden que la esperanza matemática de las distribuciones muestrales depende del valor del parámetro desconocido en la población (Vallecillos, 1996, 1999). Méndez (1991) compara la comprensión del teorema central del límite en estudiantes de un curso introductorio y estudiantes expertos (que cursaban un doctorado), observando que ninguno de los grupos dominaba el vocabulario técnico. Su estudio muestra también que los estudiantes a nivel de doctorado mostraban una comprensión excesivamente formal del teorema, mientras que los estudiantes del curso introductorio usaban los datos disponibles sin tener en cuenta la población de la que provenían y sin considerar el tamaño de muestra. Resultados similares son obtenidos por delMas, Garfield y Chance (1999), quienes describen el programa Sampling Distribution y diseñan actividades educativas para guiar a sus estudiantes en la exploración del teorema central del límite. En su experimento, los estudiantes podían cambiar la forma de la distribución teórica de la población (normal, sesgada, bimodal, uniforme, en forma de U) y simular la distribución muestral de diferentes estadísticos para varios tamaños de muestra. El aprendizaje se evalúa midiendo el cambio entre pre-test y post-test en un instrumento diseñado por los autores específicamente para evaluar la comprensión de la forma y variabilidad de las distribuciones muestrales y el efecto del tamaño de la muestra. Incluso cuando los resultados demostraron un cambio significativo positivo en los estudiantes como consecuencia de la instrucción, delMas, Garfield y Chance (1999) avisan que el uso de la tecnología no siempre produce una comprensión efectiva de las distribuciones muestrales. Los autores sugieren que las nuevas actividades y la nueva información sobre el software pueden interferir con el aprendizaje de los estudiantes sobre las distribuciones muestrales, cuya comprensión requiere la integración de las ideas de distribución, promedio, dispersión, muestra y aleatoriedad. Un punto también importante son las actitudes. Wilensky (1995, 1997) define la ansiedad epistemológica, como el sentimiento de confusión e indecisión que sienten la mayoría de los estudiantes frente a las distintas formas de resolución de un problema, que es particularmente elevada en el caso de la estadística. En sus entrevistas a personas de diversas edades, la mayoría de ellos profesionales con conocimientos de estadística, les plantea resolver un problema por medio de simulación en ordenador. Aunque, en general, los sujetos de su investigación sabían resolver problemas relacionados con la distribución normal, no eran capaces de justificar el uso de la distribución normal en lugar de la de otro concepto o distribución, mostrando una acusada ansiedad epistemológica. En todos estos trabajos se ponen de manifiesto dificultades en puntos aislados sobre la comprensión de propiedades o teoremas relacionados con la distribución normal y se muestra el interés de diseñar cursos específicos encaminados a mejorar esas dificultades. En nuestro trabajo, adoptamos una perspectiva más amplia e integrada de la comprensión de la 3 distribución normal, de su evaluación y de la enseñanza del tema, en coherencia con el marco teórico que pasamos a detallar. Significado y comprensión de la distribución normal en nuestra investigación Nuestro trabajo se apoya en un marco teórico sobre el significado y la comprensión de los objetos matemáticos (Godino, 1996; Godino y Batanero, 1998). Un supuesto epistemológico básico es que los objetos matemáticos (por ejemplo, la distribución normal) emergen de la actividad de resolución de problemas mediada por las herramientas semióticas disponibles en los contextos institucionales. El significado de los objetos matemáticos se concibe como el sistema de prácticas ligadas a campos de problemas específicos y se diferencian cinco tipo de elementos: 1. Elementos extensivos: Las situaciones y campos de problemas de donde emerge el objeto. 2. Elementos ostensivos: Las herramientas semióticas disponibles para representar o para operar con los problemas y objetos involucrados. 3. Elementos actuativos: Procedimientos y estrategias para resolver los problemas. 4. Elementos intensivos: Propiedades características y relaciones con otras entidades: definiciones, teoremas, y proposiciones. 5. Elementos validativos: Argumentos que sirven para justificar o validar las soluciones. Estos elementos pueden variar, según los contextos institucionales y personales en que se afronta la resolución de un campo de problemas. La distribución normal, por ejemplo, no tiene el mismo significado en la enseñanza secundaria que en un curso de estadística para investigadores o para un estadístico que desarrolla nuevos métodos de inferencia. Ello nos lleva a diferenciar entre significados institucionales y significados personales, según se traten de prácticas socialmente compartidas, o se refieran a manifestaciones idiosincrásicas de sujetos individuales. Al tratar de resolver ciertas clases de problemas los sujetos construyen un significado personal de los objetos matemáticos implicados y cuando entran a formar parte de una cierta institución (por ejemplo, la universidad) puede ocurrir que las prácticas adquiridas individualmente entren en conflicto con las admitidas para dicho objeto en el seno de la institución. En consecuencia, la enseñanza tiene como principal objetivo lograr la comprensión progresiva de la distribución normal por parte de los alumnos, entendida como acoplamiento progresivo entre los elementos del significado personal e institucional. A continuación describimos brevemente el significado institucional de la distribución normal presentado a los alumnos en la enseñanza diseñada, que fue determinado a partir de los siguientes elementos: • Análisis epistemológico sobre el significado del concepto y su papel en los métodos estadísticos. • Análisis de la presentación del tema en una muestra de libros de texto universitarios dirigidos a alumnos en ciencias sociales. • Nuestra experiencia previa en la enseñanza del tema en la misma asignatura y al mismo tipo de alumnos, con un enfoque basado en el uso de ordenadores. Este significado institucional fue tomado como referencia para la construcción de los instrumentos de evaluación y para analizar sus resultados e inferir las características del significado personal de la distribución normal construido efectivamente por el grupo de estudiantes que participó en esta primera fase del estudio. En lo que sigue describimos brevemente los distintos elementos del significado institucional de referencia que tomamos para la distribución normal en nuestra enseñanza, con el fin de clarificar nuestro modelo teórico, en el que la comprensión de un concepto dado implica la apropiación por parte del alumno de estos diversos elementos de significado del concepto, y tiene, por tanto, un carácter sistémico. 4 Elementos extensivos: Campos de problemas y contextos presentados. Cuatro han sido los campos de problemas que se han tomado en este estudio y cuya resolución hace surgir la idea de distribución normal: P1. Ajuste de una curva al histograma o polígono de frecuencias en una distribución de datos empíricos como modelo teórico aproximado en campos tales como la psicología, biometría, o teoría de errores. P2. Aproximación de distribuciones de variables aleatorias discretas con un número grande de valores; por ejemplo en la distribución binomial para valores grandes del parámetro n. P3. Obtención de distribuciones en el muestreo de la media y otros estadísticos de poblaciones no necesariamente normales para muestras grandes (distribuciones asintóticas). P4. Estimación por intervalos de confianza. Estos problemas fueron planteados a los alumnos en contextos antropométricos, psicológicos, económicos, meteorológicos, educativos y físicos. Además de problemas clásicos para ser resueltos sin soporte informático, también se trabajó con ficheros de datos, lo que permite plantear problemas más abiertos e introduce una filosofía multivariante y exploratoria en el análisis de datos. Elementos ostensivos: Representaciones. En la experiencia de enseñanza se utilizaron los siguientes tipos de representaciones de los objetos abstractos con una doble función simbólica e instrumental: Representaciones gráficas y numéricas en soporte tradicional. Histogramas, polígonos de frecuencias, curva de densidad, gráficos de caja y diagrama de tallos y hojas, representación de áreas bajo la curva normal, representación de los intervalos centrales en una curva normal, tablas de frecuencias y resúmenes estadísticos de tendencia central, dispersión y forma. Representaciones verbales y algebraicas de la distribución normal. Términos como normal, estadístico, parámetro, función de densidad, N(µ,σ), representación simbólica de la función de densidad: N ( x ; µ , σ ) = 1 σ 2π e − ( 1 / 2 ) [( x − µ )/ σ ]2 , fórmula de tipificación, representación de intervalos (x ± k. s) para muestras y (µ ± kσ) para poblaciones, representación simbólica de los axiomas de probabilidad: p(xi)≥0, +∞ ∫ f ( x ) dx = 1 −∞ Representaciones ofrecidas por el ordenador. El programa Statgraphics brindó una gran variedad de representaciones, tanto numéricas como gráficas, que se pueden realizar rápidamente y disponer de forma simultánea en la pantalla. Además de las representaciones usuales en los libros de texto analizados, hemos usado otras como representar las funciones de densidad de varias distribuciones en un mismo marco de referencia o superponer el histograma de frecuencias y la curva de densidad. Los valores críticos y áreas de colas son representaciones que en los libros de texto sólo se ofrecen para la distribución normal tipificada, mientras que en el ordenador son disponibles para cualquier distribución normal. Elementos actuativos. Técnicas específicas realizadas para la resolución de problemas. Se consideraron los siguientes tipos de estrategias y procedimientos para la resolución de los problemas anteriormente descritos: A1.Estudio descriptivo del conjunto de datos, para tratar de resolver el problema P1. A2.Tipificación. Aunque la mayoría de los libros plantea la tipificación como un punto imprescindible en el manejo de tablas, en nuestro caso sólo fue utilizada en la comparación de distribuciones que tienen diferentes medias y desviaciones típicas. A3.Cálculo de probabilidades y valores críticos con ordenador. Se introdujo con ayuda del ordenador por medio de dos técnicas de cálculo: 5 1. Dados uno o dos valores de la variable, calcular la probabilidad de que la variable tome valores en intervalos determinados por ese o esos puntos (áreas bajo la curva). 2. Dada una probabilidad, encontrar los extremos del intervalo que comprenda dicha probabilidad (cálculo de valores críticos). A4.Cálculo de probabilidades con lápiz y papel. En ocasiones la probabilidad se estimaba por el valor del área bajo el histograma a partir de la distribución empírica de una muestra de la población en estudio. En otros casos se hizo cálculo de probabilidades en la curva teórica normal, a partir de las propiedades de simetría y distribución de casos alrededor de la media. Otras prácticas usadas en la resolución de los problemas fueron el cálculo de los intervalos centrales que contiene un porcentaje dado de casos, y la comparación de una distribución normal con un conjunto de datos empíricos en forma "visual". Elementos intensivos. Definición, propiedades y relación con otros conceptos. La curva normal se introdujo en forma dinámica, usando el ordenador, mediante un ejemplo referido al coeficiente de inteligencia (CI) como un modelo que se aproxima al polígono de frecuencias relativas cuando se aumenta el tamaño de la muestra y se disminuye el ancho de los intervalos. Se estudiaron también las siguientes propiedades: • Propiedades de simetría y curtosis: posición relativa de media, mediana y moda, interpretación del coeficiente de asimetría, curtosis y valores tipificados, área por encima y por debajo de la media, probabilidad máxima en el intervalo central. • Propiedades relacionadas con los parámetros de la distribución normal: relación existente entre la desviación típica con los puntos de inflexión de la curva, significado geométrico de los parámetros, variación de la gráfica al variar estos parámetros. • Propiedades estadísticas: cálculo de probabilidades, probabilidad total bajo la curva, distribución de casos en relación con la desviación típica y media, valor esperado de la media muestral, distribución muestral asintótica de medias y proporciones, intervalos de confianza para media y proporción. • Relación con otros conceptos: variable estadística y aleatoria, posición central, dispersión, simetría y curtosis. Debido a que el tema resulta muy amplio, no hemos tenido en cuenta en la evaluación los elementos de significado específicamente relacionados con la distribución muestral de medias y proporciones, teorema central del límite e intervalos de confianza. Elementos validativos. La presentación del tema fue intuitiva, tratando de evitar la formalización excesiva, usando los siguientes tipos de validación: • Validación a través de la representación gráfica y simulación con ordenador, que nos ha proporcionado validación para el significado de los parámetros de la distribución normal o la bondad del ajuste de datos empíricos a la distribución. • Validación por medio de comprobación de casos. • Generalización: Cuando a partir de demostraciones formales o informales se llegan a conclusiones que pueden extenderse a todos aquellos casos que cumplan las condiciones iniciales. • Análisis: Cuando se estudian las particularidades o características iniciales de una situación que pueden conducir posteriormente a generalizaciones o a una síntesis. • Síntesis: Cuando se realiza una conclusión en la que se incluyan todas las propiedades o conclusiones extraídas del análisis de un concepto. 6 Metodología Contexto institucional y alumnos participantes Al ser éste un estudio innovador, en el sentido de contar apenas con antecedentes previos, hemos decidido darle un enfoque cuasi-experimental (Cook y Campbell, 1979) y trabajar con un sólo grupo de estudiantes. El curso donde se ha realizado la experiencia es una asignatura de libre configuración de “Análisis de datos y su didáctica”, de 9 créditos de duración (90 horas a lo largo del año), impartida en la Facultad de Educación de la Universidad de Granada. Participaron un total de 57 alumnos (divididos en 2 grupos) en el curso lectivo 98-99. Los alumnos se repartían en su mayoría entre las licenciaturas de Pedagogía y Empresariales, aunque también hubo alumnos de diferentes especialidades de Maestro, así como de Psicología, Psicopedagogía y Económicas. Al iniciar el curso se pasó a los alumnos el instrumento de evaluación elaborado por Garfield (1991), que incluye la evaluación de actitudes y concepciones erróneas o heurísticas descritas en la investigación psicológica. Los alumnos mostraban, en general una actitud positiva hacia la asignatura, que habían escogido libremente. Sus conocimientos iniciales eran muy variados, pero ninguno conocía el paquete estadístico o los aspectos prácticos de aplicación de la estadística. También mostraron errores referentes a la variabilidad en el muestreo (heurística de representatividad) e interpretación de la asociación. Algunos de ellos desconocían totalmente el uso de procesadores de texto o recursos informáticos. Antes de comenzar la enseñanza de la distribución normal, los alumnos habían estudiado los fundamentos de estadística descriptiva univariante y bivariante, incluyendo las representaciones gráficas, medidas de posición central, dispersión y forma. Al comenzar la secuencia de enseñanza de la distribución normal, se explicó a los alumnos la investigación que se estaba realizando, pidiéndoseles su colaboración. Desarrollo de la enseñanza En total se dedicaron al estudio de la distribución normal 6 sesiones de dos horas de duración y 4 al estudio del muestreo e intervalos de confianza, en las que se hizo uso de los conocimientos adquiridos sobre la distribución normal. Como era habitual en el resto del curso, la mitad de las sesiones se realizaron en un aula tradicional y el resto en el aula de informática, en la que había disponible un ordenador para cada pareja de alumnos. Se contó con en un material escrito que se entregó a los alumnos. Otros recursos didácticos fundamentales fueron un conjunto de ficheros de datos y actividades propuestas en base a ellos. En la primera y segunda sesión práctica relacionadas con la distribución normal, se trabajó con un conjunto de datos obtenidos al aplicar un test de evaluación de intuiciones probabilísticas primarias a 250 alumnos de educación primaria (12 a 14 años). En la práctica tercera se utiliza un fichero que contiene datos sobre la altura de 1000 varones y 1000 mujeres. Antes de iniciar el estudio de la distribución normal, los alumnos habían trabajado con otros datos sobre sus actitudes hacia la estadística (tomados en la evaluación inicial), medidas físicas de los alumnos del curso anterior y rendimiento en lectura de un grupo de escolares. En las sesiones desarrolladas en el aula tradicional los alumnos estudiaron y discutieron, con ayuda de la profesora, el material escrito que previamente se les había proporcionado. La profesora planteó a los alumnos problemas dirigidos a que descubriesen por sí mismos algunas de las propiedades de la distribución normal, presentó un resumen de otras, organizó y orientó el debate de las soluciones. Se enfatizaron las actividades interpretativas y las aplicaciones a problemas reales. Los problemas se resolvían con papel y lápiz, calculadora e 7 instrumentos de dibujo y, en algunos casos, dejaban cuestiones abiertas que los alumnos debían pensar y responder en las sesiones siguientes. En las sesiones desarrolladas en el aula de informática, los estudiantes trabajaron en parejas con el ordenador utilizando el programa Statgraphics. Se proporcionó a los alumnos los ficheros de datos descritos, que contenían variables, algunas de las cuales podían ser ajustadas por una distribución normal y otros donde esto no era posible, planteándoles problemas relacionados con la distribución normal. Los alumnos debían producir un informe escrito con procesador de texto, aportando los resultados de análisis de datos necesarios para responder las cuestiones planteadas, por lo cual tuvieron muchas oportunidades de ejercitar su capacidad argumentativa. Al comienzo de las sesiones la profesora presentaba un resumen de las opciones del programa y durante la clase atendía a las preguntas formuladas por los alumnos. La secuencia de enseñanza se realizó durante los meses de Abril y Mayo cuando el curso estaba finalizando. Las clases fueron observadas por una de las autoras de este trabajo, siendo otra la profesora del curso. La observación de la clase se registró en un diario de observación, que se revisaba a la salida de cada clase con la colaboración de la profesora para comprobar la precisión de los datos. En todas las sesiones de clase se recogieron las respuestas escritas de los alumnos a las tareas propuestas (informes en papel y lápiz en las clases teóricas e informes grabados con ayuda de un procesador de textos en las clases prácticas). Debido a la limitación del espacio solo describiremos la evaluación final realizada del aprendizaje. Instrumentos de recogida de datos En nuestro marco teórico, la evaluación se traduce en el estudio de la correspondencia entre el significado institucional presentado en la enseñanza y el significado personal efectivamente construido por los alumnos, identificando los puntos en que hay acuerdo y aquellos en que el alumno presenta dificultades o errores. Este es el sentido de la evaluación que tomaremos para este trabajo. Es importante entonces que la evaluación cubra una muestra representativa de los diversos elementos de significado presentados a los alumnos en la enseñanza. Con este fin, en este estudio hemos diseñado dos tipos de instrumentos de evaluación, que responden a la evaluación considerada y también tienen en cuenta los dos tipos de cuestiones sugeridas por Gal (1997) para la evaluación en estadística: a) Cuestiones sobre lectura directa de datos, definiciones o reconocimiento de propiedades, en que las respuestas pueden ser clasificadas como correctas o incorrectas. Este tipo de cuestiones son recogidas en un cuestionario, que permite evaluar en forma rápida el conocimiento de una amplia muestra de elementos de significado. b) Por el contrario, para evaluar la capacidad de análisis de datos reales de los estudiantes necesitamos información sobre los juicios de los estudiantes, sus procesos de razonamiento, las estrategias utilizadas y forma en que relacionan los distintos elementos de significado. Estos aspectos se recogen en una prueba de ensayo, que complementa el cuestionario. Diseño del cuestionario. El cuestionario contenía un total de 20 ítems, cada uno de los cuales se divide en varios subítems. En su construcción se partió de ítems contenidos en Cruise, Dudley y Thayer (1984), traduciendo sus enunciados y elaborando una tabla de contenidos, para cubrir los diferentes elementos de significado que se pretendía evaluar. En una serie de revisiones sucesivas se completaron y modificaron los ítems para conseguir una redacción semejante y un número aproximadamente igual de subítems en cada uno de los ítems. Se hicieron pruebas de legibilidad y comprensión del enunciado, modificando la redacción en los casos que fue necesario. El instrumento finalmente construido incluye preguntas en que se pedía al alumno proporcionar ejemplos de algún concepto (ítem 1), preguntas en que se pedía al alumno un cálculo (ítem 14) y otras en que el alumno debía justificar un enunciado (ítems 16 a 20). El 8 resto eran ítems de tipo verdadero/falso, cada uno de los cuales estaba compuesto de 3 ó 4 subítems en que el alumno debía marcar todas las respuestas correctas. La comprensión de elementos intensivos se evaluaba en todos los ítems, los extensivos en los ítems 1, 3, 4, 6 y 9, actuativos en el ítem 14, ostensivos en los ítems 11, 14, 15, 16 y 20 y, finalmente, los validativos en los ítems 16 a 20. Diseño de una prueba usando ordenador. El segundo instrumento es una prueba de ensayo para ser resuelta en forma individual por cada alumno usando el ordenador, a partir de un conjunto de datos que no había sido analizado previamente en la enseñanza. El alumno debería responder a tres cuestiones sobre la distribución normal y producir un informe grabado en un procesador de texto, al que debería incorporar las tablas, gráficos y resúmenes estadísticos que juzgase conveniente para apoyar su argumentación. El nuevo fichero de datos incluía variables cualitativas y cuantitativas, discretas y continuas, algunas de las cuales se ajustaban bien a la distribución normal y otras no. En concreto, las cuestiones fueron las siguientes: Cuestión 1. Encuentra una variable en este fichero de datos que pueda ser aproximada por una distribución normal. Explica el criterio que has seguido y el procedimiento utilizado para seleccionar la variable. El objetivo de esta pregunta es evaluar si el alumno es capaz de discriminar variables que se pueden aproximar bien por una distribución normal y otras que no, utilizando como criterios de discriminación el tipo de variable (continua o discreta con muchos valores diferentes), simetría y curtosis de la distribución y porcentaje aproximado de casos a distancia una, dos y tres desviaciones típicas de la media. El interés se centra no sólo en que el alumno determine una variable adecuada, sino en determinar los criterios de identificación que utiliza, lo cual nos permite evaluar las propiedades (elementos intensivos) que atribuye a la distribución normal. Puesto que no se indica qué variable hay que analizar y no basta uno solo de los criterios, el alumno ha de hacer un trabajo de análisis (para comprobar las propiedades en las diferentes variables) y síntesis (para obtener una conclusión del conjunto de análisis realizados). Cuestión 2. Calcula el valor adecuado de los parámetros para ajustar una distribución normal a la variable seleccionada en la cuestión 1. El objetivo es evaluar si el alumno comprende la idea de parámetro y es capaz de aplicarla en un contexto práctico. Además, nos permite observar si se discrimina de manera correcta entre los conceptos de parámetro y estadístico y entre distribución teórica y empírica (elementos intensivos), ya que la confusión entre modelo y datos ha sido descrita en trabajos previos sobre inferencia estadística, como el de Vallecillos (1996). Cuestión 3. Calcula la mediana y los cuartiles en la distribución teórica que tú has ajustado. El objetivo es evaluar si el alumno comprende las ideas de mediana y cuartiles y es capaz de aplicarlas en un contexto práctico así como si discrimina la distribución de datos empírica del modelo teórico que usa como aproximación de la misma (elementos intensivos). Esta prueba también evalúa la capacidad de manejo del software estadístico y de interpretación de los resultados proporcionados por el mismo, que no se recogen en el cuestionario. Puesto que el alumno tenía libertad para resolver las cuestiones usando cualquier tipo de conocimiento que considerase conveniente en relación a la distribución normal, esta prueba nos permite evaluar el uso correcto o incorrecto de diferentes elementos ostensivos, actuativos, intensivos y validativos por parte del alumno y la forma en que los ponen en relación. 9 Análisis de los datos y discusión de resultados Resultados de la aplicación del cuestionario Una vez finalizada la experiencia de enseñanza, se procedió a la aplicación de los instrumentos de recogida de datos, con el fin de describir las características principales en el significado personal que los alumnos habían construido sobre la distribución normal. Los alumnos habían sido informados de que unos días después de finalizar el tema sobre la distribución normal se les pasaría un cuestionario para analizar las dificultades de comprensión, pidiéndose su colaboración en la investigación. Los alumnos respondieron individualmente por escrito durante la última sesión práctica del curso (dos horas de duración), recogiéndose datos de un total de 55 alumnos, quienes lo completaron con interés y esfuerzo. En esta ocasión no se permitió a los alumnos consultar los apuntes o material de clase. Los porcentajes de respuestas en cada subítem del cuestionario se presentan en la Tabla 1, donde hemos marcado con (*) las respuestas correctas. Consideramos correcto bien la elección de una respuesta correcta o la no elección de una respuesta incorrecta. A continuación se analizan las concordancias y diferencias entre el significado institucional implementado en la enseñanza y el personal construido por los alumnos del grupo participante que se refleja en estos resultados. Concordancia entre el significado institucional y el significado personal construido por los alumnos del grupo. Los alumnos respondieron correctamente a un promedio del 70% de las preguntas del cuestionario, lo que indica que muchos de los elementos considerados en la enseñanza habían pasado a formar parte del significado personal de los alumnos. A continuación analizamos los elementos sobre los que los estudiantes demuestran una mejor comprensión. Elementos extensivos. Un gran número de alumnos han aplicado correctamente los tres elementos extensivos que se habían previsto en la construcción del cuestionario, destacando especialmente el ajuste de un modelo a datos continuos (6b, 6d), aproximación de distribuciones discretas (6 a y 6 c) y el uso en inferencia (subítems 3 b, 3c, 4 a, 4c, 4d).. También se identifica qué tipos de variables se pueden aproximar por medio de la distribución normal ( 9a, 9b, 9c, 9d ). Elementos ostensivos. Los alumnos han reconocido los términos verbales asociados a los diferentes conceptos (en todos los ítems), como distribución, parámetro, media, etc., mostrando un dominio adecuado de los ostensivos verbales y simbólicos. De los elementos ostensivos gráficos aplicados en este instrumento, ha destacado principalmente el reconocimiento correcto de la gráfica de la función de densidad normal (subítems 5 a, y c, 11 a, b, c) y convenios de representación de la distribución de probabilidad (ítem 12). También se pone en relación esta representación gráfica con otros elementos de significado, principalmente intensivos tales como el concepto de función de densidad, las propiedades de simetría de la distribución normal (ítems 17 y 18), la variación de la forma gráfica en función de los parámetros de la distribución normal (subítems 11 b y c) y frecuencia de valores centrales (ítem 20) y exteriores (ítem 19). Pensamos que las posibilidades gráficas brindadas por el ordenador y la exploración dinámica de la función de densidad en la tercera clase práctica han ayudado a los alumnos a adquirir estos elementos de significado y ponerlos en relación. 10 Tabla 1. Porcentajes de respuestas en los subítems del cuestionario (n = 55) Ítems Porcentaje I 1. Escribe un ejemplo de cada uno de los siguientes tipos de variables: a. Variable cuantitativa continua (responden correctamente) 78 b. Variable cuantitativa discreta (responden correctamente) 70 c. Variable cualitativa (responden correctamente) 87 I 2. En un histograma, la frecuencia de valores de un intervalo está dada por: a. La altura de cada rectángulo 65 b. La amplitud o ancho del intervalo 19 c. El área comprendida entre el histograma y el eje, en el intervalo (*) 24 I 3. El propósito de un modelo matemático aplicado a cualquier ciencia es que: a. Nos permite visualizar la naturaleza de nuestros datos (*) 19 b. Nos permite hacer predicciones sobre datos futuros (*) 69 c. Nos proporciona una aproximación a los datos (*) 48 d. Nos permite usar una ecuación (*) 9 I 4. La curva normal es un modelo que: a. Se encuentra raramente en una distribución de datos empíricos 7 b. Está definida en términos de datos empíricos 81 c. Está definida en términos de una ecuación matemática (*) 50 d. Sirve para hacer inferencias sobre una población (*) 67 I 5. La curva normal es: a. Una curva que se aproxima indefinidamente al eje horizontal sin cortarlo (*) 54 b. Una distribución matemática o teórica (*) 20 c. Una curva en forma de campana (*) 87 d. Puede tomar valores negativos (*) 7 I 6. ¿Cuáles de las siguientes distribuciones se aproxima mejor a una curva normal? a. Edades de los estudiantes de un instituto 37 b. Pesos de los alumnos varones de un instituto (*) 48 c. Números de libros publicados por los profesores de la Universidad de Granada 2 d. El coeficiente intelectual de una población de aspirantes para cubrir diversos puestos de una fábrica (*) 44 I 7. La distribución normal tiene muchos datos acumulados en: a. Los valores medios (*) 85 b. Los valores más altos 4 c. Los valores más bajos 17 d. Depende de la variable medida 6 I 8. Para definir completamente una distribución normal, basta conocer: a. La mediana 9 b. La media (*) 91 c. La moda 9 d. La desviación típica (*) 67 I 9. La distribución normal es una distribución aplicable a: a. Poblaciones de datos continuos (*) 72 b. Poblaciones de datos discretos con pocos valores diferentes 19 c. Poblaciones de datos cualitativos 4 d. Poblaciones de datos ordinales 15 I 10. La distribución normal tipificada se diferencia de una distribución normal cualquiera porque: a. Tiene distinta media y distinta desviación típica 9 b. Tiene siempre media 0 y desviación típica 1 (*) 57 c. La distribución normal tipificada representa datos ideales, mientras que una 39 distribución normal cualquiera representa datos reales Nota: (*) Respuestas correctas 11 Tabla 1 (continuación). Porcentajes de respuestas en los subítems del cuestionario (n=55) Ítems Porcentaje I 11. ¿Cuáles de las siguientes afirmaciones sobre las curvas son ciertas? ? (Se dan las gráficas de dos distribuciones normales de igual media y distinta desviación típica) a. Sólo la curva izquierda es normal 0 b. Las dos curvas son normales pero con desviaciones típicas diferentes (*) 85 c. Las dos curvas son normales pero las medias son distintas 26 30 d. El 50% de los datos está comprendido en el intervalo (µ-σ; µ+σ) I 12. Una distribución de probabilidad establece que: . La frecuencia acumulada está sobre la ordenada (eje vertical) y el resultado probable sobre el eje horizontal 7 . El área de la curva está sobre el eje horizontal y los resultados posibles están sobre la ordenada (eje vertical) 7 . Los límites inferior y superior de los sucesos están sobre el eje horizontal y la frecuencia está sobre la ordenada (eje vertical 22 d. La probabilidad viene dada por el área bajo la curva y todos los valores posibles están sobre el eje horizontal (*) 61 I 13. Juan ha determinado que sus datos están normalmente distribuidos con una media de 16 y una desviación estándar de 4,2. ¿Qué más debería hacer antes de publicar sus resultados? a. Calcular el primer y tercer cuartil 9 b. Determinar todos los deciles 0 c. Todo lo anterior serviría como información adicional a su informe (*) 63 d. Nada, él tiene información suficiente (*) 43 I 14. ¿Cuáles de las siguientes distribuciones es una posible distribución de probabilidad? (Se dan dos curvas de densidad, con los valores numéricos de áreas parciales representados gráficamente. El área total bajo la curva 1 es mayor que 1 y el área total bajo la curva 2 es menor que 1). a. La primera curva 26 b. La segunda curva 9 c. Ninguna (*) 28 d. Las dos 17 I 15. El error cometido al medir una cantidad tiene una distribución normal con media 0 y desviación típica 3 cm. . ¿Cuál es el valor tipificado de un error de 6 cm? (respuestas correctas) 44 . Si el valor tipificado es 1, ¿Cuál es el error cometido? (respuestas correctas) 39 I 16. En una distribución normal, el 50 % de las medidas caen por encima de la media. V/F. (verdadero). 74 Justifica correctamente 69 I 17. En la curva normal, la media es igual a la moda. V/F. (verdadero). 72 Justifica correctamente 63 I 18. La curva normal representa una distribución que se distribuye en forma simétrica con respecto a la media. V/F. (verdadero). 89 Justifica correctamente 70 I 19. Si una variable está distribuida normalmente, los casos extremos son poco frecuentes. V/F. (verdadero). 76 Justifica correctamente 59 I 20. Entre x –3.s y x +3.s, en una distribución normal, se puede encontrar casi el 100 83 % de los datos” ( x es la media y s es la desviación típica). V/F. (verdadero). 69 Justifica correctamente Nota: (*) Respuestas correctas Elementos actuativos. Los elementos actuativos que se han aplicado correctamente aproximadamente por el 40% de los alumnos han sido el cálculo de valores tipificados y de sus inversos (subítems 15 a y b). No ha habido mucha variedad en la aplicación de estos 12 elementos como consecuencia del formato del cuestionario, en el que prácticamente no se solicitaba realizar acciones. Elementos intensivos. El cuestionario evalúa mayor diversidad de elementos intensivos, tanto específicos como relacionados con la distribución normal. Los que han tenido un mayor porcentaje de aplicación correcta han sido: • Los diferentes tipos de variables estadísticas (subítems 1 a, b y c, 6 a, b, c y d, y 9 a, b, c y d): este es un concepto trabajado desde el comienzo del curso y no sólo en este tema específico; • Se ha mostrado una comprensión significativa de la distribución normal tipificada (ítem 10), los parámetros en una curva normal (Subítems 8 a, b, c y d, 10 a y b), estableciendo relaciones correctas entre la forma gráfica de la curva de densidad normal (elemento ostensivo) y su significado geométrico (Subítem 11 b y c). También parece haber un conocimiento claro de los parámetros de la distribución normal como elementos que brindan la información esencial acerca de dicha distribución (ítem 13). • Se observa un buen conocimiento de la propiedad de unimodalidad de la distribución normal ( ítem 17) y de la posición de la moda en dicha distribución. • Se aplica en forma adecuada la propiedad de simetría de la distribución normal con respecto a la media (ítems 16, 17 y 18). • Se observa un nivel adecuado de conocimiento de las propiedades geométricas y estadísticas de la distribución normal (subítem 11 b, ítem 18), y de la propiedad de los intervalos centrales (subítem 11 d e ítem 20). Elementos validativos. No ha habido mucha diversidad de aplicación debido a que sólo había cinco ítems en los que se pedía justificar. En general, los alumnos han realizado aplicación y comprobación de propiedades, así como en algunos casos, se han apoyado en la representación gráfica para justificar sus afirmaciones (ítems 16, 17, 18, 19 y 20). Diferencias entre el significado institucional y las características en el significado personal de los alumnos del grupo Por otro lado, no todos los ítems de la prueba fueron respondidos correctamente, habiendo una gama de dificultad, desde preguntas acertadas por todo el grupo hasta otras con un porcentaje de aciertos muy bajo. Observamos que los errores más comunes que se deducen de las respuestas son los siguientes, que denotan desajustes con el significado institucional pretendido en el curso: Elementos extensivos. No se llegó a percibir que la distribución normal puede tomar tanto valores positivos como negativos (Subítem 5 d), en coincidencia con lo que afirman Huck, Cross y Clark (1986) por lo que no se aprecia la aplicabilidad de la distribución normal a variables con este tipo de valores. En nuestra secuencia de enseñanza esta propiedad no se ha trabajado demasiado, por lo que la dificultad mostrada por los alumnos pudo ser consecuencia del escaso número de ejemplos de este tipo. No se percibe la utilidad del modelo para visualizar los datos (ítem 3 a). Elementos ostensivos. No se identifica el modelo normal con una ecuación (Subítem 3 d), lo que también esto puede ser consecuencia del tratamiento poco formal que hemos dado a nuestra enseñanza y el poco uso que se hizo de la ecuación. Se identifica la frecuencia en un histograma con la altura de los rectángulos y resulta bastante difícil observar la correspondencia entre frecuencia y área (Subítem 2a, 2c). Aunque en nuestra enseñanza se hizo énfasis en este convenio de representación, que es importante para comprender posteriormente el cálculo de probabilidades mediante el cálculo de áreas en la función de densidad, parece que no fue suficiente para superar esta dificultad. 13 Sería necesario presentar más tareas en las que los alumnos debieran trabajar con histogramas que tuvieran amplitud de intervalos no homogénea (en nuestro caso sólo hicimos una actividad de este tipo). Pensamos que el error proviene del hecho de que cuando los intervalos son homogéneos la frecuencia es proporcional a la altura y los alumnos han hecho una generalización incorrecta. El error se ha reafirmado con la utilización del ordenador que no proporciona la posibilidad de trabajar con histogramas de intervalos desiguales. Elementos actuativos. Como ya hemos comentado, una parte de los alumnos tuvo dificultad con el cálculo de valores tipificados y sus inversos (15a y b). Elementos intensivos. Han habido dificultades cuando se debe diferenciar entre distribución teórica y empírica (Ítems 4a, 5b) en concordancia con los señalado por otros autores (Vallecillos, 1996; Schuyten, 1991). Los alumnos tampoco llegaron a percibir que el área total bajo una curva de densidad debe ser igual a la unidad (ítem 14). Resultados de la prueba con ordenador En la prueba que se realizó con ordenador los estudiantes trabajaron individualmente con el programa Statgraphics y tuvieron a su disposición los apuntes escritos de la asignatura y notas de clase que podían consultar, aunque no se les permitió hablar entre ellos. Escribieron su informe en un documento mediante procesador de texto, incorporando las tablas y gráficos necesarios en su argumentación. Se les animó a que razonasen con detalle sus respuestas y se les dio libertad para emplear el o los procedimientos que considerasen adecuados. El tiempo disponible fue de tres horas. Una vez recogidos los datos, se imprimieron los informes y se llevó a cabo un análisis de su contenido, identificando para cada alumno si la respuesta a cada pregunta era correcta o incorrecta, así como los diferentes elementos de significado que utilizan explícitamente en forma correcta o incorrecta. A continuación, pasamos a analizar los resultados de los 57 alumnos que completaron la prueba. Describiremos, en primer lugar los resultados globales en cada una de las cuestiones planteadas, pasando seguidamente a analizar los elementos de significado puesto en juego en su conjunto, describiendo también las concordancias y diferencias entre el significado institucional previsto y el significado personal que se manifiesta en las respuestas. Cuestión 1: Elegir una variable que se ajusta a una distribución normal. En la Tabla 2 presentamos las características de las variables y el número y porcentaje de estudiantes que seleccionaron cada una de ellas. Dos variables podían ser ajustadas por una distribución normal. Tiempo para correr 30 m (diciembre) era una variable continua obtenida al simular una distribución normal y pasó los tests de normalidad y de bondad de ajuste. La normalidad de esta variable se reconocía fácilmente por la forma de sus representaciones gráficas, su asimetría y curtosis eran cercanas a cero, aunque la media, mediana y moda no coincidían exactamente. Pulsaciones después de 30 flexiones era discreta, aunque con muchos valores diferentes, su forma y los diferentes estadísticos implicaban que la distribución normal podía proveer una aproximación aceptable. El 31% de estudiantes seleccionaron una de las variables consideradas correctas porque se ajustan aproximadamente a una distribución normal. El resto tomaron una variable con alta curtosis (talla) o una variable discreta con 3 valores diferentes (edad). Por tanto, no han comprobado todos los requisitos necesarios para la normalidad, o bien los han interpretado incorrectamente. 14 Tabla 2. Características de las variables seleccionadas por los estudiantes (n=57) Variable Características de las variables Estudiantes que la eligen Tipo Asimetría Curtosis Media, Mediana, Porcentaje Moda Edad Discreta; 3 valores 0 -0.56 13,13,13 28 diferentes Talla Continua 0.85 2.23 156.1, 155.5, (1) 30 Multimodal *Pulsaciones después Discreta; muchos 0.01 -0.19 123.4, 122, 122 21 de 30 flexiones valores diferentes *Tiempo para correr Continua 0.23 -0.42 4.4, 4.4, 5.5 10 30 m. (Diciembre) Peso Continua 2.38 9.76 48.6, 46, 45 5 Valores atípicos Pulsaciones en reposo Discreta; muchos 0.2 -0.48 71.4, 72, 72 3 valores diferentes Tiempo para correr Continua 2.4 12.2 5.3, 5.2, 5 2 30 m. (Septiembre) (*) Respuesta correcta. Estas variables se aproximan suficientemente a una distribución normal (1) Tiene 3 modas: 150, 155, 157. Cuestión 2: Determinación de los parámetros de la curva ajustada. En la tabla 3 se muestran las soluciones de los estudiantes, donde observamos que el 43% no llega a calcular los parámetros, 42% trabajaron con los datos empíricos (variable estadística) y sólo 14% con la distribución teórica (variable aleatoria). En total, 47% de los estudiantes proporcionaron los parámetros correctos mientras que un 7% más proporcionaron estadísticos adicionales innecesarios, tales como la mediana, lo que indica que no comprendieron correctamente la idea de parámetro. En consecuencia, estos resultados indican dificultades en la comprensión de los siguientes elementos intensivos: parámetro, estadístico y diferencia entre distribución teórica y empírica. Tabla 3. Porcentaje de distribución usada por los alumnos y parámetros calculados (n=57) Parámetros calculados Distribución usada Teórica Empírica Ninguna Total Parámetros correctos 12 35 47 Estadísticos adicionales innecesarios 7 7 Parámetros incorrectos 3 3 No dio soluciones 43 43 Total 15 42 43 100 Cuestión 3: Cálculo de percentiles en la distribución teórica. En la tabla 4 presentamos las soluciones a la última cuestión. Los resultados obtenidos muestran que el 44% de los estudiantes dieron soluciones correctas o parcialmente correctas en el cálculo de la mediana, aunque sólo el 14% usaron la distribución teórica para calcular esos valores a partir de las tablas de valores críticos de la distribución y calcularon la mediana de la distribución teórica. El resto calcularon la mediana de la distribución de datos empíricos a través de las diferentes opciones, como la tabla de frecuencia, los percentiles o los resúmenes estadísticos. 29% de alumnos no llega a ninguna solución. Vemos de nuevo la adquisición de destrezas de cálculo (actuativos) y la dificultad de discriminación entre distribución teórica y empírica (intensivo). 15 Tabla 4. Porcentaje de distribución usada y cálculo de mediana y cuartiles (n=57) Cálculo de mediana y cuartiles Distribución usada Teórica Empírica No se Total especifica Correcto 14 30 44 Parcialmente correcto 7 2 9 Incorrecto 5 14 7 26 Sin solución 21 21 Total 19 51 30 100 Concordancias y diferencias entre el significado institucional y el significado personal de los alumnos del grupo A continuación describimos brevemente los principales elementos de significado que los alumnos han explicitado en sus informes escritos al resolver la prueba con ordenador, destacando las semejanzas y diferencias entre el significado institucional y el personal. Estos resultados se resumen en la Tabla 5. Elementos ostensivos. Los alumnos han aplicado diferentes elementos ostensivos de forma correcta con predominancia de la gráfica de la función de densidad normal, la curva de densidad y el histograma superpuestos, y el histograma, por lo que deducimos que los alumnos han comprendido estos elementos, y los usan para representar diferentes elementos intensivos y deducir relaciones entre los mismos. Es escaso el uso del polígono de frecuencias, lo cual pudo deberse a que éste se encontraba en una opción secundaria del programa. Dentro de las representaciones numéricas es destacable el porcentaje de uso de los parámetros (media y desviación típica de la distribución teórica ajustada). Los resúmenes estadísticos se han aplicado correctamente cuando los alumnos han calculado los coeficientes de asimetría y curtosis, e incorrectamente cuando se pedía calcular mediana y cuartiles (ya que se tomó la distribución empírica en vez de sobre la teórica). Son pocos los alumnos que usan correctamente las tablas de frecuencia, valores críticos y áreas de cola y también se producen errores en su aplicación. Podemos concluir que las representaciones gráficas han resultado más intuitivas para los alumnos que las numéricas, ya que un gráfico da una idea mucho más precisa sobre la forma de la distribución que los valores de un determinado coeficiente o estadístico y el trabajo con resúmenes numéricos requiere de un nivel de abstracción mayor. Elementos actuativos. El elemento actuativo más utilizado, no siempre correctamente, ha sido la comparación visual. Un buen porcentaje de alumnos compara correctamente la curva de densidad de la distribución empírica con la curva de densidad normal teórica. Sin embargo la mitad de ellos confunden estas dos curvas y usan la curva teórica normal, en lugar de usar la curva empírica, deducida directamente al suavizar el polígono de frecuencias. Por ejemplo, para la variable Edad (Figura 1), que fue escogida por un porcentaje alto de alumnos, la curva de densidad empírica es claramente no normal (asíntotas no horizontales). Los alumnos que usaron la curva de densidad teórica que es normal, no llegaron a percibir que el histograma no se ajusta a ella, incluso aunque se cambie la anchura de los intervalos, a pesar de que es claramente visible en el gráfico. 16 Tabla 5. Porcentajes de principales elementos de significado aplicados en la prueba (n=57) Elementos de significado usados por los alumnos Ostensivos Representaciones gráficas Curva de densidad normal Curva de densidad e histograma superpuestos Histograma Polígono de frecuencias Representaciones numéricas Valores críticos Áreas de cola Media y desviación típica (distribución teórica) Resúmenes estadísticos (asimetría y curtosis) Mediana y cuartiles (distribución empírica) Tabla de frecuencias Correctamente Incorrectamente 61 28 25 3 2 9 3 2 7 3 3 40 5 35 46 3 14 14 40 2 60 12 9 Intensivos Tipo de variable Simetría en la distribución normal Unimodalidad en la distribución normal Parámetros de la distribución normal Propiedades estadísticas de la distribución normal Propiedad de los intervalos centrales en la distribución normal Distribución teórica -empírica Curtosis en la distribución normal Posición relativa de media, mediana y moda Coeficiente de simetría y asimetría tipificado Coeficiente de curtosis, y curtosis tipificado 32 23 10 35 17 3 35 7 17 16 7 68 10 5 12 3 2 44 2 3 2 2 Validativos Comprobación de propiedades Aplicación de propiedades Análisis Representación gráfica Síntesis 12 26 14 49 7 5 5 2 32 35 26 Actuativos Cálculo de parámetros de la distribución normal Comparación visual Cálculo de probabilidades en intervalos de la distribución normal Cálculo de valores críticos en la distribución normal (cuartiles y mediana) Estudio descriptivo de datos para ajustar una curva Figura 1. Curvas de densidad empírica y teórica para la variable Edad Curva normal teórica ajustada a Edad 1 60 0,8 50 frecuencias densidad Curva de densidad empírica para Edad 0,6 0,4 0,2 40 30 20 10 0 0 12 12,4 12,8 13,2 Edad 13,6 14 11 17 12 13 Edad 14 15 También, un buen número de los alumnos calculan correctamente los parámetros, pero hay un porcentaje importante de errores y aún mayor en el cálculo de valores críticos de la distribución normal (cuartiles y mediana). Concluimos que, aunque el ordenador suprime la necesidad de aprender el uso de las tablas de la distribución normal, no resuelve completamente el problema de cálculo, ya que los alumnos tienen dificultades en el cálculo de valores críticos con las opciones del programa. Finalmente algunos alumnos hacen uso correcto o incorrecto del estudio descriptivo de datos para ajustar una curva. Elementos intensivos. Un alto porcentaje de alumnos ha utilizado correctamente los diversos elementos intensivos específicos de la distribución normal. El mayor problema fue que muchos alumnos tomaron como normal una variable discreta. Ello se debió en la mayor parte de los casos a que no lograron distinguir entre la distribución empírica y la teórica, por el alto nivel de abstracción requerido para diferenciar modelo y realidad y los diferentes niveles en que usamos un mismo concepto en estadística, como sugieren Schuyten (1991) y Vallecillos (1994). Un hecho bastante significativo es que a pesar de que en el desarrollo de la secuencia de enseñanza se hizo especial énfasis en la propiedad de los intervalos centrales en una distribución normal, han sido muy pocos los alumnos que han llegado a aplicar este elemento intensivo. Pensamos que en las sesiones prácticas los alumnos lograron aplicar este elemento gracias a la guía de la profesora que salvaba las dudas en el momento. En el examen no se contaba con esta ayuda y esta propiedad es una de las de mayor complejidad semiótica debido a que requiere de la integración y relación de diversos elementos ostensivos, intensivos, actuativos y validativos. También se puede apreciar la escasa frecuencia de alumnos que llegan a interpretar la curtosis, lo cual ya había sucedido en el desarrollo de la enseñanza, así como también es notable el bajo porcentaje de aplicación de la unimodalidad, en comparación del uso de la simetría. Respecto a los parámetros, aunque la mayor parte lo usa correctamente, aún se presentan errores. Dentro de los elementos relacionados con otros conceptos, algunos alumnos aplicaron la propiedad de la posición relativa de las medidas de tendencia central. Aunque la propiedad ha sido aplicada en forma correcta, en muchos casos los alumnos se han limitado a aplicar esta única propiedad considerando que era suficiente para argumentar que la distribución empírica podía ajustarse a la teórica. Elementos validativos. Es predominante la utilización de la representación gráfica como parte de las validaciones. Esto concuerda con el enfoque intuitivo que se ha desarrollado en las clases pero también demuestra la dificultad de nuestros alumnos a la hora de dar argumentaciones de alto nivel (análisis y síntesis). Además, la validación mediante representación gráfica ha producido errores en un alto porcentaje de alumnos. La mayoría de los alumnos se conforma con aplicar o comprobar una sola propiedad, generalmente la simetría. Es decir, confunden una condición necesaria con una condición suficiente para la normalidad, como el ejemplo que reproducimos a continuación, en que el alumno ha usado correctamente un gráfico no previsto en principio en la enseñanza y que ha descubierto por si mismo: "De forma gráfica podemos corroborar la simetría de la variable tiempo en diciembre con el gráfico symmetry plot, vemos que los puntos se ajustan aproximadamente a la recta, por lo tanto la distribución se ajustará a una normal" (Figura 2). 18 distancia encima de la mediana Tiempo en Diciembre 2,5 2 1,5 1 0,5 0 0 0,5 1 1,5 2 2,5 distancia bajo la mediana Figura 2. Symmetry plot para la variable Tiempo en diciembre Una pequeña parte de los alumnos aplican diversos elementos de significado, realizando un análisis de cada propiedad y un 7% llega a una conclusión final correcta por medio de la síntesis y relación de todos los elementos aplicados. Tal es el ejemplo siguiente, quien se basa en el gráfico mostrado en la Figura 3: “Considero la variable “Pulsaciones después de 30 flexiones” como una variable que se ajusta aproximadamente a una distribución normal. Se trata de una variable numérica. La variable es simétrica. Para ello observamos que tanto el histograma como el polígono de frecuencias (Figura 3) son aproximadamente simétricos. Para ver si es simétrica también podemos observar los coeficientes: Vemos que el coeficiente de asimetría es cercano a cero (0.0109) y que el coeficiente de asimetría tipificado está dentro del intervalo +-2. También observamos que el coeficiente de curtosis es próximo a cero (es –0.1977) lo que indica que la curva se aproxima a una distribución normal. También sabemos que una propiedad de una distribución normal es que coincidan la Media, la Mediana y la Moda. En este caso los tres valores son muy aproximados (Media=123.4; Moda=120; Mediana=122). También vemos que cuenta con una sola moda. En cuanto a la regla 68,95,99,7 vemos si se cumple: En el intervalo (µ-σ,µ+σ)⇒(105.08.141.82) está el 68.75% de las observaciones. En el intervalo (µ-2σ,µ+2σ)⇒(86.81,160.19) estarán el 95.84% y en el intervalo (µ-3σ,µ+3σ)⇒(68.34,178.56) estará el 100% de los datos. Por lo que vemos que también cumple esta regla. Por lo que vemos que esta variable se puede ajustar a una distribución normal". Polígono de frecuencias Histograma 30 2 25 2 20 frecuencia s frecuencia s 3 15 1 10 1 5 5 0 0 7 9 11 13 15 17 70 19 90 110 130 150 170 190 Pulsaciones Pulsaciones Figura 3. Histograma y polígono de frecuencias para la variable Pulsaciones después de 30 flexiones 19 Este alumno escoge una variable adecuada, y en su resolución relaciona correctamente la propiedad de simetría (elemento intensivo) con la forma del histograma y del polígono de frecuencias (elementos ostensivos), así también con el cálculo (elemento actuativo) del coeficiente de asimetría y la aplicación de los convenios de interpretación de éste (elemento intensivo). También aplica y relaciona correctamente la propiedad de las posiciones relativas de las medidas de tendencia central (elemento intensivo). Aplica la propiedad de los intervalos centrales en una distribución normal (elemento intensivo), lo cual lo lleva a validar todas sus argumentaciones previas. Este análisis de los elementos de significado explicitados por nuestros alumnos al resolver las tareas nos permite inferir que, aunque en muchos casos han seleccionado una variable que no es adecuada los alumnos no sólo identifican correctanente muchos de estos elementos, sino que también establecen relaciones correctas entre algunos de ellos, como, por ejemplo: • Relación entre el tipo de simetría y los valores de los coeficientes de asimetría; o la posición relativa de media, mediana y moda y simetría (elementos intensivos); • Relación entre la aproximación física de histograma y curva de densidad con la bondad de ajuste del modelo teórico a un conjunto empírico de datos (elementos ostensivos e intensivos); • Relación entre diversas representaciones gráficas y resúmenes de datos y las acciones y menús del programa necesarios para producirlos (ostensivos y actuativos); • Relación entre la definición y propiedades de la distribución normal (elementos intensivos) y las acciones necesarias para comprobar que estas propiedades se cumplen para un conjunto empírico de datos (actuativos). Conclusiones En este trabajo hemos descrito la primera fase de una investigación en marcha sobre la enseñanza y comprensión de la distribución normal en un curso basado en el uso de ordenadores y en un marco teórico, que diferencia entre las dimensiones personal e institucional del significado y comprensión de las matemáticas. Las principales conclusiones obtenidas en esta fase se describen a continuación. El análisis de la secuencia didáctica diseñada y su comparación con el análisis de una muestra de libros universitarios, realizado bajo la óptica de nuestro marco teórico revela la complejidad del significado y de la comprensión del concepto de distribución normal, que no pueden reducirse a su definición, sino que incluye un sistema interconectado de elementos que los estudiantes deben reconocer y ser capaces de relacionar para la resolución de problemas relativos a esta distribución. Este análisis muestra también que la incorporación del ordenador introduce cambios en el significado de la distribución normal, puesto que afecta a los diferentes elementos de significado. El manejo de las tablas de la distribución y la necesidad previa de tipificación para el cálculo de probabilidades desaparecen; la gama de representaciones del concepto se amplía notablemente, convirtiéndose en útiles dinámicos de exploración; se propicia el trabajo con ficheros de datos reales; se introduce una filosofía multivariante y exploratoria y la necesidad de argumentación de alto nivel que combine el análisis y la síntesis. Los instrumentos de evaluación diseñados para el estudio han sido eficaces para comparar el significado institucional de las distribuciones normales presentado en la experiencia de enseñanza y el significado personal que los estudiantes han adquirido finalmente. El cuestionario nos ha proporcionado una información bastante completa sobre la comprensión elemental de un gran número de elementos del significado y la puesta en relación de algunos de ellos en tareas simples. La prueba de ensayo con ordenador nos ha permitido evaluar la capacidad de argumentación de los alumnos y de poner en relación los diversos elementos de significado para resolver tareas de análisis de datos reales, que suponen una mayor 20 complejidad semiótica que las propuestas en el cuestionario. Al resolver las tareas de esta prueba (elementos extensivos) se requiere conocer el funcionamiento del programa (elementos actuativos) seleccionar la representación óptima de la distribución de cada variable (elementos ostensivos) e interpretar adecuadamente los resultados de cada análisis (elementos intensivos), relacionándolos con las preguntas planteadas por medio de una argumentación correcta (elementos validativos). El trabajo descrito es sólo la primera fase de nuestra investigación y nos ha permitido mejorar la secuencia de enseñanza y validar los instrumentos de evaluación, que están siendo utilizados en nuevas implementaciones de la enseñanza con otros grupos de alumnos. Sin embargo, debido a la falta de investigaciones previas sobre el tema, creemos que aporta una primera información valiosa sobre cuáles son los elementos de significado que proporcionan mayor dificultad de comprensión para los estudiantes en la distribución normal. Entre otros, destacamos los siguientes: • Interpretación de áreas en histogramas de frecuencia y problemas en el cálculo del área dentro de un intervalo, cuando ello implica el cambio de los extremos de los intervalos. • Dificultad en discriminar los casos en que una variable cuantitativa discreta puede y no puede ser aproximada por una distribución continua y las implicaciones que esta aproximación tiene. • Dificultad en recordar y aplicar correctamente los convenios de interpretación de los coeficientes de asimetría y curtosis. • Dificultad en recordar y aplicar correctamente los convenios de lectura de los elementos constitutivos de un gráfico estadístico. • Escasa diferenciación entre el modelo teórico y los datos empíricos y dificultad en distinguir cuándo el programa de cálculo se refiere a una u otra distribución, así como no discriminación entre los estadísticos y parámetros. Las actividades propuestas implican el trabajo de modelización y la discriminación de los planos empírico (datos) y teórico (modelo), que los alumnos a veces no llegan a separar y que puede explicar errores en la aplicación de la inferencia (Moses, 1992). • Dificultad de uso de las opciones del software que pertenecen a un menú secundario y que son, sin embargo esenciales para el análisis. • Escasa capacidad de argumentación, sobre todo de análisis y síntesis. Algunos de estos puntos son específicos de la distribución normal o del uso de ordenadores, pero otros corresponden a temas que deberían haber sido adquiridos durante la educación secundaria. Como afirma Fischbein (1975), la intuición probabilística, y en consecuencia la estadística basada en aquella, no se adquieren espontáneamente, por lo que sería beneficioso tanto para los alumnos como para los profesores de universidad, que la iniciación del estudio de la estadística se adelantara a la enseñanza secundaria, y así sirvieran de base para lograr una mayor profundización durante los estudios universitarios. Afortunadamente, las nuevas orientaciones curriculares muestran la voluntad, por parte de las autoridades educativas, de introducir temas relacionados con la estadística en la educación secundaria. En consecuencia, es necesario continuar con la investigación basada en estos temas, en el diseño de secuencias didácticas para la educación secundaria y en la evaluación de las mismas. Nuestro trabajo sugiere que es posible diseñar una enseñanza que posibilite el aprendizaje de nociones básicas sobre la distribución normal dirigida a alumnos que no tengan conocimientos previos en estadística. Esto puede observarse en el hecho de los buenos resultados en el cuestionario, en que se consideraba el conocimiento básico de un gran número de elementos del significado. Puesto que el aprendizaje del cálculo no es un objetivo importante, ya que puede hoy llevarse a cabo con los ordenadores, se puede introducir los conceptos básicos sobre la distribución normal incluso a estudiantes con conocimientos intermedios en matemáticas, siempre que se elijan tareas que estén acordes con dichos 21 conocimientos. Somos conscientes que la enseñanza de conceptos estadísticos como la distribución normal reviste una gran complejidad, pero la realización de experiencias de simulación con la ayuda de programas informáticos puede contribuir, como Biehler (1991) indica, a proporcionar a los alumnos una experiencia estocástica difícil de alcanzar sin estos medios. Fue menor la proporción de alumnos que fue capaz de llegar a resolver completamente las tareas de la prueba abierta, ya que se requieren capacidad de análisis y síntesis y la puesta en relación de los diferentes elementos de significado. Puesto que el objetivo de un curso de estadística en la universidad no es convertir a los alumnos en estadísticos (quienes llevan a cabo el análisis de datos complejos) sino en usuarios de la estadística (que deben ser capaces de comunicar con el estadístico y comprender los análisis proporcionados por éste), creemos que los resultados en general apuntan a la consecución de nuestros objetivos didácticos. Puesto que la muestra de estudiantes tuvo un tamaño limitado, todos estos resultados han sido utilizados para revisar el material de enseñanza y la secuencia didáctica, haciendo mayor énfasis en los puntos difíciles que hemos descrito anteriormente. Durante el curso 1999-2000 hemos realizado una segunda experiencia de enseñanza a partir de la revisión efectuada en la que participaron otros 61 alumnos. En la actualidad nos encontramos analizando los nuevos datos desde diversos puntos de vista, incluyendo la comparación entre los resultados de las dos experiencias de enseñanza. Agradecimientos: Agradecemos a João Pedro da Ponte y Joana Porfírio sus indicaciones sobre el borrador de este artículo que nos han ayudado en gran medida en la elaboración de la versión final. Este trabajo es parte del Proyecto BSO2OOO-1507 (DGES. MEC, Madrid) Referencias Batanero, C., Tauber, L. y Meyer, R. (1999). From data analysis to inference: A research project on the teaching of normal distributions. Bulletin of the International Statistical Institute: Proceedings of the Fifty-Second Session of the International Statistical Institute (Tome LVIII, Book 1, pp. 5758). Helsinki, Finlandia: International Statistical Institute. Biehler, R. (1991). Computers in probability education. En R. Kapadia y M. Borovcnick (Eds.), Chance encounters: Probability in education (pp. 169-211). Dordrecht: Kluwer. Biehler, R. (1997). Software for learning and for doing statistics. International Statistical Review, 65(2), 167-190. Cohen, S. y Chechile, R. A. (1997). Probability distributions, assessment and instructional software: Lessons learned from an evaluation of curricular software. En I. Gal y J. B. Garfield (Eds.), The assessment challenge in statistics education (pp. 253-262). Amsterdam: IOS Press. Cook, T. D. y Campbell, D. T. (1979). Quasi-experimentation. Design and analysis for field setting. Chicago: Rand Mc. Nelly. Cruise, R. J., Dudley, R. L. y Thayer, J. D. (1984). A recource guide for introductory statistics. Dubuque, IO: Kendall-Hunt. delMas, R. C., Garfield, J. B. y Chance, B. (1999). Exploring the role of computer simulations in developing understanding of sampling distributions. Comunicación presentada en el Annual Meeting of the American Educational Research Association, Montreal, Canada. Fischbein, E. (1975). The intuitive sources of probabilistic thinking in children. Dordrecht: Reidel. Gal, I (1997). Assessing students’ interpretations of data: Conceptual and pragmatic issues. En B. Phillips (Ed.), Papers on Statistical Education presented at ICME-8 (pp. 49-58). Swinburne University of Technology. Garfield, J. B. (1991). Evaluating students understanding of statistics: Developing the Statistical Reasoning Assessment. En R. G. Underhill (Ed.), Proceedings of the 13th Annual Meeting of the North American Chapter of the International Group for the Psychology of Mathematics Education. (Vol. 2, pp. 1-7). Blacksburg, VA: Comité organizador. Godino, J. D. (1996). Mathematical concepts, their meaning and understanding. En L. Puig, y A. Gutiérrez (Eds.), Proceedings of the 20th Conference of the International Group for the Psychology of Mathematics Education (v.2, pp.417-424). Valencia: Comité organizador. 22 Godino, J. D. y Batanero, C. (1998). Clarifying the meaning of mathematical objects as a priority area of research in mathematics education. En A. Sierpinska y J. Kilpatrick (Eds.), Mathematics Education as a research domain: A search for identity (pp. 177-195). Dordrecht: Kluwer. Hawkins, A., Jolliffe, F. y Glickman, L. (1992). Teaching statistical concepts. Essex: Longman. Huck, S., Cross, T. L. y Clark, S. B. (1986). Overcoming misconceptions about z-scores. Teaching Statistics, 8(2), 38-40. Méndez, H. (1991). Understanding the central limit theorem. Ph. D. University of California. UMI nº 1-800-521-0600. Moore, D. S. (1997). New pedagogy and new content: The case of statistics. International Statistical Review, 65(2), 123–155. Moses, L. E. (1992). The reasoning of statistical inference. En D. C. Hoaglin y D. S. Moore (Eds.), Perspectives on contemporary statistics (pp. 107-122). Washington, DC: Mathematical Association of America. Piaget, J., e Inhelder, B. (1951). La génese de l'idée de hasard chez l'enfant. Paris: Presses Universitaires de France. Rubin, A., Bruce, B. y Tenney, Y. (1991). Learning about sampling: Trouble at the core of statistics. En D. Vere-Jones (Ed.), Proceedings of the Third International Conference on Teaching Statistics (pp. 314–319). Voorburg, Holanda: International Statistical Institute. Schuyten, G. (1991). Statistical thinking in psychology and education. En D. Vere-Jones (Ed.), Proceedings of the III International Conference on Teaching Statistics. (v. 2, 486-489). Dunedin, Australia: Universidad de Otago. Tauber, L., Batanero, C. y Sánchez, V. (2000). Comprensión de la distribución normal por estudiantes univesitarios. En C. Loureiro, F. Oliveira, y L. Brunheira (Eds), Ensino e Aprendizagem da Esstatística (pp. 117-130). Lisboa: Sociedad Portuguesa de Estatística. Vallecillos, A. (1996). Inferencia estadística y enseñanza: Un análisis didáctico del contraste de hipótesis estadísticas. Madrid: Comares. Vallecillos, A. (1999). Some empirical evidence on learning difficulties about testing hypotheses. Bulletin of the International Statistical Institute: Proceedings of the Fifty-Second Session of the International Statistical Institute (Tome LVIII, Book 2, pp. 201-204). Helsinki: International Statistical Institute. Wilensky, U. (1995). Learning probability through building computational models. En D. Carraher y L. Meira (Eds.), Proceedings of the 19th PME Conference (v. 3, pp. 152-159). Recife, Brazil: Organising Committee. Wilensky, U. (1997). What is normal anyway? Therapy for epistemological anxiety. Educational Studies in Mathematics, 33, 171-202. 23 24