SIGMA 31

Anuncio
SIGMA
SIMULACIÓN POR ORDENADOR DE EXPERIMENTOS
ALEATORIOS EN LA ENSEÑANZA DE LA PROBABILIDAD
José Ignacio Barragués Fuentes (*) y Jenaro Guisasola Aranzabal (**)
Resumen. El modelo de enseñanza y aprendizaje que habitualmente se emplea para la
enseñanza de la Teoría de la Probabilidad resulta incapaz de lograr en los alumnos un aprendizaje comprensivo. En este trabajo describimos una experiencia basada en un modelo alternativo donde el ordenador toma un papel activo: como herramienta para la construcción de
modelos probabilísticos, como herramienta de resolución de problemas, para profundizar en
el significado de los conceptos y para ayudar a los alumnos a superar sus dificultades.
INTRODUCCIÓN
Nuestra experiencia como docentes y la investigación en didáctica de las matemáticas nos
llevan a percibir la dificultad que tienen los estudiantes para lograr un aprendizaje significativo
de los conceptos que constituyen la Teoría básica de la Probabilidad (Borocvnick et al, 1991).
Es notoria la incapacidad los estudiantes para utilizar la probabilidad en situaciones que se
separen, aun ligeramente, de las utilizadas en clase. Así, se constatan dificultades tanto para
interpretar el valor de la probabilidad de un suceso (Saénz, 1998. Scholz, 1991. Serrano et
al, 1996. Borovcnik et al, 1991. Borovnick y Peard, 1996. Guisasola y Barragués, 2002[a, b])
como para calcularla (Lecoutre 1985 y 1992. Lecoutre y Durand, 1988. Lecoutre y Cordier,
1990. Batanero et al, 1997. Konold, 1991).
También se viene mostrando que la instrucción convencional puede no producir ningún aprendizaje comprensivo, y se apunta la necesidad, como indica Shaughnessy (1992), de conocer
más acerca de qué piensan los estudiantes sobre el azar y la probabilidad, de identificar estrategias efectivas de instrucción y de desarrollar criterios fiables de medición capaces de reflejar
el grado de aprendizaje comprensivo de los estudiantes. Sin embargo, como señalan Hirsch y
O ́Donnell (2001), la mayoría de la investigación en enseñanza de la probabilidad se ha centrado en el primero de los aspectos, prestando relativamente poca atención a los otros dos.
En el estudio que aquí presentamos hemos desarrollado un programa de actividades destinado
a que los estudiantes adquieran un aprendizaje significativo de los conceptos y procedimientos
probabilísticos elementales (experimento aleatorio, espacio muestral, suceso, frecuencia relativa, probabilidad). El contexto del trabajo del programa es el de la enseñanza como resolución
de problemas, que será descrito en los siguientes apartados, y cuya eficacia ha sido contrastada
en otros campos de la enseñanza de las ciencias y las matemáticas (Barragués, 2002. Furió et
al, 2003).
Las actividades de simulación por ordenador de fenómenos aleatorios es una parte muy importante de nuestro programa, porque la experimentación con modelos proporciona oportunidades para profundizar en el significado de los conceptos probabilísticos y sus propiedades.
(*) Universidad del País Vasco, Departamento de Matemática Aplicada, [email protected]
(**)Universidad del País Vasco, Departamento de Física Aplicada I, [email protected]
Noviembre 2007 • 2007ko Azaroa
207
31
José Ignacio Barragués Fuentes y Jenaro Guisasola Aranzabal
DIFICULTADES DE APRENDIZAJE DE LOS CONCEPTOS
PROBABILÍSTICOS
Tal y como se recomienda en la investigación en didáctica de las matemáticas, en el diseño
de la secuencia de enseñanza hemos tomado en consideración las dificultades de aprendizaje
de los estudiantes (Gil y De Guzmán, 1993), diseñando actividades expresamente dirigidas
a ayudarles a superarlas. Cuando se hace referencia a las dificultades de aprendizaje de los
conceptos probabilísticos elementales, es difícil dejar de tomar en consideración el uso de
diversos mecanismos y estrategias alternativos a los formales por parte de las personas cuando
deben emitir algún juicio en situaciones de incertidumbre provocada por el azar (Borovcnik et
al, 1991. Scholz, 1991. Muñoz, 1998. Sáenz, 1998. Serrano et al, 1996. Serrano et al, 1998).
Estas estrategias son adquiridas a través de las experiencias de la vida cotidiana y son persistentes y sistemáticas. El problema es que constituyen dificultades que pueden impedir o sesgar
el aprendizaje de los conceptos matemáticos acerca del azar.
Dos de las dificultades más importantes que se describen en la bibliografía son la concepción
determinista del azar (Borovcnik y Bentz, 1991. Borovcnik y Peard, 1996) y la insensibilidad al
tamaño de la muestra (Serrano et al, 1998). Seguidamente describiremos en qué consisten.
Concepción determinista del azar
La concepción determinista del azar se refiere al uso de explicaciones causa-efecto ingenuas
como forma de razonamiento en situaciones de azar, sin apreciar el carácter aleatorio de las
variables que intervienen en el fenómeno. Las dependencias físicas causa-efecto tienen un
fuerte referente cotidiano en la experiencia humana y forman parte del aprendizaje social
(“haciendo esto consigo aquello”). Se dispone de todo un cuerpo de causas que dan lugar
a una consecuencia bien definida. En este sentido, Sánchez et al (2000) en su investigación
acerca la estimación de la correlación entre variables por parte de los estudiantes, dan cuenta
de que cuando los alumnos encuentran una asociación importante entre dos variables, tienden
a pensar que una de ellas es causa de la variación de la otra.
Uno de los problemas utilizados por Borovcnik y Bentz (1991) en una investigación para detectar una concepción determinista del azar, se muestra en el Cuadro 1.
Una pequeña ficha tiene una cara roja y la otra verde. Se toma el lado verde hacia arriba y se
lanza. La ficha gira en el aire y cae al suelo. ¿Cuál de las caras es más probable?
a.- La cara verde b.- La cara roja c.- No hay diferencia d.- No lo sé
Cuadro 1. Ítem para detectar la concepción determinista del azar
En el problema del Cuadro 1, un razonamiento causal puede conducir a creer que si la moneda
es lanzada repetidamente en idénticas condiciones, se obtendrá siempre el mismo resultado.
Se confía en el estudio de la física de la moneda, quizá con la ayuda de un potente ordenador,
para predecir el próximo resultado del lanzamiento. Este tipo de ítem parece dejar claramente
al descubierto un punto de vista según el cual el resultado de un fenómeno real queda unívocamente determinado por las condiciones iniciales establecidas, y que es posible predecir el
estado final sin más que aplicar las leyes físicas adecuadas (opciones a ò b).
En relación al mismo problema, los autores detectan otra forma de pensamiento que también
atribuyen a una supremacía del pensamiento causal. Se trata de considerar que ya que el
208
SIGMA Nº 31 • SIGMA 31 zk.
Simulación por ordenador de experimentos aleatorios
en la enseñanza de la probabilidad
fenómeno no puede estudiarse en términos de causas y efectos, no es posible estudiarlo de
modo alguno. En el caso del problema anterior, este tipo de pensamiento sería el de aquellos
individuos que eligieron (c) como respuesta y argumentaron que “ambos resultados (verderoja) son impredecibles y no puede asegurarse nunca un 100% de acierto”.
Falk (1983), Sáenz (1998), Borovcnik y Bentz (1991), Borovcnik y Peard (1996) y Guisasola
y Barragués (2002[a]) se refieren todavía a otra forma de razonamiento causal aplicado a un
problema de azar. Considérese el ítem cuyo enunciado muestra el Cuadro 2.
Una urna contiene dos bolas blancas y dos negras. Sacamos al azar una bola. Sin mirar el
color y sin reemplazar la bola en la urna, sacamos una segunda bola.
a.- ¿ Cuál es la probabilidad de que la segunda bola sea blanca, sabiendo que la primera ha
sido blanca?
b.- ¿ Cuál es la probabilidad de que la primera bola haya sido blanca, sabiendo que la segunda
ha sido blanca?
Cuadro 2. Ítem para detectar la confusión entre dependencia causal y probabilística
Según la solución normativa, asumiendo la equiprobabilidad de cada bola, la solución es
p=1/3 para ambos apartados. El interés de este problema estriba en que su interpretación causal está relacionada con el establecimiento de un eje temporal en el que el individuo que interpreta la situación ubica cada una de las fases del experimento aleatorio. Denotanto b1=”bola
blanca en la primera extracción” y b2=”bola blanca en la segunda extracción”, en la cuestión
(a) se pide calcular la probabilidad del suceso b2 sabiendo que el suceso b1 ha tenido lugar
(p(b2/ b1)), lo cual no causa conflicto porque b2 se sitúa después de b1 en ese eje temporal,
como se representa en la Figura 1.
Figura 1. Interpretación eje-temporal del problema
En cambio, el apartado (b) es problemático, y describe una situación conocida como urna de
Falk. Ahora se trata de calcular la probabilidad de un suceso (b1) sabiendo que otro suceso
situado después en el eje temporal ha tenido lugar (b2). En esta situación, un resultado (b1) es
causalmente independiente de otro resultado (b2), pero ambos no son estocásticamente independientes (debe calcularse p(b1/ b2)).
Un gran porcentaje de sujetos confunde o no distingue entre independencia probabilística e
independencia causal, respondiendo de un modo coherente a este esquema eje-temporal, que
la probabilidad sigue siendo 1/2, puesto que “el resultado de la segunda extracción no afecta al
resultado de la primera”. Este argumento causal es realmente popular; Falk (1983) lo encontró
en más del 50% de los estudiantes universitarios entrevistados.
La propia redacción de este tipo de enunciado, muy usual en la bibliografía, en cierta medida
sugiere tal secuenciación en el tiempo. Algunos sujetos consideran “simplemente estúpido”
el tratar de pronosticar algo sobre el color de la segunda bola antes de conocer el color de
la primera. En cualquier caso, estos razonamientos revelan en primer lugar una incorrecta
concepción de la probabilidad condicionada, como probabilidad que se calcula a la luz de
una nueva información disponible, y en segundo lugar una incorrecta comprensión de la concepción frecuencial de la probabilidad, según la cual el enunciado debería interpretarse como
aparece en el Cuadro 3.
Noviembre 2007 • 2007ko Azaroa
209
José Ignacio Barragués Fuentes y Jenaro Guisasola Aranzabal
Una urna contiene dos bolas blancas y dos negras. Vamos a pensar en un experimento aleatorio con esta urna y vamos a predecir de forma aproximada los resultados que obtendríamos
si realizáramos de verdad el experimento. El experimento aleatorio es el siguiente. Sacamos
al azar una bola y anotamos su color. Sin reintegrar la bola a la urna, sacamos una segunda
bola y también anotamos su color. Volvemos a meter las dos bolas a la urna y repetimos un
gran número de veces la operación. Algunas veces las dos bolas habrán sido blancas, otras las
dos negras, otras la primera negra y la segunda blanca y otras la primera blanca y la segunda
negra. Al final, habremos obtenido los siguientes cuatro valores:
A = n° de ocurrencias de b1 y b2
B = n° de ocurrencias de b1 y n2
C = n° de ocurrencias de n1 y b2
D = n° de ocurrencias de n1 y n2
donde A, B, C y D serían valores conocidos si realizáramos de verdad el experimento.
Naturalmente, el valor N = A + B + C + D es el número total de veces que hemos realizado
la operación. Ahora vamos a predecir.
a.- T
omamos sólo aquellas ocasiones en las que la primera bola ha resultado blanca. Dentro
de ellas, se trata de estimar la frecuencia relativa del suceso “blanca la segunda bola”. Es
decir, se trata de estimar el valor A/(A + B), que se obtendría si ejecutáramos de verdad el
experimento.
b.- A
hora tomamos sólo aquellas ocasiones en las que la segunda bola ha resultado blanca.
Dentro de ellas, se trata de estimar la frecuencia relativa del suceso “blanca la primera
bola”. Es decir, se trata de estimar el valor A/(A + C), que se obtendría si ejecutáramos de
verdad el experimento.
Cuadro 3. Interpretación frecuencial del problema del Cuadro 2
Nuestras investigaciones con estudiantes universitarios acerca de las dificultades de este sesgo
determinista ofrecen resultados convergentes con todas las investigaciones citadas (Guisasola y
Barragués, 2002[a,b]. Barragués et al, 2005 y 2006). Como indica Sáenz (1998), uno de nuestros problemas, desde el punto de vista de la enseñanza de los conceptos relativos al azar, es
que el sistema educativo tradicionalmente entrena el pensamiento causal, introduciendo desde
los primeros años de escolarización una visión determinista del mundo (física newtoniana,
variables funcionalmente ligadas por una relación determinista...) en forma de leyes de “obligado cumplimiento”. De hecho, el cálculo infinitesimal no es sino la herramienta matemática
para tratar la complejidad del cambio y de la causalidad determinista.
Insensibilidad al tamaño de la muestra
La concepción denominada insensibilidad al tamaño de la muestra conduce a pensar que cualquier muestra tomada de una población debe reproducir todas las características de la población, aunque se trate de una muestra de pequeño tamaño. Serrano et al (1998) y Schoenfeld
(1987) indican que parece como si se creyese en una “ley de los pequeños números”, por la
que las pequeñas muestras serían representativas de todas las características de la población
de la cual provienen. Por ejemplo, uno de los problemas empleados por Pollatsek et al (1981)
para detectar esta concepción incorrecta aparece en el Cuadro 4:
210
SIGMA Nº 31 • SIGMA 31 zk.
Simulación por ordenador de experimentos aleatorios
en la enseñanza de la probabilidad
La media de puntuación en matemáticas de cierto distrito escolar muy amplio fue de 400. Se
eligen al azar cinco notas, de las cuales las cuatro primeras son las siguientes: 380, 420, 400
y 600. ¿Cuál es la nota esperada del quinto estudiante?
Cuadro 4. Ítem para detectar la insensibilidad al tamaño muestral
El valor esperado es, atendiendo al significado de la media, 400. Sin embargo, muchos estudiantes asumieron que la media de la muestra de cinco elementos debía ser también 400, igual
que la de la población completa. En consecuencia, su respuesta fue que la nota esperada para
el quinto alumno es de 200.
Desde el punto de vista del aprendizaje del concepto de probabilidad en su interpretación
frecuencial, esta creencia hace que los alumnos no tomen en consideración la importancia
del número de ensayos en sus estimaciones frecuenciales de la probabilidad. Como indican
Borovcnik y Bentz (1991), esta concepción incorrecta subraya la complejidad del concepto de
límite de las frecuencias relativas caracterizado por la ley de los grandes números, que sugiere,
por ejemplo, esperar “CARA” tras cinco consecutivas “CRUZ” al lanzar una moneda equilibrada. Este razonamiento sería la base de la falacia del jugador (Scholz, 1991), según la cual si
en una serie de juegos se produce una racha de un mismo resultado, se espera intuitivamente
que aumente la probabilidad del resultado contrario en la siguiente tirada.
EL PAPEL DEL ORDENADOR EN LA CONSTRUCCIÓN DE MODELOS
PROBABILÍSTICOS
Modelos deterministas versus modelos probabilísticos
En un modelo determinista, las condiciones en las que el experimento se realiza determinan
de forma única el resultado del mismo. Existen muchos fenómenos observables interesantes
para los cuales un modelo determinista puede ser apropiado. Por ejemplo, un modelo capaz
de describir el flujo de corriente en un circuito eléctrico simple es la ley de Ohm:
El modelo (1) predice el valor de I (intensidad) tan pronto se conocen los valores de E (tensión
de la batería) y R (resistencia).
Ahora bien, existen muchos fenómenos de interés que necesitan un modelo matemático
diferente, el modelo probabilístico, para el que las condiciones de partida no determinan un
resultado único sino la distribución probabilistica de los resultados observables. El número
de piezas defectuosas en un lote distribuido al azar, la resistencia a la tensión de una barra
de acero o la duración en horas de una lámpara incandescente son algunos ejemplos. Pero no
significa que al elegir un modelo probabilístico para describir algún fenómeno observable descartemos todas las relaciones deterministas. Por el contrario, mantenemos todavía el hecho de
que una relación como la ley de Ohm (1) es válida en determinadas circunstancias: la relación
(1) determina el valor de I para E y R dadas, pero en la práctica sabemos que los valores de E
y R no serán exactamente los esperados en nuestro diseño, sino valores aleatorios, y que en el
mejor de los casos dispondremos sólo de sus distribuciones de probabilidad. En consecuencia,
en el modelo probabilístico para I se hablará de la probabilidad de que la variable aleatoria I
tome un valor en cierto intervalo.
Noviembre 2007 • 2007ko Azaroa
211
José Ignacio Barragués Fuentes y Jenaro Guisasola Aranzabal
Simulación por ordenador
Una modelización por ordenador es una representación de un fenómeno por medio de
relaciones almacenadas en un ordenador. Simular el modelo es obtener una predicción del
modelo, un estado final a partir de ciertas condiciones iniciales dadas. Lo interesante en una
modelización por ordenador es poder modificar las relaciones que lo constituyen y los datos
a los que se aplica, a fin de investigar los efectos que producen tales cambios en cuanto a su
capacidad de predicción.
La simulación por ordenador constituye una de las grandes aportaciones de la tecnología contemporánea a la investigación científica (Schecker, 1993. Beaufils et al, 1994. Valdés y Valdés,
1994). Los fenómenos en los que intervienen variables aleatorias pueden ser representados
mediante modelos por ordenador, permitiendo la extensión de la modelización probabilística
a dominios reales de gran complejidad. Es posible construir modelos elementales como ruletas
y urnas y combinarlos para formar otros modelos más complejos. El cambio en los parámetros
del modelo, la realización de nuevos experimentos, el cambio en el modo en que los datos
son generados y analizados y el aumento en el número de ejecuciones del experimento a fin
de reducir la incertidumbre y la variabilidad, con lo cual nuevos tipos de patrones pueden
hacerse entonces visibles, son opciones que pueden estar disponibles en entornos de trabajo
con ordenador. Además, la simulación por ordenador puede ser presentada al alumno como
una alternativa a los métodos analíticos para la resolución de problemas.
DISEÑO DEL PROGRAMA DE ENSEÑANZA Y DESARROLLO
EN EL AULA
En el diseño de la secuencia de enseñanza nos hemos basado en la idea de que el aprendizaje
y la enseñanza de las matemáticas puede desarrollarse como un proceso de (re)construcción
de conocimientos en un contexto inspirado en el de la investigación científica (dentro de lo
posible en cada nivel). Esta idea es compartida por un amplio abanico de investigaciones en
didáctica de las ciencias y de las matemáticas (Niss, 1996. Grugnetti y Jaquet, 1996. Boero y
Parenti, 1996. Furió et al, 2003).
Los Principes and Standards for School Mathematics (NCTM, 2000), afirman que “los estudiantes aprenden matemáticas construyendo activamente nuevos conocimientos a partir de la
experiencia y el conocimiento previo”, y, para facilitar esa construcción, recomiendan la realización de actividades destinadas a que los alumnos tomen conciencia de sus conocimientos
y estrategias informales, concediendo especial importancia a la resolución de problemas, al
desarrollo del razonamiento y la argumentación.
La puesta en marcha de este modelo de enseñanza-aprendizaje como resolución guiada de
problemas (Guisasola et al, 2008. Boero y Parenti, 1996), exige una cuidadosa planificación
de las tareas por parte del profesor, mediante actividades debidamente engarzadas en un programa. Los alumnos y alumnas trabajan en pequeños equipos que interactúan entre sí y con el
profesor, y disponen de tiempo para pensar, argumentar, refutar, tomar decisiones, enfrentarse
a situaciones problemáticas y elaborar posibles soluciones a modo de tentativas, a fin de que
construyan su propio universo matemático.
Diseñamos una secuenciación de contenidos en forma de actividades que siguen una secuencia lógica de problemas, esto es, constituyen una posible estrategia para avanzar en la solución
a las grandes preguntas iniciales, lejos de la estructura habitual de los temas, guiada por los
conceptos fundamentales. A lo largo de la secuenciación, los conceptos van siendo introducidos funcionalmente como parte del proceso de tratamiento de los problemas planteados. Los
212
SIGMA Nº 31 • SIGMA 31 zk.
Simulación por ordenador de experimentos aleatorios
en la enseñanza de la probabilidad
programas de simulación se integran de forma natural en este esquema de trabajo, proporcionando visualizaciones que facilitan la comparación entre sus intuiciones y las ideas científicas.
Los y las estudiantes construyen modelos probabilísticos complejos y analizan su capacidad
predictiva, se apropian de procedimientos y profundizan en el significado de los conceptos.
Aunque el programa de actividades se aplicó en un curso de introducción de la probabilidad
para estudiantes universitarios de ingeniería, en él se desarrollan contenidos incluidos en el
programa de probabilidad para estudiantes de Bachillerato. Además, si bien es en este último
nivel educativo en el que se concentra la mayoría de la investigación destinada a describir
las intuiciones probabilísticas de los estudiantes, son escasos los trabajos dedicados a buscar
modos de ayudar a los alumnos a superar sus dificultades y a que logren un aprendizaje con
comprensión.
Seguidamente describiremos la parte de la secuencia de enseñanza relacionada con las dificultades de aprendizaje a que hemos hecho referencia en apartados anteriores, la concepción
determinista del azar y la insensibilidad al tamaño de la muestra. La primera dificultad es
abordada en nuestro programa poniendo en evidencia las carencias de los modelos deterministas para ofrecer soluciones prácticas; la segunda se aborda estudiando las propiedades de
la frecuencia relativa.
Planteamiento del problema: ¿Son suficientes las soluciones analíticas exactas?
Los alumnos y alumnas con los que implementamos la secuencia cursaban estudios de ingeniería, y por ello estaban habituados al cálculo de dispositivos (eléctricos, mecánicos, etc)
mediante expresiones analíticas exactas como la ley de Ohm (1). Por ejemplo, para un estudiante de ingeniería eléctrica es rutinario el cálculo de un sencillo circuito de arranque de
automóvil, formado por una resistencia (R), una inductancia (L) y un condensador (C) conectados en serie con la batería. Son capaces de determinar los valores adecuados de R, L y C de tal
modo que la intensidad de corriente entregada por el circuito sea suficiente para el arranque
del automóvil. Es en este punto donde proponemos actividades que obligan a los estudiantes
a cuestionar estos procedimientos “exactos”. El Cuadro 5 muestra una de estas actividades.
Actividad 1. ¿Crees que todas esas leyes acerca del funcionamiento de los componentes son
suficientes para construir el circuito de arranque? ¿Sirven para predecir siempre el modo en
que funcionará el mismo?. En caso contrario, ¿qué otros factores adicionales podrían influir?
Enumera todos los que se te ocurran.
Cuadro 5. Actividad para la toma de contacto con el problema
La idea general que tiene que surgir en clase con este tipo de actividades es la siguiente: el
modo en que se desarrolla un fenómeno real cualquiera depende de una cantidad inconcreta
de factores y contingencias cuya interacción es demasiado compleja para que pueda ser determinada por unas pocas variables y relaciones de causa/efecto. Para la actividad del Cuadro 5,
los equipos de trabajo son capaces de encontrar multitud de factores que influyen en el funcionamiento del circuito, pero que no se tienen en cuenta en las expresiones analíticas “exactas” como la ley de Ohm (1). Por ejemplo: Las condiciones de trabajo (vibraciones, suciedad,
desgaste, humedad, temperatura); las fluctuaciones aleatorias en la tensión de alimentación
(quizá por descarga de la batería); resistencia de los propios cables conductores; los valores
reales de R, L y C, que en realidad son aleatorios porque los componentes se fabrican con
cierta tolerancia.
Noviembre 2007 • 2007ko Azaroa
213
José Ignacio Barragués Fuentes y Jenaro Guisasola Aranzabal
Este último factor es fácil de simular. Elaboramos una hoja de cálculo Excel que simulaba
los valores aleatorios de R, L y C, suponiendo como hipótesis que se distribuían normalmente. Un modo de simular valores de una variable normal X de media m y desviación típica
d (X'N(m,d)), es el siguiente:
X = ((U1+U2+...+U12) - 6) d+m (2)
Donde U1, U2,...,U12 son doce variables aleatorias independientes, uniformemente distribuidas en el intervalo [0,1], cuyas muestras pueden obtenerse con Excel mediante la función
ALEATORIO( ). Por ejemplo, si quisiéramos simular los valores aleatorios de intensidad
I empleando la ley de Ohm (1), suponiendo que E'N (m1,d1), R'N (m2,d2) (conocidos
m1, d1, m2, d2), bastaría simular E y R de forma independiente mediante (2) y luego calcular el
valor aleatorio I = E/R. En este caso sería interesante estudiar el modo en que se distribuye I en
función de los parámetros m1, d1, m2, d2 empleando histogramas de valores simulados de I.
La simulación del circuito de arranque de automóvil permitió a los alumnos observar que su
funcionamiento es sencillo de pronosticar si sólo se atiende a lo que predicen las ecuaciones
(óptica determinista), pero que se vuelve tremendamente complejo si se examina desde el
punto de vista del azar, esto es, si se introducen variables que fluctúan de forma no predecible
(óptica estocástica). En este caso se encontraron con que no tenían forma alguna de pronosticar si el circuito funcionaría o no, es decir, si entregaría suficiente intensidad de corriente para
lograr el arranque. Esta óptica de análisis del circuito les resultó absolutamente novedosa y
sorprendente. La Figura 2 muestra tres simulaciones de funcionamiento del circuito, obtenidas
introduciendo valores aleatorios en los parámetros R, L y C.
Figura 2. Varias simulaciones de funcionamiento del circuito
La simulación del circuito también nos permitió profundizar en el concepto de modelo, que
muchas veces los estudiantes confunden con el propio fenómeno bajo estudio. La idea central
es: Existe una gran cantidad de factores aleatorios que pueden influir en el fenómeno real;
construir un modelo exige seleccionar algunos de esos factores, aquellos que nos resultan
manejables y que suponemos responsables en lo fundamental del fenómeno.
Creemos que actividades como la explicada pueden hacer ver al alumno (incluyendo al de
enseñanzas medias) la necesidad de una “matemática del azar”. En cambio, nos parece incorrecto introducir la probabilidad utilizando juegos de azar, como puede verse en la mayoría
de los textos de Secundaria y Bachillerato, porque además de mostrar un limitado alcance
de la probabilidad, parece sugerir a los alumnos y alumnas que el azar sólo se encuentra en
tales situaciones, cuando en realidad estamos inmersos en un océano de azar. La probabilidad puede introducirse en las enseñanzas medias empleando máquinas y fenómenos físicos
214
SIGMA Nº 31 • SIGMA 31 zk.
Simulación por ordenador de experimentos aleatorios
en la enseñanza de la probabilidad
sencillos (adecuados a cada nivel), distinguiendo entre modelo y fenómeno, introduciendo
factores aleatorios en los modelos, investigando mediante simulaciones la capacidad predictiva de los diferentes modelos.
El tamaño sí importa
Una vez introducida la óptica probabilística para el análisis de fenómenos reales, intentamos
mostrar la estrategia general que utiliza la teoría probabilística para la resolución de problemas, esto es, si bien el enfoque probabilístico formal no niega necesariamente la existencia de
mecanismos causales subyacentes, ahora se ignoran tales posibles mecanismos, centrándose
en la regularidad de la frecuencia relativa que se observa en una serie de ensayos realizados
en las mismas condiciones.
Para estudiar las condiciones bajo las cuales es visible esta regularidad, de nuevo acudimos a
la experimentación con simulaciones. Para simular la ocurrencia de cierto suceso A con probabilidad conocida p(A), seguimos con Excel un procedimiento muy simple. Sabiendo que la función ALEATORIO() genera un número real entre 0 y 1, cuando se verifique ALEATORIO()≤p(A)
diremos que ha ocurrido el suceso A. Ahora, si colocamos por ejemplo en la celda B4 el valor
de p(A), al evaluar la instrucción Excel
=SI(ALEATORIO()<=$B$4;1;0)
obtendremos como resultado el valor 1 si el resultado de la simulación es “ocurre A” y 0 en
caso contrario. Ahora basta copiar y pegar esta instrucción N veces, sumar los N resultados
y dividir entre N para obtener la frecuencia relativa de A, fr(A). Este valor se recalcula cada
vez que se pulsa la tecla <F9>. A medida que N se hace mayor, se comprueba que fr(A) se
aproxima a p(A) pero con variabilidad, no en el sentido sucesional clásico. El procedimiento
puede extenderse fácilmente para simular la ocurrencia de un suceso elemental en un espacio
muestral de n elementos, E = {S1, S2, ...,Sn}, con p(Sk) = pk conocida ((pk = 1).
Si ALEATORIO() ≤ p1, diremos que ha ocurrido S1; si p1<ALEATORIO() ≤ p1 + p2, diremos que
ha ocurrido S2, etc. Con estas ideas elaboramos una simulación de un experimento aleatorio
con cuatro sucesos elementales y planteamos las actividades que muestra el Cuadro 6, cuyo
objetivo es mostrar la gran variabilidad de las frecuencias relativas en pequeñas muestras.
Actividad 2. Idea un experimento aleatorio con cuatro sucesos elementales A1, A2, A3 y
A4 (puedes pensar en barajas, dados, ruletas, urnas...). Calcula la probabilidad de cada
uno de ellos.
Actividad 3. Define un suceso cualquiera A y calcula p(A). Simula el experimento aleatorio
para estimar el número de ocurrencias de A. Comienza tomando una pequeña muestra y ve
aumentando poco a poco su tamaño. Compara el número real de ocurrencias de A con tu
estimación. ¿Qué conclusiones obtienes?
Cuadro 6. Actividades para experimentación con simulaciones
Los alumnos observan la imposibilidad de realizar previsiones a partir de muestras pequeñas,
esto es, el valor p(A)N no tiene utilidad para predecir el valor de fr(A) si N es pequeño. Además,
experimentalmente encuentran en cada caso significado para término “muestra de pequeño
tamaño”. Por ejemplo, un valor de N considerado suficientemente grande en la simulación de
una moneda, puede no serlo simulando el lanzamiento de un dado. Por otra parte, la facilidad
de cálculo nos permitió en el aula sumar una evidencia visual a la puramente numérica.
Noviembre 2007 • 2007ko Azaroa
215
José Ignacio Barragués Fuentes y Jenaro Guisasola Aranzabal
Figura 3. Representación gráfica de las frecuencias relativas
La Figura 3 muestra una representación de la simulación con Excel de la ocurrencia de cuatro
sucesos elementales. Cada sector relleno representa los correspondientes porcentajes de ocurrencias. Simulando el experimento un pequeño número de veces, pedimos a los alumnos que
pulsaran repetidamente la tecla de recálculo <F9>, observando así una gran variabilidad en el
área de los sectores. Los seis diagramas de tarta pequeños corresponden a otras tantas simulaciones de tamaño N = 10, mientras que el diagrama grande muestra los porcentajes teóricamente
esperados. A medida que los alumnos aumentaban el tamaño de la muestra N, las grandes oscilaciones van convirtiéndose en pequeñas vibraciones, que se hacen finalmente imperceptibles,
y el diagrama de frecuencias reales es muy parecido al de frecuencias esperadas.
Por otra parte, estas simulaciones también pueden emplearse para profundizar en el significado de la probabilidad condicionada. Obsérvense las actividades del Cuadro 7.
Actividad 4. Supongamos que hemos ejecutado el experimento aleatorio y sabemos que
el suceso S3 no ha ocurrido. Calcula la probabilidad de que haya ocurrido S1.
Actividad 5. Empleando el simulador, estima la probabilidad que has calculado en la actividad anterior.
Cuadro 7. Actividades relacionadas con la probabilidad condicionada
Recuérdese que la dificultad de aprendizaje que denominamos concepción determinista del
azar, estaba relacionada con una incorrecta comprensión del significado de la probabilidad
condicionada, como probabilidad recalculada a la luz de una nueva información. La Actividad
4 exige interpretar que se está pidiendo el cálculo de p(S1/no S3). Para realizar la Actividad 5,
será necesario evaluar el número de ocurrencias del suceso “no S3” (nuevo tamaño muestral),
y, dentro de estas ocurrencias, cuántas veces ocurrió S1. Ya que el tamaño muestral es ahora
menor, puede ser necesario aumentar el número de simulaciones para que el resultado de
ambas actividades sea el mismo, de modo que de nuevo entra en consideración la dificultosa
cuestión de la importancia del tamaño de la muestra.
CONTEXTO Y MUESTRA DE ESTUDIANTES
El programa de actividades que hemos descrito fue implementado y evaluado en un grupo
de estudiantes de primer curso de ingeniería en la Universidad del País Vasco, dentro de la
asignatura Métodos Estadísticos de la Ingeniería. En esta asignatura se desarrollan contenidos
elementales de estadística descriptiva, combinatoria, probabilidad frecuencial y contraste
de hipótesis. Al término de la experiencia, evaluamos los resultados mediante una variedad
de instrumentos que se describen en el apartado siguiente y contrastamos los resultados
empleando un grupo de control, cuyos alumnos tenían un perfil similar a los experimentales,
216
SIGMA Nº 31 • SIGMA 31 zk.
Simulación por ordenador de experimentos aleatorios
en la enseñanza de la probabilidad
como ya hemos mostrado en anteriores trabajos (Guisasola y Barragués, 2002[a,b]. Barragués
et al, 2005 y 2006). Los alumnos y alumnas del grupo de control recibieron su enseñanza
según el esquema usual: presentación formal de conceptos y propiedades, ejemplos de aplicación y ejercicios de aplicación más o menos inmediata.
RESULTADOS
Evaluación de la secuencia
A fin de evaluar el programa de actividades, se ideó un diseño que incluye métodos cualitativos (entrevistas grabadas) y cuantitativos (encuestas pasadas a los grupos experimental y de
control). Todas las preguntas eran de tipo abierto, a través de las cuales buscábamos estudiar
los tipos de razonamiento empleados. El Anexo recoge tres de los problemas planteados a los
alumnos. Los problemas 1 y 3 se plantearon por escrito, en situación de examen, a cada uno
de los alumnos de ambos grupos (N = 46 el experimental, N = 60 el de control). El problema
2 se propuso de forma diferente en ambos grupos. En el grupo de control, como parte de una
entrevista personal a 10 alumnos. En el grupo experimental, se planteó dentro del trabajo por
equipos en el aula (13 equipos de 3 o 4 personas). Todos los equipos debían discutir el problema y redactar un informe escrito con los razonamientos seguidos para resolver el problema
y justificar el resultado.
Análisis de los datos
El objetivo del problema 1 era detectar la creencia de que cualquier fenómeno queda unívocamente determinado por cierto conjunto de condiciones iniciales establecidas, y que es posible
predecir el estado final exacto sin más que aplicar las leyes físicas adecuadas (concepción
determinista del azar). Una respuesta se consideró correcta si observaba la gran cantidad de
factores aleatorios que influirían en la posición final de la bola, y en consecuencia desaconsejaba la solución propuesta y proponía como alternativa un enfoque probabilístico. En el grupo
de control sólo un 16% de las respuestas pudieron considerarse correctas, mientras que en el
grupo experimental este porcentaje fue del 67%. He aquí dos ejemplos de respuesta:
Ejemplo de respuesta correcta (grupo experimental). Teóricamente, utilizando únicamente las
leyes físicas nos debería salir el lugar donde la bola caería, pero eso no es así ya que en la
caída de ésta intervienen factores externos no medibles a priori que condicionan la caída. Por
ello lo mejor sería por cálculo de probabilidades.
Ejemplo de respuesta incorrecta (grupo de control). Controlando todas las características físicas
de todos los objetos y sabiendo qué dirección, aceleración etc, va a llevar la bola en el punto
de partida creo que se podría saber dónde acabará la bola. Todos los detalles son de importancia pues requiere gran exactitud: clavos (tamaño, orientación en que han sido clavos, profundidad,...), bola, fuerza y orientación del lanzamiento de la bola, y otras muchas características
como flexibilidad de los clavos y de la bola para saber posibles respuestas ante choques, etc.
El problema 2 (urna de Falk) tenía como objetivo dejar al descubierto un segundo indicio de
la concepción determinista del azar que ya hemos discutido: la confusión entre independencia causal y probabilística. Obsérvese el siguiente fragmento de la entrevista a “Fernando”,
alumno del grupo de control:
Noviembre 2007 • 2007ko Azaroa
217
José Ignacio Barragués Fuentes y Jenaro Guisasola Aranzabal
Ejemplo 1
Entrevistador.- La probabilidad de la primera carta, ¿se modifica si tenemos el dato de lo que
ha salido en la segunda extracción?
Fernando.- Yo creo que no.
E.- ¿Por qué?
F- Al tenerla apartada, que luego saques un as, esa carta no entra dentro ya del conjunto,
desde el momento en que la hemos separado...
E.- Entonces, das por buena esa primera interpretación que aparece propuesta.
F.- Sí.
E.- La segunda interpretación es que ahora la probabilidad de que la primera carta haya sido
un as es mayor que 1/2.
F.- Eso no.
E.- Y la tercera interpretación, que la probabilidad es ahora menor.
F.- No.
E.- Estonces, tú tienes una nueva información (segunda carta es as), pero dices que eso no
altera la probabilidad del primer suceso (primera carta as).
F.- Claro, porque ocurrió antes, y ya está fuera de lo que estamos jugando ahora.
Si, como el alumno, se interpreta el enunciado en términos causales, resulta evidente que el
resultado de la segunda extracción no afecta al resultado de la primera extracción. Así pues,
la nueva información no afecta a la probabilidad de la primera extracción. Pero el conflicto
surgirá poco después en la entrevista, cuando el profesor hace observar que si se van descubriendo nuevas cartas, lo que primeramente era incertidumbre (el resultado de la primera
extracción) pasa a ser certeza.
Ejemplo 1 (continuación)
E.- Fíjate en que lo que antes era incertidumbre, se convierte ahora en certeza. Entonces,
este cambio, ¿te parece que es directo de probabilidad 1/2 a certeza, o se va modificando
a medida que yo voy sabiendo más cosas?
F.- Claro, porque no ha sido lo mismo que me sacases primero un as y luego el otro as, que
primero me sacases un as y luego un rey. Entonces sí que se modifica...
E.- Dices que hay una modificación de probabilidad. Pero todavía tenemos el problema de
antes. La segunda carta no afecta a la primera. ¿Cómo podría modificar su probabilidad?
F.- (Se muestra desconcertado y no acierta a dar explicación alguna).
Así pues, la probabilidad de la primera carta sí resulta de alguna forma alterada si se dispone
de nuevos datos. ¿Cuál es la explicación? En todas las entrevistas realizadas, los alumnos
perciben el conflicto pero no encuentran explicación ni relación con la probabilidad condicionada, que sería el análisis correcto desde un marco teórico formal de la probabilidad. En
cambio, diez de los trece equipos de alumnos del grupo experimental propusieron soluciones
correctas. Veamos dos de estas respuestas:
Comentarios al Ejemplo 1
La probabilidad de que la primera carta haya sido un as es ahora menor que 1⁄2 ya que ahora
hemos sacado un as. Es muy común pensar como la frase (a), pero esto es un error porque la
probabilidad no se estudia para ese caso concreto sino que para muchos casos, por lo que no
debes tener en cuenta el “eje temporal”. Suponemos equiprobabilidad pero no independencia,
ya que el resultado de la segunda carta influye en la probabilidad de la primera.
218
SIGMA Nº 31 • SIGMA 31 zk.
Simulación por ordenador de experimentos aleatorios
en la enseñanza de la probabilidad
Comentarios al Problema 2
Hay que hallar la probabilidad de que la primera sea AS si la segunda ha sido AS, o sea
p(AS1/AS2).
E = {AS, REY}
p(AS1/AS2) = p(AS1∩AS2)/p(AS2) =
= p(AS1)p(AS2/AS1)/(p(AS1∩AS2) + p(AS1∩REY1)) =
= p(AS1)p(AS2/AS1)/(p(AS1)p(AS2/AS1) + p(REY1)p(AS2/REY1)) =
= (1/2 )(1/3)/`[(1/2)(1/3) + (1/2)(2/3)] = 1/3
Si hacemos muchas veces el experimento, la frecuencia de que la primera sea AS si es que la
segunda ha sido AS es de 1/3: 1 de cada 3 veces será AS. Esto se cumple si se hace muchas
veces.
Respecto al problema 3, su objetivo era detectar si el alumno creía que es posible estimar de
forma precisa el número de ocurrencias de un suceso cuya probabilidad es conocida, para
cualquier muestra, independientemente de su tamaño (insensibilidad al tamaño de la muestra).
Se valoró positivamente en el caso de indicar que la muestra de cinco pacientes por hospital
es demasiado pequeña para emitir un juicio razonado.
Un 63% de las respuestas del grupo experimental fueron consideradas correctas. En cambio,
sólo un 15% de las respuestas del grupo de control fueron correctas, mientras que el restante
85% mostraba una falta de consideración hacia el tamaño de la muestra. En estas respuestas
se ofrecía un juicio acerca de cómo de precisas son las estimaciones de probabilidad, incluso
calculando explícita o implícitamente los “valores esperados” del número de pacientes de la
muestra de cinco, que “deberían recuperarse” de ser precisas las estimaciones de los hospitales. He aquí algunos ejemplos de este tipo de respuesta incorrectas del grupo de control:
Otros comentarios al Problema 3
Las estimaciones son bastante precisas. Si calculamos el 20%, el 50% y el 70% de los cinco
obtenemos más o menos haciendo ajuste los enfermos recuperados, aunque en Cruces la estimación no es muy buena.
Las estimaciones de probabilidades de curación del hospital de Txagorritxu son perfectas, las
de Aranzazu buenas, se curaron más de los que se estimaban y las estimaciones del hospital
de Cruces fueron malas pues se recuperaron menos de los que se estimaba.
CONCLUSIONES
Existen serias dificultades de aprendizaje de los conceptos relacionados con el azar y la probabilidad. Una de las dificultades más persistentes consiste en la tendencia a buscar relaciones
de causa-efecto para enjuiciar situaciones de azar. Quizá el buscar una explicación causal
convincente a todo fenómeno observable sea un mecanismo inherentemente humano, largamente heredado, que surge para tratar de reducir o suprimir la incertidumbre en un entorno
donde tan sujetos estamos a las contingencias de lo impredecible y donde tan codiciada
resulta la capacidad de pronosticar certeramente. Sea cual fuere el origen de este mecanismo,
existen evidencias suficientes de que puede dificultar el desarrollo del pensamiento científico
sobre el azar y la incertidumbre y de que puede ser todavía reforzado por un sistema educativo que entrene en mayor medida el pensamiento causal y enseñe la probabilidad incorrecta
Noviembre 2007 • 2007ko Azaroa
219
José Ignacio Barragués Fuentes y Jenaro Guisasola Aranzabal
y tardíamente. Parece razonable pensar que uno de nuestros objetivos como docentes debe
ser mostrar a los alumnos que la ciencia se reconoce incapaz de explicar el mundo sólo en
términos de necesidad, que el azar juega un importante papel y que en muchas ocasiones
nuestra única herramienta de análisis científico será precisamente la probabilidad formal, con
la que investigar las posibles conexiones estadísticas entre diversas variables del fenómeno
bajo estudio.
Las dificultades de aprendizaje no se superan mediante una enseñanza que presenta los conceptos únicamente en su forma operativa final, partiendo de unos axiomas y demostrando
una serie de teoremas para terminar cada lección con algunos ejercicios de aplicación, sin
proporcionar a los alumnos y alumnas oportunidades reiteradas y sistemáticas de abordar
preguntas del tipo “¿Qué sucedería si...?”, ¿Cuál es la relación entre...?, “¿Cómo podemos
encontrar...?”
Adquirir competencias en la ciencia del azar es una parte muy importante de la alfabetización científica de los y las jóvenes, inmersos en una sociedad donde proliferan toda suerte de
creencias irracionales, pseudociencias, vaticinios, supersticiones y supercherías, de la mano
de adivinadores que malgastan su talento en la prensa rosa, horóscopos que el usuario hace
encajar inconscientemente en su devenir particular, pronósticos que sólo se citan si han resultado acertados, etc.
Hemos tratado de reflejar en nuestro programa de actividades la alternativa probabilística
para resolver problemas, pero sin ocultar al estudiante sus limitaciones. Por ejemplo, la teoría
probabilística nada asegura acerca del resultado de la ejecución del próximo experimento
aleatorio, pero la capacidad para predecir qué ocurrirá en una repetición específica puede ser
el punto de auténtico interés para el individuo. Se acude al futurólogo para obtener respuestas
para su caso particular, a pesar de que se dispone de datos estadísticos acerca del fracaso de
matrimonios, de accidentes aéreos, enfermedades o la bolsa. Así pues, la respuesta probabilística puede resultar completamente insatisfactoria para un individuo. Todas estas cuestiones son
objeto de discusión en clase a lo largo de nuestro programa de actividades.
El modelo de E/A como investigación orientada, que hemos implementado para la enseñanza
de los temas elementales de la Teoría de la Probabilidad en primer ciclo universitario, parece
crear en el aula un ambiente que favorece la explicitación de las ideas propias y su confrontación con las de otros, en un ambiente hipotético-deductivo rico en episodios de argumentación y justificación, tan importantes para el aprendizaje de conocimientos científicos. En este
entorno de trabajo, el ordenador se integra como un instrumento más en manos de alumno, al
que se recurre dentro de la lógica general de resolución de problemas, sin separación alguna
entre “clases teóricas“ y “prácticas de ordenador”. El ordenador, con actividades adecuadas,
se ha revelado como eficaz instrumento de intervención para profundizar en el significado
de los conceptos y para ayudar al alumno a superar las ideas incorrectas sobre el azar y la
probabilidad.
ANEXO. CUESTIONES UTILIZADAS PARA EVALUACIÓN
DE APRENDIZAJE
Problema 1 (para prueba escrita)
Tu amigo Borja es muy aficionado a los experimentos físicos. Te ha llamado para hablarte del
último que tiene entre manos. Sobre un panel vertical ha clavado algunos clavos, como aparece en la siguiente figura:
220
SIGMA Nº 31 • SIGMA 31 zk.
Simulación por ordenador de experimentos aleatorios
en la enseñanza de la probabilidad
Cuando se deja caer la bola desde la parte superior, rebota por los clavos y termina en alguno
de los agujeros de la parte inferior. Lo que intenta Borja es predecir cuál será el agujero en el
que entrará la bola. Ha medido con mucho cuidado la posición de los clavos, el peso y diámetro de la bola y las características del material con que está fabricada. Su idea es emplear
todos estos datos y los principios y leyes de Física sobre choques y movimiento de objetos
para calcular la trayectoria que seguirá la bola en su caída, y así poder predecir en qué agujero
entrará.
Sin embargo, Borja no ve claro cómo ponerse en marcha, qué leyes físicas emplear y cómo
hacerlo. Te ha explicado su modo de enfocar el problema. Explícale qué te parece ese enfoque.
Problema 2 (para entrevista personal)
Sobre la mesa tenemos cuatro cartas: dos ASES y dos REYES. Las colocamos boca abajo y las
revolvemos. Naturalmente, si ahora sacamos una carta al azar, la probabilidad de que salga
AS es idéntica a la probabilidad de que salga REY (esto es, 0,5). Pues bien, lo que hacemos es
extraer una carta al azar pero la apartamos sin mirar qué carta es. Luego, de entre las tres cartas
restantes sacamos otra, que resulta ser AS. Según este segundo resultado, la probabilidad de
que la primera carta haya sido un AS ¿es ahora mayor, igual o menor que 0,5?
Problema 3 (para prueba escrita)
Se han tomado al azar los historiales médicos de cinco enfermos de cada uno de los hospitales
de Txagorritxu, Nª Sª de Aranzazu y Cruces, todos ellos con la misma dolencia pulmonar. En
los historiales de los cinco enfermos de Txagorritxu consta que se estimó en 0,2 la probabilidad de curación. Para los cinco enfermos de Nª Sª de Aranzazu, la probabilidad fue de 0,5,
mientras que para los cinco enfermos de Cruces la probabilidad de curación fue 0,7. Pues
bien, de los cinco enfermos tratados en Txagorritxu, se recuperó sólo uno de ellos; de los cinco
pacientes de Nª Sª de Aranzazu se recuperaron tres; y de los cinco pacientes de Cruces, se
recuperaron dos. ¿Te es posible obtener alguna conclusión acerca de cómo de acertadas son
las estimaciones de la probabilidad de supervivencia que se dan en los diferentes hospitales?
Noviembre 2007 • 2007ko Azaroa
221
José Ignacio Barragués Fuentes y Jenaro Guisasola Aranzabal
REFERENCIAS BIBLIOGRÁFICAS
Batanero, C., Navarro-Pelayo, V. y Godino, J., 1997: Effect of the implicit combinatorial
model on combinatorial reasoning in Secondary School pupils. Educational Studies in
Mathematics, 32 (2), pp. 181-199.
Barragues, J. I., 2002: La enseñanza de la probabilidad en primer ciclo de universidad.
Análisis de dificultades y propuesta alternativa de orientación constructivista. Tesis doctoral. San Sebastián: UPV/EHU.
Barragués, J. I., Guisasola, J. y Morais, A., 2005: Concepciones de los estudiantes de
primer ciclo de universidad sobre estimación de la probabilidad. Educación Matemática,
17(1), pp. 55-85.
Barragués, J. I., Guisasola, J. y Morais, A., 2006: Chance and probability: what do they
mean to university engineering students? International Journal of Mathematics Education
in Science and Technology, 37(8), pp.883-900.
BEaufils, D., Le Touzé, J. C. y Blondel, F. M., 1994: Images as a basis for computer modelling. Physics Education, 29, pp. 89-93.
Boero C. D. y Parenti, L., 1996: Didactics of Mathematics and the Professional Knowledge
of Teachers. En Bishop, A. J., Clements, K., Keitel, C., Kilpatrick, J. y Laborde, C. (Eds).
International Handbook of Mathematics Education. Netherlands: Kluwer Academic
Publishers, pp. 1097-1121.
Borovcnik, M., Bentz, H. J. y Kapadia, R., 1991: A Probabilistic Perspective. En Kapadia,
R. y Borovcnik, M., (Eds). Chance encounters: probability in education. Netherlands:
Kluwer Academic Publishers, pp. 27-70.
Borovcnik, M. y Bentz, H. J. 1991: Empirical Research in Understanding Probability.
En Kapadia, R. y Borovcnik, M., (Eds). Chance encounters: probability in education.
Netherlands: Kluwer Academic Publishers, pp. 73-105.
Borovcnik, M. y Peard, R., 1996: Probability. En Bishop, A. J., Clements, K., Keitel, C.,
Kilpatrick, J. y Laborde, C. (Eds). International Handbook of Mathematics Education.
Netherlands: Kluwer Academic Publishers, pp. 239.
F alk, R., 1983: Experimentals Models for Resolving Probabilistic Ambiguities. Proc.
Seventh Int. Conf. Psychology of Mathematics Education. Rehovot.
Furió, C., Guisasola, J., almudí, J. M. & Ceberio, M., 2003: Learning the electric field
concept as oriented research activity, Science Education, 87 (6), pp. 640-662).
Gil, D. y De Guzmán, M., 1993: Enseñanza de las Ciencias y de las matemáticas. Madrid:
Editorial Popular.
rugnetti L. Y Jaquet, F., 1996: Senior Secondary School Practices. En Bishop, A. J.,
G
Clements, K., Keitel, C., Kilpatrick, J. y Laborde, C. (Eds). International Handbook of
Mathematics Education. Netherlands: Kluwer Academic Publishers, pp. 615-645.
Guisasola, J., Furió, C. y Ceberio, M., 2008: Science Education based on developing
guided research. En Thomase M. V. (Ed), Science Education in Focus. Nova Publisher.
uisasola, J. y Barragués, J. I., 2002[a]: Heurísticas y sesgos de los estudiantes de primer
G
ciclo de Universidad en la resolución de problemas de probabilidad. Enseñanza de las
Ciencias, 20 (2), pp. 285-302.
Guisasola, J. y Barragués, J. I., 2002[b]: Formas de razonamiento de los estudiantes en
el cálculo de la probabilidad en cursos introductorios de estadística de primer ciclo de
Universidad. Epsilon, 53, pp. 219-242.
222
SIGMA Nº 31 • SIGMA 31 zk.
Simulación por ordenador de experimentos aleatorios
en la enseñanza de la probabilidad
Hirsch, L. S. y O'Donnell, A. M., 2001: Representativeness in Statistical Reasoning:
Identifying and Assessing Misconceptions. Journal of Statistics Education, 9 (2).
Konold, C., 1991: Understanding student ́s beliefs about probability. En Glasersfeld E.
V. (Ed.), Radical Constructivism in Mathematics Education. Dordrecht, The Netherlands:
Kluwer Academic Publishers, pp. 139-156.
CTM, 2000: Principe and Standards for School Mathematics. http://standards.nctm.org/
N
document.
Pollatsek, A., Lima, S. y Well, A., 1981: Concept or computation: Students’ understanding
of the mean. Educational Studies in Mathematics, 12, pp. 191-204.
Sáenz, C. 1998: Teaching Probability for Conceptual Change. Educational Studies in
Mathematics, 35 (3), pp. 233-254.
Schecker, H., 1993: Learning physics by making models. Physics Education, 28, pp. 102106.
Shaughnessy, J. M., 1992: Research in Probability and Statistics: Reflections and
Directions”, en Grouws, D., Handbook of Research for Mathematics Education. New York:
Macmillan.
Sánchez, F., Estepa, A. y Batanero, C., 2000: Un estudio experimental de la estimación de
la correlación a partir de diferentes representaciones. Enseñanza de las Ciencias, 18 (2),
pp. 297-310.
Scholz, R. W., 1991: Psychological Research in Probabilistic Understanding. En Kapadia,
R. y Borovcnik, M. (Eds), Chance encounters: probability in education. Netherlands:
Kluwer Academic Publishers, pp. 213-253.
Schoenfeld, A. H., 1987: Cognitive Science and Mathematics Education. USA: Lawrence
Erlbaum Associates.
Serrano, L., Batanero, C. y Ortíz, J. J., 1996: Interpretación de enunciados de probabilidad
en términos frecuenciales por alumnos de bachillerato. Suma (22), pp. 43-49.
Serrano, L., Batanero, C., Ortíz, J. J., y Cañizares, M. J., 1998: Heurísticas y sesgos en
el razonamiento probabilístico de los estudiantes de secundaria. Educación Matemática,
(22), pp. 7-25.
L ecoutre, M. P., 1985: Effect d ́informations de nature combinatoire et de nature frécuentielle sur le judgements probabilistes. Recherches en Didactique des Mathématiques, (6)
pp. 193-213.
Lecoutre, M. P., 1992: Cognitive models and problem spaces in “purely random” situations. Educational Studies in Mathematics (23), pp. 557-568.
Lecoutre, M. P. y Durand, J. L., 1988: Jugéments probabilistes et modéles cognitifs: étude
d ́une situation aléatoire. Educational Studies in Mathematics (19), pp. 357-368.
L ecoutre, M. P. y Cordier, J., 1990: Effect du mode de présentation d ́un problème aleatoire
sur les modèles développés par les élèves. Bulletin de l ́APMEP (372), pp. 9-22.
Muñoz, A., 1998: Algunas ideas preconcebidas sobre probabilidad. Suma, 29, pp. 29-34.
Niss, M., 1996: Goals of Mathematical Teaching. En Bishop, A. J., Clements, K., Keitel,
C., Kilpatrick, J. y Laborde, C. (Eds). International Handbook of Mathematics Education.
Netherlands: Kluwer Academic Publishers, pp. 11-47.
Valdés, R. y Valdés, P., 1994: La utilización de los ordenadores en la enseñanza de las
ciencias. Enseñanza de las Ciencias, 12 (3), pp. 412-415.
Noviembre 2007 • 2007ko Azaroa
223
ullins
r Justin M
o
p
a
d
a
z
li
Obra rea
Descargar