Capítulo 1 - Módulo de Probabilística

Anuncio
1. Historia de la Probabilidad.
La Probabilidad, es una rama de las matemáticas que se ocupa de medir o determinar cuantitativamente la
posibilidad de que ocurra un determinado suceso. La probabilidad está basada en el estudio de la combinatoria
y es fundamento necesario de la estadística.
En la sociedad francesa de 1650 el juego era un entretenimiento corriente, sin demasiadas restricciones
legales. En este entretenimiento están las raíces de la teoría de la probabilidad , pues cada vez se fueron
introduciendo juegos más complicados que dejaron sentir la necesidad de un método para calcular la
probabilidad de ganar en cada juego.
Un jugador apasionado, el caballero De Méré, encontró un desacuerdo entre las frecuencias relativas de las
veces que ganaba - valores observados realmente - y el valor de la correspondiente probabilidad de ganar que
él mismo había calculado. El caballero de Méré le planteó a Pascal lo siguiente : En ocho lanzamientos
sucesivos de un dado intenta obtener un uno, pero el juego se interrumpe después de tres intentos fallidos. ¿En
que proporción ha de ser compensado el jugador?.
A partir de esta simple pregunta Pascal escribió a Fermat (1601-1665) sobre este problema y la
correspondencia intercambiada constituyó un verdadero punto de partida para la teoría de las probabilidades.
Pronto Pascal y Fermat probaron que el desacuerdo del caballero De Méré se debía a que era erróneo el
calculo de probabilidad que había hecho, ya que De Méré se había equivocado al considerar como
equiprobables casos que no le eran, y sólo cuando los casos posibles son equiprobables (iguales
probabilidades para los sucesos) tiene sentido aplicar la definición dada de probabilidad.
La creación de la probabilidad se atribuye entonces a estos matemáticos franceses del siglo XVII Blaise Pascal
y Pierre de Fermat, aunque algunos matemáticos anteriores, como Gerolamo Cardano en el siglo XVI, habían
aportado importantes contribuciones a su desarrollo. La probabilidad matemática comenzó como un intento de
responder a varias preguntas que surgían en los juegos de azar, por ejemplo, saber cuántos dados hay que
lanzar para que la probabilidad de que salga algún seis supere el 50%.
Blaise Pascal
El filósofo y científico Blaise Pascal formuló, junto con el
matemático francés Pierre de Fermat, la teoría de la
probabilidad.
1
Pierre de Fermat
El matemático francés Pierre de Fermat se destacó por sus
importantes aportaciones a la teoría de la probabilidad y al
cálculo diferencial. También contribuyó al desarrollo de la
teoría de números.
Blas Pascal (1623-1662), nació en Francia y fue un gran matemático que abandonó esta ciencia por la teología,
fue un niño prodigio de las matemáticas, el padre de Blas Pascal había mostrado ya una fuerte vocación
matemática y de hecho el caracol de Pascal, es una curva llamada así en honor al padre de Pascal, Etienne. A
los doce años Blas Pascal mostró un alto grado de inteligencia en el área de la geometría. A los 18 años
cambió de tema de estudio y se dedicó a diseñar una máquina calculadora; que en pocos años construyó,
vendiendo unas cincuenta máquinas.
Aunque Pascal y Fermat no expusieron sus resultados por escrito, Christiaan Huygens, físico y matemático
holandés (1629-1695), publicó en 1657 un breve tratado titulado De ratiociniss in ludo aleae (Sobre los
razonamientos relativos a los juegos de dados) inspirado en la correspondencia de estos dos matemáticos
franceses, para esto Pascal había relacionado el estudio de la probabilidades con el triángulo aritmético.
El triángulo aritmético es el siguiente:
1 1 1 1
1 1
1 2 3 4
5
1 3 6 10
1 4 10 20
1 5 15
1
Aquí se puede observar que la relación que le dio Pascal a la teoría de probabilidades con el triángulo
aritmético, fue el de una distribución de probabilidades.
La definición de probabilidad en un inicio, se consideraba un cierto número de casos posibles, número que
variaba de un experimento a otro, y se admitía que los diversos casos posibles fueran todos equiprobables e
independientes de la voluntad del lanzador, y la probabilidad se admitía como el cociente de casos favorables
entre casos posibles. Es decir
P= n/N
n : Casos favorables de un evento
N : Casos posibles de un experimento
2
La probabilidad se obtiene entonces, dividiendo el número de casos favorables entre el número de los casos
posibles, por tanto la probabilidad de obtener oros al extraer al azar una carta de una baraja española es 10/40
= 1/4 y se admitían que al repetir la fracción 400 veces, devolviendo la carta a la baraja tras cada extracción,
sería muy poco usual que la frecuencia relativa de los oros obtenidos estuviesen alejadas de 1/4.
El cálculo de probabilidades tuvo un notable desarrollo sobre la base de la anterior definición de probabilidad,
destacan en 1713 el Teorema de Bernuolli y la distribución binomial, el teorema se debe su nombre al de la
célebre familia de los Bernoulli cuyos miembros lograron destacar tanto en matemáticas y física. Uno de ellos
Jacques Bernoulli (1654-1705), realizó estudios sobre la teoría de la probabilidad y escribió un tratado ya
clásico, titulado Ars conjectandi ( o Arte de la Conjetura), publicado 1713, ocho años después de la muerte del
autor, es considerado como el primer volumen importante sobre la teoría de las probabilidades. Este tratado
consta de cuatro partes, la primera es una reproducción del tratado de Huygens junto con el comentario
correspondiente de Bernoulli, en la segunda parte incluye una teoría general de permutaciones y
combinaciones que viene facilitada por el teorema binomial y multinomial, aquí hace la primera demostración
correcta del teorema binomial para exponentes enteros. La tercera y cuarta parte del Ars Conjectandi aborda
principalmente problemas que ilustran la teoría de probabilidades.
Otro hito es la segunda edición de la obra "The Doctrine of Chances" (La doctrina de las probabilidades)
aparecidas en 1738 y debida al hugonote francés De Moivre, que por motivos religiosos huyó de Francia
refugiándose en Inglaterra, donde vivió de la resolución de problemas de juegos de azar. En la obra señalada
aparecen las primeras indicaciones sobre las distribución normal de probabilidades.
En 1809 Gauss inicio el estudio de la teoría de errores, Carl Friedrich Gauss (1777-1855), fue un matemático
alemán que nunca viajó fuera de Alemania ni siquiera de visita, fue un niño prodigio de las matemáticas, un día
el maestro de Gauss por mantener al grupo atareado los puso a que sumaran los números del 1 al 100 y
colocaran la pizarra con el resultado en el escritorio del maestro, casi inmediatamente Gauss colocó su pizarra
sobre la mesa, diciendo “ya está”, el maestro lo miro desdeñosamente, mientras los demás trabajan con ahínco,
después de que todos terminaron el maestro revisó todas las pizarras, encontrando, que en donde aparecía el
resultado de 5050 era en la pizarra de Gauss, sin realizar ningún calculo accesorio, todo lo hizo mental.
Realizó en su vida grandes aportes a la matemática y la astronomía, cabe mencionar que en la astronomía fue
donde desarrollo el método que permitía describir la órbita de los cuerpos celestes a partir de pocas
observaciones, este método se conoce como el de mínimos cuadros. Exactamente el primer día del siglo XIX se
descubrió un nuevo planeta o asteroide al que se le puso el nombre de Ceres y que al cabo de unas semanas
se perdió de vista, debido a su pequeño tamaño. Gauss gozaba de una facilidad excepcional para el cálculo
numérico, a lo que se unía su ventaja de su método de mínimos cuadrados, y con esto se enfrentó a calcular a
partir de pocas observaciones la órbita que recorrería en su movimiento. El resultado de sus cálculos fue un
éxito resonante, a fínales de año volvió a encontrarse el asteroide casi en la misma posición que indicaban
dichos cálculos.
Fue uno de los primeros en usar la curva de Distribución Normal, también llamada distribución Gaussiana, y
que le fue de mucha ayuda para analizar los errores en las observaciones astronómicas. Gauss disfrutaba
ayudando a unos pocos discípulos brillantes y entusiastas, pero la enseñanza rutinaria y elemental de la clase
al parecer no era de su agrado.
3
En 1812 Laplace publica su famosa "Theoríe Analytique des probabilités", que contiene una exposición
completa y sistemática de la teoría matemática de los juegos de azar, además de una gran cantidad de
aplicaciones de la teoría de la probabilidad a muchas cuestiones científicas y prácticas.
Tras la obra de Laplace se extendieron las aplicaciones de su obra otras ramas de la Ciencia durante el siglo
XIX, y así, Gauss y Laplace independientemente aplicaron la teoría de la probabilidad al análisis de los errores
de medida en las observaciones físicas y astronómicas, Maxwell, Boltzmann y Gibbs aplicaron la probabilidad
en su obra "Mecánica Estadística", que ha sido fundamental en distintas partes de la Física moderna. Ya
durante nuestro siglo las aplicaciones de la teoría de la probabilidad se han extendido por los más variados
campos, como genética, economía, psicología...
También, y pese al éxito de las aplicaciones, se oyeron voces críticas a la definición clásica de probabilidad,
que exigía "a priori" saber, o suponer, que todos los casos posibles eran igualmente favorables. Además en
ciertos casos era imposible aplicar la definición clásica de probabilidad, como puede suceder al intentar calcular
la probabilidad de que una moneda caiga de lado, o de que un hombre de 30 años muera el próximo año.
Si bien, la matemática cambió profundamente de forma entre las dos guerras mundiales, también es cierto que
buena parte de la matemática que siguió a la Segunda Guerra Mundial consistía en el comienzo de algo
radicalmente nuevo que anunciaba una nueva era. La teoría de conjuntos y la teoría de la medida invadieron a
lo largo del siglo XX y lo hacen ahora en el XXI una parte cada vez más extensa de la matemática, pero pocas
de sus ramas se han visto afectadas tan profundamente por esta tendencia como la teoría de probabilidades, a
la que Borel había dedicado ya en 1909 sus "Eléments de la théorie des probabilités".
El primer año del nuevo siglo se anunciaba ya propicio para las aplicaciones de la teoría de probabilidades tanto
a la física como a la genética, puesto que en 1901 publicaba Glbbs su obra Elementary Principles in Statistical
Mechanics, y el mismo año fue fundada la revista Biometrika por Karl Pearson (1857-1936).
En Rusia se inició el estudio de las cadenas de sucesos eslabonados, especialmente en 1906-1907, por obra
de Andrei Andreyevich Markov (o Markoff, 1856-1922), discípulo de Tchebycheff y coeditor de las Oeuvres (2
vols., 1899-1904) de su maestro. En la teoría cinética de los gases y en muchos fenómenos sociales y
biológicos, la probabilidad de un suceso depende frecuentemente de los resultados anteriores, y especialmente
desde mediados de este siglo las cadenas de Markov de probabilidades eslabonadas se han estudiado muy
detalladamente. En su búsqueda de una fundamentación matemática para la teoría de probabilidades en
expansión, los estadísticos encontraron a mano las herramientas necesarias, y hoy no es posible ya dar una
exposición rigurosa de la teoría de probabilidades sin utilizar los conceptos de función medible y de las teorías
de integración modernas.
En Rusia mismo, por ejemplo, Andrel Nicolaevich Kolmogoroff hizo importantes progresos en la teoría de
procesos de Markov (1931) y dio solución a una parte del sexto problema de Hilbert, en el que se pedía una
fundamentación axiomática de la teoría de probabilidades, utilizando la medida de Lebesgue.
El análisis clásico se había ocupado principalmente de funciones continuas, mientras que los problemas de
probabilidades generalmente se refieren a casos discretos. La teoría de la medida y las sucesivas extensiones
del concepto de integral se adaptaban perfectamente a conseguir una asociación más estrecha entre el análisis
y la teoría de probabilidades, especialmente a partir de mediados del siglo, cuando Laurent Schwartz (19154
1196), de la universidad de París, generalizó el concepto de diferenciación mediante su teoría de distribuciones
(1950-1951).
En nuestros días, la estadística se ha convertido en un método efectivo para describir con exactitud los valores
de datos económicos, políticos, sociales, psicológicos, biológicos o físicos, y sirve como herramienta para
relacionar y analizar dichos datos. La industria de seguros requiere un conocimiento preciso acerca de los
riesgos de pérdida. Muchos centros de aprendizaje estudian la probabilidad como una herramienta para el
entendimiento de los fenómenos sociales. El trabajo del experto estadístico no consiste ya sólo en reunir y
tabular los datos, sino sobre todo en el proceso de “interpretación” de esa información.
El desarrollo de la teoría de la probabilidad ha aumentado el alcance de las aplicaciones de la estadística.
Muchos conjuntos de datos se pueden aproximar, con gran exactitud, utilizando determinadas distribuciones
probabilísticas; los resultados de éstas se pueden utilizar para analizar datos estadísticos, realizando así
suposiciones sobre futuros eventos que aún no se conocen.
La probabilidad es útil para comprobar la fiabilidad de las inferencias estadísticas y para predecir el tipo y la
cantidad de datos necesarios en un determinado estudio estadístico.
Nuestra necesidad de tratar con la incertidumbre nos lleva a estudiar y utilizar la teoría de la probabilidad. Al
organizar la información y considerarla de manera sistemática, seremos capaces de reconocer nuestras
suposiciones, comunicar nuestro razonamiento a otras personas y tomar unas decisiones más sólidas.
Ahora que conoces un poco acerca del desarrollo de la teoría de la probabilidad, ¿qué opinas de ella?
¿Te imaginabas que dicho desarrollo había pasado por tantos procesos y lugares diferentes?
Ejercicios sobre el Capítulo 1
1. Después de leer detenidamente el texto sobre la historia de la probabilidad, construya una tabla cronológica
para que ilustre el desarrollo de la teoría de la probabilidad. Puede ampliar la tabla a través de una consulta
más minuciosa.
2. Se registraron los Niveles de Hemoglobina, para un grupo de pacientes que presentaban un extraño tipo de
anemia. Los datos se agruparon, construyendo para ello intervalos de clases. Observe detenidamente la tabla y
responda las preguntas:
5
Li – Ls
xi
Li - Ls
fai
%fri
Faan
%Fran
7.5 – 9.0
8.25
7.5 – 9.0
3
8.8
3
8.8
9.0 –10.5
9.75
9.0 –10.5
8
23.6
11
32.4
10.5 – 12.0
11.25
10.5 – 12.0
10
29.4
21
61.8
12.0 – 13.5
12.75
12.0 – 13.5
10
29.4
31
91.2
13.5 – 15.0
14.25
13.5 – 15.0
1
2.9
32
94.1
15.0 –16.5
15.75
15.0 –16.5
2
5.9
34
100.0
 fai = 34
%fri = 100.0
(Niveles de hemoblogina en g/dl –gramos por decilitro-. Niveles normales se encuentran en el rango de 14.0 a 18.0 g/dl)
a. ¿Cuál es el tamaño de la muestra, en otras palabras cuántas personas fueron analizadas? (Casos Totales)
b. ¿Cuántas personas presentaron un nivel de hemoglobina entre 10.5 y 12.0, a qué porcentaje corresponden?
c. ¿Cómo se calculó este porcentaje? ¿Qué relación encuentras con la única fórmula planteada en el texto
sobre la historia de la probabilidad?
d. ¿Cuál es la probabilidad de que un paciente tenga un nivel de hemoglobina entre 13.5 y 15.0 g/dl?
3. Piensa en los siguientes dígitos: 1, 2, 3, 4, 5.
a. ¿De cuántas formas diferentes pueden ser organizados si utilizas todos los cinco dígitos. Por ejemplo: 54321,
12354, 54231,...
b. Y si utilizas sólo cuatro dígitos? Por ejemplo: 5432, 5123, 1234, 4315, ...
4. Piensa ahora en las placas de los vehículos motorizados de la ciudad de Medellín:
Las placas de los carros son de la siguiente forma:
Letra Letra Letra Número Número Número
Las placas de las motos son de la siguiente forma:
Letra Letra Letra Número Número Letra
De antemano, crees que la cantidad de placas para las motos será superior, igual o inferior a la cantidad de
placas para carros?
¿Cuántas placas distintas podrán existir para cada tipo de vehículo? ¿Cuál es la diferencia? ¿Te parece muy
poca o mucha? Explica por qué.
6
Descargar