Repaso de Probabilidad y Estadı́stica Área de Estadı́stica e Investigación Operativa Licesio J. Rodrı́guez-Aragón Febrero 2011 Probabilidad Definición . . . . . . . . . . . Interpretación Frecuentista Interpretación Subjetiva . . Probabilidad Condicional . Th. Probabilidad Total . . Th. de Bayes . . . . . . . . . Verosimilitud . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Estadı́stica Variables Aleatorias . . . . Función de Probabilidad. Función de Distribución . Función de Densidad . . . Función de Distribución . Distribución Normal. . . . Th. Central del Lı́mite . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1 . . . . . 2 3 4 5 6 8 10 11 12 13 14 15 16 17 18 19 2 / 19 Probabilidad Definición Probabilidad: Cociente entre el número de casos favorables de un suceso y el número de casos posibles. P (A) = num. casos favorables a A num. casos posibles ¿Es aplicable este concepto siempre? Licesio J. Rodrı́guez-Aragón Métodos Cuantitativos Org. Ind. – 3 / 19 Interpretación Frecuentista Se aplica a experimentos que se pueden repetir indefinidamente y bajo las mismas condiciones. Las frecuencias relativas se estabilizan al repetirse el experimento. Supongamos que un suceso A ocurra An veces en n repeticiones del experimento: An n→∞ n P (A) = lim Suponiendo que este lı́mite existe. Licesio J. Rodrı́guez-Aragón Métodos Cuantitativos Org. Ind. – 4 / 19 2 Interpretación Subjetiva Medida del grado de creencia que se tiene acerca de un suceso de interés. Se puede aplicar en cualquier situación en la que exista una opinión. Al recibir información nueva, las probabilidades cambian. La probabilidad de un suceso como la medida del grado de creencia que tiene una persona en un momento preciso acerca de la ocurrencia de un suceso. Requiere de un calibrado. Licesio J. Rodrı́guez-Aragón Métodos Cuantitativos Org. Ind. – 5 / 19 Probabilidad Condicional Supongamos que estamos interesados en el suceso A, cuya probabilidad de ocurrencia definimos como P (A), y nos informan que ha ocurrido el suceso B. ¿Cambian nuestras creencias acerca de la ocurrencia del suceso A?. ¿Son A y B independientes? Siendo B un suceso tal que P (B) > 0, para cualquier otro suceso A denominaremos Probabilidad Condicionada de A respecto de B: P (A ∩ B) P (A|B) = P (B) A y B son sucesos independientes si y sólo si, P (A ∩ B) = P (A) · P (B) Licesio J. Rodrı́guez-Aragón Métodos Cuantitativos Org. Ind. – 6 / 19 3 Ejemplo Supongamos que 3 máquinas M 1, M 2 y M 3 fabrican piezas con una producción de 300, 450 y 600 piezas por hora respectivamente. Sabemos que los porcentajes de piezas defectuosas que fabrica cada máquina son 2%, 3.5% y 2.5% respectivamente. Las piezas fabricadas se almacenan de forma conjunta en el mismo almacén. ¿Cuál es la probabilidad de elegir al azar una pieza defectuosa? P (D) Parámetros del problema: P (Mi ) P (D|Mi ) Licesio J. Rodrı́guez-Aragón Métodos Cuantitativos Org. Ind. – 7 / 19 4 Teorema de la Probabilidad Total Si A1 , . . . , An ⊂ E son un conjunto de sucesos exhaustivo, n [ Ai = E, i=1 y mutuamente excluyente, Ai ∩ Aj = ø ∀i 6= j, entonces, ∀B ⊂ E: P (B) = n X i=1 P (B|Ai ) · P (Ai ) Licesio J. Rodrı́guez-Aragón Métodos Cuantitativos Org. Ind. – 8 / 19 5 Ejemplo Una empresa desarrolladora de antivirus nos proporciona la siguiente información para juzgar las ventajas de su producto estrella: Si un ordenador está infectado, lo cual ocurre según ellos en un 1% de las ocasiones, el test antivirus nos dirá que el ordenador está infectado el 99% de las ocasiones. Si un ordenador no está infectado, lo cual ocurre según ellos en un 99% de los casos, el test antivirus nos dirá que está infectado en un 5% de las ocasiones. ¿Son estos valores adecuados? Parámetros conocidos: P (L), P (Lc ), P (T + |L), P (T + |Lc ) Licesio J. Rodrı́guez-Aragón Métodos Cuantitativos Org. Ind. – 9 / 19 6 Teorema de Bayes Sea A1 , . . . , An ⊂ E, un sistema exhaustivo y excluyente de sucesos. Sea B ⊂ E un suceso del que conocemos las probabilidades: P (B|Ai ) ∀i = 1, . . . , n. Entonces se verifica ∀j = 1, . . . , n: P (B|Aj ) · P (Aj ) P (Aj |B) = Pn i=1 P (B|Ai ) · P (Ai ) Licesio J. Rodrı́guez-Aragón Métodos Cuantitativos Org. Ind. – 10 / 19 7 Verosimilitud Supongamos que partimos de dos hipótesis, A ó Ac , y partimos de unas creencias iniciales o probabilidades a priori, P (A) y P (Ac ) = 1 − P (A) Realizamos un experimento, G ó Gc , del que obtenemos cierta información. Dependiendo de cual de las hipótesis fuera cierta, A ó Ac , tendrı́amos una verosimilitud de que ocurriese G, P (G|A) ó P (G|Ac ). Puesto que hemos observado G las nuevas probabilidades relevantes serán las probabilidades a posteriori, P (A|G) ó P (Ac |G) Licesio J. Rodrı́guez-Aragón Métodos Cuantitativos Org. Ind. – 11 / 19 12 / 19 Estadı́stica Variables Aleatorias En todo proceso de observación o experimento podemos definir una variable aleatoria asignando a cada resultado del experimento un número: Resultado Numérico. Etiqueta numérica asignada a cada resultado cualitativo. Variable Aleatoria Discreta: Aquella que solo puede tomar un número finito, o infinito numerable, de valores distintos. Variable Aleatoria Continua: Aquella que puede tomar un número infinito, o no numerable, de valores distintos. Licesio J. Rodrı́guez-Aragón Métodos Cuantitativos Org. Ind. – 13 / 19 8 Función de Probabilidad Dada una Variable Aleatoria Discreta, X, se define su función de probabilidad, f (xi ), como la probabilidad de que X tome el valor xi : f : E −→ [0, 1] xi −→ f (xi ) = P (X = xi ) Si xi ∈ / E, f (xi ) = 0. f (xi ) ≥ 0 ∀i = 1, . . . , n. P f (xi ) = 1. Momentos de una V.A.: P Esperanza o Media: E[X] = µ = xi · f (xi ) P Varianza: V ar[X] = σ 2 = (xi − µ)2 · f (xi ) Licesio J. Rodrı́guez-Aragón Métodos Cuantitativos Org. Ind. – 14 / 19 Función de Distribución F (xi ) = X j≤i f (xj ) = P (X ≤ xi ) Ejemplo: Distribución de Bernulli: Resultado de la observación de un experimento con dos resultados posibles. P (X = 1) = p, P (X = 0)1 − p = q. f (x) = px · q 1−x Licesio J. Rodrı́guez-Aragón Métodos Cuantitativos Org. Ind. – 15 / 19 9 Función de Densidad Dada una Variable Aleatoria Continua, X, se define su función de densidad, f (xi ), como una función integrable, no negativa, verificando: f (xi ) ≥ 0 ∀x ∈ R. R∞ −∞ f (x)dx = 1 Dados a < b, P (a ≤ X ≤ b) = Momentos de una V.A.: Rb a f (x)dx. R∞ Esperanza o Media: E[X] = µ = −∞ x · f (x)dx R∞ Varianza: V ar[X] = σ 2 = −∞ (x − µ)2 · f (x)dx Licesio J. Rodrı́guez-Aragón Métodos Cuantitativos Org. Ind. – 16 / 19 Función de Distribución F (x) = P (X ≤ x) = Z x f (t)dt −∞ Ejemplo: Distribución Uniforme: f (x) = 1 b−a a<x<b 0 en el resto 0 x≤a x−a a<x<b F (x) = b−a 1 x≥b µ= a+b ; 2 σ2 = Licesio J. Rodrı́guez-Aragón (b − a)2 12 Métodos Cuantitativos Org. Ind. – 17 / 19 10 Distribución Normal Descubierta por Gauss como respuesta a las irregularidades y errores en procesos de medición. Una V.A. tiene una distribución Normal, N (µ, σ), si su función de densidad es: (x − µ)2 1 f (x) = √ exp − 2σ 2 2πσ Normal estándar, µ = 0, σ = 1: 2 1 z f (z) = √ exp − 2 2π 2 Z z 1 t √ exp − Φ(z) = P (Z ≤ z) = dt 2 2π −∞ Licesio J. Rodrı́guez-Aragón Métodos Cuantitativos Org. Ind. – 18 / 19 Teorema Central del Lı́mite En todo proceso de medición en el que no existen errores sistemáticos, las medidas tomadas seguirán una distribución normal. Licesio J. Rodrı́guez-Aragón Métodos Cuantitativos Org. Ind. – 19 / 19 11