07. ESPERANZA MATEMATICA VALOR ESPERADO Valor Medio. Sea X una Variable Aleatoria discreta o continua. Se denomina esperanza matemática de X o valor esperado, E ( X ) o bien , a la cantidad que se expresada como, E(X) x i f(x i ) x E(X) x i f(x i )dx respectivamente. Ahora bien, ello es válido para transformaciones de la variable aleatoria, de forma que E(h(X)) h(x) f (x)dx En el caso continuo y similarmente para el caso discreto Por las analogías existentes entre la definición de media aritmética y esperanza matemática, las propiedades de linealidad de la primera se trasladan a la segunda, de forma que se puede obtener, E(a bX) a bE (X) E(X E(X)) E(X) E(X) 0 Ejemplo. Si X es el número de puntos obtenidos al lanzar un dado de seis caras, encontremos el valor esperado de la variable aleatoria Y = X2 . La función de probabilidad de X es f(x) = 1/6 si x{1,2,3,4,5,6}. La función de probabilidad de Y = X2 es entonces f(y) = 1/6 si y{1,4,9,16,25,36}, así E(Y) = 1/*1 + 1/*4 + 1/*9 + 1/*16 + 1/*25 + 1/*36 = *P(X=1) + 22*P(X= 2) + 32*P(X= 3) + 42*P(X= 4) + 52*P(X= 5) + 62*P(X= 6) = X2*P(X=x) Ejemplo. Supongamos ahora que X es una v.a. que tiene función de probabilidad f(x) = 1/6 si x{-2,-1,0,1,2,3}y Y = X2 . La función de probabilidad de Y es f(y) = 2/6 si y{1, 4} y f(y) = 1/6 si y{0, 9}. Entonces E(Y) = 2/*1 + 2/*4 + 1/*0 + 1/*9. Esta ecuación puede escribirse de la siguiente manera: E(Y) = 2/*1 + 2/4 + 1/*0 + 1/*9 = *P(Y=1) + *P(Y=4) + *P(Y=0) + *P(Y=1) = 12*P(X=1 ó X=-1) + 22*P(X=2 ó X=-2) + 02*P(X=0) + 32*P(X=3) = X2*P(X=x) 1 A través de estos ejemplos vemos que no es necesario calcular la función de probabilidad de Y, sólo tenemos que usar la función de probabilidad de X y los valores obtenidos al aplicar la función Y = g(X) = X2 . Esto es cierto aún en el caso en que la función no es uno-uno. LA VARIANZA La varianza la denotamos mediante V(X) o VAR(X) o 2, y se calcula como, x i E(X)2 .f(xi ) X Discreta 2 V(X) EX E(X) x x E(X)2 .f(x)dx X Continua Obsérvese que del mismo modo en que se demuestra la relación se comprueba que V(X)=E(X2)-(E(X))2 Similarmente, V(a+bX)=b2.V(X)=b22 Ejemplo. Consideramos una variable aleatoria discreta con función de probabilidad, c x 1 f(x) 4 x 0 otro caso Obtener el valor de la constante c para que sea una función de probabilidad, los valores de las funciones de probabilidad y distribución para todos los valores de x, y P(x=3), y P(x≤3). Solución: Para ello consideramos, c 1 1 1 c c 1 2 3 , x 4 4 4 3 x 1 4 ya que tenemos la suma de una progresión geométrica de razón menor que la unidad: Calculemos sucesivos valores de f(x) y F(x), x 2 3 4 5 … f(x) 3/4 3/16 3/64 3/256 … F(x) 0.75 0.94 0.987 0.999 …. Y como se observa que: si x crece, f(x) decrece y F(x) crece hasta llegar a su máximo valor 1 P(X=3)=f(3)=0.047 P(X≤3)=0.987 2 Ejemplo para la variable aleatoria continua, función de densidad cx 3 0 x 1 f(x) 0 otro caso Hallar: El valor de la constante c para que sea una función de densidad, la función de distribución, el valor medio, y la probabilidad de que la variable este comprendida entre 0,2 y 0,7 Solución. Consideremos, 1 x4 c cx dx c 0 4 0 4 La cual debe ser de valor 1, entonces c/4=1, esto es, c=4 1 3 x x4 F( x ) f ( x )dx 4x dx 4 x4 4 0 luego, la función de distinción acumulada es F(x)=x4 para 0<x≤1, 0 en valores x≤0 y 1 para x≥1 x x 3 El valor medio es 1 x5 E(X) x f ( x )dx x 4x dx 4 0.8 0 5 0 P(0.2≤x≤0.7)=F(0.7)-F(0.2)=0.72-0.22=0.24 1 3 Ejemplo, Calcule la varianza de la variable aleatoria x, que representa el número de puntos obtenidos con un dado. =E(X)=1*1/6+2*1/6+3*1/6+4*1/6+5*1/6+6*1/6 `2=E(X2)=12*1/6+22*1/6+32*1/6+42*1/6+52*1/6+62*1/6 Sabemos que 2=`2-2=((91/6)-(7/2)2=35/12 Teorema: 2 2 2 Teorema. Si X es una v.a. discreta y f(x) es su función de probabilidad, Y = g(X) es una función a valores reales, es decir, Y es una v.a., entonces su valor esperado es E(Y)= E(g(X))=f (x) g(x) . Teorema. Si a y b son constantes reales y g(X) = aX + b es una función a valores reales, entonces E(aX + b) = aE(X) + b. 3 Corolario. Si a es una constante real, entonces E(aX) = aE(X). Corolario. Si b es una constante real, entonces E(b) = b. Estos resultados se pueden generalizar de la siguiente forma: Teorema. Si c1, c2, ...., cn son constantes reales, y g1(X), g2(X) ,...., gn(X), son funciones reales de X, entonces E(ci*gi(x))ci*E(gi(x)) Teorema. Var( X) = 2 = E(X2) – [E(X)]2 = E(X2) – 2 MOMENTOS La esperanza matemática y la varianza pueden ser calculadas a partir de otras medidas: el momento de orden r (r pertenece al conjunto de los naturales): r x r f(x) X Continua r E(X r ) r x f(x) X Discreta x Asimismo se denomina momento central de orden r, mr, x i E(X)r f(xi ) X Discreta r m r EX E(X) x x E(X)r f(x)dx Cont inua De este modo, es claro que la esperanza matemática es el momento de primer orden y que la varianza es el momento central de segundo orden μ E(X1 ) μ1 σ 2 V(X) m 2 Ejemplo, Ciertas mediciones codificadas del diámetro del avance de la cuerda de un ajuste tienen la densidad de probabilidad 4 0 x 1 f ( x ) (1 x 2 ) 0 otro Determine el valor esperado y la varianza 1 Aplicando la definición, E(X) x 0 4 ln 4 dx 0.4413 2 (1 x ) 4 2 E(X 2 ) 4 1 x2 4 dx 1 0.2732 2 0 1 x En muchas ocasiones puede ser complicado computar directamente los momentos de algunas variables aleatorias por lo cual debemos usar otras técnicas más convenientes. En particular podemos usar la función generatriz de momentos. La función generatriz de momentos de una v.a. X, donde existe, está definida por Mx(t)= E(etX)=etX*f(x) d r M x (t) E(X r ) Teorema. r dt DESIGUALDAD DE TCHEBYCHEFF Variable Aleatoria tipificadas. Si X es una variable aleatoria con esperanza E(X)= y varianza V(X)=2, se puede demostrar que en general, una gran parte de la masa se encuentra en un intervalo centrado en y que tiene por amplitud varias veces . Más precisamente, la desigualdad de Thebycheff afirma que si consideramos un intervalo de centro y radio k veces , la probabilidad de realizar una observación de la variable y que esta no esté en dicho intervalo es inferior o igual a 1/k2: Si X es Variable Aleatoria con E(X)= y V(X)=2, entonces para todo valor de k positivo, 1 P X μ kσ 2 k Este importante resultado, por si sólo, justifica el que sea una medida central y la medida de dispersión respecto a ese valor medio y motiva la introducción del concepto de tipificación de variables aleatorias, así, dada una Variable Aleatoria X, definimos su Variable Aleatoria tipificada, z, como, X z que es una Variable Aleatoria que presenta la característica de tener valor medio cero y varianza unitaria: E(X)=0 y V(X)=1 Ejemplo, Si la densidad de probabilidad de la variable aleatoria x está dada por 630x 4 (1 x ) 4 0 x 1 f (x) otro 0 Determine la probabilidad de que x tome un valor contenido en dos desviaciones estándar de la media y compárela con el límite inferior proporcionado por el teorema de Chebyshev 5 Integrando directamente, obtenemos que =1/2 y 2=1/44 o sea =0.15 Por tanto, la probabilidad de que x tome un valor contenido en dos desviaciones de la media es la probabilidad de que tome un valor entre 0.20 y 0.80, P(0.20 x 0.80) 0.80 0.20 630x 4 (1 x) 4 dx 0.96 Comparando: la probabilidad de 0.96 es mucho mas especifico que la probabilidad es cuando menos 0.75, enunciado por el teorema de Shebyshev MOMENTO PRODUCTO El r-ésimo y s-ésimo momento producto con respecto al origen de las variables aleatorias x y y, representado por `r,s es el valor esperado de xrys, r ,s E( x r y s ) x r y s f ( x , y) r 0,.., s 0,... x r ,s E( x r y s ) 0 y 0 x r y s f ( x , y)dxdy Y con respecto al valor medio r ,s E ( x x ) r ( y y ) s ( x x ) r ( y y ) s f ( x, y) x y r ,s E ( x x ) r ( y y ) s 0 0 r 0,.., s 0,... ( x x ) r ( y y ) s f ( x , y)dxdy Teorema, xy cov(x, y) 1,1 Teorema, xy 1,1 x y TEORÍA DE LOS GRANDES NÚMEROS Y TEOREMA DEL LÍMITE CENTRAL Sea un experimento y A un suceso asociado. En n repeticiones independientes de , se nA el número de veces que ocurre A en las n repeticiones y f A=nA/n. Sea P(A)=p, igual para cualquier repetición, entonces, para cualquier número positivo: p(1 p) P f A p y n 2 p(1 p) P f A p 1 n 2 6 Por lo anterior se puede demostrar que para grandes números la función de distribución binomial tiende a ser Normal Teorema del Límite Central: Sea X1,...,Xn sucesos de variables aleatorias independientes con E[X i ] i y V[X i ] i2 . Sea X i1 X n . Entonces, n X i 1 i n Zn i1 i2 n N (0,1) , es decir, Si Gn es la fda de Zn, entonces, Lim G n ( Z) (z) n Teorema: Si X1,...,Xn son variables aleatorias independientes y tienen igual distribución y sean E[X i ] y 2 V[X i ] , los valores esperados de media y varianza. Sea S i 1 X i , entonces, E[S] n y V[S] n 2 . Ahora bien, para n valores grandes de n, S n Tn N(0,1) n considerando, Lim P[Tn t ] ( t ) n | Teorema: Sean X y Y variables aleatorias independientes con funciones de distribución de probabilidad g y h, respectivamente. Sea Z=X+Y con Función de distribución de probabilidad s definida como, s(z) g( w )h (z w )dw . Usando la transformación w=x, y z=x+y Teorema: Si X y Y son variables aleatorias independientes con valores solo enteros positivos. Sea p(k)=P[X=x] y q(r)=[Y=r], siendo k=1,..., y r=1,.... sea Z=X+Y y sea w(i)=P[Z=z], entonces, i w (i) k 0 p(k )r (i k ) ESPERANZA CONDICIONAL Si x es una variable aleatoria discreta o continua y f(x/y) es el valor de la distribución de probabilidad condicional de x dada y, la esperanza condicional, de u(x) dada y es, respectivamente Eu ( x ) / y u ( x ) f ( x / y) x Eu ( x ) / y u ( x ) f ( x / y)dx 7 Ejemplo, Si la densidad conjunta de dos variables aleatorias x y y está dada por 2 f ( x ) ( x 2 y) para valores 0 x 1 y 0 y 1 3 Determine la media y la varianza condicionales de x dada y=1/2 2 1 1 ( x 2 y)dx (1 4 y) 3 0 3 f ( x, y) 2 / 3( x 2 y) f ( x / y) h ( y) 1 / 3(1 4 y) h ( y) f ( x, y)dx 12 5 E( x / 1 / 2) x ( x 1)dx 0 3 1 2 9 f x / ( x 1) 1 2 7 2 3 E( x 2 / 1 / 2) x 2 ( x 1)dx 0 3 18 TEOREMA DE FOURIER – FUNCION GENERATRIZ Si X es una Variable Aleatoria cuya función característica es X , su función de probabilidad (o densidad de probabilidad) es, 1 itx f(x) e Φ X (t)dt 2π Esta propiedad de X es fundamental, ya que en una gran cantidad de casos es mucho más fácil trabajar con la función característica que con la propia función de probabilidad (o densidad). La razón de ello estriba en una serie de propiedades de la función característica que la hacen muy manejable desde el punto de vista matemático. Para esta función se verifican las relaciones X (0) 1 X (t) 1 t X ( t ) X ( t ) t Lo cual se puede verificar con, Φ X (0) E(ei0x ) E(1) 1 f(x)dt 1 Φ X (t) e itx f(x)dx e itx f(x)dx 1 f(x)dx 1 Φ X ( t) E(e -itX ) Ecos( tX) iEsen( tX) Ecos(tx) iEsen(tx) Φ X (t) 8 Aplicando a una recta, Sea Y a bX Φ Y (t) eita Φ X (bt), lo que se demuestra como, Φ Y (t) E(eitX ) E eit(abX E eita eitbX eita Φ X (bt) Una propiedad de que es muy usada es que la suma de Variable Aleatoria independientes tiene por función característica el producto de las respectivas funciones características. Es decir, Sean X e Y Variables Aleatorias independientes, entonces, XY (t ) X (t ) Y (t ) La última propiedad de que enunciamos es que al igual que la función generatriz de momentos, esta nos permite calcular los momentos de la variable (y por tanto su esperanza y su varianza), veamos, Φ (r) (0) E(Xr ) X r i Lo que se puede observar como, Φ (r)X (0) r r itx Φ (t) i x e f(x)dx Φ (0) i x e f(x)dx r i x e f(x)dx i (r) X r r itx (r) X r r itx Función característica. Para una Variable Aleatoria X se define su función característica como e itx f(xi ) Φ X (t ) E(eitX ) x e itx f(x)dx Pero e itx cos(tx) isen(tx), lo cual nos conduce a la Tansformada de Fourier de f. Su denominación proviene del hecho de que una vez conocida la función característica podemos determinar la función de distribución de la Variable Aleatoria y recíprocamente. siendo i 1 , y esta función siempre existe para todo t Las principales funciones generadoras de momentos son: 9 Uniforme: M x ( t ) b a e tx e bt e at dx , t0 ba (b a ) t n n n Binomial: M x ( t ) k 0 e tk p k (1 p) n k pet (1 p) k k t t tk e P oisson: M x ( t ) k 0 e e e e e ( e 1) k! Exponencial : M x ( t ) e tx e x dx , parametro 0 Propiedades: Sea la serie de MacLaurin de e x : e x 1 x x2 xn 2! n! ( tx) 2 ( tx) n M x ( t ) E e 1 tx , lo que es igual a 2! n! t 2 E[ x 2 ] t n E[ x n ] M x ( t ) 1 tE[ x ] 2! n! tx Derivando tenemos, t 2 E[ x 3 ] t n 1 E[ x n ] 2 M x ( t ) E[ x ] tE[ x ] 2! (n 2)! Ahora bien, si t=0, entonces, Mx (0) E[x] Volviendo a derivar, t n 2 E[ x n ] Mx ( t ) E[ x 2 ] tE[ x 3 ] (n 2)! Si t=0, entonces, Mx (0) E[x 2 ] En general, M (xn ) (0) E[x n ] Teorema: La variable aleatoria X tiene una fgm Mx, y sea Y X , entonces, M y (t) et Mx (t) Teorema: Si Mx(t) y My(t) son las fgm de X y Y que son variables aleatorias respectivamente y si Mx(t)=My(t), para todo t, entonces X y Y tienen igual distribución de probabilidad. 10 Teorema: Si X y Y son variables aleatorias independientes y Z=X+Y, y tienen fgm Mx(t), My(t) y Mz(t), respectivamente, entonces, Mz(t)=Mx(t)My(t) Ejemplo, Determine la función generatriz de momentos de la variable aleatoria x, cuya densidad de probabilidad está dada por, e x x0 f(x) otro 0 Utilícela para hallar `r 0 0 M x ( t ) E(e tx ) e tx e x dx e x (1 t ) dx 1 1 t Expandiendo en la serie de McLaurin, t t2 tr M x ( t ) 1 t t 2 t r 1 1! 2! r! 1! 2! r! Por consiguiente, r r! r Transformada Lineal de una Variable Aleatoria X* c1X c 2 c1 0 * E[X * ] c1E[X] c 2 E[1] c1X c 2 X * * (c1X c 2 ) (c1 c 2 ) c1 (X ) En general, se tiene, E[(X* * )k ] E[ck1 (X )k ] ck1 (X )k ] *2 c1 2 que es un caso particular para k=2 La varianza es invariante bajo una traslación del origen, esto es, una transformación 1 y c2 , de la forma X* X c 2 . Si entonces, X* toma la expresión c1 X Z , que tiene media 0 y varianza 1 entonces Si una variable aleatoria X tiene media y varianza 2 , entonces Z X tiene media 0 y varianza 1 11 Teorema, d r M x (t) r dt r De este teorema se desprende, M x a ( t ) E e ( x a ) t e at M x ( t ) M bx ( t ) E e bxt M x (bt ) a x a t t t M x a ( t ) E e b e b M x b b ESPERANZA BIDIMENSIONAL E[g(X,Y)] se define como g( x, y)f ( x, y) Discreto E[g(X, Y)] x y g( x, y)f ( x, y)dxdy Continuo E[ag(X, Y) bh (X, Y)] aE[g( x, y)] bE[h ( x, y)] E[g(X, Y)] g( x ) f ( x, y) g( x )f1 ( x ) depende de X x y x E[X+Y]=E[X]+E[Y] El valor medio de una suma de variables aleatorias es igual a la suma de los valores medios de las variables aleatorias, esto es, E Xi E[Xi ] y E[XY] E[X]E[Y] si X e Y son independientes Si X1,X2,...Xn son E X n E[X n ] n n variables aleatorias Varianza: Si se tiene Z=X+Y, entonces 2 E[Z 2 ] (E[Z])2 de donde E[Z2 ] E[X 2 2XY Y 2 ] (E[X] E[Y])2 , XY E[XY] E[X]E[Y] , o sea, 2 2X 2Y 2XY , lo independientes, que conduce entonces a , y si X e Y son independientes, XY 0 12 La varianza de una suma de variables aleatorias independientes cuyas varianzas existan, es igual a la suma de esas varianzas Si X1,X2,...Xn son variables aleatorias independientes, con varianza común 2 , entonces Si X1,X2,...Xn son variables aleatorias independientes, entonces 1 X ( X1 Xn ) n y tienen varianza Si X1,X2,...Xn son variables aleatorias independientes, entonces 2 2X n La fgm se define como: Sea X una variable aleatoria con dp p(xi)=P[X=xi], la función Mx es la fgm de X y se define como Mx ( t) j1 e j p( x j ) para el caso discreto, y tx Mx ( t) dtx f ( x)dx para el caso continuo, siendo f(x) la función de distribución de probabilidades 13