µ 2 R, ✓ > 0, normal gamma >0 X ⇠ gamma(✓, ) ) X ⇠ exp( ) 2 X ⇠ unif(a, b) a, b 2 R, a < b uniforme X ⇠ N (µ, continua X ⇠ Poisson( ) >0 Poisson >0 continua X ⇠ BN(r, p) r 2 N , p 2 (0, 1) binomial negativa ⇤ >0 discreta X ⇠ geom(p) p 2 (0, 1) geométrica exponencial discreta X ⇠ bin(n, p) n 2 N , p 2 (0, 1) binomial ⇤ continua continua discreta discreta discreta X ⇠ Bernoulli(p) p 2 (0, 1) Bernoulli [0, 1) R [0, 1) [a, b] {0, 1, 2, . . .} {r, r + 1, . . .} {1, 2, 3, . . .} {0, 1, . . . , n} {0, 1} = pX (1) 1 p k r b fX (x) = e x x a [a,b] (x) [0,1) (x) (x µ)2 2 2 1 p k k r r p [0,1) (x) 1 e 2⇡ 1 ( x)✓ (✓) fX (x) = p fX (x) = e fX (x) = k! 1 p)n p p) k p)k ◆ 1 (1 1 pX (k) = e pX (k) = ✓ pX (k) = (1 ✓ ◆ n k pX (k) = p (1 k = pX (0) Cuadro 1: Resumen distribuciones tipo soporte distribución notación parámetros nombre ✓ µ 1 a+b 2 r p 1 1 p p p) p) (b 2 ✓ 2 2 1 a)2 12 r(1 p) p2 p2 np(1 p(1 varianza np p esperanza ✓ ✓ 1 1 (1 t t ◆✓ 1 ◆r 8t < t 2 2 8t < eta a) (et 1) etb t(b e pet (1 p)et pet (1 p)et p + pet )n p + pet eµt+ 2 1 f.g.m. MA3403: Probabilidades y Estadística Profesor Joaquín Fontbona T. P. Aux. Luis Fredes Semestre Otoño, 2015 Universidad de Chile Facultad de Ciencias Físicas y Matemáticas Departamento de Ingeniería Matemática AUXILIAR 7: CAMBIOS DE VARIABLE Y OTROS Método del Jacobiano: Sea X una variable aleatoria continua con función de densidad fX asumiendo valores en GX , g una función biyectiva con g : GX ! G con inversa h, donde g y h son diferenciables e Y = g(X), entonces fY (y) = |Jh (y)|fX (h(y)) Esperanza. Sean X v.a, se define Propiedades. (1) (2) (3) (4) 8 X < x i · pi E(X) = R i2I : x · fX (x)dx caso discreto caso continuo Si Si Si Si X = ↵, entonces E(X) = ↵ X, Y son variables aleatorias, entonces E(↵X + Y ) = ↵E(X) + E(Y ) X 0, entonces E(X) 0 X v.a. y : R ! R, se tiene entonces 8 X < (xi ) · pi caso discreto E( (X)) = R i2I : (x) · fX (x)dx caso continuo (5) Si X e Y son variables aleatorias independientes, entonces E(XY ) = E(X) · E(Y ). Varianza. Si X e Y son variables, se define la varianza de X como: V ar(X) = E((X E(X))2 ) Propiedades. (1) Si X = ↵, entonces V ar(X) = 0. (2) V ar(↵X + ) = ↵2 V ar(X). (3) Si X e Y son independientes, V ar(X + Y ) = V ar(X) + V ar(Y ). Covarianza y Correlación. Sean X e Y dos variables aleatorias, se define covarianza y correlación respectivamente: Cov(X, Y ) = E (X ⇢(X, Y ) = p E(X)) · (Y Cov(X, Y ) E(Y )) V ar(X) · V ar(Y ) Propiedades. (1) Cov(X, Y ) = Cov(Y, X). (2) Cov(X + ↵Y, Z) = Cov(X, Z) + ↵Cov(Y, Z). (3) Si X e Y son independientes, entonces Cov(X, Y ) = 0. 1 Esperanza Condicional. Sean X e Y dos variables aleatorias, se define la variables aleatoria (función de Y) 8X < xi · P(X = xi |Y = y) caso discreto E(X|Y = y) = i2I R : x · fX|Y (x|y)dx caso continuo Propiedad. E(E(X|Y )) = E(X) P1. (a) Sean (X1 , X2 ) v.a. conjuntamente continuas con densidad fX1 ,X2 . Calcule en función de f la densidad del par de v.a. p12 (X1 + X2 , X1 X2 ). ¿Cuál es la interpretación geométrica de estas nuevas variables? Deduzca que si (X1 , X2 ) son dos v.a. normales centradas reducidas (es decir, con media 0 y varianza 1) independientes, entonces p12 (X1 + X2 , X1 X2 ) también lo son. (b) Sean U1 , U2 v.a’s independientes, ambas con ley uniforme [0, 1]. Pruebe que las variables aleatorias X1 , X2 definidas por p X1 := 2 ln(U1 ) cos(2⇡U2 ) y p X2 := 2 ln(U1 ) sin(2⇡U2 ) Son dos variables aleatorias normales centradas y reducidas independientes. (c) Sabiendo que con un computador se puede generar v.a. uniformes [0, 1] independientes, deduzca un método para simular en él v.a. Gaussianas de media µ y varianza cualesquiera. P2. Sea A ✓ R2 como en la figura, y sea (X, Y ) un vector aleatorio uniformemente distribuido sobre A, es decir, f(X,Y ) (x, y) = área(A) 1 1A (x, y). (a) Muestre que fX (x) = 2 3|x| 1[ 1,1] (x). Calcule también la densidad marginal de Y . (b) Deduzca que E(X) = 0 y muestre que cov(X, Y ) = 0. (c) Son X e Y v.a independientes? justifique. P3. Usted posee una barra de largo L, y le hace un corte X de manera uniforme en [0, 1]. Luego usted hace otro corte pero ahora de manera uniforme en [X, L], como se muestra en la figura. Calcule la densidad y esperanza de Y . Indicación: Puede serle útil que, E(Y ) = E(E(Y |X)). P4. Si la densidad conjunta de X e Y esta dada por fXY (x, y) = c(x + y + 1 + xy)1[0,1] (x)1[0,1] (y) . Encuentre c y diga si X e Y son independientes. 2