Facultad de Ciencias. Centro de Matemática. Introducción a la

Anuncio
Facultad de Ciencias. Centro de Matemática.
Introducción a la probabilidad y estadı́sitcia. 2006
Práctico 9
Definiciones útiles:
√
• Notación σZ = varZ
• Sean X, Y variables aleatorias con varianza positiva. Se define el coeficiente de correlación entre X e
)
Y como: ρ(X, Y ) = cov(X,Y
σX σY .
Se dice que X e Y no son correlacionadas cuando ρ(X, Y ) = 0.
• Supongamos que las variables aleatorias X, X1 , X2 , ... tienen momento finito de orden r ≥ 1. Decimos
que la sucesión de variables aleatorias Xn converge en r − media a la variable aleatoria X, si E|Xn −
X|r → 0 cuando n → ∞
Ejercicios:
1. Sea L2 (Ω) el conjunto de las variables aleatorias tales que EX 2 < ∞. Demostrar que hX, Y i =
cov(X, Y ) es un producto interno, y deducir que
(a) var(X + Y ) ≤ 2(varX + varY )
(b) σX+Y ≤ σX + σy .
2. Sea f (x) una función definida en la recta real, no negativa y no decreciente, y sea X una variable
1
Ef (X) para todo x real,
aleatoria tal que existe Ef (X). Demostrar la desigualdad P(X ≥ x) ≤ f (x)
suponiendo que la distribución de X es: (a) discreta; (b) absolutamente continua.
3. (a) Sean X, Y variables aleatorias, tales que E(X) = 1, E(Y ) = 2, var(X) = 1, var(Y ) = 4. Sea
Z = 3X − Y + 9. Hallar E(Z) y var(Z) en cada uno de los siguientes casos:
i. X e Y son independientes,
ii. X e Y son no correlacionadas.
iii. El coeficiente de correlación ρ(X, Y ) = 0.6.
(b) Sean X, Y variables aleatorias, tales que E(X) = E(Y ) = 0, var(X) = var(Y ) = 1, ρ(X, Y ) = r.
Calcular var(X − rY ) y el coeficiente de correlación entre X − rY e Y .
4. Sea (X, Y ) un vector aleatorio bidimensional con densidad normal con parámetros a1 , a2 , σ1 , σ2 , ρ dada
en la fórmula 3.27 del libro (Petrov-Mordecki). Demostrar que la correlación ρ(X, Y ) vale ρ.
5. Encontrar ejemplos (fundamentar) de sucesiones de variables aleatorias X, X1 , X2 . . . , tales que:
(a) La sucesión {Xn } converge en probabilidad a X pero no converge casi seguramente.
(b) La sucesión {Xn } converge en probabilidad a X pero no converge en r-media (r ≥ 1).
6. Desigualdad de Jensen. Sea φ(x) una función real con derivada segunda continua y positiva en todos
los puntos.
(a) Demostrar que φ(y) − φ(x) ≥ φ′ (x)(y − x) para x, y reales cualesquiera.
(b) Sea X una variable aleatoria tal que existe su esperanza y la de la variable aleatoria φ(X).
Demostrar que φ(EX) ≤ Eφ(X).
7. Sean {Xn } e {Yn } dos sucesiones de variables aleatorias, tales que Xn →P X, Yn →P Y . Demostrar que
Xn + Yn →P X + Y .
8. Sean {Xn }, {Yn } sucesiones de variables aleatorias, X variable aleatoria, a constante, g(x) y g(x, y)
funciones reales. Demostrar:
(a) Si Xn →P a y g(x) es continua en a, entonces g(Xn )→P g(a);
(b) Si g(x) es continua en la recta real, entonces g(Xn )→P g(X);
(c) Si g(x, y) es continua en R2 , entonces g(Xn , Yn )→P g(X, Y ).
9. Sea {Xn } una sucesión de variables aleatorias independientes con distribución exponencial con parámetro
λ.
(a) Probar que αn = min{X1 , . . . Xn } tiende en probabilidad a cero.
(b) Probar que αn converge casi seguramente a cero.
10. Sea {Xn } una sucesión de variables aleatorias independientes con distribución uniforme en [0, a]. Se
desconoce el valor de a, y se desea “estimar” por medio de una variable aleatoria.
(a) Probar que βn = max{X1 , . . . Xn } tiende en probabilidad a a.
(b) Probar que βn = max{X1 , . . . Xn } tiende casi seguramente a a.
(c) ¿qué se puede decir de la sucesión E(βn )?
11. Método de Monte Carlo. Sea f : [0,RT ] → R una función no negativa, continua, acotada por una
1
constante a. Se desea estimar I = 0 f (x)dx. Consideramos una sucesión de vectores aleatorios
independientes (Xk , Yk ) en R2 , con distribución P
uniforme en [0, T ] × [0, a]. Sea la sucesión Zk =
N
1{Yk ≤f (Xk )} (k = 1, 2, . . . ), y definimos IˆN = aT
k=1 Zk .
N
(a) Probar que IˆN converge casi seguramente a I cuando N → ∞.
(b) Hallar el valor esperado de IN y su varianza.
(c) Se busca acotar el error |IˆN −I|. Dado δ > 0, indicar cómo elegir N para que [var(IˆN −I)]1/2 < δ.
(d) Hallar un estimador para el caso de integrales múltiples. Hallar la varianza, y comparar el orden
de esta con el de la varianza del estimador hallado para el caso de integrales simples.
Descargar