Objetivos 1. Función de Distribución de una variable aleatoria

Anuncio
M. Iniesta
Universidad de Murcia
PROBABILIDAD
Tema 2.3:
Variables aleatorias continuas
Objetivos
Distinguir entre variables aleatorias discretas y continuas.
Dominar el uso de las funciones asociadas a una variable aleatoria continua.
Conocer el signicado y saber calcular la esperanza y la varianza de una variable
aleatoria continua.
Conocer y aplicar los modelos continuos más conocidos.
1.
Función de Distribución de una variable aleatoria
continua
Una función
X:Ω→R
es una variable aleatoria si para todo subconjunto B ⊆ R se tiene X −1 (B) ∈ S , es decir,
si X −1 (B) es un suceso sea cual sea el conjunto B ⊆ R.
El conjunto X(Ω) = X se le llamará espacio muestral de la variable aleatoria
X , es el conjunto de todos los valores posibles de X y en este caso será un intervalo de
la recta real o incluso podría ser toda la recta real.
Denimos la Función de Distribución de una variable aleatoria continua X de la
misma forma a como hemos denido esta función para variables aleatorias discretas, es
decir la función real de variable real
F : R → [0, 1]
x∈R
F (x) := P (X −1 (−∞, x]) = P ({e ∈ Ω : X(e) ≤ x}) = P (X ≤ x)
salvo que en este caso esta función es siempre una función continua.
1.1.
Propiedades de la Función de Distribución de una variable
aleatoria continua
Las más importantes son:
1. Es siempre no decreciente.
2. Tiene dos asíntotas horizontales: lı́mx→−∞ F (x) = 0 y lı́mx→∞ F (x) = 1.
3. Es siempre continua tanto por la derecha como por la izquierda en todos los puntos.
Página: 1
M. Iniesta
Universidad de Murcia
4. P (a < X ≤ b) = P (a ≤ X < b) = P (a < X < b) = P (a ≤ X ≤ b) = F (b) − F (a),
∀a, b ∈ R.
Las propiedades 3 y 4 anteriores signican que P (X = x) = 0 para todo x, por
lo que pueden haber sucesos que contengan puntos muestrales y haya que asignarle
probabilidad cero; al igual que habrán sucesos que no sean el suceso seguro y haya que
asignarles probabilidad uno.
Si A 6= ∅ es un suceso con P (A) = 0 decimos que A es un suceso casi imposible.
Si A 6= Ω es un suceso con P (A) = 1 decimos que A es un suceso casi seguro.
En una variable continua, por tanto, todos los sucesos X = x son casi imposibles.
Ejemplo 1.1 Imaginemos que se construye una varilla y el proceso de fabricación está
sometido a errores, de forma que la longitud resultante es el valor de la variable aleatoria
X con espacio muestral X = (l − ε, l + ε). Si suponemos equiprobabilidad, asignamos
al intervalo (l − ε, x] una probabilidad que sea proporcional a su amplitud, es decir,
denimos

si x < l − ε;
 0,
(x−l+ε)
F (x) =
, si l − ε ≤ x < l + ε;
 2ε
1,
si x ≥ l + ε.
cuya representación gráca es la siguiente:
1.2.
Actividades
1. Estudiar si las siguientes funciones pueden ser funciones de distribución, y representarlas grácamente:
a ) F (x) = 0 si x ≤ 0, F (x) = x2 si x ∈ (0, 1) y F (x) = 1 si x ≥ 1
b ) F (x) = 0 si x < 0 y F (x) = 1 − e−x si x ≥ 0
Página: 2
M. Iniesta
Universidad de Murcia
2.
Función de Densidad
Si X es continua no cabe hablar de probabilidades puntuales, puesto que éstas son
nulas. En este caso los sucesos no triviales van a ser subintervalos del espacio muestral
y a ellos habrá que asignar probabilidad. la Función de Densidad es la función
f : R → R+
denida mediante:
dF (x)
dx
f (x) =
que permite asignar probabilidades a los intervalos de R puesto que se tiene
Z
x
F (x) =
f (t)dt
−∞
y de las propiedades de la función de distribución se derivan las siguientes propiedades
de la función de densidad:
1.
R +∞
−∞
f (x)dx = 1
2. P (a < X ≤ b) = P (a ≤ X < b) = P (a < X < b) = P (a ≤ X ≤ b) =
Rb
a
f (x)dx
Estas propiedades podemos visualizarlas en la siguiente gura: la propiedad 1 se traduce
en que el área que encierra toda la curva ha de ser igual a 1; mientras que la propiedad
2 se traduce en que el área limitada entre la curva y las rectas x = a y x = b es
P (a ≤ X ≤ b).
Ejemplo 2.1 La función de densidad de la variable aleatoria del ejemplo (1.1) es
f (x) =
2.1.
1/2ε, si x ∈ (l − ε, l + ε);
0,
en el resto.
Actividades
Estudiar si las funciones siguientes pueden ser funciones de densidad, y en su caso,
calcular sus funciones de distribución:
1. f (x) = x2 si x ∈ (0, 2) y f (x) = 0 en el resto
Página: 3
M. Iniesta
Universidad de Murcia
2. f (x) = k(3x + 1) si x ∈ (1, 3) y f (x) = 0 en el resto
3. f (x) = k(x2 + 2x + 0.5) si x ∈ (0, 2) y f (x) = 0 en el resto
4. f (x) = kx−3 si x > 1 y f (x) = 0 en el resto
5. (*) f (x) = x si 0 < x < 1, f (x) = 2 − x si 1 < x < 2 y f (x) = 0 en el resto
3.
Esperanza y Varianza de una variable aleatoria continua
Con estos parámetros, que denimos a continuación, pretendemos describir una variable aleatoria respecto a sus características de centralización y dispersión.
3.1.
Esperanza Matemática o Media Teórica
La Esperanza o Media Teórica de una v.a. E(X) indica un valor teórico al que
tendería el valor medio de n realizaciones de X , cuando n tiende a innito.
Si X es continua
Z ∞
E(X) =
xf (x)dx
−∞
Ejemplo 3.1 Le esperanza de la variable del ejemplo (1.1) vale
l+ε
Z
x
E(X) =
l−ε
1
dx = l
2ε
que signica que el valor medio de las longitudes de un gran número de varillas es
aproximadamente l.
Si X es continua se cumplen las mismas propiedades que en el caso de ser X discreta.
Éstas son las siguientes:
1. Si C es una constante E(C) = C
2. E(CX) = CE(X)
3. Si C y D son constantes y X e Y son v.a. E(CX + DY ) = CE(X) + DE(Y )
4. Si X e Y son independientes, se tiene E(X.Y ) = E(X)E(Y ).
3.2.
Varianza y Desviación Típica
Si denotamos E(X) mediante µ y V (X) mediante σ 2 , denimos
V (X) = σ 2 = E((X − µ)2 ) = E(X 2 ) − µ2
Su cálculo se realiza mediante la siguiente expresión:
2
Z
∞
2
2
Z
∞
x f (x)dx − µ =
V (X) = σ =
−∞
Z
x f (x)dx − (
∞
2
−∞
xf (x)dx)2
−∞
donde f (x) indica la función de densidad de la variable X .
Página: 4
M. Iniesta
Universidad de Murcia
Ejemplo 3.2 La varianza de la variable del ejemplo (1.1) es
Z
2
l+ε
V (X) = σ =
l−ε
x2
ε2
1
dx − l2 =
2ε
3
mientras que su desviación típica es
ε
D(X) = √
3
Tanto si es discreta como continua, las propiedades de la varianza más importantes
son:
1. Si C es una constante V (C) = 0
2. V (CX) = C 2 V (X)
3. Si C y D son constantes y X e Y son v.a. e independientes, V (CX + DY ) =
C 2 V (X) + D2 V (Y )
4. Si E(X) = µ y D(X) = σ , la variable Z =
3.3.
X−µ
σ
cumple E(Z) = 0 y V (Z) = 1.
Actividades
1. Calcular la esperanza y la varianza en los casos en donde sea posible de las actividades de las secciones anteriores.
2. Supongamos que un elemento electrónico tiene una duración X cuya función de
densidad es f (x) = e−x si x > 0 y f (x) = 0 en el resto. Supongamos que el coste
de fabricación un elemento es de 2¿. El fabricante lo vende por 5¿, pero garantiza
el reembolso total si X < 0.9. ¾Cuál es la utilidad neta esperada por el fabricante
por cada artículo?.
4.
Desigualdad de Tchebychev
Cuando de una variable aleatoria se dispone su función de distribución o su función
de probabilidad (caso discreto) o su función de densidad (caso continuo), es posible
calcular la probabilidad asociada a cualquier suceso relativo a dicha variable. Cuando no
se conoce la distribución de probabilidad, o bien sí la conocemos pero su manejo resulta
bastante complejo, sin embargo sí conocemos su esperanza y su varianza, es posible
encontrar intervalos de valores de la variable, centrados en su esperanza, que con alta
probabilidad contendrá el valor de la variable cuando ésta sea observada.
La Desigualdad de Tchebychev dice si X es una v.a. con E(X) = µ y D(X) = σ
nitas y k > 0 es un número cualquiera
P (|X − µ| ≥ kσ) ≤
1
k2
o equivalentemente:
P (X ∈ (µ − kσ, µ + kσ)) ≥ 1 −
1
k2
Página: 5
M. Iniesta
Universidad de Murcia
Ejemplo 4.1 Supongamos que sabemos que la variable X =altura de los varones mayores de 20 años tiene E(X) = µ = 175cm y D(X) = σ = 7.5cm. Aunque no sepamos la
distribución de probabilidad de X , si tomamos k = 2, la desigualdad anterior dice que
P (X ∈ (160, 190)) ≥ 0.75
es decir, eso signica que con esos parámetros, al menos el 75 % de la población tiene
altura entre los límites (160, 190).
4.1.
Actividades
A, B y C disparan cada uno 20 disparos a un blanco. La probabilidad de que cada tiro
alcance el blanco es 0.4 para A, 0.3 para B y 0.1 para C. Los disparos son independientes
entre sí. Sea X el número de blancos alcanzados.
1. Expresar X como suma de v.a. independientes y calcular su media y su varianza.
Atención: Se trata en esta actividad una variable aleatoria discreta.
2. Utilizar la desigualdad de Tchebychev para obtener un intervalo que contenga el
número total de blancos con una probabilidad mínima de 8/9.
5.
Modelos de probabilidad continuos
5.1.
El modelo Exponencial
El modelo Exponencial de parámetro λ está íntimamente relacionado con el modelo
discreto de Poisson de mismo parámetro λ. Si la variable X ∼ P(λ) signica
X =número de veces que ocurre A por unidad de tiempo (día, mes, año,...)
con λ número medio de veces que ocurre A en dicha unidad de tiempo, la variable
T =Tiempo, en la unidad de tiempo considerada, que transcurre hasta que ocurre A, o
bien el tiempo que transcurre desde la última vez que ha ocurrido A hasta la siguiente
vez
sigue un modelo exponencial de parámetro λ con función de distribución dada por
F (t) =
1 − e−λt , si t > 0;
0,
en el resto.
y función de densidad dada por
f (t) =
λe−λt , si t > 0;
0,
en el resto.
Los momentos más importantes del modelo exponencial son:
Página: 6
M. Iniesta
Universidad de Murcia
E(T ) =
1
λ
V (T ) =
1
λ2
(Tiempo medio hasta que ocurre A)
Aunque el modelo exponencial se utiliza mucho en variables que indican tiempo de
vida (en sistemas de la naturaleza) o tiempo de funcionamiento (en sistemas electrónicos), sin embargo la unidad en la que se mide la variable exponencial T no tiene por
qué ser necesariamente de tiempo y puede ser una unidad en cualquier dimensión continua. Por ejemplo, si la variable de Poisson mide el número de fallos por metro lineal
de cierto tipo de cable, podríamos asociar a esta variable discreta una variable continua
que indicara el espacio en metros, desde el último error detectado hasta el siguiente.
Si T es una variable aleatoria cuya distribución de probabilidad es como la del modelo
exponencial, lo indicaremos poniendo
T ∼ E(λ)
Uno de los inconvenientes del modelo exponencial para ser aplicado a la abilidad de
sistemas electrónicos es la propiedad de Carencia de Memoria, que se indica poniendo
P (T > t + h|T > t) = P (T > h)
es decir, los sistemas cuya distribución del tiempo de vida es exponencial no sufren
desgaste con el uso, porque, supuesto que el sistema ya ha funcionado correctamente
t unidades de tiempo, la probabilidad de que funcione al menos h unidades más es la
misma de que un sistema funcione al menos h unidades de tiempo.
5.1.1. Actividades
1. Demostrar la propiedad de carencia de memoria del modelo exponencial.
5.2.
El modelo de Erlang
En las mismas hipótesis que el modelo Exponencial, supongamos ahora que r ∈ N
con r > 1 y sea
T =espacio que transcurre hasta que sucede A r veces
donde dicho espacio hay que entenderlo en términos de cualquier magnitud continua:
tiempo, longitud, volumen,....
Entonces, la variable T sigue un modelo de Erlang de parámetros r y λ =número
medio de ocurrencias del suceso A en un intervalo unidad (de tiempo, longitud, volumen,
o la magnitud que corresponda) y su función de densidad está dada por:
f (t) =
λr
tr−1 e−λt ,
(r−1)!
0,
si t > 0;
en el resto.
Los momentos más importantes son
E(T ) =
r
λ
(Tiempo medio hasta que ocurre A r veces)
Página: 7
M. Iniesta
Universidad de Murcia
V (T ) =
r
λ2
Si T es una variable aleatoria cuya distribución de probabilidad es como la del modelo
de Erlang, lo indicaremos poniendo
T ∼ Erlang(r, λ)
5.3.
Modelo Uniforme
Una variable aleatoria continua X tiene distribución uniforme en el intervalo (a, b)
si la probabilidad asociada al intervalo (a, x] es proporcional a la amplitud del mismo,
es decir, si su función de distribución es:
F (x) =

 0,
x−a
,
b−a

1,
si x ≤ a;
si x ∈ (a, b);
si x ≥ b.
En este caso, la función de densidad es constante en el espacio muestral X = (a, b) y
vale:
1
, si x ∈ (a, b);
b−a
f (x) =
0,
si x ∈
/ (a, b).
Además:
E(X) =
a+b
2
V (X) =
(b−a)2
12
Si X es una variable aleatoria cuya distribución de probabilidad es como la del modelo
Uniforme en (a, b), lo indicaremos poniendo
X ∼ U(a, b)
5.4.
Modelo Normal
La distribución de probabilidad continua más frecuente en experimentos aleatorios,
donde se observan magnitudes en poblaciones homogéneas es la Distribución Normal,
también llamada Campana de Gauss.
Denición 5.1 Decimos que la variable aleatoria X sigue una distribución Normal con
E(X) = µ y D(X) = σ si su función de densidad viene dada por
f (x) = √
1 x−µ 2
1
e− 2 ( σ ) ;
2πσ
x∈R
que indicaremos poniendo
X ∼ N (µ, σ)
Las propiedades más elocuentes pueden apreciarse en la siguiente gráca.
Página: 8
M. Iniesta
Universidad de Murcia
y que son:
1. lı́mx→−∞ = lı́mx→∞ = 0
2. f (x) es simétrica respecto a la recta x = µ, es decir, f (µ − x) = f (µ + x), para
todo x ∈ R
3. f (x) tiene puntos de inexión en x = µ ± σ
4. Si X ∼ N (µ, σ), la variable Z = X−µ
se denomina Normal Tipicada y Z ∼
σ
N (0, 1). En este caso se va a tener P (Z ≤ −z) = P (Z ≥ z), para todo z > 0 y si
z = 0 dicha probabilidad vale 0.5.
5. Las sumas de variables aleatorias normales independientes son normales. Es decir,
Si Xi ∼ N (µi , σi ), i = 1, ...., n, entonces, X = a0 + a1 X1 + .... + an Xn se distribuye
normalmente,pes decir, X ∼ N (µ, σ) con µ = E(X) = a0 + a1 µ1 + .... + an µn y
σ = D(X) = a21 σ1 + .... + a2n σn .
6. Los intervalos de mayor probabilidad se concentran alrededor de la media µ. Concretamente, si X sigue una distribución normal de media µ y desviación típica σ ,
que lo indicaremos poniendo
X ∼ N (µ, σ)
se tiene:
P (µ − σ < X < µ + σ) = 0.6827
P (µ − 2σ < X < µ + 2σ) = 0.9545
P (µ − 3σ < X < µ + 3σ) = 0.9973
tal y como se muestra en la siguiente gura.
Página: 9
M. Iniesta
Universidad de Murcia
Otra razón sobre la importancia de la distribución normal es que el Teorema Central
del Límite establece que todas las variables que puedan expresarse como combinaciones
lineales de un número sucientemente grande de variables tienen distribución aproximadamente normal.
5.5.
Manejo de la tabla de la distribución normal
Dada la imposibilidad de poder calcular manualmente valores de la función de distribución del modelo Normal, tablas como la que se incluye a continuación nos ayudan a calcular probabilidades normales, junto con las propiedades vistas anteriormente, principalmente las de simetría. Las siguientes grácas muestran algunos ejemplos:
5.5.1. Actividades
1. Si X ∼ N (4.5, 2.3), calcula P (X < 5), P (2 < X < 7).
2. Si X es la del apartado anterior, calcula en cada caso el valor de a:
a ) P (X < a) = 0.70
b ) P (X > a) = 0.85
c ) P (|X − 4.5| ≤ a) = 0.95
6.
Aproximaciones
El Teorema Fundamental del Límite es un resultado de suma utilidad en la
aproximación de probabilidades. Básicamente dice que en condiciones muy generales,
las sumas de variables independientes e idénticamente distribuidas tienen distribución
aproximadamente normal, cuando el número de sumandos es grande; es decir, si llamamos Sn = X1 + ... + Xn , con E(Xi ) = µ y D(Xi ) = σ , entonces si n es grande
Z=
Sn − nµ
√
∼aprox. N (0, 1)
nσ
Página: 10
M. Iniesta
Universidad de Murcia
En particular, si Sn ∼ B(n, p), entonces puede ser expresada como suma de n variables
de Bernoulli independientes, es decir, Sn = X1 + ... + Xn con Xi ∼ B(p), por lo tanto
Sn − np
∼aprox. N (0, 1)
Z=p
np(1 − p)
o también
Sn
Z = qn
−p
p(1−p)
n
∼aprox. N (0, 1)
Página: 11
Descargar