5. Variables aleatorias

Anuncio
5. Variables aleatorias
5.2 Introducción
Normalmente, los resultados posibles (espacio muestral E) de un experimento aleatorio
no son valores numéricos. Por ejemplo, si el experimento consiste en lanzar de modo
ordenado tres monedas al aire, para observar el número de caras ( ) y cruces ( ) que
se obtienen, el espacio muestral asociado a dicho experimento aleatorio sería:
En estadística resulta más fácil utilizar valores numéricos en lugar de trabajar
directamente con los elementos de un espacio muestral como el anterior. Así preferimos
identificar los sucesos
con el valor numérico 1 que representa el
número de caras obtenidas al realizar el experimento. De este modo aparece el
concepto de variable aleatoria unidimensional como el de toda función
que atribuye un único número real xe, a cada suceso elemental e, del espacio muestral
E5.1.
Por ejemplo, en el ejemplo anterior, se define la variable aleatoria5.2
del siguiente modo:
5.2.0.1 Observación

La variable X no recibe el calificativo de aleatoria por el hecho de que atribuya
de modo imprevisible un valor cualquiera a un elemento
ya que este valor
está definido de forma precisa (determinística). Lo que es aleatorio en realidad,
es que al hacer el experimento, no sabemos qué elemento de E puede ocurrir.
=1.00mm

La composición de una función real5.3 con una variable es también variable
aleatoria, pues está definida sobre Ey a cada elemento suyo le asocia un valor
real.
En función de los valores que tome la variable, esta puede ser clasificada en discreta o
continua del siguiente modo:
v.a. discreta
es aquella que sólo puede tomar un número finito o infinito numerable de
valores. Por ejemplo,
v.a. continua
es la que puede tomar un número infinito no numerable de valores.
5.2.0.2 Observación
Si sobre los elementos de E existe una distribución de probabilidad, esta se transmite a
los valores que toma la variable X. Es decir, toda v.a. conserva la estructura
probabilística del experimento aleatorio que describe, en el sentido de que si es la
función de probabilidad definida sobre el espacio muestral E, ésta induce otra función
definida sobre , de forma que conserva los valores de las probabilidades (figura
5.1):
Figura: Una v.a. transmite la estructura probabilística del espacio
muestral a
.
De ahora en adelante omitiremos el asterisco y no diferenciaremos entre las
probabilidades calculadas sobre el espacio muestral del experimento aleatorio original,
E, y las calculadas sobre .
Vamos a estudiar los conceptos más importantes relacionados con la distribución de
probabilidad de una v.a., diferenciando entre los casos de v.a. discreta y v.a. continua.
5.4 Variables aleatorias discretas
Dada una v.a. discreta
, su función de probabilidad f, se define de modo
que f(xi) es la probabilidad de que X tome ese valor:
Si xi no es uno de los valores que puede tomar X, entonces f(xi)=0. La representación
gráfica de la función de probabilidad se realiza mediante un diagrama de barras análogo
al de distribución de frecuencias relativas para variables discretas (figura 5.3). Por
ejemplo, si retomamos el caso del lanzamiento de 3 monedas de forma que cada una de
ellas tenga probabilidad 1/2 de dar como resultado cara o cruz, se tiene que (véase la
figura 5.2):
Figura: Equivalencia entre las probabilidades calculadas directamente sobre
el espacio muestral E de resultados del experimento aleatorio, y las calculadas
sobre el subconjunto
mediante la v.a. X.
5.4.0.1 Observación
Obsérvese que X está definido sobre el espacio muestral de sucesos E, mientras que f lo
está sobre el espacio de números reales .
Las propiedades de la función de probabilidad de v.a. se deducen de forma inmediata de
los axiomas de probabilidad:
Es evidente que si tenemos tres constantes a<b<c, los sucesos
son mutuamente exclusivos, es decir,
. Por ello, si se define
y
, luego
, se tiene que
Otro concepto importante es el de función de distribución de una variable aleatoria
discreta, F, que se define de modo que si
X tome un valor inferior o igual a xi:
, F(xi) es igual a la probabilidad de que
Esta función se representa gráficamente del mismo modo que la distribución de
frecuencias relativas acumuladas (figura 5.3). Volviendo al ejemplo de las tres monedas,
se tiene que
Hay que observar que a valores no admisibles por la variable les pueden corresponder
valores de F no nulos. Por ejemplo,
Figura: Función de probabilidad a la izquierda, y función de distribución a la
derecha de una v.a. discreta
Es sencillo comprobar que las siguientes propiedades de la función de distribución son
ciertas:
5.4.0.2 Proposición (Distribuciones discretas)
La función de distribución F, es una función no decreciente, es decir,
Además, es continua a la derecha
y
5.6 Variables aleatorias continuas
Si una variable discreta toma los valores x1, ..., xk, la proposición de la página afirma
que las probabilidad de que al hacer un experimento, X tome uno de esos valores es 1,
de modo que cada posible valor xi contribuye con una cantidad f(xi) al total:
Aun cuando la variable tomase un número infinito de valores, x1, x2, ..., no hay ningún
problema en comprobar que cada xi contribuye con una cantidad f(xi) al total de modo
que
Cuando la variable es continua, no tiene sentido hacer una suma de las probabilidades
de cada uno de los términos en el sentido anterior, ya que el conjunto de valores que
puede tomar la variable es no numerable. En este caso, lo que generaliza de modo
natural el concepto de suma (
) es el de integral ( ). Por otro lado, para variables
continuas no tiene interés hablar de la probabilidad de que
, ya que esta
debe de valer siempre 0, para que la suma infinita no numerable de las probabilidades
de todos los valores de la variable no sea infinita.
De este modo es necesario introducir un nuevo concepto que sustituya en v.a. continuas,
al de función de probabilidad de una v.a. discreta. Este concepto es el de función de
densidad de una v.a. continua, que se define como una función
integrable, que verifica las dos propiedades siguientes:
y que además verifica que dado a<b, se tiene que
Figura: Función de densidad f. La probabilidad de un intervalo, es el área que existe entre la
función y el eje de abscisas.
5.6.0.1 Observación
Por ser f una función integrable, la probabilidad de un punto es nula:
y por ello al calcular la probabilidad de un intervalo no afectara nada el que este sea
abierto o cerrado por cualquiera de sus extremos, pues estos son puntos y por tanto de
probabilidad nula:
La función de distribución de la v.a. continua, F, se define de modo que dado
, F(x) es la probabilidad de que X sea menor o igual que x, es decir
Figura: Función de distribución F, calculada a partir de la función de densidad f.
5.6.0.2 Observación
Dado un intervalo de la forma (a,b], tenemos que
Es decir, la cantidad F(b) - F(a) representa la masa de probabilidad extendida a lo largo
de dicho intervalo. Si dividimos esta cantidad por la longitud del intervalo,
tenemos la masa media de probabilidad por unidad de longitud en (a,b], es decir, su
densidad media de probabilidad. Si hacemos tender a hacia b,
, la cantidad
es la densidad de probabilidad del punto b (que como hemos mencionado no se ha de
confundir con la probabilidad de b).
5.6.0.3 Proposición
Distribuciones continuas La función de distribución F, es no decreciente
Además, es una función absolutamente continua que verifica:
Demostración
Los sucesos
y
son mutuamente exclusivos, siendo su unión el suceso
. Por tanto
El resto es evidente pues por la relación (5.1)
y por otro lado
5.6.2 Cambio de variable
Sea X una v.a. cualquiera. Si realizamos el cambio de variable Y=h(X), tenemos una
nueva v.a. de modo que las probabilidades sobre la misma se calculan del modo:
Si X es una v.a. continua cuya función de densidad es fx, la función de densidad de Y, fy,
admite la siguiente expresión:
5.6.2.1 Proposición
Si X es una v.a. continua e Y=h(X), donde h es una función derivable e inyectiva,
entonces se tiene que para los elementos y de su imagen,
donde se tiene que
En el caso en que la aplicación no sea inyectiva, podemos tener para un y dado ciertos
x1, x2, ..., xn tales que f(xi)=y. En este caso:
donde
Una aplicación interesante del cambio de v.a. es la siguiente: Sea X una v.a. continua
cualquiera con función de distribución derivable, con derivada no nula (en su soporte),
Fx. Veamos cual es la distribución de la nueva v.a.
Y=Fx-1(X)
Como F es creciente, es también inyectiva. Por tanto para
,
La distribución de Y aparecerá más adelante con el nombre de distribución uniforme en
[0,1], y como justificación del método de Montecarlo.
Otro cambio de variable importante es Y=X2 (
relación entre los puntos de y
anterior se tiene entonces que
, h(x)=x2). En este caso la
no es inyectiva. Aplicando la proposición
Esta última relación será de interés cuando más adelante definamos la distribución
.
5.8 Medidas de tendencia central y
dispersión de v.a.
De forma análoga a lo que se se hizo en el capítulo 2 sobre estadística descriptiva
podemos definir para variables aleatorias medidas de centralización, dispersión,
simetría y forma. Por su interés nos vamos a centrar en dos medidas sobre v.a. que son
la esperanza matemática que desempeña un papel equivalente al de la media y el
momento central de segundo orden, también denominado varianza.
5.8.2 Valor esperado o esperanza matemática
Sea X una v.a. discreta. Se denomina esperanza matemática de X o valor esperado, y
se denota bien
o bien
, a la cantidad que se expresa como:
donde
es el conjunto numerable de índices de los valores que puede tomar la variable
(por ejemplo
para un número finito de valores de la v.a. o bien
para una cantidad infinita numerable de los mismos.
Si X es una v.a. continua, se define su esperanza a partir de la función de densidad como
sigue:
5.8.2.1 Observación
Recordamos que si
y por tanto tiene sentido calcular su esperanza matemática:
Por las analogías existente entre la definición de media aritmética y esperanza
matemática, las propiedades de linealidad de la primera se trasladan a la segunda, como
es inmediato comprobar:
5.8.4 Varianza
La varianza la denotamos mediante
o bien
:
Obsérvese que del mismo modo en que se demuestra la relación 2.11 se comprueba que
y que usando la demostración de la proposición de la página
se tiene que
5.8.4.1 Ejemplo
Consideramos una variable aleatoria discreta con función de probabilidad:
Obtener:
1.
El valor de la constante c para que sea una función de probabilidad.
2.
Los valores de las funciones de probabilidad y distribución para
3.
Calcular
Solución:
1.
y
.
ya que tenemos la suma de una progresión geométrica de razón menor que la
unidad:
Luego c=3. Así la función de probabilidad es:
2.
Calculemos sucesivos valores de f(x) y F(x):
xi
f(x)
F(x)
2
3/4=0,75
0,75
3
3/16=0,19
0,94
4
3/64=0,047 0,987
5
3/256=0,012 0,999
Se observa que cuando
,
y
3.
;
5.8.4.2 Ejemplo
Consideremos una variable aleatoria continua con función de densidad
Se pide:
1.
El valor de la constante c para que sea una función de densidad.
2.
La función de distribución.
3.
La media o valor esperado.
4.
Probabilidad de que la variable este comprendida entre 0,2 y 0,7
Solución:
1.
Por ser f una densidad se ha de verificar:
2.
Luego, la función de distinción es
3.
Media :
4.
5.8.4.3 Ejemplo
La variable aleatoria continua X tiene como función de densidad:
Determinar :
1.
Media
2.
Varianza
3.
Solución:
1.
2.
. El momento central de primer orden con respecto al
origen
ya ha sido calculado antes. El momento central de segundo orden con
respecto al origen,
es:
Luego
3.
Hay que calcular la probabilidad del intervalo de la Figura 5.6:
Figura: La probabilidad del intervalo 0,2--0,8 es el área de
la zona sombreada
La esperanza matemática y la varianza pueden ser calculadas a partir de otras medidas,
que son los momentos.
5.8.6 Momentos de una v.a.
Se denomina momento de orden r (
),
, a:
Asimismo se denomina momento central de orden r, mr, a:
De este modo, es claro que la esperanza matemática es el momento de primer orden
y que la varianza es el momento central de segundo orden
5.8.8 Desigualdad de Tchebycheff y v.a. tipificadas
Si X es una variable aleatoria con esperanza
, y varianza
, se
puede demostrar que en general, una gran parte de la masa se encuentra en un intervalo
centrado en
y que tiene por amplitud varias veces
. Más precisamente, la
desigualdad de Thebycheff afirma que si consideramos un intervalo de centro y radio
k veces , la probabilidad de realizar una observación de la variable y que esta no esté
en dicho intervalo es inferior o igual a 1/k2. Matemáticamente esto se formula como:
5.8.8.1 Teorema (Thebycheff)
Si X es v.a. con
y
, entonces
Este importante resultado, por si sólo, justifica el que sea una medida de
centralización y (o bien
) de dispersión de X y motiva la introducción del concepto
de tipificación de variables aleatorias. Dada una v.a. X, definimos su v.a. tipificada,
Z, como:
que es una v.a. tal que
El teorema de Thebycheff afirma sobre U que
5.8.10 Función característica
Para una v.a. X se define su función característica como:
donde recordamos que
. Esta función también es conocida como
transformada de Fourier de f. Su denominación proviene del hecho de que una vez
conocida la función característica podemos determinar la función de distribución de la
v.a. y recíprocamente.
5.8.10.1 Teorema (Fourier)
Si X es una v.a. cuya función característica es
densidad de probabilidad) es
, su función de probabilidad (o
Esta propiedad de
es fundamental, ya que en una gran cantidad de casos es mucho
más fácil trabajar con la función característica que con la propia función de probabilidad
(o densidad). La razón de ello estriba en una serie de propiedades de la función
característica que la hacen muy manejable desde el punto de vista matemático. Algunas
de estas propiedades son enunciadas a continuación.
5.8.10.2 Proposición
Para
se verifican las relaciones
Demostración
Vamos a suponer que X es continua, pues la demostración para el caso discreto es
totalmente análoga. Gracias a la relación (5.1), se tiene que
Por otro lado, es claro que
integración es conocido que
Por último
. De la teoría de la
. Por todo ello se tiene que si
En lo referente a cambios de origen y escala, el comportamiento de la función
característica es el siguiente:
5.8.10.3 Proposición
Demostración
Una propiedad de que es muy usada es que la suma de v.a. independientes tiene por
función característica el producto de las respectivas funciones características. Es decir:
5.8.10.4 Teorema
Sean X e Y v.a. independientes. Entonces
Este resultado es también cierto para el caso de n v.a. independientes.
La última propiedad de que enunciamos es que al igual que la función generatriz de
momentos, esta nos permite calcular los momentos de la variable (y por tanto su
esperanza y su varianza).
5.8.10.5 Proposición
Demostración
Descargar