TEMA 1: VARIABLES ALEATORIAS. DISTRIBUCIONES DE

Anuncio
TEMA 1: VARIABLES ALEATORIAS. DISTRIBUCIONES DE PROBABILIDAD.
ESQUEMA
1.1. Concepto de variable aleatoria. Definición formal. Notaciones.
1.1.1. Tipos
1.1.2. Función de distribución.
1.2. Variables aleatorias de tipo discreto.
1.2.1. Características:
1.2.1.1. Función puntual de probabilidad.
1.2.1.2. Esperanza y varianza de v.a. discretas. Propiedades.
1.2.2. Distribuciones discretas especiales.
1.2.2.1. La distribución de Bernoulli.
1.2.2.2. La distribución de Bernoulli.
1.2.2.3. La distribución Binomial.
1.2.2.4. La distribución de Poisson.
1.3. Variables aleatorias de tipo continuo.
1.3.1. Características:
1.3.1.1. Función de densidad.
1.3.1.2. Esperanza y varianza de v.a. continuas. Propiedades.
1.3.2. Distribuciones continuas especiales.
1.3.2.1 La distribución Uniforme.
1.3.2.2 La distribución Normal.
1.3.2.3. Distribuciones relacionadas con la Normal: χ2 , t , F.
1.1.- VARIABLE ALEATORIA.
Significado: Hasta ahora, se han estudiado características generales de los espacios
probabilísticos (Ω,α,Ρ), donde Ω es el espacio muestral, α una σ-álgebra, y Ρ una función de
probabilidad. Con frecuencia no interesará estudiar los sucesos de la σ-álgebra, sino una ó
varias características numéricas ligadas con el resultado del experimento. Así podrá
interesarnos al seleccionar un alumno de la Universidad, la probabilidad de que su nota sea
superior ó igual a 5 (probabilidad de aprobar), ó con objeto de establecer un nuevo impuesto la
probabilidad de que la renta anual de los individuos no sea superior a 20.000 euros. Estas
características numéricas, a las que bajo determinadas condiciones podemos asociar una
probabilidad, inducida por la probabilidad de los sucesos del experimento, reciben el nombre de
variables aleatorias.
Ejemplo 1: Si consideramos el experimento lanzar una moneda al aire tres veces, nuestro
espacio muestral Ω estará formado por los ocho posibles resultados elementales del
experimento, es decir Ω={(c,c,c),(c,c,+),(+,c,c), (+,c,+), (+,+,c),(c,+,c),(c,+,+), (+,+,+)}.
Cada uno de estos sucesos (equiprobables) con una probabilidad de 1/8.
Podemos definir una función que a cada uno de los resultados, le asigna el número de caras
obtenidas:
Χ
Ω
ℜ
(c,c,c)
3
(c,c,+)
2
(+,c,c)
2
(+,c,+)
1
(+,+,c)
1
(c,+,c)
2
(c,+,+)
1
(+,+,+)
0
Es decir Χ((c,c,c))=3, Χ((c,c,+))=2, Χ((+,c,c))=2,...
García Córdoba
Dpto. Métodos Cuantitativos e Informáticos
1
TEMA 1: VARIABLES ALEATORIAS. DISTRIBUCIONES DE PROBABILIDAD.
Pues bien, la probabilidad de los sucesos elementales del experimento (1/8), induce una
probabilidad sobre la característica numérica (número de caras) que es nuestra variable
aleatoria.
Así, la probabilidad nuestra variable aleatoria tome el valor 0, es: P(X=0)=P((+,+,+))=1/8
La probabilidad que nuestra variable X tome el valor 1, es:
P(X=1)=P((+,c,+)U(+,+,c)U(c,+,+))=1/8 + 1/8 + 1/8 = 3/8
Definición 1: Dado un fenómeno aleatorio con espacio probabilístico asociado (Ω,α,Ρ),
entenderemos por variable aleatoria X, una función definida sobre el espacio muestral Ω y
cuyos valores son números reales que verifica que el conjunto {ω∈Ω / X(ω)< x }∈ α ∀x ∈ ℜ .
Ω
**
**
x
Se observa que el conjunto {ω∈Ω / X(ω)< x } lo podemos reescribir alternativamente como:
{ω∈Ω / X(ω)< x }={ω∈Ω / X(ω)∈(-∞, x] }= X-1( (-∞, x])
Definición 2: Esto nos permite definir alternativamente la variable aleatoria como todo
función definida sobre el espacio muestral, que toma valores en el campo de los números reales
de tal manera que la imagen inversa de cada intervalo de la forma (-∞, x] es un suceso de la σálgebra α.
Esta exigencia de que la imagen inversa sea un suceso, se fundamenta en la necesidad de
poder asignarle una probabilidad.
Así pues, una variable aleatoria es una función con base en el resultado de un experimento
aleatorio, y por tanto el valor de una variable aleatoria es un fenómeno aleatorio, pero a
diferencia del experimento aleatorio original que puede tener resultados no numéricos (cara ó
cruz en una moneda), el valor de la variable aleatoria es un fenómeno aleatorio cuyos
resultados son siempre numéricos.
Intuitivamente una variable aleatoria es una cantidad medida en relación con un experimento
aleatorio. Si ω es un resultado de una realización del experimento aleatorio, llevamos a cabo un
proceso de medida y obtenemos un número que denotamos por X(ω).
Notación:Por motivos históricos, se utiliza el nombre de variables aleatorias, en lugar del de
funciones, que es lo que son realmente, y en lugar de representarse como es usual en estas
últimas por letras minúsculas, se describen mediante las últimas letras del abecedario U, V, W,
X, Y, Z, siempre en mayúsculas.
El término aleatoria que acompaña a su denominación se utiliza para diferenciarlas de su
antecedente histórico, que la variable estadística, objeto de estudio en Estadística Descriptiva.
Las variables estadísticas recogían una característica numérica observada en los individuos de
una población (se contabilizaban los valores observados en términos de frecuencia relativa. En
Teoría de la Probabilidad, además de no ser objeto de preocupación la forma funcional de X( ),
los posibles valores de la variable se estudiarán en términos de probabilidad.
Ejercicio 1: Veamos que la función definida en el ejemplo 1 es una variable aleatoria:
Consideremos sobre el espacio muestral Ω la σ-álgebra Α=ρ(Ω)(Partes de Ω= todos los
subconjuntos extraíbles de Ω):
∅∈Α
si x < 0
{(+,+,+)}∈Α
si 0<x<1
X-1( (-∞, x]) = {(+,+,+),(c,+,+),(+,c,+),(+,+,c)}∈Α si 1<x<2
{(+,+,+),(c,+,+),(+,c,+),(+,+,c) (c,c,+),(c,+,c),(+,c,c)}∈Α si 2<x<3
Ω∈Α
si 3<x
García Córdoba
Dpto. Métodos Cuantitativos e Informáticos
2
TEMA 1: VARIABLES ALEATORIAS. DISTRIBUCIONES DE PROBABILIDAD.
Luego ∀ x ∈ℜ, X-1( (-∞, x]) ∈Α y por tanto X es una variable aleatoria.
El suceso [X <1]= {(+,+,+),(c,+,+),(+,+,c),(+,c,+)}
Ejercicio propuesto: En el lanzamiento de un dado, comprobar que la función X que asigna a
cada resultado ω el número aparecido en el dado es una variable aleatoria. (X(ω) = ω)
1.1.1.-TIPOS DE VARIABLE ALEATORIA.
Dentro del conjunto de las variables aleatorias vamos a diferenciar dos tipos con el fin de
trabajar con ellas de una forma más simple sabiendo al grupo al que pertenecen. De esta forma
podemos describir de una forma más simple las probabilidades de los sucesos haciendo uso de
una nueva función: la función de densidad.
Fundamentalmente existen dos tipos de variables aleatorias las de tipo discreto y las de
tipo continuo, aunque podríamos agregar un tercer grupo donde se encuentran aquellas que no
pertenecen ni a uno ni a otro, éstas se llaman mixtas y no las estudiaremos aquí.
1.1.1.1 Variable de tipo discreto: Una variable aleatoria X diremos que es de tipo
discreto, o simplemente discreta, si el conjunto de valores que toma esta variable aleatoria
(X(Ω)) es un conjunto contable (finito o infinito numerable).
Así cuando el conjunto de los posibles resultados de un experimento sea un conjunto
contable la variable aleatoria que tenga asociada será de tipo discreto: El lanzamiento de un
dado, la combinación ganadora del sorteo de la primitiva, el número de llamadas telefónica que
recibe una centralita, etc.
También es posible que el conjunto de los posibles resultados sea infinito no numerable y
la variable aleatoria que tiene asociada sea discreta. Por ejemplo, supongamos que una
máquina fabrica tornillos de longitud comprendida entre los 10 y los 20 cm. Si consideramos
aceptamos aquellos tornillos de longitud comprendida entre los 10 y los 15 cm. y rechazamos
los de tamaño superior podemos definir la variable aleatoria X tal que asocie a los valores
comprendidos entre 10 y 15 el valor 1 y a los valores superiores a 15 el valor 0. En este caso el
conjunto Ω = [10,20] es infinito no numerable, mientras que el conjunto X(Ω) ={0,1} es finito
y por tanto estaremos tratando con una variable aleatoria de tipo discreto.
1.1.1.2- Variables aleatorias de tipo continuo: Existen fenómenos aleatorios que no
se ajustan a este tipo de modelos, pensemos por ejemplo en el tiempo que tarda una persona
en ser atendida en una cola. En este caso el conjunto de los posibles resultados es infinito no
numerable [0,+∞) pero además la probabilidad de ser atendido antes del instante x se
incrementa suavemente según aumenta el valor de x. A pequeños incrementos de x se
producen pequeños incrementos de probabilidad. Este es el segundo tipo de variable aleatoria
que estudiaremos.
Si X es una Variable aleatoria continua, puede tomar cualquier valor de un intervalo continuo o
dentro de un campo de variación dado.
Ejemplo.- Sea el experimento aleatorio consistente en medir la altura que es capaz de saltar
cada miembro de un conjunto de personas. En este experimento, cada miembro del conjunto
observado da lugar a un número, por lo que se toma como variable aleatoria el conjunto de las
medidas de las alturas que son capaces de saltar las distintas personas.
En el supuesto que una persona hubiera saltado 105 cm y otra 106 cm, no existiría ninguna
razón para que otra no hubiera saltado un valor intermedio cualquiera entre las dos anteriores,
como 105.5 cm. Se trata de una variable aleatoria continua.
1.1.2.-FUNCION DE DISTRIBUCIÓN.
Dado un espacio probabilístico (Ω,α,Ρ), y una variable aleatoria X, hemos visto que las
probabilidades de los sucesos inducen una probabilidad en el fenómeno aleatorio “valor de la
variable aleatoria”. Esto nos permite trasladar el estudio de las probabilidades de los sucesos de
Ω al de las probabilidades sobre subconjuntos de números reales. Es decir podremos calcular
probabilidades de que la variable aleatoria (v.a.) tome valores en determinados subconjuntos.
Por ejemplo P(X <3).
Con este objeto introducimos la función de distribución:
García Córdoba
Dpto. Métodos Cuantitativos e Informáticos
3
TEMA 1: VARIABLES ALEATORIAS. DISTRIBUCIONES DE PROBABILIDAD.
Definición: Se define la Función de Distribución de una variable aleatoria X, y la
notaremos como FX( ), como una función:
FX: ℜ
[0,1]
Tal que:
∀ x∈ℜ, FX (x) = P(X<x) = P(ω∈Ω / X(ω)<x)
Propiedades: De la definición se deduce que:
FX (-∞) = 0 y FX (∞) = 1
Esta condición obliga a que la función empiece, a la izquierda tomando el valor de 0, y,
a la derecha, acabe tomando antes o después el valor 1.
ii)
FX es una función no decreciente.
Esto significa que la función de izquierda a derecha nunca desciende, siempre o
asciende o se mantiene constante.
iii)
FX es una función continua a la derecha.
Es decir, que desde cualquier punto hacia la derecha, la función es continua. Si se dan
discontinuidades son a la izquierda de algunos puntos.
i)
Ejemplo 2: Se lanza una moneda dos veces. Sea X la variable aleatoria número de caras
obtenidas. Veamos cual es su función de distribución:
Nuestro espacio muestral es Ω={(c,c), (c,+),(+,c), (+,+)} y las probabilidades de todos los
sucesos son iguales (sucesos equiprobables) y valen 1/4.
La variable aleatoria X toma los valores X((c,c))=2, X((c,+))=X((+,c))=1, X((+,+))=0.
Calculemos la Función de Distribución para diferentes valores al azar:
FX (-2) = P(X< -2) = 0 ; FX (0,5) = P(X< 0,5) = P(X=0)=P((+,+))= 1/4 ;
FX (1,5) = P(X< 1,5) = P((+,+),(c,+),(+,c))= 1/4+ 1/4 +1/4 = 3/4
FX (2,5) = P(X< 2,5) = P((+,+),(c,+),(+,c),(c,c))= 1/4+ 1/4 +1/4 + 1/4= 1 = P(Ω)
Formalmente, hay que calcular la función de distribución para cada número real x igual que la
hemos calculado para los valores –2;0,5;1,5; y 2,5. Es fácil ver que en nuestro caso la Función
de Distribución vale:
FX (x) =
0
1/4
3/4
1
si
si
si
si
x<0
0<x<1
1<x<2
2<x
Función de Distribución
1,2
1
0,8
0,6
0,4
0,2
0
-2
-1
0
1
2
3
4
5
Observación: La función de distribución de una variable aleatoria es una función que
describe como se acumula la probabilidad provocada por la variable a lo largo de la recta. Los
tramos con fuertes crecimientos indican zonas donde los valores de la variable aportan gran
cantidad de probabilidad, mientras que los tramos planos denotan zonas donde no hay aporte
de probabilidad alguno. Los saltos en la función de distribución (ver gráfico del ejemplo 2)
muestran aportes significativos de probabilidad en los puntos en los que existe discontinuidad.
Así, en el ejemplo 2 se observan aportes significativos de probabilidad en el 0, el 1 y el 2.
García Córdoba
Dpto. Métodos Cuantitativos e Informáticos
4
TEMA 1: VARIABLES ALEATORIAS. DISTRIBUCIONES DE PROBABILIDAD.
Como es observable, la función de distribución tiene su antecedente histórico en la
frecuencia relativa acumulada de una variable estadística, que proporcionaba el porcentaje de
valores observados menores o iguales a uno dado.
Otras propiedades de la función de distribución:
(a) P(x1 < X < x2) = F(x2) – F(x1)
(b) P(X = x) = F(x) – F(x-ε)
(c) P(x1 < X < x2) = F(x2 -ε)– F(x1)
(d) P(x1 < X < x2) = F(x2-ε) – F(x1-ε)
(e) P(x1 < X < x2) = F(x2) – F(x1-ε)
Donde F(x-ε)=lim F(x-ε) cuando ε>0 y ε→0.
1.2.- VARIABLE ALEATORIA DE TIPO DISCRETO.
Definición: Dado un espacio probabilístico (Ω, S, Ρ), y una variable aleatoria X definida
en él, decimos que X es una variable aleatoria discreta si el conjunto:
X(Ω) = {X(ω), ∀ ω∈Ω,}
es finito ó infinito numerable.
Esto equivale a que una variable aleatoria X es de tipo discreto, si su función de
distribución es escalonada, es decir, es constante salvo un conjunto de puntos, a lo sumo
infinito numerable.
1.2.1 CARACTERÍSTICAS.
Con objeto de elaborar una plan de prevención de riesgos laborales, en una empresa se han
recogido los siguientes datos:
Numero de accidentes
0
1
2
3
4
Numero de días del mes
10
12
5
2
1
Consideremos la variable aleatoria X, número de accidentes diarios. La siguiente tabla recoge la
distribución de frecuencias de dicha variable:
Valor de la variable(xi)
0
1
2
3
4
Frecuencia Absoluta(ni)
10
12
5
2
1
30
Frecuencia Relativa(fi)
10/30
12/30
5/30
2/30
1/30
Esta tabla contiene toda la información sobre la variable estadística (sobre los datos de un
mes). Ahora bien, para resumir ciertos aspectos de la distribución (promedios, dispersión,
forma, ...) que clarifiquen la información y permitan su comparación con datos de otros meses
o de otras empresas, se calculan una serie de medidas características de posición(media,...),
dispersión(varianza,...), ....:
Así, la media aritmética sería:
X = 0 x 10/30 + 1 x 12/30 + 2 x 5/30 + 3 x 2/30 + 4 x 1/30 = 1,07
La varianza:
S2X=(0–1,07)2x10/30+(1-1,07) 2x12/30+(2-1,07) 2x5/30+(3-1,07)2x2/30+(4-1,07) 2x1/30
= 1,06
Y su desviación típica SX= 1,03
Todas estas medidas tienen su fundamento en las frecuencias observadas para los distintos
valores de la variable, es decir, son medidas empíricas.
García Córdoba
Dpto. Métodos Cuantitativos e Informáticos
5
TEMA 1: VARIABLES ALEATORIAS. DISTRIBUCIONES DE PROBABILIDAD.
Ahora bien, estas medidas están obtenidas en base a un comportamiento pasado
(observaciones ya realizadas):
Después de observar los datos de distintos meses, un estudiante ha decidido asignar a la
variable X una distribución de probabilidad que trate de explicar su comportamiento futuro, por
ejemplo:
Valor de la variable(xi)
0
1
2
3
4
5
P(X= xi)
0,30
0,35
0,20
0,08
0,05
0,02
De cara a resumir los aspectos más importantes de esta distribución, vamos a construir ahora
medidas teóricas que nos informen acerca de la distribución.
Hablaremos de nuevo de media (esperanza), moda, varianza, etc., siendo su construcción
similar a la de las medidas descriptivas. Si la distribución es discreta solo tendremos que
cambiar frecuencia por probabilidad, si es continua se producirá un cambio cualitativo, que se
traducirá en la mayor parte de los casos en transformar sumas en integrales.
1.2.1.1. FUNCIÓN PUNTUAL DE PROBABILIDAD.
Definición: Sea X una variable aleatoria discreta, se define su función puntual de
probabilidad fX, como una aplicación,
fX : ℜ → ℜ tal que fX(x) = P(X=x) ∀x ∈ ℜ.
Se advierte que si X(Ω) es el conjunto {x1, x2, x3, ...., xn, .... }, la función de probabilidad fX toma
los valores: fX(xi)=P(X= xi) para i=1,2,...n,... y fX(x)=0 para el resto de los x≠ xi.
Cuando no se preste a confusión, a fX la notaremos simplemente f.
Notación: Se suele notar pi≡P(X= xi) o bien pxi≡P(X= xi).
Se denomina distribución de probabilidad a los pares (xi , pi) ∀ i
Representación gráfica: Con objeto de mejorar la visualización, la representación de la
función de probabilidad se realiza sólo para aquellos puntos en los que toma valores no nulos:
fX(x)
En variables aleatorias discretas podemos escribir la Función de Distribución como:
F ( x) =
∑p
xi ≤ x
i
Ejemplo 2: Con los datos del ejemplo 2, veamos cual es la función de probabilidad puntual:
La variable aleatoria X número de caras obtenidas al lanzar una moneda al aire dos veces
puede presentar los valores 0, 1 y 2;
García Córdoba
Dpto. Métodos Cuantitativos e Informáticos
6
TEMA 1: VARIABLES ALEATORIAS. DISTRIBUCIONES DE PROBABILIDAD.
Los valores de la función puntual de probabilidad serán:
fX(0)
fX(1)
fX(2)
fX(x)
=
=
=
=
P(X=0)=P((+,+))=1/4
P(X=1)=P((c,+),(+,c))=2/4
P(X=2)=P((c,c))=1/4
0 ∀ x ≠ 0,1,2
Propiedades: Si f es la función de probabilidad de una variable aleatoria discreta X, que toma
los valores x1, x2, x3, ...., xn, .... Entonces:
a) 0 < f(x) < 1 ∀x∈ℜ
b) Σ f(xi) =Σ pi =1
Recíprocamente toda función g: ℜ→ℜ que se anula salvo en un conjunto finito o infinito
numerable de puntos y cumple las dos propiedades anteriores es función de probabilidad de
una variable aleatoria discreta.
1.2.1.2.- ESPERANZA MATEMÁTICA Y VARIANZA DE V.A. DISCRETAS.
La media es por excelencia la medida de resumen de una variable estadística y bajo ciertas
condiciones (poca dispersión) es un buen representante de toda la distribución de frecuencias.
Vamos a desarrollar ahora la media referida a una distribución de probabilidades, que es lo que
llamamos esperanza matemática de una variable aleatoria (también llamada valor medio, valor
esperado ó media esperada). La denominación de esperanza tiene sus raíces históricas en
referirse a la ganancia que un jugador esperaba obtener en un juego de azar.
Ejemplo 4: Al lanzar un dado, el jugador recibirá tantos miles de pts. Como indique el dado si
el número obtenido es impar y pagará a la banca igual número de miles de pesetas que indique
el dado si el número obtenido es par.
En un número grande de jugadas, n, podemos asignar(intuitivamente/subjetivamente) a cada
cara del dado una probabilidad de n/6 de obtener dicha cara.
Después de jugar n veces la ganancia aproximada del jugador debe ser:
Ganancia después n jugadas=1x 0/6–2x n/6+3 x n/6 – 4 x n/6 + 5 x n/6 – 6 x n/6= - 3n/6
Es decir, ganará 1 mil pesetas en las n/6 jugadas donde debe salir un 1, perderá 2 mil pesetas
en las n/6 jugadas donde debe salir un 2, ...
Y su ganancia media esperada por jugada será la ganancia total esperada de las n jugadas
dividida por el número de jugadas:
Ganancia esperada por jugada=(-3n/6)/n=-3/6= -0,5
Luego espera obtener –0,5 miles de pesetas por jugada, es decir, espera perder 500 pesetas
por jugada: por tanto el juego no le es favorable.
(Propuesto: Determinar la ganancia esperada después de n jugadas si el jugador gana al
obtener par y pierde al obtener impar).
Si construímos la variable aleatoria X, ganancia del jugador, esta tendrá la siguiente función de
probabilidad:
X:
1
P(X=1)=1/6
-2
P(X=2)=1/6
3
P(X=3)=1/6
-4
P(X=4)=1/6
5
P(X=5)=1/6
-6
P(X=6)=1/6
La ganancia esperada, esperanza de X, que designaremos por E(X), será la suma de los valores
de la variable multiplicados por su probabilidad:
E(X)= 1 1/6 - 2 1/6 + 3 1/6 – 4 1/6 + 5 1/6 – 6 1/6 = -0,5.
Así introducida, podemos definir,
García Córdoba
Dpto. Métodos Cuantitativos e Informáticos
7
TEMA 1: VARIABLES ALEATORIAS. DISTRIBUCIONES DE PROBABILIDAD.
Definición: Sea X una variable aleatoria discreta que toma los valores x1, x2, ..., xn,... y cuya
función de probabilidad es fX. Se llama esperanza matemática de X y se nota E(X) al
número:
E(X) = Σ xi fX (xi) = Σ xi P(X=xi)
La esperanza matemática E(X), existe siempre que Σ ⏐xi ⏐ fX (xi) < ∞.
Ejemplo 5: Una rifa consta de 1000 papeletas, que se venden a 100 pesetas, existiendo un
único premio de 5.000 pesetas. Compramos cuatro papeletas ¿Qué ganancia esperamos
obtener?:
En el caso de que una de nuestras papeletas sea la premiada, la ganancia será: 5.000 – 400 =
4.600.
En el caso (más probable) que no nos toque, nuestra ganancia(pérdida) será : -400
La probabilidad de no obtener premio, si llamamos PRi al suceso obtener premio con la papeleta
i-ésima es:
P(PR1C ∩PR2 C ∩ PR3 C ∩ PR4 C)
Y esta probabilidad es igual a:
P(PR1C) P(PR2 C/PR1C)P(PR3 C/PR2 C∩PR1C) P(PR4 C/PR3 ∩CPR2 C∩PR1C)
= 999/1000 998/999 997/998 996/997= 996/1000=0,996
La variable aleatoria X, ganancia obtenida, tendrá la siguiente distribución de probabilidad:
X:
-400
4.600
P(X=-400) = 0,996
P(X=4.600)= 0,004
La ganancia esperada (Esperanza matemática) será por tanto:
E(X)= -400 x 0,996 + 4600 x 0,004 = -380
Esto se traduce en que si jugasemos indefinidamente a esta rifa comprando cuatro papeletas
obtendríamos una pérdida media por jugada de 380 pesetas.
NOTACIÓN: MOMENTOS.
Definición: Se define el momento no centrado de orden r de una variable aleatoria X y se
nota por αr como:
αr = E(Xr)
Como caso particular, α1 ≡α= E(X1)= E(X)= esperanza matemática de X≡μ
Definición: Se define el momento centrado o respecto al origen de orden r de una
variable aleatoria X y se nota por μr como:
μr = E[(X-E(X))r]
Definición: Se define el varianza de una variable aleatoria X, cuya esperanza es μ como:
Var(X)≡σ2= E[(X-E(X))2]= E[(X-μ)2]
Se observa que la varianza no es más que un caso particular de momentos centrados, esto es,
la varianza coincide con el momento centrado de orden 2:
μ2 = E[(X-E(X))2]= Var(X) )≡σ2
Si la variable es discreta, la varianza vale: Var(X)≡σ2=Σ (xi -μ)2 P(X=xi)
García Córdoba
Dpto. Métodos Cuantitativos e Informáticos
8
TEMA 1: VARIABLES ALEATORIAS. DISTRIBUCIONES DE PROBABILIDAD.
Una expresión alternativa para el cálculo de la varianza se obtiene desarrollando el cuadrado de
la expresión anterior:
Var(X)≡σ2=Σ xi 2 P(X=xi)- μ2
1.2.2.- DISTRIBUCIONES DISCRETAS.
Muchas variables aleatorias asociadas con experimentos estadísticos,
parecidas y pueden describirse básicamente con la misma distribución
distribución de probabilidad viene determinada por los pares de valores (xi,
distintos valores que toma la variable aleatoria y pi las probabilidades
aleatoria tome el valor xi).
tienen propiedades
de probabilidad (la
pi), donde xi son los
de que la variable
1.2.2.1.- DISTRIBUCIÓN UNIFORME DISCRETA.
Consideremos el lanzamiento de una moneda al aire( cuyos resultados posibles son cara y cruz)
y la variable aleatoria asociada X que asigna al resultado cara un 1 y al resultado cruz un
0(número de caras obtenidas). La probabilidad de que la variable X tome el valor 1 es 1/2 y la
probabilidad de que la variable tome el valor 0 también es 1/2, ya que dichas probabilidades
son las probabilidades de los sucesos sacar cara y sacar cruz que en principio son dos sucesos
son equiprobables, con probabilidades iguales a 1/2).
Esta misma situación se nos presenta en el lanzamiento de un dado no trucado con la variable
aleatoria que asigna a cada resultado en el lanzamiento del dado el valor obtenido. Los
resultados posibles 1,2,3,4,5,6 tendrán asociados mediante la variable aleatoria asociada X así
definida unos valores X(1)=1, X(2)=2, X(3)=3, X(4)=4, X(5)=5 y X(6)=6. La probabilidad de
que la variable X tome el valor n(con n=1,2,...,6) es la probabilidad del suceso sacar n, y si el
dado no está trucado estas probabilidades son idénticas e iguales a 1/6.
Definición: Pues bien, en general si una variable aleatoria discreta X toma n valores distintos
x1, x2,... xn, con la misma probabilidad, es decir P(X= x1) = P(X= x2) =... P(X= xn) = k,
entonces se dice que la variable X sigue una distribución uniforme discreta de parámetro
n.
El valor de la constante k se calcula fácilmente, ya que la suma de todas las probabilidades
debe ser igual a la unidad, es decir:
n
n
Σ P(X= xi) = 1 ⇒ Σ k =1 ⇒ n k = 1 ⇒ k =1/n
i=1
i=1
(Esta circunstancia es evidente en los dos ejemplos de introducción ya que en el caso de la
moneda n=2 y k=1/n=1/2 y en el caso del dado n=6 y k=1/n=1/6.)
Característica de las distribuciones uniformes discretas:
Función de probabilidad(fX): La función de probabilidad de una distribución uniforme
discreta queda perfectamente determinada como:
fX(xi)= P(X= xi) = k =1/n
∀ i=1,2,…,n
Función de Distribución(FX): La función de distribución en una variable aleatoria discreta,
puede obtenerse por acumulación de la función de probabilidad(recordemos que en el caso de
variables aleatorias discretas F(x)=P(X<x)= ΣP(X=xi)):xi<x
Por tanto la Función de distribución resultará ser:
García Córdoba
Dpto. Métodos Cuantitativos e Informáticos
9
TEMA 1: VARIABLES ALEATORIAS. DISTRIBUCIONES DE PROBABILIDAD.
F(x)=
0
1/n
2/n
.
.
.
k/n
.
.
(n-1)/n
1=n/n
x<x1
x1<x< x2
x2<x< x3
xk<x< xk+1
xn-1<x< xn
xn<x
Esta función es escalonada, y todos los saltos son de la misma cuantía (1/n).
Esperanza matemática(E(X)):
E(X) = Σ xi P(X=xi) = Σ xi k =Σ xi (1/n) = (1/n) Σ xi
Varianza(Var(X)≡σ2):
La varianza la podemos obtener como Var(X)≡σ2= E(X2) – [E(X)] 2, donde E(X) ya la hemos
obtenido en el apartado anterior, por tanto calculemos E(X2);
E(X2)= Σ xi2 P(X=xi) = Σ xi2 k = Σ xi2 (1/n) = (1/n) Σ xi2
Por tanto la varianza valdrá;
Var(X)≡σ2= E(X2) – [E(X)] 2= (1/n) Σ xi2 - [ (1/n) Σ xi]2
Caso particular 1: Cuando n=1, es decir cuando la variable asociada toma un único valor, x1,
la distribución recibe el nombre de distribución uniforme degenerada y la variable asociada,
variable con distribución uniforme degenerada:
fX(x1)= P(X= x1) = k =1/1=1
F(x) = 0 si x < x1 y F(x)=1 si x> x1
2
2
2
E(X)= x1
; σ = x i - xi = 0
Caso particular 2: Cuando xi = i (caso del dado), es decir cuando la variable asociada toma
los valores x1 = 1, x2 = 2, ..., xn = n:
fX(xi)= P(X= xi) = k =1/n
E(X)= Σ xi P(X=xi) = Σ xi k =Σ xi (1/n) = (1/n) Σ xi = (1/n) (n+1)/2 n =
(n+1)/2
1.2.2.2.- DISTRIBUCIÓN DE BERNOUILLI.
Con frecuencia en experimentos aleatorios, nos interesa estudiar no ya el resultado concreto
del experimento, sino solamente si ha ocurrido o no un cierto suceso.
Por ejemplo, en una rifa como la del ejemplo 5, no nos interesa tanto el resultado de la rifa
(número premiado) como el suceso obtener papeleta premiada (comprábamos cuatro
papeletas).
En este tipo de experimentos, se denomina éxito al suceso en estudio (evidentemente obtener
papeleta premiada será un éxito) y fracaso al suceso contrario, que en nuestro caso será no
obtener papeleta premiada.
A este tipo de experimentos se le denomina experimento o prueba de Bernouilli.
Llamemos éxito al suceso A (en nuestro ejemplo obtener papeleta premiada) y fracaso a su
contrario (complementario), Ac. Asociamos a dicho experimento una variable aleatoria X
García Córdoba
Dpto. Métodos Cuantitativos e Informáticos
10
TEMA 1: VARIABLES ALEATORIAS. DISTRIBUCIONES DE PROBABILIDAD.
definida como el número de éxitos al realizar el experimento, es decir la variable X tomará los
valores:
1 si ocurre A
0 si ocurre Ac
c
Si llamamos P(A)= p y P(A )= 1-p =q, la distribución de probabilidad de la variable X, puede
escribirse como:
X:
0
P(X=0)= 1-p= q
1
P(X=1)= p
Diremos que la variable X tiene una distribución de Bernouilli(b(p)) de parámetro p,
donde p es la probabilidad de éxito.
Características de la Distribución de Bernouilli de parámetro p, b(p).
Función de Probabilidad fX: Su función de probabilidad puede expresarse de manera
compacta:
fX(x)= P(X= x) = px (1-p)1-x con x = 0, 1
Se observa que X solamente toma los valores 1(en caso de éxito) o 0(en caso de fracaso):
Si X=0
Si X=1
fX(0)= P(X= 0) = p0 (1-p)1-0 = (1-p) = q
fX(1)= P(X= 1) = p1 (1-p)1-1 = p
En nuestro ejemplo 5(rifa) la probabilidad de que nos toque es p=0,004 y la de que no nos
toque q = 0,996 =1- p= 1 – 0,004.
Función de distribución FX : la función de distribución queda determinada :
FX(x)=P(X<x)=
0
1-p
1
si x < 0
si 0 < x < 1
si x > 1
Esperanza Matemática: E(X) = Σ xi P(X=xi) = 0 (1-p) + 1 p = p
Varianza :Var(X)≡σ2= E(X2) – [E(X)] 2= 02 (1-p) + 12 p - p2 = p – p2= p(1-p)= p q
Un ejemplo sencillo de variable de Bernouilli es la que asigna el número de caras obtenidas al
lanzar una moneda al aire una vez. El parámetro p, sería en este caso la probabilidad de
obtener cara con dicha moneda.
1.2.2.3.- DISTRIBUCIÓN BINOMIAL.
Supongamos, que se repite n veces el mismo experimento de Bernouilli y que en todos ellos la
probabilidad de éxito, p, es la misma. Diremos entonces que hemos realizado n tiradas de
Bernouilli de parámetro p. Llamemos X a la variable que asocia el numero de éxitos obtenidos
en las n tiradas. Pues bien, a la distribución que sigue dicha variable se le denomina
Distribución Binomial de parámetros n y p, B(n,p). El parámetro n indica el número de
tiradas (que será un número entero positivo) y el parámetro p, es la probabilidad de éxito en
cada prueba( 0<p<1).
La variable asociada al experimento, X, así definida podrá tomar los valores 0,1,2,..,n (número
de éxitos posibles en n tiradas).
La probabilidad de obtener k éxitos, es la probabilidad P((X=k).
Uno de los sucesos con el que obtenemos k éxitos es aquel en que obtenemos k éxitos en las k
primeras pruebas y fracaso en las n-k pruebas restantes:
k
n-k
AA.........AAc...................Ac
La probabilidad de este suceso (suponemos que las pruebas son independientes) es:
García Córdoba
Dpto. Métodos Cuantitativos e Informáticos
11
TEMA 1: VARIABLES ALEATORIAS. DISTRIBUCIONES DE PROBABILIDAD.
k
n-k
k
n-k
P(AA.........AAc...................Ac )= P(A)........ P(A) P(Ac)…………..P(Ac) = pk (1-p)n-k
Ahora bien, este es solamente uno de los sucesos en los que aparecerán k éxitos y n-k
fracasos, es decir dicha circunstancia se producirá en cualquier reordenación de la secuencia
anterior.
Deberemos preguntarnos cuantas reordenaciones posibles existen: es decir cuantos
subconjuntos de k elementos (donde no importa el orden) pueden formarse con n elementos.
Pues bien a ese número de reordenaciones se le llama Combinaciones de m elementos
tomados de k en k y vale:
C
m,k
⎛m⎞
⎟
⎝k⎠
=⎜
=
En la lotería primitiva tendremos C
m!
k!(m − k )!
49 , 6
= 13.983.816.
Todas las posibles reordenaciones de los n elementos tomados de k en k son sucesos con
probabilidades iguales a pk (1-p)n-k
Por tanto la función de probabilidad de una distribución binomial de parámetros n y p es:
Función de Probabilidad fX:
fX(k)= P(X= k) =( ) pk (1-p)n-k para k=0, 1,2,..., n
(ésto es así, ya que dicha probabilidad es la suma de las probabilidades de todos los sucesos en
que se producen k éxitos, siendo dichas probabilidades iguales y existiendo Cn , k sucesos).
Ejemplo 6: Un jugador de baloncesto tiene un porcentaje (histórico) de aciertos en tiros libres
del 85%. Si lanza 10 libres. ¿ Cual es la probabilidad de que enceste al menos 3?:
Solución: Cada lanzamiento es una prueba de Bernouilli. El éxito es el suceso encestar y la
probabilidad de éxito es de 0,85.
Lanzar 10 veces a canasta es repetir 10 pruebas de Bernouilli, es decir la variable X que asocia
a los 10 lanzamientos el número de canastas tomará los valores 0,1,2,...,10 y seguirá una
distribución Binomial de parámetros n=10 y p=0,85.
La probabilidad de conseguir más de tres canastas será:
P(X>3)= P(X=3)+P(X=4)+....+P(X=10)= ΣP(X= k) con k>3
Y
⎛ 10 ⎞
P ( X = k ) = ⎜ ⎟0,85 k 0,1510− k
⎝k⎠
P(X>3)= 1 - P(X<3) = 1 – P(X<2)= 1- FX(2)
Función de distribución FX : la función de distribución queda determinada :
FX(x)=P(X<x) (se obtiene en tablas)
Esperanza Matemática:
Varianza :
E(X) = np
Var(X)≡σ2= n p q
(la variable aleatoria es la suma de n variables aleatorias independientes de
Bernouilli de parámetro p)
García Córdoba
Dpto. Métodos Cuantitativos e Informáticos
12
TEMA 1: VARIABLES ALEATORIAS. DISTRIBUCIONES DE PROBABILIDAD.
1.2.2.4.- DISTRIBUCIÓN DE POISSON (o de los sucesos raros).
La Distribución de Poisson se llama así en honor a Simeón Dennis Poisson (1781-1840), francés
que desarrolló esta distribución basándose en estudios efectuados en la última parte de su vida.
La distribución de Poisson se corresponde con la extensión de una distribución Binomial
La distribución de Poisson se corresponde con una variable aleatoria discreta que indica el
número de veces que aparece un determinado suceso A en un periodo de tiempo dado. El
fenómeno aleatorio debe verificar las dos propiedades siguientes:
i) Es un proceso sin memoria,
anterioridad no afecta a que pueda o no
ii) El proceso es estable, es decir,
ha producido el suceso es constante por
esto es el hecho de que el evento aparezca con
producirse en instantes posteriores.
a lo largo del tiempo el número medio de veces que se
unidad de tiempo.
Algunos fenómenos aleatorios cuyo comportamiento probabilístico se ajusta a esta
distribución son, por citar los más típicos: el número de llamadas que llegan a una central
telefónica en una hora, el número de coches que entran a repostar en una gasolinera (en un
intervalo de tiempo), el número de personas que son atendidas en una ventanilla durante un
día, el número de personas que llegan a la cola de una caja en un supermercado.
De forma general esta distribución simula aquellos experimentos en los que se genere un
proceso de cola.
A diferencia de las distribuciones estudiadas en apartados anteriores, una variable
aleatoria de Poisson puede tomar una cantidad infinita de valores (aunque en cantidad
numerable).
Definición: Una variable aleatoria se dice que tiene una distribución de Poisson de
parámetro λ, (λ>0) y lo representaremos por X~P(λ) si su función puntual de probabilidad. es
de la forma:
P( X = x ) = e − x
λx
x!
para x = 0, 1, 2,...
El parámetro λ de los ejemplos anteriores representa el promedio de ocurrencias del
suceso por el que estamos interesados (que llegue una llamada telefónica, que llegue un coche
a la gasolinera, etc)
La siguiente figura muestra la forma en que se distribuye la probabilidad en función de
distintos valores de λ.
García Córdoba
Dpto. Métodos Cuantitativos e Informáticos
13
TEMA 1: VARIABLES ALEATORIAS. DISTRIBUCIONES DE PROBABILIDAD.
0,5
0,5
0,4
l=0,8
Probabilidad
Probabilidad
0,4
0,3
0,2
0,1
l=2,1
0,3
0,2
0,1
0
0
0
4
8
12
16
20
0
4
Variable
12
16
20
0,5
0,5
0,4
0,4
l=8,0
Probabilidad
Probabilidad
8
Variable
0,3
0,2
l=12
0,3
0,2
0,1
0,1
0
0
0
4
8
12
16
Variable
20
0
4
8
12
16
20
Variable
Características de los procesos que producen una distribución de la
probabilidad de Poisson.
El número de vehículos que pasan por una caseta de cobro en las horas de mayor
tráfico sirve como ejemplo para mostrar las características de una distribución de
probabilidad de Poisson.
El promedio (media) de llegadas de vehículos por hora de gran tráfico puede
estimarse a partir de los datos anteriores del tráfico.
Si dividimos las horas de gran tráfico en periodos (intervalos) de un segundo cada
uno, encontraremos que los siguientes enunciados son verdaderos:
a) La probabilidad de que exactamente un vehículo llegue por segundo a una caseta
individual es un número muy pequeño y es constante para que cada intervalo de un
segundo.
b) La probabilidad de que dos o más vehículos lleguen en un intervalo de un segundo
es tan reducida que podemos asignarle un valor cero.
c) El número de vehículos que llegan en determinado intervalo de un segundo es
independiente del momento en que el intervalo de un segundo ocurre durante la hora
de gran tráfico.
d) El número de llegadas en cualquier intervalo de un segundo no depende del
número de llegadas de cualquier otro intervalo de un segundo.
Ahora bien, podemos generalizar partiendo de las cuatro condiciones que hemos
descrito en este ejemplo, si estas condiciones se cumplen nos apoyaremos en una
distribución de probabilidad de Poisson para describirlos.
La variable aleatoria de Poisson se caracteriza por el hecho de que su valor medio y su
varianza son iguales y además estos valores coinciden con el parámetro λ de la distribución,
así, si X~P(λ):
1) E[X] = λ
2) Var(X) = λ.
García Córdoba
Dpto. Métodos Cuantitativos e Informáticos
14
TEMA 1: VARIABLES ALEATORIAS. DISTRIBUCIONES DE PROBABILIDAD.
Este tipo de leyes se aplican a sucesos con probabilidad muy baja de ocurrir,
obteniéndose como la distribución límite de una sucesión de variable binomiales,
, donde
,y
(por tanto
).
En general utilizaremos la distribución de Poisson como aproximación de
experimentos binomiales donde el número de pruebas es muy alto, pero la
probabilidad de éxito muy baja. A veces se suele utilizar como criterio de
aproximación:
Ejemplo
Cierta enfermedad tiene una probabilidad muy baja de ocurrir, p=1/100.000. Calcular
la probabilidad de que en una ciudad con 500.000 habitantes haya más de 3 personas
con dicha enfermedad. Calcular el número esperado de habitantes que la padecen.
Solución: Si consideramos la v.a. X que contabiliza el número de personas que
padecen la enfermedad, es claro que sigue un modelo binomial, pero que puede ser
muy bien aproximado por un modelo de Poisson, de modo que
Así el número esperado de personas que padecen la enfermedad es
. Como
, existe una gran dispersión, y no sería extraño encontrar que en
realidad hay muchas más personas o menos que están enfermas. La probabilidad de
que haya más de tres personas enfermas es:
García Córdoba
Dpto. Métodos Cuantitativos e Informáticos
15
TEMA 1: VARIABLES ALEATORIAS. DISTRIBUCIONES DE PROBABILIDAD.
1.3.- VARIABLES ALEATORIAS DE TIPO CONTINUO.
1.3.1.- CARACTERÍSTICAS.
Como hemos visto en el apartado anterior en una variable aleatoria discreta la
probabilidad de distribuye en puntos aislados a lo largo de la recta real. Existen fenómenos
aleatorios que no se ajustan a este tipo de modelos, pensemos por ejemplo en el tiempo que
tarda una persona en ser atendida en una cola. En este caso el conjunto de los posibles
resultados es infinito no numerable [0,+∞) pero además la probabilidad de ser atendido antes
del instante x se incrementa suavemente según aumenta el valor de x. A pequeños
incrementos de x se producen pequeños incrementos de probabilidad. Es decir la función de
distribución va aumentando suavemente según aumentamos el valor de x. Este es el segundo
tipo de variable aleatoria que estudiaremos. La Función de distribución de una variable aleatoria
continua se define igual que en el caso discreto:
Definición: Se define la Función de Distribución de una variable aleatoria continua X, y
FX: ℜ
[0,1]
la notaremos como FX( ), como una función:
Tal que:
∀ x∈ℜ, FX (x) = P(X<x) = P(ω∈Ω / X(ω)<x)
Definición 6.- Una variable aleatoria X diremos que es de tipo continuo, o simplemente
continua, si su función de distribución F es tal que
i) F es una función siempre continua.
ii) F es derivable (con derivada continua salvo, a lo sumo, en un número finito de
puntos).
1.3.1.1.- FUNCIÓN DE DENSIDAD.
Definición 7.- Si X es una variable aleatoria de tipo continuo con función de
distribución F. La función de densidad (f.d.) de la variable aleatoria X es una aplicación real de
variable real tal que f(x) = F'(x).
Teorema de caracterización de las funciones de densidad.
Sea f una función real de variable real continua salvo, a lo sumo, en un número finito
de puntos y tal que:
i) f ( x ) ≥ 0 ∀x ∈ ℜ
ii)
+∞
∫−∞ f (x )dx = 1
Entonces f es la función de densidad de una variable aleatoria continua.
García Córdoba
Dpto. Métodos Cuantitativos e Informáticos
16
TEMA 1: VARIABLES ALEATORIAS. DISTRIBUCIONES DE PROBABILIDAD.
Teorema 5.- Sea X una variable aleatoria de tipo continuo y F y f sus funciones de
distribución y de densidad respectivamente, entonces F puede obtenerse de f y viceversa.
i) Supuesto conocemos F
f(x) = F'(x)
ii) Supuesto conocida f
x
F( x ) =
∫ f (u) du
−∞
Al igual que en el caso anterior en general la función que conoceremos es la función de
densidad y a través de ella podemos calcular las probabilidades que deseemos.
b
Teorema 6.- P(a < X < b) =
∫ f(x) dx
a
Este resultado nos ayudará a dar una interpretación geométrica de probabilidad. Así
podemos afirmar que el área que hay bajo la función de densidad de una variable aleatoria
continua es la unidad y que la probabilidad de que una variable oscile entre dos puntos a y b se
corresponde gráficamente con el área que hay bajo la función de densidad entre los puntos a y b.
Por último veremos una propiedad que cumple la variable aleatoria continua que hasta
cierto punto es sorprendente.
Teorema 8.- Si X es una variable aleatoria continua y x es un número real cualquiera
P(X=x) = 0.
Dem: Como la función de distribución es continua la probabilidad de que la variable tome
exactamente un valor determinado es cero.
Por tanto en variable aleatoria continua no tiene sentido hablar de que la variable aleatoria
tome exactamente un valor sino de que tome valores comprendidos entre dos puntos.
1.3.1.2.- ESPERANZA MATEMÁTICA Y VARIANZA DE UNA V.A. CONTINUA.
En el caso de variables continuas, la definición de esperanza matemática se rescribe de la
siguiente manera:
Definición: Sea X una variable aleatoria continua, con función de densidad fX. Se llama
esperanza matemática de la variable aleatoria X al número:
+∞
E( X ) =
∫ xf ( x)dx
−∞
García Córdoba
Dpto. Métodos Cuantitativos e Informáticos
17
TEMA 1: VARIABLES ALEATORIAS. DISTRIBUCIONES DE PROBABILIDAD.
Propiedades:
i)
ii)
iii)
La esperanza de una constante es la propia constante: Si la variable aleatoria X toma
un único valor k (X(w)=k ∀w) entonces E(X) = k.
La esperanza de la variable a X + b con a y b constantes es igual a:
E(a X + b )= a E(X) + b.
Si una variable aleatoria, tiene función de probabilidad o de densidad, simétrica
respecto de un valor a, la esperanza, si existe, es dicho valor a.
1.3.4.- VARIANZA.
Definición: Se define el varianza de una variable aleatoria X, cuya esperanza es μ como:
Var(X)≡σ2= E[(X-E(X))2]= E[(X-μ)2]
Se observa que la varianza no es más que un caso particular de momentos centrados, esto es, la
varianza coincide con el momento centrado de orden 2:
μ2 = E[(X-E(X))2]= Var(X) )≡σ2
Para una variable aleatoria continua: Var(X)≡σ2=
∫
+∞
−∞
( x − μ ) 2 f ( x)dx
Alternativamente se puede calcular la varianza de una v.a continua como:
Var(X)≡σ2=
∫
+∞
−∞
x 2 f ( x)dx − μ 2
Propiedades de la varianza:
i)
ii)
iii)
iv)
Var(X)≡σ2= E[(X-E(X))2]= E(X2) – [E(X) ]2 = α2−μ2
La varianza vale 0 si y solo si X es una constante.
Si b es una constante, entonces Var(X + b)= Var(X)
Si a es una constante, entonces Var(a X)= a2 Var(X)
TIPIFICACION DE UNA VARIABLE.
(Válido para variables discretas y continuas)
Definición: Sea X una variable aleatoria de media μ y varianza σ2. Se dice que la variable Z es la
variable X tipificada si Z = X -μ
Siendo σ la desviación tipica de X(raiz cuadrada positiva de la varianza).
Propiedades:
i)
ii)
La variable tipificada tiene media 0: E(Z)=0
La variable tipificada tiene varianza 1: Var(Z)= 1
Ejercicio1: Los alumnos de la facultad suscriben un contrato con la cantina del centro para la
celebración de una fiesta pro-viaje de fin de carrera. En dicho contrato se estipula que los alumnos
recibirán una cantidad fija de 100.000 pesetas, más 50 pesetas por cada copa servida. El número
de copas que se servirán puede representarse por una variable aleatoria de media 5.000 y
desviación típica 500. Calcular la media y la desviación típica de los ingresos de los alumnos por la
fiesta.
García Córdoba
Dpto. Métodos Cuantitativos e Informáticos
18
TEMA 1: VARIABLES ALEATORIAS. DISTRIBUCIONES DE PROBABILIDAD.
Solución: Sea X la variable aleatoria número de copas que se servirán.
E(X)= 5.000 y σ(X)= 500
Llamemos I a la variable aleatoria ingresos de los alumnos. Se tiene que:
I = 100.000 + 50 X
La media de I ≡ esperanza de I = E(I)=E(100.000 + 50 X). De donde
E(I) = 100.000 + 50 E(X)= 100.000 + 50 5000 =350.000
La varianza de I ≡ Var(I) = σ2(I)= σ2 (100.000 + 50 X). De donde
σ2(I)= σ2 (100.000 + 50 X)= 502 σ2 (X)
Y por tanto σ(I)= 50 σ (X)= 50 500=25.000
Ejercicio 2: El comportamiento de una variable aleatoria, viene dado por la función de densidad;
k(1-x)
si o < x < 1
f(x)=
0
en cualquier otro caso
Determinar: A) Función de distribución B) Esperanza y varianza C) P(X> -2), P(0<X<0,5),
P(0,5<X<1,5).
Solución:
En primer lugar debemos determinar el valor de k. Para ello, aplicamos que
∫ f(x) dx = ∫ k(1-x) dx =1 ⇒ [kx-kx/2]1= k/2 =1 ⇒ k = 2
A) ∀x ∈(0,1)
F(x) = ∫ 2(1-x) dx = 2(x – x2/2)
Y por tanto F(x) =
B) E(X) = ∫ x 2(1-x) dx = 0,33
0
2(x – x2/2)
1
si x < 0
si 0 < x < 1
si x > 1
E(X2) = ∫ x2 2(1-x) dx = 0,167
σ2(X)= 0,167 – 0,332 = 0,0581
⇒
σ(X)= 0,241
C) P(X> -2)= 1 – P(X< -2) = 1 – F(-2)= 1
P(0<X<0,5) = F(0,5) – F(0) = 0,75
P(0,5<X<1,5) = F(1,5) – F(0,5) = 1 – 0,75 = 0,25
García Córdoba
Dpto. Métodos Cuantitativos e Informáticos
19
TEMA 1: VARIABLES ALEATORIAS. DISTRIBUCIONES DE PROBABILIDAD.
1.3.2.- DISTRIBUCIONES CONTINUAS ESPECIALES.
Este apartado está enteramente dedicado al estudio de las distribuciones continuas más
relevantes. Se trata de distribuciones tipo que proporcionan modelos de asignación de
probabilidades a diferentes fenómenos aleatorios continuos. La forma de asignar probabilidades
vendrá determinada por la función de densidad de la variable aleatoria.
Cada tipo de distribución tiene asociada una familia de funciones de densidad que depende
de una o varias constantes que llamaremos parámetros. Dependiendo de los distintos valores que
asociemos a estas constantes la función de densidad adoptará diferentes siluetas que se
corresponderán con las diferentes formas de asignación de probabilidades.
De esta manera una vez que se asocie a un determinado experimento aleatorio un modelo
de probabilidad deberemos buscar el parámetro o parámetros que mejor definan el fenómeno que
estemos estudiando. La asignación de valores a estos parámetros vendrá determinada lógicamente
en función de la información que se disponga, esto es de las observaciones muestrales, y será
objeto de capítulos posteriores (inferencia paramétrica).
De entre las variables aleatorias que vamos a presentar en este tema debemos de
destacar desde un principio a la distribución Normal, que desde hace más de dos siglos se ha
convertido en la pieza angular de la estadística. La importancia de esta distribución y su
repercusión en el campo de la inferencia estadística hace necesario que dediquemos también un
apartado especial a tres variables que surgen teóricamente cuando se desarrolla esta parte de la
estadística y que son funciones de distribuciones de probabilidad normales.
La forma de desarrollar cada uno de estos apartados es idéntica a la que mantuvimos en el
apartado anterior. Presentaremos la función de densidad, sus característica más importantes y
aquellas propiedades que debamos destacar de cada una de las variables aleatorias. En la medida
de lo posible se planteará un pequeño problema a modo de ejemplo.
1.3.2.1.- La distribución Uniforme.
Una variable aleatoria X diremos que sigue una distribución uniforme continua si su función
de densidad es constante en un intervalo finito (a,b) y nula fuera de él.
Por tanto la distribución uniforme, tendrá como función de densidad:
f(x) = 1/(b-a)
si
a<x<b
y
f(x)=0 en otro caso
Esta distribución depende de dos parámetros a ,b y la designaremos como U(a,b)
La función de densidad de esta v.a. tiene la siguiente representación gráfica:
García Córdoba
Dpto. Métodos Cuantitativos e Informáticos
20
TEMA 1: VARIABLES ALEATORIAS. DISTRIBUCIONES DE PROBABILIDAD.
f(x)
DISTRIBUCIÓN UNIFORME U(a,b)
1/(b-a)
a
b
La distribución uniforme, también llamada rectangular por el aspecto de su función de
densidad, fue utilizada por primera vez por T.Bayes en 1763 y por P.S. De Laplace en 1.812.
Según la definición de esta variable, cualquier elección de números reales al azar y sin
preferencias en un intervalo de longitud finita, es una variable aleatoria uniforme.
Con frecuencia esta distribución se asocia al comportamiento aleatorio de una magnitud de
la que sólo se conoce su campo de variación (un intervalo finito).
Cometiendo un pequeño abuso en el lenguaje, podemos decir que en una distribución
uniforme la probabilidad de todos los puntos es la misma (hay que observar que en principio esa
afirmación es cierta para cualquier v.a. continua, ya que para ellas la probabilidad de cualquier
punto es nula. Sería más preciso decir que la densidad de todos los puntos es constante en [a,b]).
Ejemplo:
El tiempo que una persona tarda en llegar de su casa al trabajo se distribuye
uniformemente entre 10 y 20 minutos. Calcular la probabilidad de que tarde más de 18 minutos y
de que tarde menos de 14 minutos.
Características:
Esperanza matemática:
E[X] = (a+b)/2
Varianza: Var(X) = (b-a)2/12
García Córdoba
Dpto. Métodos Cuantitativos e Informáticos
21
TEMA 1: VARIABLES ALEATORIAS. DISTRIBUCIONES DE PROBABILIDAD.
1.3.2.2.- La distribución Normal o de Gauss.Diremos que una variable aleatoria se ajusta a una ley normal o que sigue una distribución
de Gauss de parámetros μ y σ, si toma todos los valores reales con función de densidad:
f(x) =
1
1
( x - μ )2
e 2 σ2
2π σ
−∞ < x < ∞
Esta distribución continua, en su versión más simple, fue introducida por primera vez por
De Moivre en 1.733 como aproximación de la distribución binomial. Posteriormente, Laplace y
Gauss la hallaron empíricamente estudiando la distribución de los errores de medición, y tras sus
trabajos se convirtió en la distribución más utilizada en las distintas aplicaciones (de ahí su
nombre).
Por ejemplo, supongamos que una máquina corta piezas de una determinada longitud,
lógicamente las piezas cortadas tienen la misma longitud solamente en promedio, ya que la
mayoría presentan errores, son un poco más grandes o un poco más pequeñas. Se observó que
los errores en este tipo de situaciones presentaban una distribución simétrica, que originalmente
recibió el nombre de curva normal de errores.
El estudio por parte de K. Gauss (1.777-1.855) de la Teoría de los errores le lleva al
estudio de la distribución de probabilidad de errores, con lo que llega a la distribución Normal,
hasta entonces obtenida como aproximación de otras distribuciones. Junto con el método de
mínimos cuadrados, el estudio de la distribución normal fue la principal aportación de Gauss al
Cálculo de Probabilidades.
García Córdoba
Dpto. Métodos Cuantitativos e Informáticos
22
TEMA 1. VARIABLES ALEATORIAS. DISTRIBUCIONES DE PROBABILIDAD
El calificativo de normal se debe también a que esta distribución es típica de muchos
experimentos y observaciones, en especial de aquellos fenómenos de la naturaleza (longitud,
altura, grosor, peso, aptitudes o capacidades humanas) donde intervienen muchas causas,
cada una de las cuales produce un pequeño efecto, y que pueden suponerse independientes
La gráfica de la distribución Normal es la siguiente dependiendo de los valores que
asignemos a sus parámetros:
f(x)
DISTRIBUCIÓN NORMAL
x
El campo de variación de la distribución Normal es toda la recta real (es decir, la
variable toma todos los valores posibles, ya sean negativos o positivos), de tal modo que la
mayor parte de la masa de probabilidad (área comprendida entre la curva y el eje de
abcisas) se encuentra concentrado alrededor de la media, y las ramas de la curva se
extienden asintóticamente a los ejes, y por tanto, cualquier valor "muy alejado" de la media
es posible (aunque poco probable).
Observaciones sobre la curva Normal:
A) Los parámetros μ y σ determinan la forma de la campana de Gauss (ver gráfico),
el parámetro μ, que coincide con el valor máximo de la función, desplaza la función hacia la
derecha o izquierda del eje de abcisas.
Por otro lado el parámetro σ da forma a la función haciendo ésta más o menos
apuntada: Para pequeños valores de σ la curva se hace más puntiaguda, concentrando
entorno a la media la mayor parte de la probabilidad, por el contrario, para valores de σ
elevados la función se abre concentrando menos la probabilidad entorno a la media.
B) La función es simétrica respecto del parámetro μ, es decir:
f(μ+x) = f(μ-x)
Por tanto la mediana de esta distribución es x = μ.
C) La curva Normal tiene un comportamiento asintótico conforme nos alejamos de su
valor máximo, sin tomar nunca el valor cero.
D) La función tiene dos puntos de inflexión en x = μ+σ y en x = μ-σ.
E) La función de densidad de la distribución Normal alcanza su valor máximo cuando
x = μ y por tanto la moda es x = μ .
García Córdoba
23
TEMA 1. VARIABLES ALEATORIAS. DISTRIBUCIONES DE PROBABILIDAD
Características:
Esperanza matemática:
E[ξ] = μ
Varianza: Var(ξ) = σ2
Propiedades:
La complejidad de la función de densidad de esta variable aleatoria hace inoperativo
el cálculo de probabilidades asociados a esta distribución a través del cálculo integral. Esta es
quizás el principal inconveniente de la distribución Normal,
La función
-
ex
2
no posee primitiva conocida.
Desde el punto de vista práctico las consecuencias son importantes, aunque esto no
impide que podamos trabajar fácilmente con esta distribución.
Afortunadamente para un valor fijo x,
F(x)=P(X≤x)
pueda ser calculado. De hecho
puede ser calculado con tanta precisión como se quiera, pero para esto se necesita usar
técnicas de cálculo numérico y ordenadores. Para la utilizar en problemas prácticos la función
de distribución F, existen ciertas tablas donde se ofrecen (con varios decimales de precisión)
los valores F(x) para una serie limitada de valores x dados.
Es decir, si tenemos una distribución N(5,2) y deseamos calcular la probabilidad de
que la variable esté comprendida entre 2 y 8 deberíamos de calcular:
8
P(2<ξ<8) =
∫
2
1
1
( x - μ )2
dx
e 2 σ2
2π σ
Con el fin de solucionar este problema, la integral ha sido tabulada (es decir se
calculan sus valores mediante procedimientos numéricos aproximados), proporcionando un
método rápido y sencillo de obtener las diferentes probabilidades asociadas a la distribución.
Propiedades:
El siguiente resultado proporciona un método para el cálculo de estas probabilidades:
Propiedad 1.- Si ξ es una v.a. con distribución N(μ,σ), entonces Y=aξ+b es una
distribución Normal de parámetros N(aμ+b,|a|σ).
Dem: la podemos hacer mediante la función de distribución.
Este resultado lo podemos aplicar a cualquier distribución Normal con el fin de
transformarla en una distribución Normal N(0,1), concretamente:
García Córdoba
24
TEMA 1. VARIABLES ALEATORIAS. DISTRIBUCIONES DE PROBABILIDAD
Propiedad 2.- Sea ξ un v.a. con distribución N(μ,σ), Entonces la v.a. Y=(ξ-μ)/σ es
una v.a. Normal de parámetros 0 y 1, N(0,1).
Dem: Como consecuencia del anterior resultado más general.
El proceso mediante el cual se transforma una v.a. Normal de parámetros
cualesquiera en una Normal N(0,1) se llama tipificar la variable y a la N(0,1) se le llama
distribución Normal tipificada o estándar.
De la distribución Normal tipificada tenemos tabulada su función de distribución, y a
partir de ella podemos obtener las probabilidades de una distribución Normal cualquiera. Así,
cuando debamos calcular una probabilidad asociada a la distribución Normal deberemos
primero realizar el cambio de variable correspondiente con el fin de tipificar la variable para
poder hacer uso de estas tablas.
Ejemplo:
ξ=N(5,2) calcular P(2<ξ<8)
F(x)
0
x
En la tabla de la función de distribución de la N(0,1) no aparecen valores negativos
de "x" ya que pueden obtenerse las probabilidades correspondientes haciendo uso de la
simetría de la Distribución.
Propiedad 3.- Si XιN(0,1) resulta:
a) P(X < x) = 1− P(X > x) (por suceso complementario)
b) P(X < −x)=1−P(X < x) (por la simetría de la distribución)
Al igual que en otras ocasiones vamos a calcular la distribución de la suma de dos v.a.
Normales independientes
Propiedad 4.- Sea Xi una distribución Normal de parámetros N(μi;σi) con i = 1, 2
independientes. Entonces
a) X1 + X2 ι N(μ1 + μ2;
b) X1 + X2 ι N(μ1 - μ2;
García Córdoba
2
2
σ1 + σ2
2
2
σ1 + σ2
)
)
25
TEMA 1. VARIABLES ALEATORIAS. DISTRIBUCIONES DE PROBABILIDAD
Aproximación de la distribución Binomial a la Normal.
Para terminar con el estudio de esta distribución y con el fin de resaltar su importancia
y a la misma vez constatar las razones históricas por las que surgió, veamos como la
distribución Binomial se aproxima a una Normal.
Daremos el resultado que no demostraremos aunque sí lo veremos gráficamente.
Se puede demostrar (teorema central del límite) que una v.a. discreta con distribución
Binomial, se puede aproximar mediante una distribución normal si n es suficientemente
grande y p no está muy próximo a 0 ni a 1.
Como el valor esperado y la varianza de X son respectivamente np y npq , la
aproximación consiste en decir que:
B(n,p) ≈ N(np,npq)
El convenio que se suele utilizar para poder realizar esta aproximación es:
n > 30 np > 4 nq > 4 también npq > 3
aunque en realidad esto no da resultados muy precisos a menos que realmente n sea un
valor muy grande o p, q próximos a 1/2.
1.3.2.3.- Distribuciones relacionadas con la Normal.
Las distribuciones que vamos a estudiar en este apartado no son distribuciones
construidas con el objeto de modelar probabilísticamente ciertos procesos naturales como las
que hemos presentado anteriormente.
Las distribuciones relacionadas con la distribución Normal, son variables aleatorias que
surgen teóricamente como resultado del proceso de inferencia estadística.
Uno de los objetivos que persigue la Estadística es el de poder predecir (inferenciar)
los parámetros (inferencia paramétrica) que determinan las distribuciones que modelan los
experimentos aleatorios.
1.3.2.3.1.- La distribución χ2 (Chi-cuadrado) de Pearson.
Esta distribución surge cuando se desea conocer la distribución de la suma de los
cuadrados de variables independientes e igualmente distribuidas con distribución Normal.
Definición.- Sean X1, X2, ... , Xn , n v.a. independientes e igualmente distribuidas con
N(0,1). Entonces X12 + X22 + . . . + Xn2 sigue una distribución χ2 con n grados de libertad. A
esta v.a. la denotaremos χn2.
La función de densidad de esta v.a. carece para nosotros de interés y no la daremos
en este volumen.
Esta distribución, que por razones lógicas toma sólo valores positivos o cero, tiene un
único parámetro que se corresponde con el número de v.a. normales que sumamos.
Para calcular probabilidades asociadas a esta distribución operaremos mediante una
tabla de forma semejante a lo que hacíamos con la distribución Normal.
Características:
Esperanza matemática: E[X] = n
Varianza: Var(X) = 2n
Propiedades:
Propiedad 1.- Si X sigue una distribución χn2 y Y sigue una distribución χm2 y son
independientes, entonces X+Y sigue una distribución χn+m2.
García Córdoba
26
TEMA 1. VARIABLES ALEATORIAS. DISTRIBUCIONES DE PROBABILIDAD
Propiedad 2.- Si
Xi ≡ N(μi; σi)
⎛ X i - μi ⎞
⎟
σi ⎠
i=1
n
∑ ⎜⎝
con i = 1, ..., n independientes. Entonces
2
sigue una distribución χn2.
1.3.2.3.2.- La distribución t de Student.
Definición. Sean X y Xi con i = 1,..., n v.a. independientes e igualmente distribuidas
con distribución N(0,1). Entonces la v.a.
t=
X
X12
+
X22
+ . . . + X2n
n
sigue una distribución t de Student con n grados de libertad.
Como la suma de normales es una distribución χ2 podríamos definir la distribución t de
Student de forma alternativa como el cociente de una N(0,1) entre la raíz cuadrada de una
chi-cuadrado entre sus grados de libertad.
El origen de esta distribución se encuentra el la estimación de esperanzas de
distribuciones normales cuando su desviación típica es desconocida. W.S. Gosset(1.8761.937) por seudónimo Student, un industrial cervecero, la propuso y tabuló en 1.908.
La función de densidad de esta v.a. tiene un perfil totalmente semejante al de la
distribución Normal N(0,1) y podemos aplicarle las mismas propiedades de simetría que
tenía la N(0,1).
Características:
Esperanza matemática: E[X] = 0 (si n>1)
Varianza: Var(X) = n/(n-2) ( si n>2, para n=1,2 no existe)
1.3.2.3.3.- La distribución F de Snedecor.
Definición.- Sean X e Y v.a. independientes con distribución χ2 de n y m grados de
libertad, respectivamente. La v.a.
X
U= n
Y
m
se dice que sigue una distribución F de Snedecor con n grados de libertad en el numerador y
m grados de libertad en el denominador.
A esta v.a. que depende de dos parámetros n y m la denotaremos habitualmente
como Fn,m.
Al igual que ocurre con las otras variables que estamos presentando en este apartado,
la función de distribución de la F de Snedecor está tabulada.
García Córdoba
27
TEMA 1. VARIABLES ALEATORIAS. DISTRIBUCIONES DE PROBABILIDAD
BIBLIOGRAFÍA:
**García Córdoba, Palacios Sánchez, Ruiz Marín: “Probabilidad e Inferencia
Estadística: Una Introducción”. Ed. Horacio Escarabajal.
Barbancho, A.G.: "Estadística Teórica Básica. Probabilidad y Modelos
Probabilísticos" Ed: Ariel.
Durá Peiró: "Fundamentos de Estadística" Ed: Ariel
Escuder, R. "Introducción a la Teoría de la Probabilidad" Ed: tirant to blanch
economía.
Evans J.R y Olson D.L. “Statistics, Data análisis and decisión modeling” Prentice
Hall.
Fernández Abascal: "Cálculo de Probabilidades y Estadística" Ed: Ariel.
Gutiérrez Jaímez R. y otros.: "Curso Básico de Probabilidad" Ed: Pirámide.
Llopis Perez J. "La estadística: una orquesta hecha instrumento" Ed: Ariel Ciencia.
Martín Pliego F.J. Montero Lorenzo J.M. Riuz-Maya Pérez L. "Problemas de
Probabilidad" Ed: AC.
Martín Pliego, Ruiz Maya: "Estadística: I Probabilidad . II Inferencia Estadística" Ed:
AC.
**Newbold P. "Estadística para los Negocios y la Economía" Ed: Prentice Hall
**Novales A., “Estadística y Econometría” Ed: Mc Graw Hill.
Problemas:
Fernández Abascal, Guijarro Rojo: "Ejercicios de Cálculo de Probabilidades" Ed:
Ariel.
Martín Pliego F.J. y otros: “Problemas de Probabilidad”
Murgui, J.S. "Estadística para la Economía y Administración de Empresas" Ed:
Purchades.
Ruiz Maya: "Problemas de Estadística" Ed:AC
Sarabia Alegría J.M. : "Curso Práctico de Estadística" Ed: Cívitas.
Serret Moreno-Gil J.: "Manual de Estadística Universitaria" Ed. ESIC.
Tussel F. Garín A: "Problemas de Probabilidad e Inferencia Estadística" Ed:Tebar
Flores.
** Palacios González y otros. “Ejercicios resueltos de inferencia estadística…”. Delta
** Sierra, Miguel Ángel. “Ejercicios resueltos de estadística”. Ed. Ceura
Para saber más o comprobar dudas:
http://www.ematematicas.net/estadistica/aleatoria/index.php
http://www.uam.es/personal_pdi/ciencias/mayter/docencia/sociolog/tema3.pdf
http://www.eumed.net/libros/2006a/rmss/a7.htm
http://delta.cs.cinvestav.mx/~francisco/prob2006/v_aleatoria.pdf
http://e-stadistica.bio.ucm.es/cont_mod_1.html#modelos%20de%20probabilidad
http://www.est.uc3m.es/esp/nueva_docencia/getafe/gestion_administracion_public
a/estadistica_I/doc_generica/archivos/TEMA%209-VARIABLES%20ALEATORIAS.doc
http://www.nebrija.es/~ralvarez/textos/ESTADISTICA/variablealeatoriaa.pdf
García Córdoba
28
Descargar