Repaso de Teoría de la Probabilidad

Anuncio
Repaso de Teoría de la Probabilidad
Luis Mendo Tomás
Escuela Politécnica Superior
Universidad Autónoma de Madrid
Febrero de 2008
1.
Introducción
Este documento contiene, de forma esquemática, los conceptos básicos so-
bre Teoría de la Probabilidad necesarios para la asignatura
Móviles.
Comunicaciones
En este documento, las funciones de una variable discreta se denotan utilizando corchetes, y las de una variable continua utilizando paréntesis. Las
variables aleatorias se denotan mediante letras mayúsculas en negrita. Los
procesos estocásticos se denotan mediante letras minúsculas en negrita. Las
probabilidades, esperanzas matemáticas y varianzas se escriben indicando su
argumento entre corchetes.
2.
Variables aleatorias
Caracterización de una variable aleatoria
discreta
X
se dene su función de probabilidad
Para una variable aleatoria
fX [n]:
fX [n] = Pr[X = n].
Para una variable aleatoria continua
X
(1)
se dene su función de distribución
FX (x):
FX (x) = Pr[X ≤ x].
FX (x),
X , fX (x):
La derivada de
bilidad de
(2)
si existe, se denomina función de densidad de proba-
fX (x) =
dF (X)(x)
.
dx
(3)
Habitualmente puede unicarse el tratamiento de ambos tipos de variables
deniendo para el caso discreto una función de densidad de probabilidad
formada por deltas de Dirac:
fX (x) =
X
fX [n]δ(x − n).
(4)
n
Mediana y percentil
x0,5 ] = 0,5.
El percentil
La mediana de
p
es el valor
xp
1
X
x0,5 que verica Pr[X ≤
Pr[X ≤ xp ] = p.
es el valor
tal que
Función de una variable aleatoria
a partir de
fX (x)
Si
como
n
X
fX (xi )
fY (y) =
i=1
donde
x1 ,
xn
...,
Y = g(X), fY (y) puede calcularse
|g 0 (xi )|
y = g(x),
y
g 0 (x)
es la
g(x).
Operador E o esperanza matemática
X
(5)
son las soluciones de la ecuación
función derivada de
lor medio de
,
La esperanza matemática o va-
se dene como
∞
Z
E[X] =
xfX (x)dx.
(6)
−∞
El operador
E
es lineal.
Media de una función de variable aleatoria
∞
Z
g(x)fX (x)dx.
E[g(X)] =
(7)
−∞
Varianza, desviación típica y coeciente de variación
Sea
ηx = E[X].
La varianza se dene como
Var[X] = E[(X − ηx )2 ] = E[X 2 ] − ηx2 .
(8)
La desviación típica es la raíz cuadrada de la varianza. Se emplea habitualmente como medida de la dispersión de una variable aleatoria en torno a
su media.
El coeciente de variación se dene como la desviación típica entre la
media. Es una medida normalizada de la dispersión.
Caracterización de dos variables aleatorias
X
FX,Y (x, y):
aleatorias
e
Y
Una pareja de variables
se caracteriza mediante su función de distribución conjunta,
FX,Y (x, y) = Pr[X ≤ x, Y ≤ y].
(9)
La función de densidad se dene como la siguiente derivada doble, si existe:
fX,Y (x, y) =
Dada una región
nezca a
D
D
∂ 2 FX,Y (x, y)
.
∂x ∂y
del plano, la probabilidad de que el punto
(10)
(X, Y )
perte-
se calcula como
ZZ
Pr[(X, Y ) ∈ D] =
fX,Y (x, y) dx dy.
D
2
(11)
Probabilidad condicionada (o condicional)
la probabilidad de
A
condicionada a
B , Pr[A|B],
Pr[A|B] =
siendo
Pr[A, B]
X
A
y un suceso
A
Pr[A, B]
,
Pr[B]
A,
y
B,
se dene como
(12)
la probabilidad de que ocurran simultáneamente
Dada una variable
condicionada a
Dados dos sucesos
A
y
B.
la función de distribución de
X
viene dada por
FX (x|A) = Pr[X ≤ x|A] =
Pr[X ≤ x, A]
.
Pr[A]
(13)
La función de densidad condicionada se dene como
fX (x|A) =
Dadas dos variables
Y
X
e
Y,
dF (X)(x|A)
.
dx
(14)
la función de densidad de
X
condicionada a
viene dada por
fX (x|Y = y) =
fX,Y (x, y)
.
fY (y)
(15)
Teorema de la probabilidad total
Z
∞
Pr[A] =
Pr[A|X = x]fX (x)dx.
(16)
fY (y|X = x)fX (x)dx.
(17)
Z−∞
∞
fY (y) =
−∞
Teorema de Bayes
Pr[A|X = x]fX (x)
.
Pr[A]
fY (y|X = x)fX (x)
fX (x|Y = y) =
.
fY (y)
fX (x|A) =
Independencia e incorrelación
Dos sucesos
AyB
(18)
(19)
son (estadísticamente)
Pr[A, B] = Pr[A] Pr[B].
X e Y son (estadísticamente) independientes si, para cualesquiera conjuntos C y D , Pr[X ∈ C, Y ∈ D] = Pr[X ∈ C] Pr[Y ∈ D].
Equivalentemente, X e Y son independientes si FX,Y (x, y) = FX (x)FY (y), o
bien si fX,Y (x, y) = fX (x)fY (y).
Si X e Y son independientes, también lo son g(X) y h(Y ).
Dos variables aleatorias X e Y son incorreladas si E[XY ] = E[X] E[Y ].
independientes si
Dos variables
Si dos variables son independientes, son también incorreladas.
Una función de dos variables aleatorias
Si
Z = g(X, Y ),
ZZ
FZ (z) =
fX,Y (x, y)dx dy,
Dz
donde
Dz
es la región del plano tal que
3
g(x, y) ≤ z .
(20)
Dos funciones de dos variables aleatorias
Si
Z = g(X, Y )
y
W =
h(X, Y ),
fZ,W (z, w) =
n
X
fX,Y (xi , yi )
|J(xi , yi )|
i=1
,
(21)
(x1 , y1 ), . . . , (xn , yn ) son las soluciones del sistema z = g(x), w = h(y),
J(x, y) es el determinante jacobiano de (z, w) respecto a (x, y):
donde
y
J(x, y) =
∂z ∂w ∂z ∂w
−
.
∂x ∂y
∂y ∂x
(22)
Suma de variables aleatorias independientes o incorreladas
La fun-
ción de densidad de probabilidad de una suma de variables aleatorias independientes se obtiene como la convolución de las funciones de densidad individuales.
La varianza de la suma de variables aleatorias incorreladas es igual a la
suma de las varianzas.
Algunas distribuciones
Función de densidad de probabilidad gaussiana o normal de media
desviación típica
(23)
Función de densidad de probabilidad exponencial de parámetro
f (x) = ce−cx ,
c
y
σ:
1
(x − η)2
.
f (x) = √ e−
2σ 2
σ 2π
El parámetro
η
para
c:
x ≥ 0.
(24)
representa el inverso del valor medio.
La suma de los cuadrados de dos variables aleatorias gaussianas independientes de media nula y la misma varianza es una variable aleatoria
exponencial.
Función de densidad de probabilidad Rayleigh de parámetro
f (x) =
El parámetro
b
x
e
b
−x2
2b
,
para
b:
x ≥ 0.
(25)
representa la mitad del valor cuadrático medio:
b =
E[X 2 ]/2.
La raíz cuadrada de una variable aleatoria exponencial es una variable
Rayleigh.
Variable aleatoria log-normal: es, por denición, aquélla cuyo logaritmo
es una variable aleatoria gaussiana.
Función de probabilidad de Poisson de parámetro
f [n] = e−a
El parámetro
a
ak
.
k!
representa el valor medio.
4
a:
(26)
Variables conjuntamente gaussianas
n variables X 1 , . . . , X n , éstas se denominan conjuntamente gaussianas si a1 X 1 +· · ·+an X n es gaussiana
para cualesquiera a1 , . . . , an .
Si X 1 , . . . , X n son conjuntamente gaussianas e incorreladas, son indepenDadas
dientes.
Teorema del límite central
Bajo condiciones muy generales, la distri-
bución de la suma de un gran número de variables aleatorias tiende a ser
gaussiana.
Una condición suciente es que las variables aleatorias sean independientes
e idénticamente distribuidas con varianza nita.
Ley de los grandes números y resultados relacionados
experimento y se observa la ocurrencia o no de un suceso
es
p.
Si el experimento se realiza
ocurre
A,
n
k
A,
veces, y
la frecuencia relativa del suceso
Se realiza un
A, cuya probabilidad
denota el número de veces que
k/n,
denida como
tiende a
p
en el sentido siguiente:
k
Pr − p ≤ → 1
n
para
n→∞
(27)
(versión débil de la ley de los grandes números).
n variables aleatorias X 1 , . . . , X n independientes idénticamente distribuidas, con media η , desviación típica σ y coeciente de variación c = σ/µ.
Sean
En estas condiciones,
la variable suma
Pn
i=1
Xi
tiene coeciente de variación
la variable promedio (o suma normalizada)
ción típica
3.
√
σ/ n.
1/n ·
Pn
i=1
√
c/ n;
Xi
y
tiene desvia-
Procesos estocásticos
Caracterización de procesos estocásticos
estocástico
x(t)
variables aleatorias
todo
Para caracterizar un proceso
debe conocerse la función de distribución conjunta de las
x(t1 ),
...,
x(tn ),
para todos los posibles
t1 ,
...,
tn
y para
n.
Para caracterizar dos procesos estocásticos debe conocerse la función de
distribución conjunta de las variables correspondientes a ambos.
Un proceso
x(t)
x(t1 ), . . . , x(tn ) son
t1 , . . . , tn y para todo n.
es gaussiano si las variables
tamente gaussianas para todos los posibles
Autocorrelación y correlación cruzada
neral complejo), su autocorrelación
Dados dos procesos x(t) e
∗
como E[x(t1 )y (t2 )].
y(t),
Rx (t1 , t2 )
5
x(t) (en geE[x(t1 )x∗ (t2 )].
Rx,y (t1 , t2 ) se dene
Dado un proceso
se dene como
su correlación cruzada
conjun-
Estacionariedad en sentido amplio
Un proceso
x(t)
es estacionario en
sentido amplio si
t;
su media es independiente del tiempo
y
su autocorrelación depende sólo de la diferencia de tiempos
τ = t1 − t2 .
Para un proceso estacionario en sentido amplio, la autocorrelación se denota
∗
como Rx (τ ) = E[x(t + τ )x (t)].
Dos procesos son conjuntamente estacionarios en sentido amplio si
cada uno de ellos es estacionario en sentido amplio; y
su correlación cruzada depende sólo de la diferencia de tiempos.
Espectro de potencia
Dado
Sx (f )
su espectro de potencia
x(t)
estacionario en sentido amplio, se dene
como la transformada de Fourier de
x(t)
El valor cuadrático medio (potencia) de
Z
2
Rx (τ ).
viene dado por
∞
Sx (f )df.
E[|x(t)| ] = Rx (0) =
(28)
−∞
Sistemas lineales invariantes con entradas estocásticas
Dado un siste-
h(t), cuya entrada
x(t), con autocorrelación Rx (τ ) y
es y(t), se verica que los procesos
ma lineal invariante (determinista) con respuesta al impulso
es un proceso estocástico en sentido amplio
espectro de potencia
Sx (f ),
y cuya salida
de entrada y salida son conjuntamente estacionarios en sentido amplio, con
E[y(t)] = E[x(t)] ∗ h(t)
Rx,y (τ ) = Rx (τ ) ∗ h∗ (−τ )
Ry (τ ) = Rx,y (τ ) ∗ h∗ (τ )
Sx (f ) = Sy (f ) |H(f )|2 .
Además, si
x(t)
es gaussiano,
Procesos puntuales
y(t)
(29)
(30)
(31)
(32)
es gaussiano.
Un proceso puntual es un conjunto de puntos aleato-
rios en el eje real.
Proceso de Poisson
Un proceso de Poisson de tasa
λ es un proceso puntual
que verica lo siguiente:
(t1 , t2 ) de longitud t = t1 − t2
parámetro λt.
El número de puntos en un intervalo
una distribución de Poisson de
sigue
Dados dos intervalos disjuntos, los números de puntos que contienen son
variables aleatorias independientes.
Superposición de procesos puntuales
Dados
n
procesos puntuales, su
superposición se dene como un proceso puntual formado por la unión de
todos los puntos pertenecientes a los
Teorema de Cinlar
n
procesos.
Bajo ciertas condiciones muy generales, la superposi-
ción de un gran número de procesos puntuales tiende a un proceso de Poisson.
6
Descargar