(x).

Anuncio
Procesos estocásticos
Teoría de la comunicación
Teoría de la Comunicación
Dpto Teoría de la Señal y
Comunicaciones - U.A.H.
1
Indice
z Probabilidad.
z Variables
Aleatorias.
z Procesos Estocásticos.
Teoría de la Comunicación
Dpto Teoría de la Señal y
Comunicaciones - U.A.H.
2
Probabilidad
Probabilidad.
z
Dado un experimento ε del tipo que sea, se define el espacio
muestral como el conjunto de todos los resultados posibles del
experimento.
z
Al espacio muestral, normalmente se le denota con la letra S.
El lanzar un dado es un experimento cuyo espacio muestral está
formado por los seis posibles números, es decir, S={1, 2, 3, 4, 5, 6}
z
Se define un suceso “A”, respecto a un espacio muestral S, como
un conjunto de posibles resultados.
z
Normalmente el suceso “A” va a suponer un subconjunto del
espacio muestral S.
Teoría de la Comunicación
Dpto Teoría de la Señal y
Comunicaciones - U.A.H.
3
Probabilidad.
z
Se define la frecuencia relativa de un suceso A ∈ ε, al cociente
entre el número de veces que se da el suceso A, después de
repetir n veces el experimento ε.
fA =
z
nA
n
Las principales propiedades de la frecuencia relativa son:
z
z
z
z
z
0 ≤ fA ≤ 1.
fA=1 si A ocurre en las n repeticiones.
fA=0 si A no ocurre en las n repeticiones.
Sea A y B dos sucesos pertenecientes al experimento ε y mutuamente
excluyentes, entonces fA∪B=fA+fB.
Si el número de repeticiones del experimento ε tiende a infinito, n→∞, la
frecuencia relativa fA converge en cierto sentido probabilístico hacia la
probabilidad de A.
P ( A) = f A
Teoría de la Comunicación
n→∞
=
nA
n
Dpto Teoría de la Señal y
Comunicaciones - U.A.H.
n →∞
4
Probabilidad.
z
Dado un experimento ε cuyo espacio muestral es S, si a cada suceso A se
le asocia un número real designado por P(A), resultado de obtener fA
cuando n→∞, se van a a cumplir las siguientes propiedades:
z
0 ≤ P(A) ≤ 1.
z
P(S)=1.
z
Si ∅ es el conjunto vacío, P(∅)=0.
z
P A = 1 − P ( A)
z
Si A y B son dos sucesos cualquiera P(A∪B)=P(A)+P(B)-P(A∩B).
z
z
z
()
Si A y B son sucesos mutuamente excluyentes P(A∪B)=P(A)+P(B)
Si
A ⊂ B entonces P(A) ≤ P(B).
Teoría de la Comunicación
Dpto Teoría de la Señal y
Comunicaciones - U.A.H.
5
Probabilidad.
z
Sean A y B dos sucesos asociados a un experimento ε, se define la
probabilidad condicionada de B al suceso A como la probabilidad de que
se de el suceso B si se ha dado el suceso A, y se define como:
( A) = P(PA(∩A)B )
PB
z
⇒
P ( A) > 0
Así mismo se define la probabilidad de A condicionada a que se halla
dado el suceso B, como:
( B ) = P(PA(∩B )B )
PA
Teoría de la Comunicación
⇒
P (B ) > 0
Dpto Teoría de la Señal y
Comunicaciones - U.A.H.
6
Probabilidad.
z
A partir de las dos ecuaciones anteriores es posible obtener el teorema
de Bayes que establece:
( A)⋅ P( A) = P(A B )⋅ P(B )
P( A ∩ B ) = P B
Teoría de la Comunicación
( )
⎧
P A ⋅ P (B )
B
⎪P B =
A
P ( A)
⎪
⇒⎨
P B ⋅ P ( A)
⎪
A
⎪P A B =
P (B )
⎩
Dpto Teoría de la Señal y
Comunicaciones - U.A.H.
( )
( )
( )
7
Variables aleatorias.
z
Dado un experimento ε cuyo espacio muestral asociado es S, se define
la variable aleatoria X, a la función que asigna a cada uno de los
elementos s ∈ S, un número real X(s).
z
Si S contiene un número contable de muestras, entonces X(s) es una
variable aleatoria discreta, en caso contrario X(s) será una v.a. continua.
z
La principal ventaja que presentan las variables aleatorias son que
permiten manejar sucesos del tipo P(X=a) o bien P(X≤a), siendo “a” un
punto de la recta real x.
Teoría de la Comunicación
Dpto Teoría de la Señal y
Comunicaciones - U.A.H.
8
Variables aleatorias.
Función de distribución de probabilidad (F.D.).
z
Considerando un experimento ε al que se ha asociado una variable
aleatoria X, se define la función distribución de probabilidad FX(x), como
la probabilidad de que X≤x, o lo que es lo mismo P(X≤x).
F X ( x ) = P( X ≤ x ) ∀ − ∞ < x < ∞
Teoría de la Comunicación
Dpto Teoría de la Señal y
Comunicaciones - U.A.H.
9
Variables aleatorias.
z
Sus principales propiedades son:
z
0 ≤ FX(x) ≤ 1, siendo FX(-∞)=0 y FX(∞)=1.
z
FX(x) es continua por la derecha, es decir, FX(x+)= FX(x).
z
FX(x) es una función no decreciente, es decir, FX(x1) ≤ FX(x2) si
x2 > x1
z
P(X>x) = 1- FX(x).
z
P(a<x≤b) = FX(b) - FX(a), siendo b>a
Teoría de la Comunicación
Dpto Teoría de la Señal y
Comunicaciones - U.A.H.
10
Variables aleatorias.
Función densidad de probabilidad (f.d.p.).
z
La función densidad de probabilidad se define como:
dF X ( x )
f X (x ) =
dx
z
La función de distribución es muy útil para el cálculo de
probabilidades, sin embargo, en comunicaciones se va a trabajar
sobre todo con promedios estadísticos, por ello va a ser más útil
trabajar con la función densidad de probabilidad.
Teoría de la Comunicación
Dpto Teoría de la Señal y
Comunicaciones - U.A.H.
11
Variables aleatorias.
z
Las propiedades de la función densidad de probabilidad para variables
aleatorias continuas, son:
z P( X ≤ x ) = F X (x ) =
x
∫ f X (λ ) ⋅ dλ
−∞
z
fX(x) ≥ 0.
∞
z
∫ f X (x ) ⋅ dx = 1
−∞
b
z
P(a < X ≤ b ) = F X (b ) − F X (a ) = ∫ f X ( x ) ⋅ dx
a
Teoría de la Comunicación
Dpto Teoría de la Señal y
Comunicaciones - U.A.H.
12
Variables aleatorias.
F.D. y f.d.p. conjuntas.
z
Algunos experimentos se caracterizan por más de una variable aleatoria que pueden o no
ser independientes, en este caso se habla de F.D. y f.d.p. conjuntas.
z
Por sencillez se estudia el caso de dos variables aleatorias.
z
La función distribución conjunta se define como:
FXY ( x, y ) = P( X ≤ x , Y ≤ y )
z
La función densidad de probabilidad conjunta, se define como:.
d 2 F XY ( xy )
f XY ( xy ) =
dx ⋅ dy
Teoría de la Comunicación
Dpto Teoría de la Señal y
Comunicaciones - U.A.H.
13
Variables aleatorias.
z
Propiedades de la F.D. y f.d.p. conjunta.
z
z
P ( x1 < X ≤ x 2 , y 1 < Y ≤ y 2 ) =
F XY (∞ ∞ ) =
∞ ∞
x2 y 2
∫ ∫ f XY (xy ) ⋅ dy ⋅ dx
x1 y1
∫ ∫ f XY (xy ) ⋅ dy ⋅ dx = 1
− ∞− ∞
z
z
⎧ FX ( x ) = FXY ( x, ∞ ) = P( X ≤ x , − ∞ < Y ≤ ∞ )
⎪
∞
⎨
⎪ f X ( x ) = ∫ f XY ( xy ) ⋅ dy
−∞
⎩
⎧ FY ( y ) = F XY (∞ , y ) = P(− ∞ < X ≤ ∞ , Y ≤ y )
⎪
∞
⎨
⎪ f Y ( y ) = ∫ f XY (xy ) ⋅ dx
−∞
⎩
Teoría de la Comunicación
Dpto Teoría de la Señal y
Comunicaciones - U.A.H.
14
Variables aleatorias.
z
Dos variables aleatorias son estadísticamente independientes si el valor
que toma cada una de ellas no influye sobre los valores de la otra, por lo
tanto se va a cumplir:
F XY ( xy ) = F X ( x ) ⋅ FY ( y )
f XY (xy ) = f X ( x ) ⋅ f Y ( y )
z
Si dos variables aleatorias no son independientes, es posible obtener su
f.d.p. conjunta en función de las f.d.p. condicionales:
f XY ( xy ) = fY
Teoría de la Comunicación
y
x
(
x ) ⋅ f X ( x ) = f X ( y ) ⋅ fY ( y )
X
Y
Dpto Teoría de la Señal y
Comunicaciones - U.A.H.
15
Variables aleatorias.
Promedios estadísticos de una v.a.
z
La F.D. y la f.d.p. caracterizan totalmente a una variable aleatoria, sin
embargo, en algunas ocasiones o bien no es necesaria tanta
información o bien es muy difícil obtener dichas funciones y es suficiente
con definir algunos promedios de dicha v.a.
z
z
z
Media
Varianza
Coeficiente de correlación
Teoría de la Comunicación
Dpto Teoría de la Señal y
Comunicaciones - U.A.H.
16
Variables aleatorias.
Media estadística.
z
Se define la media como el valor con mas probabilidad esperado.
z
Sea X una variable aleatoria discreta con valores posibles x1, x2, ..., xn y
sea p(xi)=P(X=xi), i=1,2,..., n. El valor esperado de X se denota por E[X]
y se define como:
n
E[X ] = m X = ∑ xi ⋅ p(xi )
i =1
z
Dada una v.a. continua X, cuya f.d.p. es fX(x), su valor medio es:
E[X ] = m X =
∞
∫ x ⋅ f X (x )⋅ dx
−∞
Teoría de la Comunicación
Dpto Teoría de la Señal y
Comunicaciones - U.A.H.
17
Variables aleatorias.
Propiedades de la media estadística:
z
z
z
z
z
z
Si X=Cte entonces E[X]=Cte.
E[kX]=k E[X].
E[X+Y]=E[X]+E[Y]
E[X1+X2+...+Xn]=E[X1]+E[X2]+...+E[Xn]
Sea (X,Y) una v.a. bidimensional con X eY independientes E[XY]=E[X]⋅E[Y]
Dada Y=g(X) es posible obtener la media de la nueva variable Y, como:
E [Y ] =
Teoría de la Comunicación
∞
∞
−∞
−∞
∫ y ⋅ f Y ( y ) ⋅ dy = E[g ( X )] = ∫ g (x ) ⋅ f X (x ) ⋅ dx
Dpto Teoría de la Señal y
Comunicaciones - U.A.H.
18
Variables aleatorias.
Varianza de una v.a.
z
La varianza es una medida de la concentración de la f.d.p. de X
alrededor de la media. Cuanto mayor sea la varianza, mayor es la
probabilidad de encontrar valores alejados de la media. La varianza se
define como:
Var ( X ) = σ X2 = E ( X − m X )2
[
z
Si X es una v.a. discreta la varianza de la función se define como:
σ
z
]
2
X
=
∞
∑ ( x n − m X )2 ⋅ P ( X = x n )
n = −∞
Si X es una v.a. continua:
σ
∞
2
X
=
2
(
)
x
−
m
⋅ f X ( x ) ⋅ dx
X
∫
−∞
Teoría de la Comunicación
Dpto Teoría de la Señal y
Comunicaciones - U.A.H.
19
Variables aleatorias.
Propiedades de la varianza.
z
z
z
z
[
] [ ]
σ X2 = E ( X − m X )2 = E X 2 − E 2 [X ]
Var(kX) = k2 Var(X)
Var(X+k) = Var(X)
Si (X,Y) es una v.a. bidimensional donde X e Y son independientes se
cumple:
Var ( X + Y ) = Var ( X ) + Var (Y )
z
Sea X1, X2, ... , Xn v.a. independientes. Se cumple:
Var ( X 1 + X 2 + ... + X n ) = Var ( X 1 ) + Var ( X 2 ) + ... + Var ( X n )
Teoría de la Comunicación
Dpto Teoría de la Señal y
Comunicaciones - U.A.H.
20
Variables aleatorias.
Coeficiente de correlación.
z
El coeficiente de correlación de dos variables aleatorias X e Y da, en
gran parte, el grado de similitud entre las dos variables aleatorias.
z
Se define el coeficiente de correlación entre X e Y, como.
ρ XY =
z
E [( X − m X ) ⋅ (Y − mY )]
Var [X ] ⋅ Var [Y ]
⎧∀{Var [X ] y Var [Y ]} ≠ 0
⎨
⎩− 1 ≤ ρ XY ≤ 1
El numerador del coeficiente de correlación representa la covarianza de
X e Y (CXY).
C XY = E[( X − m X ) ⋅ (Y − mY )] = E[XY ] − m X mY
Teoría de la Comunicación
Dpto Teoría de la Señal y
Comunicaciones - U.A.H.
21
Variables aleatorias.
Variables aleatorias incorreladas.
z
Se dice que dos v.a. X e Y están incorreladas si su coeficiente de
correlación es nulo y por lo tanto su covarianza.
z
Si X e Y son dos v.a. independientes, también serán v.a.
incorreladas. La incorrelación es una condición mucho más débil
que la independencia.
z
Dos variables aleatorias X e Y pueden estar incorreladas pero no
tiene porque ser independientes.
z
Si X e Y están incorreladas Var[X+Y]=Var[X]+Var[Y].
Teoría de la Comunicación
Dpto Teoría de la Señal y
Comunicaciones - U.A.H.
22
Variables aleatorias.
Variables aleatorias ortogonales.
z
Dos variables aleatorias X e Y son ortogonales si E[XY]=0.
Variables aleatorias independientes.
z
Dos variables aleatorias X e Y son independientes si se cumple:
F XY ( xy ) = F X ( x ) ⋅ FY ( y )
f XY ( xy ) = f X ( x ) ⋅ f Y ( y )
Teoría de la Comunicación
Dpto Teoría de la Señal y
Comunicaciones - U.A.H.
23
Variables aleatorias.
Distribución Gaussiana.
z
Una de las v.a. continuas más importantes es aquella cuya f.d.p. tiene
una distribución normal o Gaussiana, que toma valores de x entre ∞ y ∞, y cuya expresión es:
f X (x ) =
1
2π σ X
e
1 ⎛ x−m X
− ⎜⎜
2⎝ σ X
⎞
⎟⎟
⎠
2
= N (m X ,σ x )
∀−∞ < x < ∞
fX (x)
E[X]-σX
Teoría de la Comunicación
E[X]
E[X]+σX
Dpto Teoría de la Señal y
Comunicaciones - U.A.H.
x
24
Variables aleatorias.
Distribución uniforme.
z
La f.d.p. uniforme tiene la misma probabilidad en un intervalo de x,
siendo dicho probabilidad nula fuera del mismo.
fX (x)
a
⎧ 1
⎪⎪
b−a
f X (x ) = ⎨
⎪
⎪⎩0
Teoría de la Comunicación
E[X]
∀a ≤ x ≤ b
Re sto
x
x
b
b+a
⎧
[
]
=
E
X
⎪⎪
2
⇒⎨
2
⎪σ 2 = (b − a )
⎪⎩ X
12
Dpto Teoría de la Señal y
Comunicaciones - U.A.H.
25
Variables aleatorias.
Distribución de Rayleigh.
z
El modelo de Rayleigh describe una v.a. continua producida por dos variables
aleatorias Gaussianas X,Y resultante de la transformación mostrada en la figura :
y
R
Y
Φ
X
z
x
Las variables aleatorias X e Y van a ser independientes y además van
a cumplir:
E [ X ] = E [Y ] = 0 ; σ X = σ Y = σ 0
Teoría de la Comunicación
Dpto Teoría de la Señal y
Comunicaciones - U.A.H.
26
Variables aleatorias.
z
La v.a. R tiene una f.d.p. denominada de Rayleigh y cuya ecuación es la
siguiente:
R=
fR (r)
(b)
E[R]
⎞
⎟
⎟ ⋅ u (r )
⎟⎟
⎠
⎧
π
σ0
⎪ E [R ] =
2
⎪
⎪
⇒ ⎨ E R 2 = 2 ⋅ σ 02
⎪
⎪Var [R ] = ⎛⎜ 2 − π ⎞⎟ ⋅ σ 02
2⎠
⎪⎩
⎝
2
⎛
1⎛ r ⎞
⎟
− ⎜⎜
⎜
2 ⎝ σ 0 ⎟⎠
FR (r ) = P(R ≤ r ) = ⎜ 1 − e
⎜⎜
⎝
r
f R (r ) =
Teoría de la Comunicación
X 2 +Y2
r
σ 02
⋅e
1⎛ r
− ⎜⎜
2⎝ σ0
⎞
⎟
⎟
⎠
2
Dpto Teoría de la Señal y
Comunicaciones - U.A.H.
⋅ u (r )
[ ]
27
Procesos estocásticos
z
Los procesos aleatorios o procesos estocásticos son extensiones
de los conceptos asociados con las variables aleatorias cuando
se introduce el parámetro tiempo en la función.
z
La mayoría de las señales que se utilizan en comunicaciones son
de tipo determinístico, sin embargo en ciertas situaciones, como
es el caso de un sistema al que se le suma ruido térmico, las
señales que se generan no van a ser determinísticas sino
aleatorias.
Teoría de la Comunicación
Dpto Teoría de la Señal y
Comunicaciones - U.A.H.
28
Procesos estocásticos
v(t,E1 )
t
v(t,E2 )
Fuente
de ruido
t
v(t)
v(t,E3 )
t
v(t,E4 )
t
Teoría de la Comunicación
Dpto Teoría de la Señal y
Comunicaciones - U.A.H.
29
Procesos estocásticos
z
En general v(t,Ei) va a representar la forma de la señal de ruido cuando
se produce el evento Ei del espacio muestral.
z
Se dice que v(t,Ei) es una función muestral del espacio muestral.
z
Al conjunto de todas las funciones muestrales v(t,Ei) se le denomina
simplemente conjunto y define al proceso aleatorio que caracteriza, en
este caso, a la fuente de ruido.
z
Al observar la forma de la señal generada por la fuente de ruido, se ve
una de las funciones muestrales.
z
Es posible comparar la definición de variable aleatoria y la de proceso
estocástico, ya que mientras la variable aleatoria transforma los eventos
en constantes, el proceso estocástico transforma los eventos en
funciones del tiempo.
Teoría de la Comunicación
Dpto Teoría de la Señal y
Comunicaciones - U.A.H.
30
Procesos estocásticos
z
z
Respecto a un proceso estocástico v(t,E) se pueden dar los siguientes
casos:
z Si t es variable y E es variable se tiene un proceso estocástico o
aleatorio.
z
Si t es variable y E es fija se tiene una función determinística y
representa una realización concreta del proceso aleatorio.
z
Si t fija y E variable se tiene una variable aleatoria.
z
Si t fija y E fija se tiene un número real.
En general, el proceso aleatorio v(t,E) se va a conocer como v(t), por
comodidad.
Teoría de la Comunicación
Dpto Teoría de la Señal y
Comunicaciones - U.A.H.
31
Procesos estocásticos
v(t,E1 )
t
t1
t2
t1
t2
t
t1
t2
t
t1
t2
t
v(t1 ,Ei )
v(t2 ,Ei )
v(t,E2 )
Fuente
de ruido
v(t)
v(t,E3 )
v(t,E4 )
Teoría de la Comunicación
Dpto Teoría de la Señal y
Comunicaciones - U.A.H.
32
Procesos estocásticos
Función de Distribución de primer y segundo orden.
z
z
Se va a suponer que x(t,E)=x(t) es un proceso real.
La función de distribución de primer orden de x(t) va a ser una función
dependiente del tiempo y se va a definir como:
F ( x; t ) = P( X (t ) ≤ x )
z
Dado un proceso aleatorio x(t,E)=x(t) y dados dos instantes de tiempo t1
y t2, se tiene las variables aleatorias x(t1) y x(t2). La función de
distribución conjunta va a depender de t1 y t2 y se va a definir como:
F (x1 , x 2 ; t 1 , t 2 ) = P[X (t 1 ) ≤ x1 , X (t 2 ) ≤ x 2 ]
Teoría de la Comunicación
Dpto Teoría de la Señal y
Comunicaciones - U.A.H.
33
Procesos estocásticos
Función Densidad de Probabilidad de primer y segundo orden.
z
Se define la función densidad de probabilidad como:
dF ( x; t )
(
)
f x; t =
dx
z
Dado un proceso aleatorio x(t,E)=x(t) y dados dos instantes de tiempo t1
y t2, se tiene las variables aleatorias x(t1) y x(t2). La función densidad de
probabilidad conjunta, va a depender de t1 y t2 y se va a denotar por:
d 2 F ( x1 , x 2 ; t 1 , t 2 )
f ( x1 , x 2 ; t 1 , t 2 ) =
dx1 dx 2
Teoría de la Comunicación
Dpto Teoría de la Señal y
Comunicaciones - U.A.H.
34
Procesos estocásticos
Estadísticos temporales.
z
Estadísticos de primer orden.
z Media
z Valor cuadrático medio.
z Varianza.
z
Estadísticos de segundo orden
z Autocorrelación.
z Autocovarianza.
Teoría de la Comunicación
Dpto Teoría de la Señal y
Comunicaciones - U.A.H.
35
Procesos estocásticos
z
Media.
z
La media de un proceso x(t) es la esperanza de la v.a. x(t), y se
define como:
m x (t ) = E [x(t )] =
∞
∫ x ⋅ f (x; t ) dx
−∞
z
z
en general va a ser una función dependiente del tiempo.
Valor cuadrático medio.
z
El valor cuadrático medio se define como:
[
∞
] ∫x
E x 2 (t ) =
2
⋅ f ( x; t ) dx
−∞
Teoría de la Comunicación
Dpto Teoría de la Señal y
Comunicaciones - U.A.H.
36
Procesos estocásticos
z
Varianza.
z
Se define la varianza de x(t), , como la diferencia entre el valor cuadrático
medio y el cuadrado del valor medio.
[
]
Var [x(t )] = σ X2 = E x 2 (t ) − E 2 [x(t )]
z
también va a ser una función dependiente del tiempo.
Teoría de la Comunicación
Dpto Teoría de la Señal y
Comunicaciones - U.A.H.
37
Procesos estocásticos
z
Autocorrelación.
z
La función autocorrelación es una media de conjunto de las variables
aleatorias x(t1) y x(t2), definiéndose como:
R(t 1 , t 2 ) = E [x(t 1 ) ⋅ x(t 2 )] =
∞ ∞
∫ ∫ x1 ⋅ x2 ⋅ f (x1 , x 2 ; t1 ,t 2 ) dx1 ⋅ dx2
−∞ −∞
z
z
va a ser una función de t1 y t2.
Autocovarianza.
z
La autocovarianza de x(t) es la covarianza de las variables aleatorias x(t1) y
x(t2):
C (t 1 ,t 2 ) = E [( x(t 1 ) − m x (t 1 ) ) ⋅ (x(t 2 ) − m x (t 2 ) )]
C (t 1 ,t 2 ) = R(t 1 ,t 2 ) − m x (t 1 ) ⋅ m x (t 2 )
Teoría de la Comunicación
Dpto Teoría de la Señal y
Comunicaciones - U.A.H.
38
Procesos estocásticos
z
En función de la relación de la relación entre x(t1) y x(t2), se pueden dar
las siguientes situaciones:
z
Si x(t1) y x(t2) son v.a. incorreladas u ortogonales o independientes,
entonces x(t) será un proceso de incrementos incorrelados u
ortogonales o independientes, cuyo caso se cumplirá:
z
z
z
R(t 1 , t 2 ) = E[x(t 1 )] ⋅ E[x(t 2 )] si x(t1) y x(t2) son independientes o incorrelados.
E[x(t1)⋅x(t2)]=0 si x(t1) y x(t2) son ortogonales
[
]
Si t1=t2=t, entonces R X (t , t ) = E x 2 (t ) y representa el valor cuadrático
medio de la v.a. x(t).
Teoría de la Comunicación
Dpto Teoría de la Señal y
Comunicaciones - U.A.H.
39
Procesos estocásticos
z
La importancia de la función autocorrelación radica en que describe
completamente la densidad espectral de potencia y por lo tanto el
contenido en potencia de un gran número de señales aleatorias.
z
La autocorrelación es una medida de relación o dependencia entre x(t1)
y x(t2).
z
Cuando es necesario examinar los estadísticos conjuntos de dos
procesos aleatorios reales, x(t) e y(t), se habla de correlación cruzada y
covarianza cruzada, definiéndose como:
R XY (t 1 , t 2 ) = E [x(t 1 ) ⋅ y (t 2 )]
C XY (t 1 , t 2 ) = R XY (t 1 , t 2 ) − E [x(t 1 )]⋅ E [ y (t 2 )]
Teoría de la Comunicación
Dpto Teoría de la Señal y
Comunicaciones - U.A.H.
40
Procesos estocásticos
z
Se dice que dos procesos están incorrelados, si para todo t1 y t2, se
cumple:
R XY (t 1 , t 2 ) = E [x(t 1 )] ⋅ E [ y (t 2 )]
C XY (t 1 , t 2 ) = R XY (t 1 , t 2 ) − E [x(t 1 )] ⋅ E [ y (t 2 )] = 0
z
Dos procesos aleatorios independientes serán procesos incorrelados. La
independencia física de dos procesos implica independencia estadística
de los mismos y por lo tanto incorrelación entre ellos, sin embargo, la
incorrelación de dos procesos no implica necesariamente independencia
entre ambos.
z
Se dice que dos procesos son ortogonales si:
R XY (t 1 ,t 2 ) = E[x(t 1 ) ⋅ y(t 2 )] = 0
Teoría de la Comunicación
Dpto Teoría de la Señal y
Comunicaciones - U.A.H.
41
Procesos estocásticos
z
En general si un proceso x(t) es función de una variable aleatoria Y, es
decir:
x(t ) = g (Y , t )
para t=t1 x(t1)=g(Y,t1) va a ser una transformación de una variable
aleatoria.
z
Si se conoce la f.d.p. de Y, fY(y), se podrán calcular sus estadísticos
temporales como:
z
E [x(t )] = E [g (Y , t )] =
∞
∫ g (Y , t )⋅ f Y ( y )⋅ dy
−∞
z
R X (t 1 , t 2 ) = E [g (Y , t 1 ) ⋅ g (Y , t 2 )] =
∞
∫ g (Y ,t 1 ) ⋅ g (Y ,t 2 ) ⋅ f Y ( y ) ⋅ dy
−∞
Teoría de la Comunicación
Dpto Teoría de la Señal y
Comunicaciones - U.A.H.
42
Procesos estocásticos
Procesos estacionarios.
z
Se dice que un proceso aleatorio es estacionario en sentido estricto,
si sus características estadísticas no se ven afectadas por traslaciones
en el tiempo, es decir, los procesos x(t) y x(t+t0) tienen las mismas
características estadísticas para cualquier valor de t0.
z
En general dados dos procesos aleatorios x(t) e y(t), se dice que ambos
procesos son conjuntamente estacionarios si las características
estadísticas conjuntas de x(t) e y(t) son las mismas que las de x(t+t0) e
y(t+t0) para cualquier valor de t0.
z
Debido a la dificultad de establecer de forma rigurosa esta propiedad, es
más común utilizar la definición de proceso estacionario en sentido
amplio, la cual solo va referida a los estadísticos de primer y segundo
orden.
Teoría de la Comunicación
Dpto Teoría de la Señal y
Comunicaciones - U.A.H.
43
Procesos estocásticos
Procesos estacionarios en sentido amplio.
z
Un proceso x(t) es estacionario en sentido amplio si sus estadísticos de
primer orden no dependen del tiempo y los de segundo orden solo
dependen del intervalo de tiempo τ = t1-t2.
⎧m X (t ) = m X
⇒⎨ 2
2
⎩σ X (t ) = σ X
z
Estadísticos de primer orden
z
⎧ R (t ,t ) = R X (t 1 − t 2 ) = R X (τ )
Estadísticos de segundo orden ⇒ ⎨ X 1 2
⎩C X (t 1 ,t 2 ) = C X (t 1 − t 2 ) = C X (τ )
Teoría de la Comunicación
Dpto Teoría de la Señal y
Comunicaciones - U.A.H.
44
Procesos estocásticos
z
Si el proceso aleatorio es estacionario se puede simplificar la notación y
se puede reescribir la ecuación correspondiente a la función de
autocorrelación como:
R X (τ ) = E[x(t ) ⋅ x(t − τ )] = E[x(t ) ⋅ x(t + τ )]
z
Propiedades de la función autocorrelación de un proceso estacionario
x(t):
z
RX(τ) es una función par, es decir, RX(τ)=RX(-τ).
z
El máximo valor de RX(τ) se da para τ=0 .
z
[
]
R X (0 ) = E x 2 (t )
Teoría de la Comunicación
Dpto Teoría de la Señal y
Comunicaciones - U.A.H.
45
Procesos estocásticos
Procesos conjuntamente estacionarios en sentido amplio.
z
Dos procesos x(t) e y(t), son conjuntamente estacionarios en sentido
amplio si cumplen que su media es constante, su autocorrelación
depende del intervalo τ y su correlación cruzada de pende solo de τ=t1t2, es decir:
E[x(t )] = cte ; R X (τ ) = E[x(t ) ⋅ x(t + τ )]⎫
⎬ R XY (τ ) = E[x(t ) ⋅ y (t + τ )]
E[ y (t )] = cte ; RY (τ ) = E[ y (t ) ⋅ y (t + τ )]⎭
Teoría de la Comunicación
Dpto Teoría de la Señal y
Comunicaciones - U.A.H.
46
Procesos estocásticos
z
Propiedades de la función RXY(τ):
z
RXY(τ) es una función par, es decir, RXY(τ)=RXY(-τ).
z
RXY(τ)=RYX(-τ).
z
z
R XY (τ ) ≤ R X (0 ) ⋅ RY (0 )
R XY (τ ) ≤
1
[R X (0 ) + RY (0 )]
2
z
Si x(t) e y(t) son dos procesos incorrelados:
R XY (τ ) = E[x(t )]⋅ E[ y (t )]
z
Dos procesos x(t) e y(t) son ortogonales si
R XY (τ ) = 0 ∀τ
Teoría de la Comunicación
Dpto Teoría de la Señal y
Comunicaciones - U.A.H.
47
Procesos estocásticos
Procesos ergódicos.
z
En general, se dice que un proceso x(t) es ergódico si todos sus
parámetros estadísticos se pueden determinar con una única realización
del proceso x(t;Ei).
z
Esto implica que los diversos parámetros estadísticos se pueden
expresar como medias temporales.
z
Se puede decir que un proceso es ergódico si las medias temporales
coinciden con las medias estadísticas.
Teoría de la Comunicación
Dpto Teoría de la Señal y
Comunicaciones - U.A.H.
48
Procesos estocásticos
z
Ergodicidad respecto a la media.
⎫
E[x(t )] = ∫ x ⋅ f X ( x ) ⋅ dx ⎪
⎪⎪
−∞
T
⎬ ⇒ E[x(t )] = x(t )
2
1
⎪
(
)
⋅
x(t ) = Lim
x
t
dt
⎪
T →∞ T ∫
T
−
⎪⎭
2
∞
Teoría de la Comunicación
Dpto Teoría de la Señal y
Comunicaciones - U.A.H.
49
Procesos estocásticos
z
Ergodicidad respecto a la varianza.
⎫
E x (t ) = ∫ x ⋅ f X ( x ) ⋅ dx ⎪
⎪⎪
−∞
2
2
(
)
(t )
⇒
E
x
t
=
x
T
⎬
2
1
⎪
2
(
)
⋅
x 2 (t ) = Lim
x
t
dt
⎪
T →∞ T ∫
−T
⎪⎭
2
[
2
Teoría de la Comunicación
]
∞
2
[
Dpto Teoría de la Señal y
Comunicaciones - U.A.H.
]
50
Procesos estocásticos
z
Ergodicidad respecto a la autocorrelación.
R X (τ ) = E [x(t ) ⋅ x(t + τ )]
x(t ) ⋅ x(t + τ )
⎫
⎪⎪
T
2
1
⎬ ⇒ R X (τ ) = x(t ) ⋅ x(t + τ )
(
)
(
)
= Lim
⋅
+
⋅
x
t
x
t
τ
dt
⎪
T →∞ T ∫
T
−
⎪⎭
2
R XY (τ ) = E [x(t ) ⋅ y (t + τ )]
x(t ) ⋅ y (t + τ )
z
z
⎫
⎪⎪
T
2
1
⎬ ⇒ R XY (τ ) = x(t ) ⋅ y (t + τ )
(
)
(
)
= Lim
⋅
+
⋅
x
t
y
t
τ
dt
⎪
T →∞ T ∫
T
−
⎪⎭
2
Un proceso ergódico debe ser estrictamente estacionario, sin embargo
un proceso estacionario no tiene porque ser ergódico.
La ergodicidad implica que una sola función muestral es representativa
para caracterizar todo el proceso aleatorio
Teoría de la Comunicación
Dpto Teoría de la Señal y
Comunicaciones - U.A.H.
51
Procesos estocásticos
Espectro de potencia (densidad espectral de potencia).
z
El espectro de potencia de una señal aleatoria estacionaria, refleja la
distribución de potencia en el dominio de la
z
El teorema de Wiener-Kintchine establece que cuando x(t) es un
proceso estacionario en sentido amplio, la densidad espectral de
potencia se obtiene como la transformada de Fourier de la función
autocorrelación:
G X (ω ) = TF {R X (τ )} =
∞
− jωτ
(
)
R
τ
⋅
e
⋅ dτ
X
∫
−∞
R X (τ ) = TF
Teoría de la Comunicación
−1
{G X (ω )} = 1
2π
∞
∫ G X (ω ) ⋅ e
jωτ
⋅ dω
−∞
Dpto Teoría de la Señal y
Comunicaciones - U.A.H.
52
Procesos estocásticos
Respuesta de un sistema L.T.I. a una entrada aleatorio.
z
Este estudio se va a restringir al análisis con señales aleatorias
estacionarias.
z
Si x(t) es un proceso estacionario, de media mX y autocorrelación RX(τ),
que pasa a través de un sistema LTI estable, cuya respuesta impulsiva
es h(t) de tipo real, se obtendrá un proceso aleatorio y(t) también
estacionario.
x(t)
X(ω)
RX (τ)
GX (ω)
Teoría de la Comunicación
Sistema LTI
h(t)
H(ω)
Dpto Teoría de la Señal y
Comunicaciones - U.A.H.
y(t)
Y(ω)
RY (τ)
GY (ω)
53
Procesos estocásticos
x(t)
X(ω)
RX (τ)
Sistema LTI
h(t)
H(ω)
GX (ω)
y(t)
Y(ω)
RY (τ)
GY (ω)
TF
y (t ) = x(t ) ∗ h(t ) ←⎯→
⎯
Y (ω ) = X (ω ) ⋅ H (ω )
RY (τ ) = h(− τ ) ∗ h(τ ) ∗ R X (τ )
GY (ω ) = H (ω ) ⋅ G X (ω )
2
E [ y (t )] = E [x(t )]⋅ H (0 )
Teoría de la Comunicación
Dpto Teoría de la Señal y
Comunicaciones - U.A.H.
54
Procesos estocásticos
Proceso aleatorio gaussiano.
z
Se dice que un proceso aleatorio x(t), es Gaussiano si su f.d.p. f(x;t) es
Gaussiana para todos los valores de t, su f.d.p. bidimensional,
f(x1,x2;t1,t2) es también una variable aleatoria Gaussiana para todo t1 y t2
y su f.d.p. conjunta de mayor orden también deberá ser una variable
aleatoria Gaussiana.
z
La importancia de los procesos aleatorios Gaussianos radica en su
papel fundamental en el estudio de las comunicaciones, ya que el
modelo Gaussiano se aplica a muchos fenómenos aleatorios eléctricos.
Teoría de la Comunicación
Dpto Teoría de la Señal y
Comunicaciones - U.A.H.
55
Procesos estocásticos
z
Las principales propiedades que cumple un proceso aleatorio Gaussiano
son:
z
x(t) queda totalmente descrito por E[x(t)] y RX(t1,t2).
z
Si R X (t 1 ,t 2 ) = E[x(t 1 )] ⋅ E[x(t 2 )] entonces x(t1) y x(t2) están incorreladas y son
estadísticamente independientes.
z
Si x(t) es estacionario en sentido amplio, entonces también es estacionario
en sentido estricto y ergódico.
z
Cualquier operación lineal sobre x(t) produce otro proceso aleatorio
Gaussiano.
Teoría de la Comunicación
Dpto Teoría de la Señal y
Comunicaciones - U.A.H.
56
Procesos estocásticos
Ruido blanco Gaussiano.
z
El ruido blanco Gaussiano es un proceso aleatorio de tipo Gaussiano y
es capaz de caracterizar el ruido producido por el movimiento de los
electrones debido a su agitación termal.
z
El ruido va a tener una distribución Gaussiana siempre que se
consideren múltiples fuentes de ruido independientes.
z
Si a la entrada de un sistema LTI se tiene un proceso aleatorio
Gaussiano, a la salida se obtiene también un proceso aleatorio
Gaussiano.
z
Se dice que un ruido es blanco y Gaussiano si su densidad espectral de
potencia es constante para todo el espectro de frecuencias.
G R (ω ) =
Teoría de la Comunicación
η0
2
Dpto Teoría de la Señal y
Comunicaciones - U.A.H.
57
Procesos estocásticos
z
A partir de la densidad espectral de potencia de ruido, es posible
obtener la función autocorrelación:
R R (τ ) = TF −1 [G R (ω )] =
η0
2
⋅ δ (τ )
z
Debido a que RR(τ)=0 para τ≠0, cualquiera dos ejemplos de ruido blanco
Gaussiano van a ser incorrelados y estadísticamente independientes.
z
Si se tiene un ruido blanco Gaussiano cuya densidad espectral de
potencia es η0/2, y este se filtra mediante un sistema LTI cuya función
de transferencia es H(ω) se obtiene la señal de salida y(t):
GY (ω ) = H (ω ) G R (ω ) =
2
RY (τ ) =
Teoría de la Comunicación
η0
2
[
⋅ TF −1 H (ω )
2
η0
2
⋅ H (ω )
2
]
Dpto Teoría de la Señal y
Comunicaciones - U.A.H.
58
Procesos estocásticos
Procesos paso banda.
z
En la mayoría de los sistemas de comunicación en los que se modula la
información para ser transmitida, mediante una portadora fp, se cumple
que el ancho de banda del canal es pequeño comparado con fp. Cuando
un proceso aleatorio es modulado por una portadora para transmitirlo a
través de un canal de transmisión, el resultado es un proceso aleatorio
paso banda.
z
El ruido que se suma a la transmisión de una señal en el canal, va a ser
un proceso aleatorio paso banda.
z
Para trabajar en estos casos es conveniente representar el ruido n(t), en
términos de las componentes en fase y cuadratura.
Teoría de la Comunicación
Dpto Teoría de la Señal y
Comunicaciones - U.A.H.
59
Procesos estocásticos
(
)
(
n(t ) = n f (t ) ⋅ cos ω p t + ϕ p − n c (t ) ⋅ sen ω p t + ϕ p
)
n f (t ) = n(t )cos(ω pt ) + nˆ (t )sen(ω pt ) componente en fase
nc (t ) = n(t )cos(ω pt ) − nˆ (t )sen(ω pt ) componente en cuadratura
z
Si n(t) es un proceso aleatorio Gaussiano paso banda de media cero y
estacionario, la componente en fase nf(t) y la componente en cuadratura
nc(t) también van a ser procesos aleatorios Gaussianos, conjuntamente
estacionarios, de media cero e independientes, pero de banda base.
[
]
E [n(t )] = E n f (t ) = E [nc (t )] = 0
σ n2 = σ n2 = σ n2 = σ 02
f
c
Rn f (τ ) = Rnc (τ ) = Rn (τ ) cos(ω pτ ) ± Rˆ n (τ )sen(ω pτ )
Rn f nc (τ ) = Rn (τ ) cos(ω pτ ) − Rˆ n (τ )sen(ω pτ )
Teoría de la Comunicación
Dpto Teoría de la Señal y
Comunicaciones - U.A.H.
60
Procesos estocásticos
z
También es posible obtener la señal de ruido en función de la
envolvente R(t) y de la fase instantánea φ(t):
⎧ R(t ) = n 2 (t ) + n 2 (t )
f
c
⎪⎪
n(t ) = R(t ) cos ω p t + ϕ p + φ (t ) ⇒ ⎨
nc (t )
(
)
φ
=
t
artg
⎪
n f (t )
⎪⎩
z R(t) es un proceso aleatorio que sigue una función de distribución de
Rayleigh, definida por:
(
f R (r ) =
z
)
r
σ 02
⋅e
1⎛ r
− ⎜⎜
2⎝ σ0
⎞
⎟
⎟
⎠
2
⋅ u (r )
⎧
π
σ0
⎪ E [R(t )] =
2
⎪
⎪
⇒ ⎨ E R 2 (t ) = 2 ⋅ σ 02
⎪
⎪Var [R(t )] = ⎛⎜ 2 − π ⎞⎟ ⋅ σ 02
2⎠
⎪⎩
⎝
[
]
φ(t) es una proceso aleatorio uniformemente distribuido entre -π y π e
independiente de R(t).
Teoría de la Comunicación
Dpto Teoría de la Señal y
Comunicaciones - U.A.H.
61
Procesos estocásticos
Teoría de la comunicación
Teoría de la Comunicación
Dpto Teoría de la Señal y
Comunicaciones - U.A.H.
62
Descargar