Procesos estocásticos Teoría de la comunicación Teoría de la Comunicación Dpto Teoría de la Señal y Comunicaciones - U.A.H. 1 Indice z Probabilidad. z Variables Aleatorias. z Procesos Estocásticos. Teoría de la Comunicación Dpto Teoría de la Señal y Comunicaciones - U.A.H. 2 Probabilidad Probabilidad. z Dado un experimento ε del tipo que sea, se define el espacio muestral como el conjunto de todos los resultados posibles del experimento. z Al espacio muestral, normalmente se le denota con la letra S. El lanzar un dado es un experimento cuyo espacio muestral está formado por los seis posibles números, es decir, S={1, 2, 3, 4, 5, 6} z Se define un suceso “A”, respecto a un espacio muestral S, como un conjunto de posibles resultados. z Normalmente el suceso “A” va a suponer un subconjunto del espacio muestral S. Teoría de la Comunicación Dpto Teoría de la Señal y Comunicaciones - U.A.H. 3 Probabilidad. z Se define la frecuencia relativa de un suceso A ∈ ε, al cociente entre el número de veces que se da el suceso A, después de repetir n veces el experimento ε. fA = z nA n Las principales propiedades de la frecuencia relativa son: z z z z z 0 ≤ fA ≤ 1. fA=1 si A ocurre en las n repeticiones. fA=0 si A no ocurre en las n repeticiones. Sea A y B dos sucesos pertenecientes al experimento ε y mutuamente excluyentes, entonces fA∪B=fA+fB. Si el número de repeticiones del experimento ε tiende a infinito, n→∞, la frecuencia relativa fA converge en cierto sentido probabilístico hacia la probabilidad de A. P ( A) = f A Teoría de la Comunicación n→∞ = nA n Dpto Teoría de la Señal y Comunicaciones - U.A.H. n →∞ 4 Probabilidad. z Dado un experimento ε cuyo espacio muestral es S, si a cada suceso A se le asocia un número real designado por P(A), resultado de obtener fA cuando n→∞, se van a a cumplir las siguientes propiedades: z 0 ≤ P(A) ≤ 1. z P(S)=1. z Si ∅ es el conjunto vacío, P(∅)=0. z P A = 1 − P ( A) z Si A y B son dos sucesos cualquiera P(A∪B)=P(A)+P(B)-P(A∩B). z z z () Si A y B son sucesos mutuamente excluyentes P(A∪B)=P(A)+P(B) Si A ⊂ B entonces P(A) ≤ P(B). Teoría de la Comunicación Dpto Teoría de la Señal y Comunicaciones - U.A.H. 5 Probabilidad. z Sean A y B dos sucesos asociados a un experimento ε, se define la probabilidad condicionada de B al suceso A como la probabilidad de que se de el suceso B si se ha dado el suceso A, y se define como: ( A) = P(PA(∩A)B ) PB z ⇒ P ( A) > 0 Así mismo se define la probabilidad de A condicionada a que se halla dado el suceso B, como: ( B ) = P(PA(∩B )B ) PA Teoría de la Comunicación ⇒ P (B ) > 0 Dpto Teoría de la Señal y Comunicaciones - U.A.H. 6 Probabilidad. z A partir de las dos ecuaciones anteriores es posible obtener el teorema de Bayes que establece: ( A)⋅ P( A) = P(A B )⋅ P(B ) P( A ∩ B ) = P B Teoría de la Comunicación ( ) ⎧ P A ⋅ P (B ) B ⎪P B = A P ( A) ⎪ ⇒⎨ P B ⋅ P ( A) ⎪ A ⎪P A B = P (B ) ⎩ Dpto Teoría de la Señal y Comunicaciones - U.A.H. ( ) ( ) ( ) 7 Variables aleatorias. z Dado un experimento ε cuyo espacio muestral asociado es S, se define la variable aleatoria X, a la función que asigna a cada uno de los elementos s ∈ S, un número real X(s). z Si S contiene un número contable de muestras, entonces X(s) es una variable aleatoria discreta, en caso contrario X(s) será una v.a. continua. z La principal ventaja que presentan las variables aleatorias son que permiten manejar sucesos del tipo P(X=a) o bien P(X≤a), siendo “a” un punto de la recta real x. Teoría de la Comunicación Dpto Teoría de la Señal y Comunicaciones - U.A.H. 8 Variables aleatorias. Función de distribución de probabilidad (F.D.). z Considerando un experimento ε al que se ha asociado una variable aleatoria X, se define la función distribución de probabilidad FX(x), como la probabilidad de que X≤x, o lo que es lo mismo P(X≤x). F X ( x ) = P( X ≤ x ) ∀ − ∞ < x < ∞ Teoría de la Comunicación Dpto Teoría de la Señal y Comunicaciones - U.A.H. 9 Variables aleatorias. z Sus principales propiedades son: z 0 ≤ FX(x) ≤ 1, siendo FX(-∞)=0 y FX(∞)=1. z FX(x) es continua por la derecha, es decir, FX(x+)= FX(x). z FX(x) es una función no decreciente, es decir, FX(x1) ≤ FX(x2) si x2 > x1 z P(X>x) = 1- FX(x). z P(a<x≤b) = FX(b) - FX(a), siendo b>a Teoría de la Comunicación Dpto Teoría de la Señal y Comunicaciones - U.A.H. 10 Variables aleatorias. Función densidad de probabilidad (f.d.p.). z La función densidad de probabilidad se define como: dF X ( x ) f X (x ) = dx z La función de distribución es muy útil para el cálculo de probabilidades, sin embargo, en comunicaciones se va a trabajar sobre todo con promedios estadísticos, por ello va a ser más útil trabajar con la función densidad de probabilidad. Teoría de la Comunicación Dpto Teoría de la Señal y Comunicaciones - U.A.H. 11 Variables aleatorias. z Las propiedades de la función densidad de probabilidad para variables aleatorias continuas, son: z P( X ≤ x ) = F X (x ) = x ∫ f X (λ ) ⋅ dλ −∞ z fX(x) ≥ 0. ∞ z ∫ f X (x ) ⋅ dx = 1 −∞ b z P(a < X ≤ b ) = F X (b ) − F X (a ) = ∫ f X ( x ) ⋅ dx a Teoría de la Comunicación Dpto Teoría de la Señal y Comunicaciones - U.A.H. 12 Variables aleatorias. F.D. y f.d.p. conjuntas. z Algunos experimentos se caracterizan por más de una variable aleatoria que pueden o no ser independientes, en este caso se habla de F.D. y f.d.p. conjuntas. z Por sencillez se estudia el caso de dos variables aleatorias. z La función distribución conjunta se define como: FXY ( x, y ) = P( X ≤ x , Y ≤ y ) z La función densidad de probabilidad conjunta, se define como:. d 2 F XY ( xy ) f XY ( xy ) = dx ⋅ dy Teoría de la Comunicación Dpto Teoría de la Señal y Comunicaciones - U.A.H. 13 Variables aleatorias. z Propiedades de la F.D. y f.d.p. conjunta. z z P ( x1 < X ≤ x 2 , y 1 < Y ≤ y 2 ) = F XY (∞ ∞ ) = ∞ ∞ x2 y 2 ∫ ∫ f XY (xy ) ⋅ dy ⋅ dx x1 y1 ∫ ∫ f XY (xy ) ⋅ dy ⋅ dx = 1 − ∞− ∞ z z ⎧ FX ( x ) = FXY ( x, ∞ ) = P( X ≤ x , − ∞ < Y ≤ ∞ ) ⎪ ∞ ⎨ ⎪ f X ( x ) = ∫ f XY ( xy ) ⋅ dy −∞ ⎩ ⎧ FY ( y ) = F XY (∞ , y ) = P(− ∞ < X ≤ ∞ , Y ≤ y ) ⎪ ∞ ⎨ ⎪ f Y ( y ) = ∫ f XY (xy ) ⋅ dx −∞ ⎩ Teoría de la Comunicación Dpto Teoría de la Señal y Comunicaciones - U.A.H. 14 Variables aleatorias. z Dos variables aleatorias son estadísticamente independientes si el valor que toma cada una de ellas no influye sobre los valores de la otra, por lo tanto se va a cumplir: F XY ( xy ) = F X ( x ) ⋅ FY ( y ) f XY (xy ) = f X ( x ) ⋅ f Y ( y ) z Si dos variables aleatorias no son independientes, es posible obtener su f.d.p. conjunta en función de las f.d.p. condicionales: f XY ( xy ) = fY Teoría de la Comunicación y x ( x ) ⋅ f X ( x ) = f X ( y ) ⋅ fY ( y ) X Y Dpto Teoría de la Señal y Comunicaciones - U.A.H. 15 Variables aleatorias. Promedios estadísticos de una v.a. z La F.D. y la f.d.p. caracterizan totalmente a una variable aleatoria, sin embargo, en algunas ocasiones o bien no es necesaria tanta información o bien es muy difícil obtener dichas funciones y es suficiente con definir algunos promedios de dicha v.a. z z z Media Varianza Coeficiente de correlación Teoría de la Comunicación Dpto Teoría de la Señal y Comunicaciones - U.A.H. 16 Variables aleatorias. Media estadística. z Se define la media como el valor con mas probabilidad esperado. z Sea X una variable aleatoria discreta con valores posibles x1, x2, ..., xn y sea p(xi)=P(X=xi), i=1,2,..., n. El valor esperado de X se denota por E[X] y se define como: n E[X ] = m X = ∑ xi ⋅ p(xi ) i =1 z Dada una v.a. continua X, cuya f.d.p. es fX(x), su valor medio es: E[X ] = m X = ∞ ∫ x ⋅ f X (x )⋅ dx −∞ Teoría de la Comunicación Dpto Teoría de la Señal y Comunicaciones - U.A.H. 17 Variables aleatorias. Propiedades de la media estadística: z z z z z z Si X=Cte entonces E[X]=Cte. E[kX]=k E[X]. E[X+Y]=E[X]+E[Y] E[X1+X2+...+Xn]=E[X1]+E[X2]+...+E[Xn] Sea (X,Y) una v.a. bidimensional con X eY independientes E[XY]=E[X]⋅E[Y] Dada Y=g(X) es posible obtener la media de la nueva variable Y, como: E [Y ] = Teoría de la Comunicación ∞ ∞ −∞ −∞ ∫ y ⋅ f Y ( y ) ⋅ dy = E[g ( X )] = ∫ g (x ) ⋅ f X (x ) ⋅ dx Dpto Teoría de la Señal y Comunicaciones - U.A.H. 18 Variables aleatorias. Varianza de una v.a. z La varianza es una medida de la concentración de la f.d.p. de X alrededor de la media. Cuanto mayor sea la varianza, mayor es la probabilidad de encontrar valores alejados de la media. La varianza se define como: Var ( X ) = σ X2 = E ( X − m X )2 [ z Si X es una v.a. discreta la varianza de la función se define como: σ z ] 2 X = ∞ ∑ ( x n − m X )2 ⋅ P ( X = x n ) n = −∞ Si X es una v.a. continua: σ ∞ 2 X = 2 ( ) x − m ⋅ f X ( x ) ⋅ dx X ∫ −∞ Teoría de la Comunicación Dpto Teoría de la Señal y Comunicaciones - U.A.H. 19 Variables aleatorias. Propiedades de la varianza. z z z z [ ] [ ] σ X2 = E ( X − m X )2 = E X 2 − E 2 [X ] Var(kX) = k2 Var(X) Var(X+k) = Var(X) Si (X,Y) es una v.a. bidimensional donde X e Y son independientes se cumple: Var ( X + Y ) = Var ( X ) + Var (Y ) z Sea X1, X2, ... , Xn v.a. independientes. Se cumple: Var ( X 1 + X 2 + ... + X n ) = Var ( X 1 ) + Var ( X 2 ) + ... + Var ( X n ) Teoría de la Comunicación Dpto Teoría de la Señal y Comunicaciones - U.A.H. 20 Variables aleatorias. Coeficiente de correlación. z El coeficiente de correlación de dos variables aleatorias X e Y da, en gran parte, el grado de similitud entre las dos variables aleatorias. z Se define el coeficiente de correlación entre X e Y, como. ρ XY = z E [( X − m X ) ⋅ (Y − mY )] Var [X ] ⋅ Var [Y ] ⎧∀{Var [X ] y Var [Y ]} ≠ 0 ⎨ ⎩− 1 ≤ ρ XY ≤ 1 El numerador del coeficiente de correlación representa la covarianza de X e Y (CXY). C XY = E[( X − m X ) ⋅ (Y − mY )] = E[XY ] − m X mY Teoría de la Comunicación Dpto Teoría de la Señal y Comunicaciones - U.A.H. 21 Variables aleatorias. Variables aleatorias incorreladas. z Se dice que dos v.a. X e Y están incorreladas si su coeficiente de correlación es nulo y por lo tanto su covarianza. z Si X e Y son dos v.a. independientes, también serán v.a. incorreladas. La incorrelación es una condición mucho más débil que la independencia. z Dos variables aleatorias X e Y pueden estar incorreladas pero no tiene porque ser independientes. z Si X e Y están incorreladas Var[X+Y]=Var[X]+Var[Y]. Teoría de la Comunicación Dpto Teoría de la Señal y Comunicaciones - U.A.H. 22 Variables aleatorias. Variables aleatorias ortogonales. z Dos variables aleatorias X e Y son ortogonales si E[XY]=0. Variables aleatorias independientes. z Dos variables aleatorias X e Y son independientes si se cumple: F XY ( xy ) = F X ( x ) ⋅ FY ( y ) f XY ( xy ) = f X ( x ) ⋅ f Y ( y ) Teoría de la Comunicación Dpto Teoría de la Señal y Comunicaciones - U.A.H. 23 Variables aleatorias. Distribución Gaussiana. z Una de las v.a. continuas más importantes es aquella cuya f.d.p. tiene una distribución normal o Gaussiana, que toma valores de x entre ∞ y ∞, y cuya expresión es: f X (x ) = 1 2π σ X e 1 ⎛ x−m X − ⎜⎜ 2⎝ σ X ⎞ ⎟⎟ ⎠ 2 = N (m X ,σ x ) ∀−∞ < x < ∞ fX (x) E[X]-σX Teoría de la Comunicación E[X] E[X]+σX Dpto Teoría de la Señal y Comunicaciones - U.A.H. x 24 Variables aleatorias. Distribución uniforme. z La f.d.p. uniforme tiene la misma probabilidad en un intervalo de x, siendo dicho probabilidad nula fuera del mismo. fX (x) a ⎧ 1 ⎪⎪ b−a f X (x ) = ⎨ ⎪ ⎪⎩0 Teoría de la Comunicación E[X] ∀a ≤ x ≤ b Re sto x x b b+a ⎧ [ ] = E X ⎪⎪ 2 ⇒⎨ 2 ⎪σ 2 = (b − a ) ⎪⎩ X 12 Dpto Teoría de la Señal y Comunicaciones - U.A.H. 25 Variables aleatorias. Distribución de Rayleigh. z El modelo de Rayleigh describe una v.a. continua producida por dos variables aleatorias Gaussianas X,Y resultante de la transformación mostrada en la figura : y R Y Φ X z x Las variables aleatorias X e Y van a ser independientes y además van a cumplir: E [ X ] = E [Y ] = 0 ; σ X = σ Y = σ 0 Teoría de la Comunicación Dpto Teoría de la Señal y Comunicaciones - U.A.H. 26 Variables aleatorias. z La v.a. R tiene una f.d.p. denominada de Rayleigh y cuya ecuación es la siguiente: R= fR (r) (b) E[R] ⎞ ⎟ ⎟ ⋅ u (r ) ⎟⎟ ⎠ ⎧ π σ0 ⎪ E [R ] = 2 ⎪ ⎪ ⇒ ⎨ E R 2 = 2 ⋅ σ 02 ⎪ ⎪Var [R ] = ⎛⎜ 2 − π ⎞⎟ ⋅ σ 02 2⎠ ⎪⎩ ⎝ 2 ⎛ 1⎛ r ⎞ ⎟ − ⎜⎜ ⎜ 2 ⎝ σ 0 ⎟⎠ FR (r ) = P(R ≤ r ) = ⎜ 1 − e ⎜⎜ ⎝ r f R (r ) = Teoría de la Comunicación X 2 +Y2 r σ 02 ⋅e 1⎛ r − ⎜⎜ 2⎝ σ0 ⎞ ⎟ ⎟ ⎠ 2 Dpto Teoría de la Señal y Comunicaciones - U.A.H. ⋅ u (r ) [ ] 27 Procesos estocásticos z Los procesos aleatorios o procesos estocásticos son extensiones de los conceptos asociados con las variables aleatorias cuando se introduce el parámetro tiempo en la función. z La mayoría de las señales que se utilizan en comunicaciones son de tipo determinístico, sin embargo en ciertas situaciones, como es el caso de un sistema al que se le suma ruido térmico, las señales que se generan no van a ser determinísticas sino aleatorias. Teoría de la Comunicación Dpto Teoría de la Señal y Comunicaciones - U.A.H. 28 Procesos estocásticos v(t,E1 ) t v(t,E2 ) Fuente de ruido t v(t) v(t,E3 ) t v(t,E4 ) t Teoría de la Comunicación Dpto Teoría de la Señal y Comunicaciones - U.A.H. 29 Procesos estocásticos z En general v(t,Ei) va a representar la forma de la señal de ruido cuando se produce el evento Ei del espacio muestral. z Se dice que v(t,Ei) es una función muestral del espacio muestral. z Al conjunto de todas las funciones muestrales v(t,Ei) se le denomina simplemente conjunto y define al proceso aleatorio que caracteriza, en este caso, a la fuente de ruido. z Al observar la forma de la señal generada por la fuente de ruido, se ve una de las funciones muestrales. z Es posible comparar la definición de variable aleatoria y la de proceso estocástico, ya que mientras la variable aleatoria transforma los eventos en constantes, el proceso estocástico transforma los eventos en funciones del tiempo. Teoría de la Comunicación Dpto Teoría de la Señal y Comunicaciones - U.A.H. 30 Procesos estocásticos z z Respecto a un proceso estocástico v(t,E) se pueden dar los siguientes casos: z Si t es variable y E es variable se tiene un proceso estocástico o aleatorio. z Si t es variable y E es fija se tiene una función determinística y representa una realización concreta del proceso aleatorio. z Si t fija y E variable se tiene una variable aleatoria. z Si t fija y E fija se tiene un número real. En general, el proceso aleatorio v(t,E) se va a conocer como v(t), por comodidad. Teoría de la Comunicación Dpto Teoría de la Señal y Comunicaciones - U.A.H. 31 Procesos estocásticos v(t,E1 ) t t1 t2 t1 t2 t t1 t2 t t1 t2 t v(t1 ,Ei ) v(t2 ,Ei ) v(t,E2 ) Fuente de ruido v(t) v(t,E3 ) v(t,E4 ) Teoría de la Comunicación Dpto Teoría de la Señal y Comunicaciones - U.A.H. 32 Procesos estocásticos Función de Distribución de primer y segundo orden. z z Se va a suponer que x(t,E)=x(t) es un proceso real. La función de distribución de primer orden de x(t) va a ser una función dependiente del tiempo y se va a definir como: F ( x; t ) = P( X (t ) ≤ x ) z Dado un proceso aleatorio x(t,E)=x(t) y dados dos instantes de tiempo t1 y t2, se tiene las variables aleatorias x(t1) y x(t2). La función de distribución conjunta va a depender de t1 y t2 y se va a definir como: F (x1 , x 2 ; t 1 , t 2 ) = P[X (t 1 ) ≤ x1 , X (t 2 ) ≤ x 2 ] Teoría de la Comunicación Dpto Teoría de la Señal y Comunicaciones - U.A.H. 33 Procesos estocásticos Función Densidad de Probabilidad de primer y segundo orden. z Se define la función densidad de probabilidad como: dF ( x; t ) ( ) f x; t = dx z Dado un proceso aleatorio x(t,E)=x(t) y dados dos instantes de tiempo t1 y t2, se tiene las variables aleatorias x(t1) y x(t2). La función densidad de probabilidad conjunta, va a depender de t1 y t2 y se va a denotar por: d 2 F ( x1 , x 2 ; t 1 , t 2 ) f ( x1 , x 2 ; t 1 , t 2 ) = dx1 dx 2 Teoría de la Comunicación Dpto Teoría de la Señal y Comunicaciones - U.A.H. 34 Procesos estocásticos Estadísticos temporales. z Estadísticos de primer orden. z Media z Valor cuadrático medio. z Varianza. z Estadísticos de segundo orden z Autocorrelación. z Autocovarianza. Teoría de la Comunicación Dpto Teoría de la Señal y Comunicaciones - U.A.H. 35 Procesos estocásticos z Media. z La media de un proceso x(t) es la esperanza de la v.a. x(t), y se define como: m x (t ) = E [x(t )] = ∞ ∫ x ⋅ f (x; t ) dx −∞ z z en general va a ser una función dependiente del tiempo. Valor cuadrático medio. z El valor cuadrático medio se define como: [ ∞ ] ∫x E x 2 (t ) = 2 ⋅ f ( x; t ) dx −∞ Teoría de la Comunicación Dpto Teoría de la Señal y Comunicaciones - U.A.H. 36 Procesos estocásticos z Varianza. z Se define la varianza de x(t), , como la diferencia entre el valor cuadrático medio y el cuadrado del valor medio. [ ] Var [x(t )] = σ X2 = E x 2 (t ) − E 2 [x(t )] z también va a ser una función dependiente del tiempo. Teoría de la Comunicación Dpto Teoría de la Señal y Comunicaciones - U.A.H. 37 Procesos estocásticos z Autocorrelación. z La función autocorrelación es una media de conjunto de las variables aleatorias x(t1) y x(t2), definiéndose como: R(t 1 , t 2 ) = E [x(t 1 ) ⋅ x(t 2 )] = ∞ ∞ ∫ ∫ x1 ⋅ x2 ⋅ f (x1 , x 2 ; t1 ,t 2 ) dx1 ⋅ dx2 −∞ −∞ z z va a ser una función de t1 y t2. Autocovarianza. z La autocovarianza de x(t) es la covarianza de las variables aleatorias x(t1) y x(t2): C (t 1 ,t 2 ) = E [( x(t 1 ) − m x (t 1 ) ) ⋅ (x(t 2 ) − m x (t 2 ) )] C (t 1 ,t 2 ) = R(t 1 ,t 2 ) − m x (t 1 ) ⋅ m x (t 2 ) Teoría de la Comunicación Dpto Teoría de la Señal y Comunicaciones - U.A.H. 38 Procesos estocásticos z En función de la relación de la relación entre x(t1) y x(t2), se pueden dar las siguientes situaciones: z Si x(t1) y x(t2) son v.a. incorreladas u ortogonales o independientes, entonces x(t) será un proceso de incrementos incorrelados u ortogonales o independientes, cuyo caso se cumplirá: z z z R(t 1 , t 2 ) = E[x(t 1 )] ⋅ E[x(t 2 )] si x(t1) y x(t2) son independientes o incorrelados. E[x(t1)⋅x(t2)]=0 si x(t1) y x(t2) son ortogonales [ ] Si t1=t2=t, entonces R X (t , t ) = E x 2 (t ) y representa el valor cuadrático medio de la v.a. x(t). Teoría de la Comunicación Dpto Teoría de la Señal y Comunicaciones - U.A.H. 39 Procesos estocásticos z La importancia de la función autocorrelación radica en que describe completamente la densidad espectral de potencia y por lo tanto el contenido en potencia de un gran número de señales aleatorias. z La autocorrelación es una medida de relación o dependencia entre x(t1) y x(t2). z Cuando es necesario examinar los estadísticos conjuntos de dos procesos aleatorios reales, x(t) e y(t), se habla de correlación cruzada y covarianza cruzada, definiéndose como: R XY (t 1 , t 2 ) = E [x(t 1 ) ⋅ y (t 2 )] C XY (t 1 , t 2 ) = R XY (t 1 , t 2 ) − E [x(t 1 )]⋅ E [ y (t 2 )] Teoría de la Comunicación Dpto Teoría de la Señal y Comunicaciones - U.A.H. 40 Procesos estocásticos z Se dice que dos procesos están incorrelados, si para todo t1 y t2, se cumple: R XY (t 1 , t 2 ) = E [x(t 1 )] ⋅ E [ y (t 2 )] C XY (t 1 , t 2 ) = R XY (t 1 , t 2 ) − E [x(t 1 )] ⋅ E [ y (t 2 )] = 0 z Dos procesos aleatorios independientes serán procesos incorrelados. La independencia física de dos procesos implica independencia estadística de los mismos y por lo tanto incorrelación entre ellos, sin embargo, la incorrelación de dos procesos no implica necesariamente independencia entre ambos. z Se dice que dos procesos son ortogonales si: R XY (t 1 ,t 2 ) = E[x(t 1 ) ⋅ y(t 2 )] = 0 Teoría de la Comunicación Dpto Teoría de la Señal y Comunicaciones - U.A.H. 41 Procesos estocásticos z En general si un proceso x(t) es función de una variable aleatoria Y, es decir: x(t ) = g (Y , t ) para t=t1 x(t1)=g(Y,t1) va a ser una transformación de una variable aleatoria. z Si se conoce la f.d.p. de Y, fY(y), se podrán calcular sus estadísticos temporales como: z E [x(t )] = E [g (Y , t )] = ∞ ∫ g (Y , t )⋅ f Y ( y )⋅ dy −∞ z R X (t 1 , t 2 ) = E [g (Y , t 1 ) ⋅ g (Y , t 2 )] = ∞ ∫ g (Y ,t 1 ) ⋅ g (Y ,t 2 ) ⋅ f Y ( y ) ⋅ dy −∞ Teoría de la Comunicación Dpto Teoría de la Señal y Comunicaciones - U.A.H. 42 Procesos estocásticos Procesos estacionarios. z Se dice que un proceso aleatorio es estacionario en sentido estricto, si sus características estadísticas no se ven afectadas por traslaciones en el tiempo, es decir, los procesos x(t) y x(t+t0) tienen las mismas características estadísticas para cualquier valor de t0. z En general dados dos procesos aleatorios x(t) e y(t), se dice que ambos procesos son conjuntamente estacionarios si las características estadísticas conjuntas de x(t) e y(t) son las mismas que las de x(t+t0) e y(t+t0) para cualquier valor de t0. z Debido a la dificultad de establecer de forma rigurosa esta propiedad, es más común utilizar la definición de proceso estacionario en sentido amplio, la cual solo va referida a los estadísticos de primer y segundo orden. Teoría de la Comunicación Dpto Teoría de la Señal y Comunicaciones - U.A.H. 43 Procesos estocásticos Procesos estacionarios en sentido amplio. z Un proceso x(t) es estacionario en sentido amplio si sus estadísticos de primer orden no dependen del tiempo y los de segundo orden solo dependen del intervalo de tiempo τ = t1-t2. ⎧m X (t ) = m X ⇒⎨ 2 2 ⎩σ X (t ) = σ X z Estadísticos de primer orden z ⎧ R (t ,t ) = R X (t 1 − t 2 ) = R X (τ ) Estadísticos de segundo orden ⇒ ⎨ X 1 2 ⎩C X (t 1 ,t 2 ) = C X (t 1 − t 2 ) = C X (τ ) Teoría de la Comunicación Dpto Teoría de la Señal y Comunicaciones - U.A.H. 44 Procesos estocásticos z Si el proceso aleatorio es estacionario se puede simplificar la notación y se puede reescribir la ecuación correspondiente a la función de autocorrelación como: R X (τ ) = E[x(t ) ⋅ x(t − τ )] = E[x(t ) ⋅ x(t + τ )] z Propiedades de la función autocorrelación de un proceso estacionario x(t): z RX(τ) es una función par, es decir, RX(τ)=RX(-τ). z El máximo valor de RX(τ) se da para τ=0 . z [ ] R X (0 ) = E x 2 (t ) Teoría de la Comunicación Dpto Teoría de la Señal y Comunicaciones - U.A.H. 45 Procesos estocásticos Procesos conjuntamente estacionarios en sentido amplio. z Dos procesos x(t) e y(t), son conjuntamente estacionarios en sentido amplio si cumplen que su media es constante, su autocorrelación depende del intervalo τ y su correlación cruzada de pende solo de τ=t1t2, es decir: E[x(t )] = cte ; R X (τ ) = E[x(t ) ⋅ x(t + τ )]⎫ ⎬ R XY (τ ) = E[x(t ) ⋅ y (t + τ )] E[ y (t )] = cte ; RY (τ ) = E[ y (t ) ⋅ y (t + τ )]⎭ Teoría de la Comunicación Dpto Teoría de la Señal y Comunicaciones - U.A.H. 46 Procesos estocásticos z Propiedades de la función RXY(τ): z RXY(τ) es una función par, es decir, RXY(τ)=RXY(-τ). z RXY(τ)=RYX(-τ). z z R XY (τ ) ≤ R X (0 ) ⋅ RY (0 ) R XY (τ ) ≤ 1 [R X (0 ) + RY (0 )] 2 z Si x(t) e y(t) son dos procesos incorrelados: R XY (τ ) = E[x(t )]⋅ E[ y (t )] z Dos procesos x(t) e y(t) son ortogonales si R XY (τ ) = 0 ∀τ Teoría de la Comunicación Dpto Teoría de la Señal y Comunicaciones - U.A.H. 47 Procesos estocásticos Procesos ergódicos. z En general, se dice que un proceso x(t) es ergódico si todos sus parámetros estadísticos se pueden determinar con una única realización del proceso x(t;Ei). z Esto implica que los diversos parámetros estadísticos se pueden expresar como medias temporales. z Se puede decir que un proceso es ergódico si las medias temporales coinciden con las medias estadísticas. Teoría de la Comunicación Dpto Teoría de la Señal y Comunicaciones - U.A.H. 48 Procesos estocásticos z Ergodicidad respecto a la media. ⎫ E[x(t )] = ∫ x ⋅ f X ( x ) ⋅ dx ⎪ ⎪⎪ −∞ T ⎬ ⇒ E[x(t )] = x(t ) 2 1 ⎪ ( ) ⋅ x(t ) = Lim x t dt ⎪ T →∞ T ∫ T − ⎪⎭ 2 ∞ Teoría de la Comunicación Dpto Teoría de la Señal y Comunicaciones - U.A.H. 49 Procesos estocásticos z Ergodicidad respecto a la varianza. ⎫ E x (t ) = ∫ x ⋅ f X ( x ) ⋅ dx ⎪ ⎪⎪ −∞ 2 2 ( ) (t ) ⇒ E x t = x T ⎬ 2 1 ⎪ 2 ( ) ⋅ x 2 (t ) = Lim x t dt ⎪ T →∞ T ∫ −T ⎪⎭ 2 [ 2 Teoría de la Comunicación ] ∞ 2 [ Dpto Teoría de la Señal y Comunicaciones - U.A.H. ] 50 Procesos estocásticos z Ergodicidad respecto a la autocorrelación. R X (τ ) = E [x(t ) ⋅ x(t + τ )] x(t ) ⋅ x(t + τ ) ⎫ ⎪⎪ T 2 1 ⎬ ⇒ R X (τ ) = x(t ) ⋅ x(t + τ ) ( ) ( ) = Lim ⋅ + ⋅ x t x t τ dt ⎪ T →∞ T ∫ T − ⎪⎭ 2 R XY (τ ) = E [x(t ) ⋅ y (t + τ )] x(t ) ⋅ y (t + τ ) z z ⎫ ⎪⎪ T 2 1 ⎬ ⇒ R XY (τ ) = x(t ) ⋅ y (t + τ ) ( ) ( ) = Lim ⋅ + ⋅ x t y t τ dt ⎪ T →∞ T ∫ T − ⎪⎭ 2 Un proceso ergódico debe ser estrictamente estacionario, sin embargo un proceso estacionario no tiene porque ser ergódico. La ergodicidad implica que una sola función muestral es representativa para caracterizar todo el proceso aleatorio Teoría de la Comunicación Dpto Teoría de la Señal y Comunicaciones - U.A.H. 51 Procesos estocásticos Espectro de potencia (densidad espectral de potencia). z El espectro de potencia de una señal aleatoria estacionaria, refleja la distribución de potencia en el dominio de la z El teorema de Wiener-Kintchine establece que cuando x(t) es un proceso estacionario en sentido amplio, la densidad espectral de potencia se obtiene como la transformada de Fourier de la función autocorrelación: G X (ω ) = TF {R X (τ )} = ∞ − jωτ ( ) R τ ⋅ e ⋅ dτ X ∫ −∞ R X (τ ) = TF Teoría de la Comunicación −1 {G X (ω )} = 1 2π ∞ ∫ G X (ω ) ⋅ e jωτ ⋅ dω −∞ Dpto Teoría de la Señal y Comunicaciones - U.A.H. 52 Procesos estocásticos Respuesta de un sistema L.T.I. a una entrada aleatorio. z Este estudio se va a restringir al análisis con señales aleatorias estacionarias. z Si x(t) es un proceso estacionario, de media mX y autocorrelación RX(τ), que pasa a través de un sistema LTI estable, cuya respuesta impulsiva es h(t) de tipo real, se obtendrá un proceso aleatorio y(t) también estacionario. x(t) X(ω) RX (τ) GX (ω) Teoría de la Comunicación Sistema LTI h(t) H(ω) Dpto Teoría de la Señal y Comunicaciones - U.A.H. y(t) Y(ω) RY (τ) GY (ω) 53 Procesos estocásticos x(t) X(ω) RX (τ) Sistema LTI h(t) H(ω) GX (ω) y(t) Y(ω) RY (τ) GY (ω) TF y (t ) = x(t ) ∗ h(t ) ←⎯→ ⎯ Y (ω ) = X (ω ) ⋅ H (ω ) RY (τ ) = h(− τ ) ∗ h(τ ) ∗ R X (τ ) GY (ω ) = H (ω ) ⋅ G X (ω ) 2 E [ y (t )] = E [x(t )]⋅ H (0 ) Teoría de la Comunicación Dpto Teoría de la Señal y Comunicaciones - U.A.H. 54 Procesos estocásticos Proceso aleatorio gaussiano. z Se dice que un proceso aleatorio x(t), es Gaussiano si su f.d.p. f(x;t) es Gaussiana para todos los valores de t, su f.d.p. bidimensional, f(x1,x2;t1,t2) es también una variable aleatoria Gaussiana para todo t1 y t2 y su f.d.p. conjunta de mayor orden también deberá ser una variable aleatoria Gaussiana. z La importancia de los procesos aleatorios Gaussianos radica en su papel fundamental en el estudio de las comunicaciones, ya que el modelo Gaussiano se aplica a muchos fenómenos aleatorios eléctricos. Teoría de la Comunicación Dpto Teoría de la Señal y Comunicaciones - U.A.H. 55 Procesos estocásticos z Las principales propiedades que cumple un proceso aleatorio Gaussiano son: z x(t) queda totalmente descrito por E[x(t)] y RX(t1,t2). z Si R X (t 1 ,t 2 ) = E[x(t 1 )] ⋅ E[x(t 2 )] entonces x(t1) y x(t2) están incorreladas y son estadísticamente independientes. z Si x(t) es estacionario en sentido amplio, entonces también es estacionario en sentido estricto y ergódico. z Cualquier operación lineal sobre x(t) produce otro proceso aleatorio Gaussiano. Teoría de la Comunicación Dpto Teoría de la Señal y Comunicaciones - U.A.H. 56 Procesos estocásticos Ruido blanco Gaussiano. z El ruido blanco Gaussiano es un proceso aleatorio de tipo Gaussiano y es capaz de caracterizar el ruido producido por el movimiento de los electrones debido a su agitación termal. z El ruido va a tener una distribución Gaussiana siempre que se consideren múltiples fuentes de ruido independientes. z Si a la entrada de un sistema LTI se tiene un proceso aleatorio Gaussiano, a la salida se obtiene también un proceso aleatorio Gaussiano. z Se dice que un ruido es blanco y Gaussiano si su densidad espectral de potencia es constante para todo el espectro de frecuencias. G R (ω ) = Teoría de la Comunicación η0 2 Dpto Teoría de la Señal y Comunicaciones - U.A.H. 57 Procesos estocásticos z A partir de la densidad espectral de potencia de ruido, es posible obtener la función autocorrelación: R R (τ ) = TF −1 [G R (ω )] = η0 2 ⋅ δ (τ ) z Debido a que RR(τ)=0 para τ≠0, cualquiera dos ejemplos de ruido blanco Gaussiano van a ser incorrelados y estadísticamente independientes. z Si se tiene un ruido blanco Gaussiano cuya densidad espectral de potencia es η0/2, y este se filtra mediante un sistema LTI cuya función de transferencia es H(ω) se obtiene la señal de salida y(t): GY (ω ) = H (ω ) G R (ω ) = 2 RY (τ ) = Teoría de la Comunicación η0 2 [ ⋅ TF −1 H (ω ) 2 η0 2 ⋅ H (ω ) 2 ] Dpto Teoría de la Señal y Comunicaciones - U.A.H. 58 Procesos estocásticos Procesos paso banda. z En la mayoría de los sistemas de comunicación en los que se modula la información para ser transmitida, mediante una portadora fp, se cumple que el ancho de banda del canal es pequeño comparado con fp. Cuando un proceso aleatorio es modulado por una portadora para transmitirlo a través de un canal de transmisión, el resultado es un proceso aleatorio paso banda. z El ruido que se suma a la transmisión de una señal en el canal, va a ser un proceso aleatorio paso banda. z Para trabajar en estos casos es conveniente representar el ruido n(t), en términos de las componentes en fase y cuadratura. Teoría de la Comunicación Dpto Teoría de la Señal y Comunicaciones - U.A.H. 59 Procesos estocásticos ( ) ( n(t ) = n f (t ) ⋅ cos ω p t + ϕ p − n c (t ) ⋅ sen ω p t + ϕ p ) n f (t ) = n(t )cos(ω pt ) + nˆ (t )sen(ω pt ) componente en fase nc (t ) = n(t )cos(ω pt ) − nˆ (t )sen(ω pt ) componente en cuadratura z Si n(t) es un proceso aleatorio Gaussiano paso banda de media cero y estacionario, la componente en fase nf(t) y la componente en cuadratura nc(t) también van a ser procesos aleatorios Gaussianos, conjuntamente estacionarios, de media cero e independientes, pero de banda base. [ ] E [n(t )] = E n f (t ) = E [nc (t )] = 0 σ n2 = σ n2 = σ n2 = σ 02 f c Rn f (τ ) = Rnc (τ ) = Rn (τ ) cos(ω pτ ) ± Rˆ n (τ )sen(ω pτ ) Rn f nc (τ ) = Rn (τ ) cos(ω pτ ) − Rˆ n (τ )sen(ω pτ ) Teoría de la Comunicación Dpto Teoría de la Señal y Comunicaciones - U.A.H. 60 Procesos estocásticos z También es posible obtener la señal de ruido en función de la envolvente R(t) y de la fase instantánea φ(t): ⎧ R(t ) = n 2 (t ) + n 2 (t ) f c ⎪⎪ n(t ) = R(t ) cos ω p t + ϕ p + φ (t ) ⇒ ⎨ nc (t ) ( ) φ = t artg ⎪ n f (t ) ⎪⎩ z R(t) es un proceso aleatorio que sigue una función de distribución de Rayleigh, definida por: ( f R (r ) = z ) r σ 02 ⋅e 1⎛ r − ⎜⎜ 2⎝ σ0 ⎞ ⎟ ⎟ ⎠ 2 ⋅ u (r ) ⎧ π σ0 ⎪ E [R(t )] = 2 ⎪ ⎪ ⇒ ⎨ E R 2 (t ) = 2 ⋅ σ 02 ⎪ ⎪Var [R(t )] = ⎛⎜ 2 − π ⎞⎟ ⋅ σ 02 2⎠ ⎪⎩ ⎝ [ ] φ(t) es una proceso aleatorio uniformemente distribuido entre -π y π e independiente de R(t). Teoría de la Comunicación Dpto Teoría de la Señal y Comunicaciones - U.A.H. 61 Procesos estocásticos Teoría de la comunicación Teoría de la Comunicación Dpto Teoría de la Señal y Comunicaciones - U.A.H. 62