CAPITULO VI PROCESOS ALEATORIOS Y RUIDO 6.1.-INTRODUCCION Hasta ahora se han estudiado las señales determinísticas discretas y continuas; estas señales son aquellas que pueden definirse perfectamente para todo t. Sin embargo, la teoría de las comunicaciones presenta como elemento fundamental la aleatoreidad ya que el mensaje no se conoce de antemano o lo que es lo mismo no es determinístico. Adicionalmente existen perturbaciones aleatorias en las transmisiones que se conocen como "ruido". En cualquiera de los dos casos es necesario conseguir un modelo matemático que permita representar estos fenómenos con el fin de analizar su comportamiento frente a los sistemas de comunicaciones. Basándose en la experimentación, se pueden encontrar ciertas regularidades en los procesos aleatorios que permitirán describirlos estadísticamente y en muchos casos esta descripción nos proporcionará información sobre la densidad espectral de potencia de la señal aleatoria. Con esta última herramienta seremos capaces de analizar el efecto del ruido en cada sistema de comunicación y la calidad final del mensaje recibido. Comenzaremos repasando brevemente las nociones de probabilidad, variables aleatorias, funciones de densidad probabilística, etc., antes de entrar a la caracterización de los procesos aleatorios. 6.2.-REPASO DE PROBABILIDADES Existen fenómenos físicos que presentan cierta regularidad estadística y cuyo modelo determinístico equivalente sería altamente complicado. Por ejemplo si lanzamos una moneda y conociésemos la altura desde la cual se lanza, la ecuación del movimiento de la mano que la lanza, peso, geometría, composición de la moneda, temperatura, gravedad, etc., se podría determinar si saldrá cara o sello; pero es evidente que, dado que el número de variables a manejar es tan grande, es preferible utilizar una descripción probabilística y decir, por ejemplo, que existe 50% de probabilidad de que la moneda, si está bien construída, caiga del lado cara y 50% que caiga del lado sello. En un experimento realizado un número suficiente de veces (n), se llamará espacio muestral al conjunto formado por todos los posibles resultados o eventos. La probabilidad de ocurrencia de un evento A se define como: donde nA es el número de veces que ocurre A. Hay casos donde no es necesario realizar el experimento para determinar la probabilidad de un evento dado; por ejemplo, en una moneda normal P(cara)=P(sello)=0.5. En este caso se define la probabilidad de ocurrencia del evento A como: Supongamos ahora que tenemos un espacio muestral compuesto por N eventos; si la ocurrencia de uno imposibilita la de cualquier otro, se dice que son mutuamente excluyentes en cuyo caso, si elegimos dos eventos A1 y A2, la probabilidad de que ocurra uno de los dos vendrá dada por: P( A1 ó A2 ) = P( A1) + P( A2) Un ejemplo de esto sería el lanzamiento de un dado; las seis salidas posibles son eventos mutuamente excluyentes. Existen otros casos que corresponden a eventos no excluyentes; un ejemplo podría verse en el siguiente conjunto de interruptores: El paso de corriente entre a y b se produce cuando cualquiera de los dos interruptores está cerrado; esto conduce a calcular la probabilidad de paso de esta corriente I como : P ( S1 cerrado ó S2 cerrado) Pero en este caso por no ser estos eventos mutuamente excluyentes, hay que restar la probabilidad de que ocurran juntos ; es decir: P( I ) = P(S1 cerrado) + P (S2 cerrado) - P(S1 cerrado y S2 cerrado) En general , para eventos cualesquiera no excluyentes: P( A1 ó A2 ) = P( A1) + P( A2) - P( A1 y A2 ) En ciertos experimentos pueden ocurrir simultáneamente 2 o más eventos. Se define la probabilidad conjunta de dos eventos A y B como: donde nAB es el número de veces que A y B ocurren juntos. Si la ocurrencia del evento B depende del evento A, se puede definir probabilidad condicional como: de donde se obtiene el Teorema de Bayes que establece que: Si la ocurrencia de un evento A no afecta la ocurrencia de un evento B, se dice que A y B son eventos independientes en cuyo caso: P(A/B)=P(A) y P(B/A)=P(B) y P(A y B )= P(A) P(B) Ejemplos: 1.- En una caja se tienen dos monedas: La moneda 1 tiene 2 sellos y la moneda 2 tiene cara y sello con P(cara) = 1/3 y P(sello) = 2/3. Se saca una moneda se lanza 1 vez y sale sello, ¿cuál es la probabilidad de que si se vuelve a lanzar salga de nuevo sello? 2.- Si se tiene el siguiente sistema de relés, determine la probabilidad de que entre A y B fluya una corriente, conociendo que la probabilidad de que cada relé esté cerrado es p. 6.3.-REPASO DE VARIABLES ALEATORIAS Y FUNCIONES PROBABILISTICAS Cuando se tienen experimentos cuyas salidas son números reales, a la regla que asigna un número a cada salida del experimento se le llama variable aleatoria (v.a). Las variables aleatorias se clasifican en : -Variables aleatorias discretas: Aquellas que pueden tomar un número contable de valores distintos finitos o infinitos. Ej: X es una v.a que representa el número de caras que salen al lanzar una moneda 3 veces. X solo puede tomar los valores 0,1,2,3. -Variables aleatorias contínuas: Aquellas que pueden tomar cualquier valor en un rango dado del eje real. Ej: X es una v.a que representa el valor de voltaje de una señal ruidosa. En este caso, X puede tomar cualquier valor de la recta real. Para una v.a X, sea discreta o continua, se define la Función de Distribución Acumulativa ( F.D.A ) F(x), como la probabilidad de que X tome valores menores que dicho x. Es decir: F(x) = P [X≤x] Donde se cumple que : 1º. 0 ≤ F(x) ≤ 1 2º. Para x1≤ x2 , F (x1) ≤ F (x2) es decir dF/dx ≥ 0 3º. P [ x1< X ≤ x2 ]= F (x2) - F (x1) 4º. F( -∞) =0 5º. F(∞) =1 Si la v.a es discreta se define la Función Frecuencia P(xj) como la probabilidad que la v.a X tome el valor xj . La relación entre esta función y F(x) viene dada por las siguientes propiedades: Si la v.a es contínua se define la Función Densidad de Probabilidad f.d.p p(x) como Sus propiedades son: Si se utilizan deltas de Dirac, es posible definir una f.d.p para variables aleatorias discretas de la siguiente forma: De esta forma se puede unificar el tratamiento de las v.a contínuas y discretas. Ahora bien, se han definido funciones probabilísticas que permiten caracterizar el comportamiento de una variable aleatoria. Sin embargo, muchas veces estaremos interesados en analizar simultáneamente dos o mas v.a. Esto conduce al concepto de Función Densidad Conjunta que para dos v.a, llamaremos pxy(x,y). Esto nos permitirá calcular por ejemplo, la probabilidad de que las variables aleatorias tomen valores en determinados rangos simultáneamente. Así: También se pueden calcular las densidades marginales px(x) y py (y) de la siguiente forma: 6.4.- PROMEDIOS ESTADISTICOS Cuando se tiene una señal determinística, se puede definir una función que la caracterice para todo tiempo. Sin embargo, si dicha señal representa, por ejemplo, el voltaje en un punto de una red, en la práctica se prefiere tener otro tipo de información más manejable como por ejemplo la potencia promedio. Del mismo modo para señales aleatorias, en vez de trabajar con las funciones probabilísticas, muchas veces se utilizan datos más prácticos conocidos como promedios estadísticos. Estos parámetros serán muy útiles porque, en muchos casos, tendrán relación con los parámetros eléctricos de las señales aleatorias de interés. El primer promedio a definir será la media, valor esperado o esperanza de una v.a X que se calcula como: El valor esperado cumple con las siguientes propiedades: 1.- E(constante)=constante 2.-E(Kx)= KE(x) para K constante 3.- E(x+y)=E(x)+E(y) Además de la media, existen otros promedios estadísticos como por ejemplo el momento n-ésimo de una v.a que se define como: En particular el segundo momento será de gran importancia así como la varianza, que no es más que el segundo momento de la v.a referida a su media. Es decir: A manera de ejemplo, y para ilustrar la importancia de la varianza de una v.a, imaginemos dos fábricas de bombillos que aseguran tener la misma vida media de su producto. Por ejemplo dos distribuciones uniformes alrededor de 1000, una de ancho 1000(Fábrica A) y otra de ancho 10(Fábrica B); al explorar más y calcular la varianza de las v.a, definidas como la duración de sus productos, se descubre que la de la fábrica A es mayor a la de la fábrica B. Esto lo que significa es que los productos de la fábrica A son menos confiables que los de la B, ya que a pesar de garantizar la misma duración media, la desviación alrededor de ésta es mayor que la de la fábrica B. Justamente, otra cifra de interés es la desviación standard sx, definida como la raíz cuadrada de la varianza, que representa la desviación que un valor tiene alrededor de la media de la distribución. Ejemplo: Se tienen 2 fábricas de bombillos que aseguran que la vida media de su producto es de 1.000 horas. Sin embargo, al investigar más se descubre que: a) El fabricante A produce N/2 bombillos que duran 500 horas y N/2 que duran 1.500. b) El fabricante B produce N bombillos cuya vida cumple con una distribución uniforme entre 975 y 1025. Es decir: Y efectivamente ambos productos tienen una vida media de 1.000 horas; sin embargo, sabemos que la confiabilidad no puede ser la misma en ambas fábricas; por tanto necesitamos otro parámetro que permita elegir qué fábrica produce los mejores bombillos. Ese parámetro puede ser la varianza anteriormente definida. a. Fábrica A: b) Fábrica B: Esto indica que los productos de la fábrica B son mejores, ya que la varianza es menor que en el caso A. La varianza presenta las siguientes propiedades: 1º Varianza [constante] = 0 2º Varianza [kx] = k2 varianza [x] para k = constante 3º Varianza [x + y] = varianza [x] + varianza [y] solo sí x e y son independientes. 4º La raíz cuadrada de la varianza se le llama desviación standard (σx) y representa la desviación que un valor tiene de la media de la distribución. 5º P [(X-E(x)) > k σx] ≤ 1/k2 o la probabilidad de que la v.a. se aleje de la media k veces la desviación standard, es inversamente proporcional al cuadrado de k. Esta relación recibe el nombre de desigualdad de Chebyshev y establece un límite en la probabilidad de que una v.a. tome valores alejados de su media. Ejemplos: 1º Se transmite una señal S, modelada por una v.a uniformemente distribuida entre 0 y 2; esta se le agrega en el canal un ruido N que se modela por una v.a uniformemente distribuida entre 0 y 1. Determine a) El valor esperado de S+N b) El valor esperado de la potencia promedio de (S+N) sobre una resistencia de 2Ω Solución: a. E[Y] = E[S+N] = E [S] + E [N] = 1 + 0.5 = 1.5 2 b. Potencia promedio=E[ (S+N) ] /2 2.5.- PROMEDIOS ESTADISTICOS PARA MAS DE UNA VARIABLE ALEATORIA. Si se tienen 2 variables aleatorias X, Y se definen sus momentos conjuntos como. En particular el momento conjunto de primer orden E[xy] es de gran interés y recibe el nombre de correlación de X Y. También es importante la covarianza de las dos v.a. definida como: Sus propiedades son: 1º Si E(xy)=0 se dice que X,Y son ortogonales 2º Si X e Y son independientes Cov (XY) = 0 3º Si Cov(XY) = 0 se dice que X y Y están decorrelacionadas. 4º Si X y Y están decorrelacionadas no necesariamente son ortogonales ni independientes. Ejemplo:Sea Z una v.a. uniformemente distribuida entre -1 y 1; se definen 2 nuevas v.a. X y Y como X = Z Y = Z2. Determine si X , Y están decorrelacionadas. Cov (XY)= E [XY]-E[X]E[Y] = 0 => X, Y están decorrelacionadas pero no son independientes. 6.6.- DISTRIBUCIONES PROBABILISTICAS USUALES: 6.6.1.- Distribución Uniforme: Se utiliza en aquellas v.a. igualmente probables en un intervalo (a,b) y se define como: La media de una variable X con esta distribución es: E[X] = 0.5(b+a) Su varianza resulta: 6.6.2.-Distribución Gausseana: Es una de las distribuciones más usadas debido al teorema del límite central que establece lo siguiente: Si se tiene una v.a. Y resultado de sumar M variables Xi con distribuciones arbitrarias, la distribución de Y se aproxima a gausseana cuando M crece, siempre que la contribución de cada variable Xi sea muy pequeña. Este teorema, por ejemplo, se aplica perfectamente al caso de ruido térmico el cual se forma con pequeñas contribuciones de movimiento de electrones. La función densidad de probabilidad para una v.a X con distribución gausseana se define como: Donde: m es la media de la distribución, σ2 es la varianza y σ la desviación estandar Cuando queremos determinar valores de probabilidad sobre una v.a. con esta distribución se necesita calcular: Pero esta integral no es de fácil resolución. Es por esto que se ha tabulado el valor Q(k) definido como: Así por ejemplo si se desea determinar: Hacemos el siguiente cambio de variable: Ejemplo: Una v.a. gaussiana tiene E[ X] = 10 y σx = 1. Determine P [x ≥ 13] Con la función Q(k) podemos determinar cualquier valor de probabilidad ya que: Muchas veces se tabula 0.5 - Q(k) en vez de Q(k). Sin embargo esto no altera el método de calcular probabilidades. Ejemplo: Se tiene una v.a. gaussiana con media igual a 10 y varianza unitaria. Determine P[4≤ x ≤ 13]. m - k1σ = 4 = 10 - k1 => k1 = 6 m + k2 σ = 13 = 10 + k2 => k2 = 3 => P[4 ≤ x ≤ 13] = 0.5 - Q(6)+0.5 - Q(3) 6.6.3.- Distribución de Rayleigh Esta distribución será muy útil en algunas representaciones del ruido pasabanda que afecta los sistemas de comunicaciones. Está descrita como: Si se desea determinar P(x ≥ x0) Ejercicio: Una v.a con distribución Rayleigh tiene σx2 = 7. ¿Cuál es el valor de la media? Solución: 6.6.4.- Distribución binomial: Si un experimento solo puede producir 2 resultados A y su complemento (no A)con probabilidad p y q=1-p respectivamente, y éste se realiza m veces, la probabilidad que A ocurra k de estas m veces vendrá dada por: Donde el coeficiente binomial representa la cantidad de combinaciones de m elementos en los cuales k de ellos son A y el resto el complemento (no A). Por ejemplo: Si m=3 y k=1 tendremos y en efecto existen 3 combinaciones donde A ocurre solo una vez, ya que: El coeficiente binominal se puede calcular con el triángulo de Pascal. Ejemplo: 1º Una moneda normal se lanza 10 veces ¿cuál es la probabilidad de que salgan 4 caras? A este tipo de pruebas se les llama de Bernoulli y es por esto que la distribución a veces recibe ese nombre. Los momentos de una v.a. X con esta distribución son: E(X)= p.m donde p=P(A) y m= Nº total de veces que se realiza la prueba. La varianza resulta igual a σ2=mpq. 6.6.5.- Distribución de Poisson: Cuando se realizan pruebas de Bernoulli , y se desea cuyos resultados pueden ser determinar la probabilidad de que en m pruebas A salga k veces, se utiliza la distribución binomial. Pero si el número de pruebas crece mucho en un problema donde P[A] es muy pequeña se prefiere utilizar la distribución de Poisson para el cálculo de probabilidades particulares. La función de probabilidad se expresa como: Para esta distribución tanto la media como la varianza son iguales numéricamente a α: Ejemplo: En una central telefónica se han recibido 270 llamadas en 180 minutos, es decir, 1.5 llamadas por minuto. Si quisiéramos calcular la probabilidad de recibir 1, 2 ó 3 llamadas en los próximos 3 minutos debiéramos subdividir el tiempo total en subintervalos en los cuales ocurre o no ocurre llamada. Por ejemplo: A.- 3 minutos = 9 intervalos de 20 seg. La probabilidad de llamada en este caso sería: Para evitar la probabilidad de 2 o más llamadas en cada subintervalo es conveniente hacerlo cada vez más pequeño y en ese caso la probabilidad de llamada baja pero n.p = cte. Es decir n-> ? p -> o pero np = cte. En este caso: 2º Un fabricante produce artículos con probabilidad de ser defectuoso igual a 0.001. ¿Cuál es la probabilidad de que en un lote de 500 artículos ninguno salga defectuoso? y es más cómodo trabajar con Poisson. 3º La probabilidad de que un automóvil choque con otro es p = 0,0001. Si a cierta hora pasan 1.000 carros. ¿Cuál es la probabilidad que ocurran 2 o más accidentes en dicho período?. 6.7.- PROCESOS ALEATORIOS Uno de los objetivos de la materia Comunicaciones I, es lograr una descripción de las señales aleatorias bien sea que estas representen mensaje o ruido. Para lograrlo comenzaremos definiendo un proceso aleatorio como el conjunto de funciones temporales que resultan de un experimento particular, es decir, cada vez que se realiza el experimento, se produce como salida una determinada señal. La aleatoreidad radica en saber cual de todas las funciones saldrá. Además, en cada instante de tiempo tk, se puede definir una v.a que podría llamarse xtk.Queda claro que la diferencia fundamental entre una v.a y un proceso aleatorio es la dependencia con la variable tiempo. Ejemplo: Suponga un proceso estocástico definido como x(t)= at donde a está uniformemente distribuída entre 0 y 1. Cada vez que se realiza el experimento, la salida es una recta de pendiente diferente. Para un tiempo dado, digamos t=t0, se tendrá una v.a xt0= at0, que puede tomar valores entre 0 y t0. Una forma de caracterizar el proceso x(t) es a través de la definición de una función conjunta de infinitas v.a correspondientes a tiempos distintos tk. Afortunadamente, para la mayoría de los problemas prácticos, bastará para su descripción funciones de una o a lo sumo de dos v.a. Esto estará asociado al tipo de estacionaridad que cumpla el proceso estudiado; por esto a continuación presentaremos conceptos y funciones esenciales para caracterizar los procesos aleatorios. 6.8.- ESTACIONARIDAD Supongamos un proceso aleatorio definido en un intervalo de tiempo dado dentro del cual definimos a su vez los instantes t1, t2 ,..., tn . Para caracterizar el proceso, necesitaríamos una función probabilística de orden n : p x ( t 1) x ( t 2) .........x ( t n) ( x ( t 1) , x ( t 2) , ........, x ( t n) ) Diremos que un proceso aleatorio es estacionario en el sentido estricto, si sus propiedades estadísticas no cambian con un desplazamiento del origen temporal. Es decir: p x ( t 1) .........x ( t n) ( x ( t 1) , ........., x ( t n) ) = p x ( t 1+ τ) ........x ( t n+ τ) ( x ( t 1+ τ) , ......., x ( t n+ τ) ) Si esta igualdad se cumple solo hasta un orden m, se dice que el proceso es estacionario de orden m lo que incluye la estacionaridad de todos los órdenes menores. En la práctica los procesos más frecuentes se pueden modelar como estacionarios (aunque sea en pequeñísimos intervalos de tiempo) por lo menos hasta de segundo orden, y como sus propiedades más importantes se describen muy bien con el primero y segundo momento, trabajaremos usualmente con estacionaridad de orden 2. Definamos la función de autocorrelación de dos v.a x(t1) y x(t2), definidas dentro de un proceso x(t) para dos instantes t1 y t2 como: R x ( t1 ) x ( t 2 ) = ∫∫ x ( t1 ) x ( t 2 )p x ( t1 ) x ( t 2 ) ( x ( t1 ), x ( t 2 ))dx ( t1 )dx ( t 2 ) −∞ Esta función es muy útil porque, además de que nos dará idea del comportamiento temporal de x(t), en muchos casos nos proporcionará, al transformarla según Fourier, la densidad espectral de potencia. Si el proceso es estacionario de orden 1, la media de la v.a es constante ( no depende del tiempo). Si el proceso es estacionario de orden 2, además de cumplirse lo anterior, la correlación entre dos v.a dependerá, no de la ubicación absoluta de cada una, sino de la distancia entre ellas. La demostración de ésto, se basa en que, para un proceso estacionario de orden 2, se cumple: Por lo tanto, Rx(t1,t2)= Rx(t1+ ∆, t2 + ∆ ). Si seleccionamos ∆= - t1, Rx(t1,t2)= Rx(0, t2 - t1 ) = Rx(τ). En ese caso podemos escribir: Rx(τ) = E [ x(t) x(t- τ) ] Definiremos ahora, un proceso estacionario en el sentido amplio, como aquel en el que se cumple: 1º.- E [ x(t) ] = mx =constante 2º.- E [ x(t) x(t- τ) ] = Rx(τ) Es evidente que un proceso estacionario de orden 2, lo será en sentido amplio, sin embargo, esto último no garantiza la primera condición. La función de autocorrelación de un proceso estacionario en el sentido amplio cumple las siguientes propiedades: a) Rx(0) = E [ x2(t) ] b) Rx(τ) = Rx( - τ) c) | Rx(τ) | ≤ Rx( 0 ) d) La graficación de Rx(τ) puede darnos información sobre el comportamiento temporal del proceso. Por ejemplo : Si se tienen las siguientes funciones de autocorrelación para dos procesos diferentes X1 y X2 : Se observa que el proceso X1(t) fluctúa más lentamente que el proceso X2(t) ya que la correlación de este último se anula más rápidamente. En general , se dice que un proceso tiene un tiempo t0 de decorrelación si Rx(t0) = 0.01 Rx( 0 ). Ejemplo 1: Sea x(t) el proceso descrito como x(t)= A Cos (ω0t + Θ) , donde A y ω0 son constantes y Θ está uniformemente distribuído entre 0 y 2π. Determine la media y la autocorrelación del proceso. Ejemplo 2: Sea x(t)= at donde a está uniformemente distribuído entre 0 y 1. Determine la fdp de primer orden del proceso px(t) (x(t)) En este caso es más fácil calcular la F.D.A ( Fx(t) (x(t))) y luego derivarla para obtener la fdp ( px(t) (x(t))). Fx(t) (x(t)) = P [ X(t) <= x(t) ] = P [ at <= x(t) ] Es decir es una distribución uniforme variable con el tiempo. Este proceso no es estacionario ni siquiera de primer orden. Ejemplo 3: Se tiene una señal telegráfica que puede tomar solo los valores A y -A y tiene igual probabilidad de cambiar de uno a otro en cualquier instante. Si n = Número promedio de cambios por unidad de tiempo, determine la autocorrelación de este proceso. Una señal típica podría ser: Queremos calcular Rx(τ) = E [ x(t) x (t- τ ) ] = Sumatoria de todos los posibles productos multiplicados por su probabilidad. En este caso x(t) x (t- τ ) solo puede tomar dos valores : A2 si x(t)= x (t- τ ) (número de cambios en t es par) y -A2 si x(t)= -x (t- τ ) (número de cambios en t es impar) . Definamos por tanto la función probabilística que permite obtener la probabilidad de que en t ocurran n cambios. Esto corresponde a una distribución Poisson la cual está definida como: n −ντ (ντ) e P [ en τ ocur r an n cambi os ] = n! Donde ντ es la media de la distribución equivalente a n.p [ ] [ R (τ) = E[x ( t ) x ( t − τ)] = A 2 P N 0 cambios par − A 2 P N 0 cambios impar ] Así: P [ x(t) = x (t− τ ) ] = P [ Número de cambios sea par ] = P [ x(t) = -x (t- t ) ] = P [ Número de cambios sea impar ] = Por lo tanto: 2 Rx( τ) = A e − ντ Coshντ - 2 − ντ A e 2 Senhντ = A e − 2 ντ Como esto es válido para t negativo: Rx( τ) = 2 −2 ν τ A e 6.9.- PROCESOS ERGODICOS En un proceso estocástico uno puede determinar ciertos parámetros de dos formas: a) Se toma una muestra completa del proceso (Ej: x1(t)) y se realizan cálculos sobre ella ó b) Se toman los valores de todas las salidas posibles para un tiempo fijo tk y se calcula el parámetro deseado. Si el valor del parámetro resulta igual por los dos métodos, se dice que el proceso es ergódico con respecto a ese parámetro. Por ejemplo, ergodicidad con respecto a la media sería decir que : Daría el mismo resultado tomar , por ejemplo, x2(t) y promediarla en el tiempo, o tomar los valores de x1(tk), x2(tk),......, xn(tk) y promediarlos. Es evidente que si un proceso es ergódico también es estacionario y si la salida representa una señal eléctrica, esta será de potencia y se cumplirá que: E [ x ] = x = Ni vel D.C de x(t ) 2 E[ x ] = x = Pot enci a pr omedi o t ot al de x(t ) 2 2 E [x ] = x 2 2 2 = Pot enci a D.C de x(t ) 2 σ x = E [x ] - E [x ] = Pot enci a pr omedi o A.C de x(t ) σ x = Vol t aj e R.M.S de x(t ) F { Rx(τ) } = Gx (f) = Densidad Espectral de Potencia. Esta última relación es importantísima ya que nos dice que a pesar de que la señal es aleatoria, su autocorrelación, y por ende, su densidad espectral de potencia, son determinísticas. La demostración es la siguiente: Uno puede definir la densidad espectral de un proceso aleatorio como el promedio de las densidades espectrales de las funciones muestras así: donde XT(f) es la transformada de Fourier del proceso aleatorio truncado x(t) Π(t/T). Su módulo al cuadrado es igual a: T/2 X T (f ) 2 = XT * (f )XT (f ) = ∫ x(t1 )e jωt1dt1 −T/2 T/2 ∫ x(t 2 )e− jωt 2 dt2 −T/2 Estas dos integrales pueden expresarse como una integral doble del producto de x(t1)x(t2), y como la operación de promediación es otra integral más, puede realizarse primero; esto último se expresaría como la promediación previa del producto x(t1)x(t2) . Queda entonces que: Si el proceso es estacionario en el sentido amplio, el promedio del producto x(t1)x(t2) es la autocorrelación evaluada en la diferencia de tiempos t2 - t1. La densidad espectral queda entonces igual a : La integral doble puede cambiarse por una integral única respecto a la diferencia (t2 - t1) = τ notando que el argumento a integrar es constante cuando (t2 - t1) lo es. Eso significa que la integral doble sobre (t2 ,t1) , lo cual es un volumen, puede calcularse como el argumento multiplicado por el área de la base. El cálculo de esta área puede verse de la siguiente figura: Quedaría 0.5(T- τ)2 - 0.5(T- τ -∆τ)2 ( Resta de las áreas de los dos triángulos) esto es aproximadamente (T- τ)∆τ cuando ∆t tiende a cero. Para t negativo el área resulta (T+ τ) ∆τ. Por lo tanto el volumen, en la pequeña zona será F(t) (T- | τ | )∆τ . El volumen total es la densidad espectral de potencia Gx(f) , y resulta igual a: T limT→ ∞ 1 T ∫ T Φ (τ )(T − τ )dτ = limT→ ∞ −T ∫ T Φ (τ )(1 − −T τ )dτ = T ∫ Φ (τ )dτ −T Finalmente , y recordando la definición de F(t), tendremos: F { Rx(τ) } = Gx (f) = Densidad Espectral de Potencia Una vez conocido esto, si el proceso pasa por un sistema dado, se podrá conocer características de la salida de la siguiente forma: a) Si el sistema es lineal, conocemos la densidad espectral de potencia de la señal de entrada Gx (f) y el cuadrado de la magnitud de la función transferencia |H(f)|2 , podremos conocer la densidad espectral de potencia de la señal de salida Gy (f) de la siguiente forma: Gy (f) = | H(f) | 2 Gx (f) b) Si el sistema es no lineal, podemos transformar el proceso de entrada con el conocimiento de la función característica. Ejemplos: 1º Un proceso ergódico tiene la siguiente función de autocorrelación: Rx( τ) = −2 ν 2 τ A e Determine: La densidad espectral de potencia del proceso, la potencia promedio total, la potencia A.C, la potencia D.C y el voltaje R.M.S. a) La densidad espectral de potencia es la transformada de Fourier de la autocorrelación, resultando entonces (por tablas de Fourier): Gx(f ) = 4ν A 4ν 2 2 2 +ω b) La potencia DC es nula ya que en f=0 no existe una delta de Dirac. c) La potencia AC en este caso es igual a la potencia total, ya que la potencia DC es nula. Al evaluar la autocorrelación en cero , tendremos el valor de la potencia total. También daría el mismo resultado integrar la densidad espectral de potencia entre menos infinito e infinito. Potencia total = Potencia AC = Rx(0) = A2. d) El voltaje R.M.S es igual a la raíz de la potencia AC. Es decir, VR.M.S = A. 2º Se tiene un proceso ergódico con distribución gaussiana y densidad espectral de potencia definida como: Gx(f ) = 1 4 +ω 2 Determine la probabilidad de que el proceso tome valores entre 0.5 y 1. Solución: Si la f.d.p es gaussiana, solo hace falta conocer su media y desviación standard para poder calcular la probabilidad exigida. La media es cero por no existir delta de Dirac en el origen. La desviación standard es la raíz de la potencia AC que en este caso es la potencia total . Por lo tanto basta integrar la densidad espectral en todo el intervalo de existencia o evaluar la autocorrelación en cero y, en cualquiera de los casos, luego tomar la raíz. −2 τ 1 Rx( τ) = e 4 La autocorrrelación en cero es igual a la varianza (porque la media vale cero). En este caso entonces s= 0.5, m=0. Así, P [ 0.5 < x < 1 ]= Q(k0.5) -Q( k1 ). m + k0.5 s = 0.5 esto implica k0.5 = 1 m + k1 s = 1 esto implica k1 = 2 P [ 0.5 < x < 1 ] = Q(1) -Q(2). PASO DE SEÑALES ALEATORIAS POR SISTEMAS LINEALES Y NO LINEALES En el curso de Señales y Sistemas se vio que al pasar una señal por un sistema lineal se podía calcular la salida bien convolucionando en tiempo la señal de entrada con la respuesta impulsiva o multiplicando en frecuencia la transformada de Fourier de la señal de entrada por la respuesta en frecuencia. Para señales aleatorias a lo sumo dispondremos de la función de autocorrelación función de t, o de la Densidad Espectral de Potencia(DEP). Paso de la señal aleatoria por un sistema lineal Cuando una señal aleatoria pase por un sistema lineal, definido por una respuesta impulsiva h(t), podríamos estar interesados en determinar la autocorrelación de la señal de salida. R y (τ ) = E [ y (t ) y (t -τ )] = ∞ ⎡∞ ⎤ E ⎢ ∫ h(τ ' )x(t-τ ' )dτ ' ∫ h(τ ' ' )x(t-τ -τ ' ' )dτ ' '⎥ -∞ ⎣-∞ ⎦ E [x(t-τ ' )x(t-τ -τ ' ' )] = R x (τ + τ ' '-τ ' ) Al intercambiar operadores, es necesario calcular: ⎡∞ R y (τ ) = ⎢ ∫ ⎣- ∞ ⎤ h( τ ' )h( τ ' ' ) R ( τ τ ' 'τ ' ) d τ ' d τ ' ' + ⎥ x ∫ -∞ ⎦ ∞ Por lo tanto la autocorrelación de la señal de salida resultaría: Y esto puede escribirse como: R y (τ ) = h(-τ ) * h(τ ) * R x (τ ) 2 G y ( f ) = H ( f ) Gx ( f ) También se puede demostrar que R yx (τ ) = h(τ ) * R x (τ ) R xy (τ ) = R yx (-τ ) Paso de la señal aleatoria por un sistema no lineal Si la señal aleatoria pasa por un sistema no lineal, puede convenir tratar de encontrar la autocorrelación de salida aplicando la definición. Ejemplo: Sea z(t) =x(t). w(t). Determine la autocorrelación de z(t) R z (τ ) = E [x(t ) w(t ) x(t -τ )w(t -τ )] R z (τ ) = E [x(t ) w(t ) x(t -τ )w(t -τ )] = E [x(t ) x(t -τ )]E [w(t ) w(t -τ )] = R x (τ ) Rw (τ ) G z ( f ) = G x ( f ) * Gw ( f ) Si los procesos x(t) y w(t) no son independientes, seria necesario conocer la función densidad conjunta pxw. Pero si son independientes la autocorrelación de z(t) resultaría: Un caso muy frecuente, en el cual podemos aplicar el resultado anterior, es el siguiente: Sea z(t) =x(t). Acos(ω0t +Φ), con Φ uniformemente distribuido entre Determine la autocorrelación y la DEP de z(t) R z (τ ) = R x (τ )0.5 A 2 Cosω 0τ G z ( f ) = 0.25 A 2 (G x ( f - f 0 ) + G x ( f + f 0 )) En este caso podemos aplicar el resultado obtenido anteriormente, recordando que la autocorrelación de Acos(ω0t +Φ) es igual a 0.5A2cos(ω0τ). Como observamos al multiplicar una señal aleatoria por una sinusoide, la DEP de la señal aleatoria queda trasladada en frecuencia (Teorema de Modulación) Ejemplos de paso de señales aleatorias por sistemas 1) Sumador Sea z(t) =x(t) + w(t). Determine la autocorrelación de z(t) conociendo que x(t) y w(t) son independientes R z (τ ) = E [( x(t ) + w(t ))( x(t -τ ) + w(t -τ ))] = E [x(t ) x(t -τ )] + E [w(t ) w(t -τ )] + E [x(t ) w(t -τ )] + E [w(t ) x(t -τ )] = R x (τ ) + Rw (τ ) + E [x(t )]E [w(t -τ )] + E [w(t )]E [x(t -τ )] = R x (τ ) + Rw (τ ) + 2 E [x(t )]E [w(t )] Esto pudo hacerse porque se asumió que los procesos x(t) y w(t) son ergodicos. Si alguna de los dos tiene media nula el resultado se simplifica: R x (τ ) = R x (τ ) + Rw (τ ) + 2 E [x(t )]E [w(t )] = R x (τ ) = R x (τ ) + Rw (τ ) G x ( f ) = G x ( f ) + Gw ( f ) Observe que solo puede hacerse superposición de DEPs cuando los procesos son independientes y al menos uno tiene media nula; si esta ultima condición no se cumple, además de las DEPs individuales aparecerá un termino DC producto de las medias de los procesos. 2) Retardador Sea z(t) =x(tt0). Determine la autocorrelación y la DEP de z(t). R z (τ ) = E [( x(t -t 0 ) x(t -t 0 -τ ))] = R x (τ ) Como se observa el retardador no cambia la autocorrelación y por tanto la DEP del proceso. 3) Transformador de Hilbert Si se tiene una señal x(t) cuya transformada de Fourier es X(f), a la transformada de Hilbert de x(t) se le llamará xˆ (t ) , y su transformada de Fourier será: X(f ) = - j sgn(f ) X(f ) Es decir , un transformador de Hilbert lo que hace es desfasar -90º todas las componentes de frecuencia de la señal sin alterar la magnitud de dichas componentes. En el dominio del tiempo: xˆ (t ) = x(t ) * h H (t ) Sin embargo para señales aleatorias el tratamiento sería el siguiente: R y (τ ) = hH (-τ ) * hH (τ ) * R x (τ ) 2 G y ( f ) = H H ( f ) Gx ( f ) 2 G y ( f ) = (-jsgn(f)) G x ( f ) = G x ( f ) 4) Representacion del ruido pasabanda Un ruido pasabanda es aquel que tiene un contenido espectral en una zona alejada de las bajas frecuencias de tal forma que entre su frecuencia mínima y el origen podrían tenerse repeticiones del espectro. Dicho ruido puede representarse matemáticamente como: n (t) = Rn(t) Cos ( ωct + Φn (t)). n (t) = ni(t)Cos ωct - nq(t)Senωct donde: Rn(t) es llamada la envolvente Φn (t) es la fase ni(t) es la componente en fase y nq(t) es la componente en cuadratura Se puede demostrar que: Por ejemplo tomemos la primera expresión: n(t ) = n i(t )Cos ω ct - n q(t )Sen ω ct n(t ) = n i(t )Sen ω ct + n q(t )Cos ω ct n(t )Cos ω ct = n i(t )(Cos ω ct ) 2 - n q(t )Sen ω ct Cos ω ct n(t )Sen ω ct = n i(t )(Sen ω ct ) 2 + n q(t )Cos ω ct Sen ω ct Al sumar estas dos últimas ecuaciones se obtiene ni(t). Demuestre usted la otra expresión. Determine la autocorrelación de la componente en fase: R n i (τ) = E[n i ( t )n i ( t - τ)] = E[(n ( t )Cosωc t + n̂ ( t )Senωc t)(n ( t - τ)Cosωc ( t - τ) + n̂ ( t - τ)Senωc ( t - τ)] = ⎡(n ( t )n ( t - τ)Cosωc tCosωc ( t - τ) + n̂ ( t )n̂ ( t - τ)Senωc ( t - τ) ⎤ E⎢ ⎥= ⎣+ n ( t )n̂ ( t - τ)Cosωc t Senωc ( t - τ) + n̂ ( t )n ( t - τ)Senωc tCosωc ( t - τ)⎦ R n (τ)Cosωc tCosωc ( t - τ) + R n̂ (τ)Senωc tSenωc ( t - τ) + R nn̂ (τ)Cosωc t Senωc ( t - τ) + R n̂n (τ)Senωc t Cosωc ( t - τ) Pero hay que considerar los siguientes aspectos: R yx (τ) = h (τ) * R x (τ) R xy (τ) = R yx (-τ) R n (τ) = R n̂ (τ) R n̂n (τ) = h H (τ) * R n (τ) R n̂n (τ) = R̂ n (τ) R nn̂ (τ) = h H (-τ) * R n (τ) R nn̂ (τ) = -R̂ n (τ) Por lo tanto, la autocorrelación de la componente en fase del ruido quedará: R n (τ)Cosωc tCosωc ( t - τ) + R n̂ (τ)Senωc tSenωc ( t - τ) + - R̂ n (τ)Cosωc t Senωc ( t - τ) + R̂ n (τ)Senωc t Cosωc ( t - τ) = R n (τ)[Cosωc tCosωc ( t - τ) + Senωc tSenωc ( t - τ)] + R̂ n (τ)[Senωc t Cosωc ( t - τ) - Cosωc t Senωc ( t - τ)] = R n (τ)Cosωc τ + R̂ n (τ)Senωc τ 6.10.- RUIDO Se conoce como ruido a toda perturbación inevitable sobre la señal que se desea transmitir y cuyas causas pueden ser externas ( ruido atmosférico, solar , de encendidos, de máquinas, etc.) o internas. Estas últimas se deben a fluctuaciones espontáneas de corriente o voltaje y entre ellas se destacan el ruido de disparo y el ruido térmico. El ruido de disparo se debe al movimiento de partículas a través de un gradiente de potencial. Por ejemplo, en los semiconductores, este se debe a la difusión aleatoria de los portadores minoritarios y a la recombinación de huecos y electrones. Este ruido es gausseano y con media nula. El ruido térmico se debe al movimiento aleatorio de los electrones dentro de un conductor. También se le llama ruido resistivo o ruido Johnson, debido a que su primer análisis fué realizado por Johnson y Nyquist sobre resistores. De estos estudios surgen las siguientes características: a) Cuando un resistor R está a una temperatura T, aparece en sus extremos un voltaje v(t) aleatorio, gausseano con media cero y varianza igual a : donde : k = Constante de Boltzman = 1.37 x 10-23 J/°K h = Constante de Planck = 6.62 x 10-34 J/seg T = Temperatura en °K b) Su densidad espectral de voltaje cuadrático tiene la siguiente expresión: A temperatura ambiente ( T0 = 290 °K ), hf/kT0 < 0.1 para f < 500 GHz, es decir, para efectos prácticos, Gv(f) es constante para todo el rango de frecuencias de interés y aproximadamente igual a 2RkT. Esta aproximación tiene el inconveniente de que la potencia resulta infinita, sin embargo esto se resuelve al recordar que cualquier sistema real tiene ancho de banda finito que limita el valor de la potencia promedio total. c) El modelo Thevenin de un resistor ruidoso es: donde Gv(f) es proporcional a V2 . d) El modelo Norton puede deducirse del anterior ya que v2= (Ri)2 mientras que Gi(f)= Gv(f)/ R2 = 2kTG. Así: e) Cualquiera sea el modelo utilizado para el resistor ruidoso existe un límite en la potencia de ruido que puede generar, lo que ocurrirá en condición de máxima transferencia, es decir cuando en sus extremos se coloque una resistencia de su mismo valor. Así: Esto es la densidad espectral de voltaje cuadrático aprovechable. Por otra parte la densidad espectral de potencia aprovechable se obtiene dividiendo Gva(f) entre el valor de la resistencia R. Así: Ga(f) = Gva(f)/R = Gv(f)/4R = kT/2 watts/Hz Observe que la densidad de potencia aprovechable es independiente del valor de R. f) Cuando el ruido térmico se hace pasar por una red lineal, invariante en el tiempo y estable, con función de transferencia H(f), la densidad espectral de ruido a la salida, se consigue multiplicando la densidad espectral de potencia de ruido por el cuadrado del módulo de la función transferencia. Gy(f) = Gx(f) . | H(f) | 2 Por ejemplo, en el caso de ruido térmico al utilizar el modelo Thevenin se tiene: H'(f) debe incluir la resistencia no ruidosa y así: Gvout(f) = 2RkT | H'(f) | 2 Ejemplo: g) Cuando se tienen dos fuentes de ruido independientes alimentando a un sistema lineal, si al menos una de las dos señales tiene media nula, el espectro de potencia a la salida será la suma de los espectros de cada una de las fuentes por separado. Demostración: Cuando la entrada es f1(t) + f2(t), la salida y(t)= y1(t) + y2(t). Calculemos Ry(τ). Ry(t) = E [ y(t) y(t- τ ) ] = E [ ( y1(t) + y2(t)) ( y1(t- τ) + y2(t - τ )) ] = E [y1(t) y1(t- τ )] + E [y2(t)y1(t- τ )] +E[y1(t) y2(t- τ )] + E [y2(t)y2(t- τ ) ] = Ry1(τ) + E [ y2(t)] E [ y1(t- τ )] + E [ y1(t)] E [y2(t- τ )] + Ry2(τ) Ry(τ)= Ry1(τ) + Ry2(τ) Por lo tanto, al transformar: Gy(f)= Gy1(f) + Gy2(f) De ser independientes pero con media no nula, Ry(τ) = E [ y(t) y(t- t )] quedaría: Ry(τ) = Ry1(τ) + E [ y2(t)] E[ y1(t- τ )] + E[ y1(t)] E [y2(t- τ )] + Ry2(τ) Ry(τ) = Ry1(τ) + 2 m2 m1 + Ry2(τ) Por lo tanto, al transformar: Gy(f)= Gy1(f) + 2 m2 m1 δ(f) + Gy2(f) Es decir aparecerá una delta en el origen de frecuencias adicionales a las propias de y1 y y2. 6.11.- RUIDO BLANCO Cuando la densidad espectral de potencia de una señal ruidosa es constante con la frecuencia, se dice que es ruido blanco por analogía con la luz blanca que tiene todas las componentes de frecuencia ( aunque no en la misma proporción) dentro de la banda visible del espectro electromagnético. Además del ruido térmico, existen otras fuentes de ruido que pueden modelarse como blanco, por ejemplo: el ruido cósmico, el ruido solar, etc. La densidad espectral G(f) se define como: La autocorrelación para este tipo de ruido es una delta ubicada en el origen de τ es decir Rn(τ ) = ( η / 2) δ (τ) , lo que indica que el ruido en cada instante está decorrelacionado de lo que sucede en cualquier otro intervalo de tiempo. En el caso de ruido térmico: ηv= 4RkT ηi= 4GkT ηa= kT Cuando el ruido blanco pasa a través de una red L.T.I , con función de transferencia H(f), la densidad espectral a la salida viene dada por: Go(f)= (η/ 2 ) | H(f) |2 La autocorrelación de la señal de salida vendrá dada por la antitransformada de la densidad espectral, mientras que la potencia promedio total a la salida del sistema se conseguiría evaluando la autocorrelación en cero, o integrando en todo el rango de frecuencias la densidad espectral de potencia. El efecto del filtraje es " colorear" el ruido y de esta forma, generar correlación entre sus muestras. 6.12.- TEMPERATURA DE RUIDO Cuando se tiene una fuente de ruido no térmica cuya densidad de potencia aprovechable es ηa/ 2, se define TN como la temperatura a la cual estaría una resistencia cuya densidad de potencia aprovechable fuese la misma ηa= k TN; así TN= ηa/ k. 6.13. -ANCHO DE BANDA EQUIVALENTE Cuando ruido blanco pasa a través de una red con función transferencia H(f), la potencia de ruido de salida se calcula como: Definamos En ese caso: N0= η BN| H(f) |2 max. Es decir, se busca un filtro ideal con ancho de banda (hacia f positivo) igual a BN , con ganancia de voltaje igual a | H(f) | max y que deje pasar la misma cantidad de potencia que el filtro real. Ejercicio: Encuentre el ancho de banda equivalente de un filtro pasabajo RC. Recuerde que H(f) = (1 + jwRC)-1 ; | H(f) | max = 1 6.14.- TRANSMISION DE SEÑALES CON RUIDO Normalmente el ruido que afecta las transmisiones lo hace en forma aditiva es decir: Para ver el efecto del ruido se utiliza la relación señal a ruido ya que el conocimiento de las características del ruido sin saber las de la señal, no produce mayor información: No es lo mismo hablar de un ruido con VRMS en el orden de los milivoltios en un sistema de potencia de alto voltaje, que en una aplicación en medicina donde las señales tienen órdenes de magnitud similares (mv). Así: Si yD(t)= xD(t) + nD(t), RyD(0) = E [xD2(t) + 2 xD(t) nD(t) + nD2(t) ]. Solo si la fuente de ruido es independiente de la de señal y el ruido tiene media cero ( aunque usualmente la señal tiene nivel DC nulo ), la potencia de salida será la suma de la potencia de señal más la de ruido. E [ yD2(t)] = E [ xD2(t) ] + E [ nD2(t) ] Definiremos la relación señal a ruido detectada a recibida como: En la práctica uno puede "apagar " la señal y medir la potencia de ruido. También puede medir a la salida la potencia de señal más ruido ; en ese caso: Ejemplo: Suponga el siguiente sistema de transmisión en banda base : El mensaje x(t), con ancho de banda W, tiene potencia Sx, el transmisor lo amplifica y la potencia transmitida resulta ST = gT . Sx. Luego el canal produce una atenuación de potencia L y el receptor una amplificación gR. Así , SD = ( gT . Sx . gR )/ L. Por su parte el ruido solo se afecta por gR . Así: ND = η . gR . W. Finalmente: Se observa que la relación señal a ruido recibida: a) No depende de la ganancia del receptor. b) Es inversamente proporcional al ancho de banda del filtro. c) Es inversamente proporcional a la atenuación que produce el canal. Una manera de mejorar la relación señal a ruido es colocando estaciones repetidoras en zonas intermedias del trayecto de transmisión. Normalmente la ganancia del repetidor compensa la pérdida del trayecto; de esta forma, la potencia de señal se mantiene a la salida del sistema ST = gT . Sx = SD . Por su parte, la potencia de ruido luego de la primera repetidora queda ND1 = η . L1 .W. La potencia de este ruido al final de las m repetidoras queda igual ya que cada pérdida de canal será compensada por la ganancia de cada repetidora. Sin embargo se irán sumando contribuciones idénticas de ruido, tantas como repetidoras existan. Al final para m repetidoras ND = m . η . L1 .W. Finalmente Comparando con la relación señal a ruido sin repetidoras se obtiene que: Para ilustrar esto, considere un sistema basado en líneas de transmisión con una pérdida de 10 dB/ Km. Para un trayecto de 14 Km, si se coloca una repetidora en la mitad , L=1014 y L1= 107 ( El receptor se cuenta como repetidora, por tanto m=2). La ganancia en este caso será de: L/mL1 = 5 x 106 . Esto es produce una mejora considerable en la relación señal a ruido. 6.15.- RUIDO EN DISPOSITIVOS LINEALES Además del ruido resistivo, los sistemas lineales como por ejemplo las líneas de transmisión, los amplificadores, etc. también contaminan la señal que se desea transmitir. Es por ello necesario cuantificar a través de alguna cifra de mérito cuanto ruido aporta el dispositivo. Las cifras más usadas son: la figura de ruido y la temperatura efectiva de ruido. 6.15.1.- Figura de ruido:Considere el siguiente modelo para un sistema lineal con una banda de trabajo (f0-W/2) a (f0+W/2) que introduce ruido: La figura de ruido del sistema se determina alimentándolo con ruido térmico a temperatura ambiente T0= 290°, colocando a la salida una carga cualquiera y determinando: F = Pot. total a la salida / Pot. a la salida debida a la fuente El diagrama sería el siguiente: En este caso la figura de ruido resultaría: Si la respuesta del sistema G(f) es constante con la frecuencia e igual a G, la figura de ruido resultaría: Si el dispositivo no proporciona ruido, la figura de ruido será igual a 1. F se acostumbra a especificar en decibeles. Ejercicio: Determine la figura de ruido de la cascada de 3 amplificadores con ganancia constante. El modelo aplicable a este caso sería el siguiente: De este modo la figura de ruido para el sistema total sería: Esto también se puede escribir como: Se observa claramente que la primera etapa de la cascada debe ser la menos ruidosa y además debe proporcionar una alta ganancia. 6.15.2. -Temperatura efectiva de ruido: Esta cifra se basa en el siguiente modelo: En este modelo, Te se conoce como la temperatura efectiva de ruido del dispositivo, es decir, sería la temperatura a la que debiera estar una resistencia para que, sumada al ruido de entrada, lograra el mismo valor de potencia total a la salida. Si la respuesta del sistema es constante con la frecuencia e igual a G, la potencia total a la salida resultaría igual a: De donde se deduce que la temperatura efectiva de ruido sería igual a : Generalmente se coloca la temperatura de entrada igual a la temperatura ambiente a menos que el sistema esté en cascada con otro sistema a temperatura arbitraria. Ejercicio: Determine la temperatura efectiva de ruido de la cascada de 3 amplificadores. Esto también se puede expresar como: Al igual que al realizar el análisis de la figura de ruido, se puede concluir que la primera etapa de la cascada debe ser la menos ruidosa y además debe proporcionar una alta ganancia. Ejercicio: Determine la temperatura efectiva de ruido y la figura de ruido de una línea de transmisión de impedancia característica R0, que produce una pérdida de potencia L, alimentada por una fuente resistiva R0 y que se termina con una impedancia acoplada. Asuma que la temperatura a la que se encuentra la línea es TL. Cuando se tiene una línea de transmisión con impedancia característica R0 , terminada en una carga con este mismo valor, a la salida de la línea se verá solamente el ruido producido por un conductor colocado a temperatura TL ( ruido térmico). Es decir la potencia de salida POUT será igual a KTLW . Por lo tanto para una línea de transmisión con una pérdida total de potencia L, la temperatura efectiva de ruido será: (G=1/L)Si la temperatura de entrada y la de la línea son iguales, la temperatura efectiva de la línea de transmisión resultará igual a: Por otra parte, la figura de ruido resulta: En general , la relación entre la figura de ruido y la temperatura efectiva de ruido se consigue colocando la entrada a temperatura ambiente ( también la línea) y en ese caso resultaría : Ejercicio: Una antena está conectada a un receptor de televisión(F=16 dB), a través de un trozo de línea de transmisión de una longitud tal que la pérdida total que produce es de 3.75 dB. a) Determine la figura global de ruido de este sistema b) Inserte un amplificador exactamente después de la antena y antes de la línea con F=3dB y G=20 dB. Determine la figura de ruido global. c)Inserte el mismo amplificador anterior después de la línea de transmisión . Determine la figura de ruido global. d) Compare los resultados de b) y c) y concluya. Solución: a)En primer lugar dibujemos el modelo del sistema : De los datos suministrados para el televisor se deduce que : FdB= 16dB indica que F= 39.81 , es decir Por otra parte la línea tiene una pérdida en dB de 3.75. Esto indica que L=2.37; asimismo ,como la línea se coloca a temperatura ambiente para medir la figura de ruido, se obtiene que Te= T0(L-1)= 1.37 T0. En este caso la figura de ruido total queda: b) Ahora al insertar el amplificador después de la antena el sistema queda : El amplificador tiene una figura de ruido de 3 dB, por lo tanto Ahora la figura de ruido global quedará: c) Ahora al colocar el amplificador después de la línea el modelo quedará: Ahora la figura de ruido resultará: d) La figura de ruido resulta menor en el caso b) , es decir cuando el amplificador se conecta antes de la línea de transmisión. Por esto es conveniente colocar siempre el amplificador a la salida de la antena. 6.16. -DISTORSION El ruido no es la única fuente de contaminación en los sistemas de comunicaciones. Existe también distorsión debida a la respuesta imperfecta de los diferentes bloques que conforman el sistema. Entre ellas destacan: -Distorsión lineal (De amplitud y/o fase) -Distorsión no-lineal Distorsión lineal: En un sistema lineal , se dice que la señal a su salida no está distorsionada si se cumple que: siendo x(t) la señal de entrada. Para un sistema lineal esto sería lo mismo que decir que la función transferencia o respuesta en frecuencia del sistema vendría dada por: es decir que la magnitud es constante con la frecuencia e igual a K y la fase tiene un comportamiento lineal con la frecuencia e igual a -( ωtd ± mπ). Si estas condiciones no se cumplen, se presentará el fenómeno de distorsión lineal el cual cambiará la forma de la señal recibida. Cuando la magnitud de H(f) no es constante , se produce distorsión de amplitud. Cuando la fase de H(f) no es lineal con la frecuencia se producirá distorsión o retardo de fase. Imagine por ejemplo que la señal enviada es una periódica que sabemos está constituída por infinitas armónicas distanciadas f0 (frecuencia fundamental) , con amplitudes y fase determinadas. Si la magnitud de la función transferencia no es constante con la frecuencia, la contribución de cada armónica no será la adecuada para contribuir con la formación de la periódica y por ende la salida no preservará la forma original. Tampoco se preservaría si la respuesta en fase del sistema no es lineal con la frecuencia. Distorsión no-lineal: El considerar que el sistema por el que pasa la señal es lineal, generalmente es una simplificación que es válida solo para ciertas circunstancias (p.e. pequeñas señales). Lamentablemente en la mayoría de los casos estas condiciones no se cumplen y hay necesariamente que utilizar un modelo no-lineal. Con distorsión no-lineal, la amplitud y la fase cambian con el voltaje de entrada Vin de la siguiente forma: Cuando el sistema no es lineal, la salida y(t) y la entrada x(t) pueden relacionarse a través de una ecuación característica que puede ser del siguiente tipo: que al transformarla produce: En ese caso aún siendo la señal x(t) de ancho de banda finito, la salida no solo perderá semejanza con la entrada sino que ocupará un ancho de banda mayor. Si existieran canales adyacentes, aparecerá interferencia en los mismos. En la práctica , por ejemplo, los amplificadores producen distorsión no-lineal y si se alimentaran con un tono puro, x(t) = A Cos(ω0t+F), la salida y(t) tendría la siguiente forma: y(t) =k0 + k1Cos(ω0t+Φ1) + k2Cos(2ω0t+ Φ2) + k3Cos(3ω0t+ Φ 3)+....... De esta forma , se puede definir la distorsión armónica total como: Otro tipo de distorsión es la distorsión por intermodulación (DI) , la cual se determina alimentando el sistema con 2 tonos y observando los términos adicionales que aparecen. Si x(t) = A1Senω1t + A2Senω2t la salida y(t) será: y(t) = k0 + k1Senω1t + k2Senω2t + k3Sen2ω1t + k4Sen2ω2t + k5Senω1t Senω2t + k6Sen3ω1t + k7Sen2ω1t Senω22t +k8Senω1t Sen2ω2t+........ Se observan términos de frecuencia 2f2 + f1, 2f1 + f2 , 2f2 - f1 , etc. Este tipo de distorsión es característica de los amplificadores pasabanda y los de RF usados en transmisores y receptores. Otro tipo de distorsión presente a la salida de un amplificador no lineal es la modulación cruzada (cross-modulación). Los términos de la modulación cruzada tienen las mismas frecuencias originales (ω1 y ω2), pero amplitudes cruzadas; es decir aparecerá un tono de frecuencia ω1 y amplitud relacionada a la amplitud del tono original de frecuencia ω2 y viceversa. Por ejemplo si se tiene x(t) = A1(1+m1(t))Senω1t + A2Senω2t , el término de orden 3 arrojará un elemento del tipo : k (1+m1(t))2Senω2t Retardo de grupo: Para un tono puro, se define el retardo de fase rp(ω) como: donde q(ω ) es la respuesta de fase del sistema. Para una señal modulada, como tiene gran cantidad de frecuencias, ya esta relación no se cumple. En general algunas componentes viajarán más lento que otras, con una regla no lineal, y esto producirá distorsión. En estos casos se habla del retardo de grupo definido como: Las componentes del retardo de grupo se relacionan con los siguientes tipos de distorsión: -Si q( ω ) es parabólico se habla de retardo lineal ( Distorsión de segundo orden). Este tipo de distorsión altera la relación de fase entre las bandas laterales. -Si q( ω ) es cúbico se habla de retardo parabólico ( Distorsión de primero y tercer orden). Este tipo de distorsión altera la relación de fase entre las bandas laterales y la portadora. Si existe una combinación de las dos anteriores se le llama ripple residual.