Casificación de las Señales - Universidad Nacional de Quilmes

Anuncio
DEPARTAMENTO DE CIENCIA Y TECNOLOGÍA
UNIVERSIDAD NACIONAL DE QUILMES
Roque Sáenz Peña 180 – (B1876BXD) Bernal – Buenos Aires – Argentina
TEORÍA DE LAS TELECOMUNICACIONES
CLASIFICACIÓN DE LAS SEÑALES
Básicamente tenemos dos tipos de señales: determinísticas y aleatorias. Las
determinísticas tienen un valor conocido en cada instante de tiempo y pueden expresarse
matemáticamente como, por ejemplo, x(t) = 5 cos 10t. Para una señal o forma de onda
aleatoria no es posible dar una expresión explícita como la anterior. Sin embargo, cuando se la
observa durante un largo período de tiempo puede verse cierta regularidad y puede ser
descripta en términos de probabilidades y promedios estadísticos. El ejemplo más
sobresaliente de este caso, en sistemas de comunicaciones, es el ruido. Sin embargo, también
son aleatorias las señales provenientes de las fuentes de información. Es aleatoria la señal de
video, la voz de un locutor de radio, el mensaje de un fax, etc. Lo cual es bastante lógico. Si
estas señales fueran determinísticas no tendrían sentido las comunicaciones. ¿Para qué
transmitir algo si el receptor sabe a priori de qué se trata?
Haremos un breve repaso de algunas características de estas señales, como así también
del ruido, ya que deberemos tratar con ellas posteriormente (fundamentalmente con el ruido).
Señales de potencia y de energía
Una señal eléctrica puede ser representada por un voltaje v(t), o una corriente i(t), que
entrega una potencia instantánea p(t) a través de un resistor R:
v 2 (t )
R
p(t ) =
(1)
ó
p(t ) = i 2 (t )R
(2)
En sistemas de comunicaciones es común normalizar las ecuaciones anteriores
considerando a R = 1 Ω aunque en realidad pueda tener otro valor. En ese caso las
expresiones anteriores toman la forma general:
p(t ) = x 2 (t )
(3)
donde x(t) representa una tensión o una corriente, indistintamente. La energía disipada
durante el intervalo de tiempo (- T/2, T/2) por una señal con potencia instantánea expresada
por (3) se puede escribir como:
E xT =
T /2
∫
−T / 2
x 2(t )dt
(4)
y la potencia media disipada por la señal durante el intervalo es:
PxT =
Clasificación de las señales
1
T
∫
T /2
−T / 2
x 2(t )dt
(5)
1
Como veremos más adelante, la performance de un sistema de comunicaciones
depende de la energía de la señal detectada; las señales de mayor energía brindan mayor
confiabilidad (menos errores). Por otro lado, la potencia es la velocidad a la que se entrega
energía. La potencia determina la tensión eléctrica que debe ser aplicada a un transmisor.
En el análisis de sistemas de comunicaciones a menudo es deseable tratar con formas
de onda de energía. Clasificaremos a x(t) como una señal de energía si, y sólo si, tiene energía
mayor que cero y de valor finito (0 < Ex < ∞) para toda la extensión del tiempo:
E x = lim
T /2
∫
x 2(t )dt =
T → ∞ −T / 2
∫
∞
−∞
x 2(t )dt
(6)
En la práctica siempre transmitimos señales que tienen energía finita. Sin embargo,
para describir las señales periódicas, que por definición existen para todo tiempo t y tienen
energía infinita, es conveniente definir una clase de señales llamadas señales de potencia. Por
definición, una señal es de potencia si, y sólo si, tiene potencia mayor que cero y de valor
finito para todo t:
1
T →∞ T
Px = lim
T /2
∫
−T / 2
x 2(t )dt
(7)
Esta clasificación de las señales es mutuamente excluyente. O sea, una señal de
energía tiene energía finita pero potencia media cero, mientras que una señal de potencia
tiene potencia finita pero energía infinita. Como regla general, las señales periódicas y las
señales aleatorias se clasifican como señales de potencia, mientras que las señales
determinísticas no periódicas se las clasifica como señales de energía.
Señales Periódicas
Señales de Potencia 
Señales Aleatorias
Señales de Energía {Señales Determinísticas no Periódicas
La clasificación en estas dos categorías descriptas es un modelo conveniente para tratar
cierto tipo de señales y el ruido.
Densidad espectral
La densidad espectral de una señal caracteriza la distribución de energía o de potencia
de una señal en el dominio de la frecuencia.
Densidad Espectral de Energía. La energía total de una señal de energía x(t), definida
sobre un intervalo (-∞, +∞) se describe mediante la ecuación (6). Podemos relacionar la
energía de esa señal expresada en el tiempo con la energía expresada en el dominio de la
frecuencia mediante la siguiente expresión:
Ex =
∫
∞
x 2 (t )dt =
−∞
∫
∞
−∞
2
X (f ) df
(8)
donde X(f) es la transformada de Fourier de la señal x(t). Recordemos que, se define
matemáticamente a la transformada de Fourier de la siguiente manera:
X (f ) =
∫
∞
−∞
x(t ) ⋅ e − j 2πft dt
Podemos hacer:
2
Clasificación de las señales
Ψx (f ) = X (f )
2
(9)
La función Ψx(f) es la densidad espectral de energía de la señal x(t). Por lo tanto, la
energía total de la señal x(t) se puede expresar así:
Ex =
∫
∞
−∞
Ψ x (f )df
(10)
Esta ecuación establece que la energía de una señal es igual al área bajo la curva Ψx(f).
La densidad espectral de energía describe la energía de la señal por unidad de ancho de
banda, expresado en Joules/Hertz. Como X(f) es una función par resulta que:
∫
∞
E x = 2 Ψx (f )df
(11)
0
Densidad Espectral de Potencia. La potencia promedio, de una señal real x(t) se define
en la ecuación (7). Si x(t) es una señal periódica con período T0, se la clasifica como una
señal de potencia, con potencia media expresada por:
Px =
1
T0
T0 / 2
∫
−T0 / 2
∞
x 2(t )dt =
∑c
2
n
(12)
n = −∞
donde el término cn2 representa a los coeficientes complejos de la serie de Fourier
(esta es la relación de Parseval para señales periódicas). La función densidad espectral de
potencia, Gx(f), de una señal periódica x(t), es una función real, par y no negativa que da la
distribución de la potencia de x(t) en función de la frecuencia. Se la define como:
∞
G x (f ) =
∑c
2
n
δ (f − nf 0 )
(13)
n = −∞
La ecuación (13) define la densidad espectral de potencia de una señal periódica x(t)
como una sucesión de funciones delta “pesadas” por el coeficiente cn2 . Esto significa
que es una función discreta de la frecuencia. La potencia media total, normalizada, queda
expresada como:
Px =
∫
∞
−∞
∫
∞
G x (f )df = 2 G x (f )df
0
(14)
La densidad espectral de potencia se expresa en unidades tales como Watts/Hertz.
Autocorrelación
Autocorrelación de una señal de energía
La correlación es un proceso de comparación. La autocorrelación se refiere a la
comparación de una señal con una versión desplazada de sí misma. La función de
autocorrelación, Rx(τ), de una señal real de energía x(t), viene definida por:
Rx (τ ) =
∫
∞
−∞
x(t )x(t + τ )dt
para - ∞ < τ < ∞
(15)
La función de autocorrelación da una idea de qué tanto se parece una señal a una
versión desplazada (τ unidades en el tiempo) de sí misma. Rx no es una función del tiempo
Clasificación de las señales
3
sino que es función de la diferencia de tiempo o desplazamiento τ, entre la función inicial y la
función desplazada.
La función de autocorrelación de una señal real de energía tiene las siguientes
propiedades:
1. R x (τ ) = R x (−τ )
es una función par.
2. Rx (τ ) ≤ Rx (0) para todo τ
3. Rx (τ ) ↔ Ψx (f )
tiene su valor máximo en el origen.
la autocorrelación y la densidad espectral de energía forman un
par transformado de Fourier.
4. Rx (0) =
∫
∞
−∞
x2(t )dt
el valor en el origen es igual a la energía de la señal (se
puede ver de la (15) haciendo τ = 0).
Autocorrelación de una señal periódica (señal de potencia)
La función de autocorrelación de una señal real de potencia se define como:
1
T →∞ T
Rx (τ ) = lim
T /2
∫
−T / 2
x(t )x(t + τ )dt
para - ∞ < τ < ∞
(16)
Cuando la señal de potencia x(t) es periódica con período T0, el tiempo de promediación
puede tomarse sobre un período, quedando la expresión:
Rx (τ ) =
1
T0
T0 / 2
∫
−T0 / 2
x(t )x(t + τ )dt
para - ∞ < τ < ∞
(17)
Las propiedades de la autocorrelación para una función real periódica son:
1. R x (τ ) = R x (−τ )
es una función par.
2. Rx (τ ) ≤ Rx (0) para todo τ
3. Rx (τ ) ↔ G x (f )
tiene su valor máximo en el origen.
la autocorrelación y la densidad espectral de potencia forman un
par transformado de Fourier.
4. Rx (0) =
1
T0
T0 / 2
∫
−T0 / 2
x2(t )dt
el valor en el origen es igual a la potencia media de
la señal, como se puede ver de la (17) haciendo τ = 0.
Señales aleatorias
Veremos a continuación algunas características de las señales aleatorias y repasaremos
algunos conceptos básicos de estadísticas.
Sea X(A) una variable aleatoria. Representa la relación entre un evento aleatorio A y un
número real. Por conveniencia indicaremos a la variable aleatoria solamente por X, quedando
implícita su relación con A. La variable aleatoria puede ser discreta o continua. Las variables
aleatorias discretas son aquellas que ante un evento, el conjunto de resultados posibles es
discreto. Por ejemplo, supongamos el evento A = “se arroja un dado”. Los valores posibles
para X son {1, 2, 3, 4, 5 y 6}. Las variables aleatorias continuas son aquellas que, para un
4
Clasificación de las señales
evento definido, presentan un conjunto de resultados continuos. Por ejemplo, supongamos el
evento A = “se mide una tensión eléctrica”. Los posibles resultados para la variable aleatoria X
podrían ser, por ejemplo, los pertenecientes al intervalo continuo [200, 240], representando
valores de tensión eléctrica en volts1.
La función de distribución FX(x) (o función de distribución acumulativa) de la variable
aleatoria X viene dada por:
F X (x) = P(X ≤ x)
(18)
donde el término de la derecha representa la probabilidad de que la variable aleatoria X
sea menor o igual que el número real x. Esta función Fx tiene las siguientes propiedades:
1. 0 ≤ FX (x) ≤ 1
2. FX ( x1) ≤ FX (x2 ) si x1 ≤ x2
3. F X (−∞) = 0
4. F X (+∞) = 1
Para el caso de una variable aleatoria continua, la fda es continua. Para el caso de una
variable aleatoria discreta la fda tiene saltos escalonados o bien podríamos decir que es
continua por segmentos. También sigue siendo creciente.
Otra expresión útil es la función de densidad de probabilidad (fdp), definida como:
p X (x) =
dF X ( x)
dx
(19)
Esta función expresa la probabilidad de que la variable aleatoria X esté comprendida
entre dos ciertos valores:
P ( x1 ≤ X ≤ x 2 ) = P ( X ≤ x 2 ) − P ( X ≤ x 1 )
= F X ( x 2 ) − F X (x1 )
=
∫
x2
x1
p X ( x )dx
La función de densidad de probabilidad tiene las siguientes propiedades:
1. p X (x) ≥ 0
2.
∫
∞
−∞
p X (x)dx = F X (+∞) − F X (−∞) = 1
Obviamente el área debajo de pX(x) debe ser igual a 1 pues la probabilidad de obtener
un resultado cualquiera (perteneciente al conjunto), una vez observado el evento, es 1.
La fdp de una variable aleatoria continua es una función continua. Para el caso de las
tensiones eléctricas tomado antes como ejemplo, la función de densidad de probabilidad sería
una recta horizontal, de altura 1/40, y que se extiende desde x = 200 hasta x = 240. Esto
forma un rectángulo cuya área tiene valor 1, como debe ser. En este caso decimos que la
1
Esta suposición es en realidad bastante exagerada para una situación real. Si se mide, por ejemplo, la tensión
eléctrica domiciliaria repetidas veces, se encontrará que el valor es bastante estable y difícilmente tenga una
distribución uniforme entre 200 y 240V sino en un intervalo más pequeño (y con una distribución diferente).
Clasificación de las señales
5
variable aleatoria tiene una distribución uniforme. Para el caso de una variable aleatoria
discreta, la fdp también es discreta. Entonces, para el ejemplo del dado, tendríamos una
función discreta formada por puntos de ordenada = 1/6 y abscisa 1, 2, 3, etc, hasta 6. La
suma de las ordenadas de cada punto da 1, como debe ser. La fdp también tiene, en este
caso, una distribución uniforme. La distribución uniforme es la más sencilla de todas y desde
luego que existen numerosas funciones de densidad de probabilidad con diferentes formas.
Nótese que, para el caso de la fdp continua y uniforme del ejemplo de las tensiones, si
calculamos la función primitiva (la antiderivada) obtenemos como fda, función de distribución
acumulativa, una recta que cumple con la ecuación (18) y con todas las propiedades que se
enumeraron acerca de ella. Para el caso del dado, la fda sería “una recta escalonada”.
Indicaremos a la función de densidad de probabilidad como p(x). Además, escribiremos
P(X=xi) como la probabilidad de que una variable aleatoria discreta X tome el valor xi. Es
importante aclarar que esta última expresión sólo es válida para variables discretas.
Para el caso de variables continuas pX(x0) no representa la probabilidad de nada.
Siempre se debe integrar entre dos valores x1 y x2 y lo que se obtiene es la
probabilidad de que la variable aleatoria X se encuentre entre los valores x1 y x2. Una
vez más, refiriéndonos al ejemplo de las tensiones eléctricas, la probabilidad de que el
resultado del evento sea, por decir algo, 223,18 volts no tiene sentido. En tal caso, deberemos
calcular la integral de la fdp entre dos valores muy cercanos a 223,18 y obtendremos la
probabilidad de que el resultado del evento esté dentro de ese rango de integración.
El valor medio (o valor esperado) mX de una variable aleatoria X viene definido por
m X = E {X } =
∫
∞
−∞
xp X ( x )dx
(20)
⋅ es el valor esperado de la variable aleatoria. El valor esperado representa
donde E {}
algo así como el promedio entre los posibles resultados de la variable aleatoria. Para el
ejemplo del dado, el valor esperado es 3,5. Este valor surge de hacer la siguiente operación:
E {X } =
6
∑x
j P(X
= xj)
j =1
= 1⋅
1
1
1
+2⋅ +L+6⋅
6
6
6
1
(1 + 2 + 3 + 4 + 5 + 6)
6
= 3,5
=
Nótese que la variable aleatoria X puede no ser igual a su valor esperado para ningún
resultado experimental.
Para el ejemplo de las tensiones eléctricas el valor medio o esperado (también llamado
esperanza algunas veces) es 220 V, suponiendo una distribución uniforme, es decir, una
distribución con igual probabilidad para todos los resultados. Se puede comprobar fácilmente
aplicando la (20).
El n-ésimo momento de una distribución de probabilidad de una variable aleatoria X
viene definido por
{ } ∫
E Xn =
6
∞
−∞
x n p X (x)dx
(21)
Clasificación de las señales
Para el análisis de los sistemas de comunicaciones son de utilidad el primero y segundo
momento. Para el primer caso, haciendo n = 1 obtenemos la ecuación (20) que da el valor
medio; para el segundo caso, haciendo n = 2 se obtiene el valor cuadrático medio de X:
{ } ∫
E X2 =
∞
−∞
x 2 p X ( x)dx
(22)
Otra definición de importancia es la varianza de una variable aleatoria X, expresada
como:
{
} ∫
var(X ) = E ( X − m X )2 =
∞
−∞
( x − mX )2 p X (x)dx
(23)
La varianza de X es normalmente denotada como σ 2X , y su raíz cuadrada, σX, es
llamada la desviación estándar de X. La varianza es una medida de la “aleatoriedad” o
dispersión de la variable X. El valor de la varianza da una idea del “ancho” de la función de
densidad de probabilidad de la variable aleatoria X. Cuanto más “ancha” es una fdp dada,
mayor es la varianza de la misma. La varianza y el valor cuadrático medio se relacionan de la
siguiente manera:
{
= E {X } − 2m
= E {X } − 2m
= E {X } − m
σ 2X = E X 2 − 2m X X + m 2X
{X } + m2X
2
XE
2
X mX
2
}
+ m 2X
2
X
Así, la varianza es igual a la diferencia entre el valor cuadrático medio y el cuadrado de
la media.
Procesos aleatorios
Figura 1. Proceso aleatorio.
Clasificación de las señales
7
Un proceso aleatorio, X(A, t), puede ser visto como una función de dos variables: un
evento A y el tiempo t. Supongamos N muestras de una función del tiempo {Xj(t)}. Cada una
de las muestras puede ser relacionada con la salida de diferentes generadores de ruido. Para
un evento específico Aj tenemos una función del tiempo X(Aj, t) = Xj(t) (o sea una muestra de
la función). La totalidad de las muestras forman un conjunto o ensamble. Para un tiempo
específico tk, X(A, tk) es una variable aleatoria X(tk), cuyo valor depende del evento. Para un
evento específico A = Aj y un tiempo específico t = tk, X(Aj, tk) es simplemente un número. Por
conveniencia designaremos a este proceso aleatorio como X(t) y la dependencia con A quedará
implícita. La Figura 1 muestra un ejemplo de proceso aleatorio. Se trata de N eventos; cada
evento depende del resultado aleatorio del mismo y del tiempo.
Promedios estadísticos de una variable aleatoria
El valor de un proceso aleatorio no puede ser conocido a priori (ya que no se conoce la
identidad del evento A). Se busca entonces poder describir este proceso estadísticamente,
mediante su función de densidad de probabilidad (fdp). En general, la forma de la fdp de un
proceso aleatorio será diferente para diferentes tiempos. Y en general también, no es práctico
determinar empíricamente la fdp. Sin embargo, se puede obtener una descripción parcial a
través de la media y de la autocorrelación. Definiremos a la media de un proceso aleatorio X(t)
como:
E {X (t k )} =
∫
∞
−∞
xp X k ( x)dx = m X (t k )
(24)
donde X(tk) es la variable aleatoria obtenida por observación del proceso aleatorio en el
tiempo tk. La fdp de X(tk) es pxk(x). Es la función de densidad de probabilidad sobre todo el
conjunto de eventos, tomada en el tiempo tk.
Definiremos a la función de autocorrelación del proceso aleatorio X(t) como una función
de dos variables, t1 y t2:
R X (t1 , t 2 ) = E {X (t1 )X (t 2 )}
(25)
donde X(t1) y X(t2) son las variables aleatorias obtenidas por observación de X(t) en los
tiempos t1 y t2 respectivamente. La función de autocorrelación da una pauta de cuánto se
parecen dos muestras del mismo proceso aleatorio, desplazadas en el tiempo.
Procesos estacionarios
Un proceso aleatorio X(t) se dice estacionario en sentido estricto si ninguna de sus
propiedades estadísticas son afectadas por un desplazamiento sobre el eje de tiempos. Un
proceso aleatorio se dice estacionario en sentido amplio si la media y la autocorrelación no
varían con un desplazamiento en el tiempo. Así, un proceso es estacionario en sentido amplio
si,
E {X (t )} = mX = constante
(26)
RX (t1, t2 ) = RX (t1 − t2 )
(27)
y
Estacionario en sentido estricto implica estacionario en sentido amplio, pero no
viceversa. La mayoría de los procesos aleatorios usados en sistemas de comunicaciones son
estacionarios en sentido amplio.
8
Clasificación de las señales
En procesos estacionarios la autocorrelación no depende del tiempo sino de la
diferencia de tiempos t1 y t2. Es decir, todos los pares de valores de X(t) separados en el
tiempo τ = t1 – t2 tienen el mismo valor de autocorrelación. Así, para procesos estacionarios,
expresamos la autocorrelación simplemente como RX(τ).
Autocorrelación en procesos estacionarios en sentido amplio. Así como la varianza
provee una medida de la aleatoriedad de una variable aleatoria, la función de autocorrelación
provee una medida similar para los procesos aleatorios. Como se dijo antes, para procesos
estacionarios en sentido amplio la autocorrelación es una función de τ = t1 – t2, esto
es:
R X (t1 , t 2 ) = E {X (t1 )X (t 2 )} = R X (t1 − t 2 ) = R X (τ )
R X (τ ) = E {X (t )X (t + τ )} para - ∞ < τ < ∞
(28)
Para un proceso estacionario en sentido amplio, RX(τ) da una idea del “parecido” de los
valores del proceso separados por un tiempo τ. En otras palabras, da una idea de la rapidez
con que va cambiando el proceso a lo largo del tiempo. Si RX(τ) cambia lentamente significa
que, en promedio, los valores de X(t) tomados en t1 y t1 + τ son aproximadamente iguales. De
esa manera una representación de X(t) en el dominio de la frecuencia debería tener una
preponderancia de bajas frecuencias. Por el contrario, si RX(τ) decrece rápidamente con el
aumento de τ deberíamos esperar que X(t) cambie rápidamente con el tiempo y que contenga
principalmente altas frecuencias.
Las propiedades de la función de autocorrelación para un proceso estacionario en
sentido amplio son:
1. R x (τ ) = R x (−τ )
es una función par.
2. Rx (τ ) ≤ Rx (0) para todo τ
3. Rx (τ ) ↔ G x (f )
tiene su valor máximo en el origen.
la autocorrelación y la densidad espectral de potencia
forman un par transformado de Fourier.
{
}
4. Rx (0) = E X 2 (t )
el valor en el origen es igual a la potencia media de
la señal.
Ergodicidad. Para calcular mX y RX(τ) por promediación del ensamble o conjunto,
deberíamos promediar todas las muestras de la función y deberíamos contar con información
estadística más amplia que generalmente no está disponible. Cuando un proceso aleatorio
pertenece a cierta clase especial llamado proceso ergódico, su promedio temporal es
igual al promedio del ensamble y las propiedades estadísticas del proceso pueden
determinarse a partir del promedio temporal de una sola muestra. Para que un
proceso aleatorio sea ergódico debe ser estacionario en sentido estricto (la inversa
no es necesariamente verdadera). Sin embargo, en sistemas de comunicaciones que
satisfacen la condición de estacionario en sentido amplio, sólo nos interesa saber la media y la
función de autocorrelación.
Podemos decir que un proceso es ergódico en la media si
mX = lim 1 / T
T →∞
∫
T /2
−T / 2
X (t )dt
(29)
es decir, calculamos el valor medio a partir del promedio temporal.
Y es ergódico en la autocorrelación si:
Clasificación de las señales
9
RX (τ ) = lim 1 / T
T →∞
∫
T /2
−T / 2
X (t )X (t + τ )dt
(30)
es decir, calculamos la autocorrelación a partir de la función de autocorrelación en el
tiempo.
Comprobar la ergodicidad de un proceso aleatorio es, en general, muy difícil.
En la práctica lo que se hace es una evaluación intuitiva para saber si es razonable
intercambiar los promedios temporales y los promedios de las muestras. En la mayoría de los
sistemas de comunicaciones (en ausencia de efectos transitorios) se asume la ergodicidad en
la media y en la autocorrelación.
Ya que en un proceso ergódico el promedio temporal es igual al promedio de las
muestras del conjunto, las variables eléctricas principales como valor dc, valor rms, etc, se
pueden relacionar, en este caso, con las propiedades estadísticas de la siguiente manera:
1. La cantidad mX = E {X (t )} es igual al nivel DC de la señal. Este resultado es bastante
intuitivo, ya que el valor medio estadístico coincide con el valor medio temporal, y el valor
medio temporal de una señal eléctrica representa la componente DC.
2. La cantidad m2X es igual a la potencia normalizada de la componente DC. También
es bastante intuitivo. Si mX es el valor medio de tensión eléctrica, entonces su cuadrado, m2X ,
representa la potencia continua normalizada.
{
}
3. El segundo momento de X(t), E X 2 (t ) es igual a la potencia media normalizada
total (AC + DC). Este resultado quizás no es tan evidente como los dos anteriores. Pero una
manera de interpretarlo es viendo que X2(t) es la potencia instantánea normalizada (AC + DC)
de la señal X(t). Por lo tanto su valor medio representa la potencia media normalizada AC +
DC.
{
}
E X 2 (t ) es igual al valor rms del voltaje o corriente de la señal (AC +
4. La cantidad
DC). Teniendo en cuenta el punto 3, vemos que se trata de la raíz cuadrada de la potencia
media normalizada total. Esto coincide con la definición de valor rms de una señal (en otras
palabras, es la raíz cuadrada del valor medio del cuadrado de la señal de tensión o de
corriente)
5. La varianza, σ 2X , es igual a la potencia media normalizada de la componente AC de
la señal:
{
σ 2X = var( X ) = E (X − m X )2
∞
}
∫ (x − m ) p (x)dx
= ∫ (x − 2 xm + m )p (x )dx
= ∫ x p (x )dx − ∫ 2 xm p ( x )dx − ∫
= E {X } − 2m E {X } + m
= E {X } − 2m + m
= E {X } − m
123
{
=
2
X
−∞
∞
X
2
2
X
X
−∞
∞
∞
2
X
−∞
2
2
X
2
2
X
X
∞
−∞
m2X p X ( x )dx
2
X
X
10
X
−∞
2
potencia
total
X
2
X
potencia
dc
Clasificación de las señales
{ }
6. Si el proceso tiene media cero (esto es, mX = m2X = 0 ), entonces σ 2X = E X 2 , y la
varianza representa la potencia media total normalizada (porque no hay potencia media DC).
7. La desviación estándar, σX, es el valor rms de la componente AC de la señal. Surge
del punto 5, tomando la raíz cuadrada de la potencia media AC y teniendo en cuenta la
definición de valor rms.
8. Si mX = 0 entonces σX es el valor rms total de la señal (ya que no hay tensión o
corriente continua).
Un proceso aleatorio X(t) generalmente puede ser clasificado como una señal de
potencia que tiene densidad espectral de potencia GX(f). La característica de esta densidad
espectral puede resumirse así:
1. G X (f ) ≥ 0
2. G X (f ) = G X (−f )
3. G X (f ) ↔ RX (τ )
4. PX =
∫
∞
−∞
G X (f )df
En la Figura 2 se muestran dos ejemplos de cómo se obtiene la densidad espectral de
potencia de una secuencia binaria, bipolar, aleatoria. A partir de dicha secuencia, se calcula la
función de autocorrelación, siendo la transformada de Fourier de esta última la densidad
espectral de potencia de la secuencia original. En el segundo ejemplo el ancho de pulso es
menor y por lo tanto el ancho de banda resultante es mayor (recuérdese que lo que es
“angosto” en el dominio del tiempo es “ancho” en el dominio de la frecuencia y viceversa).
Ruido en sistemas de comunicaciones
El término ruido se refiere a señales eléctricas indeseadas que están siempre presentes
en los sistemas eléctricos. La presencia de ruido superpuesto en una señal tiende a
enmascarar a dicha señal. Esto limita la capacidad del receptor para decidir correctamente
acerca de cuál fue el símbolo transmitido, además de limitar la velocidad de transmisión. Hay
diferentes fuentes de ruido, tanto naturales como artificiales (generados por el hombre). En
todo sistema de comunicaciones hay que pelear contra el ruido, diseñando las antenas y filtros
adecuados, o instalando los equipos en lugares apropiados.
Hay un tipo de ruido específico llamado ruido térmico o de Johnson que es causado por
la agitación térmica natural de los electrones presentes en distintos componentes como ser
cables conductores, resistores, transistores, etc. Los mismos electrones que realizan la
conducción eléctrica de la señal deseada producen el ruido térmico. Más adelante, en otro
capítulo, veremos más en detalle la expresión matemática de la tensión y de la potencia del
ruido térmico. Por ahora veremos su comportamiento estadístico y su espectro de frecuencia.
El ruido térmico tiene una naturaleza aleatoria y puede ser descripto como un proceso
Gaussiano de media cero. Un proceso Gaussiano n(t) es una función aleatoria cuyo valor n, a
cualquier valor arbitrario del tiempo t, está estadísticamente caracterizado por una función de
densidad de probabilidad Gaussiana p(n):
p(n) =
Clasificación de las señales
 1  n 2 
exp −   
 2  σ  
σ 2π
1
(31)
11
donde sigma cuadrado es la varianza de n. La fdp Gaussiana Normalizada es un
proceso de media cero que se asume tiene σ =1. Su gráfica representativa puede verse en la
Figura 3.
Figura 2. Autocorrelación y densidad espectral de potencia (Ejemplo 1).
12
Clasificación de las señales
Figura 2. (Ejemplo 2).
Clasificación de las señales
13
Figura 3. Función de densidad de probabilidad Gaussiana, normalizada (σ
σ = 1).
A menudo representaremos una señal aleatoria como suma de una componente DC y
ruido Gaussiano:
z=a+n
donde z es la variable aleatoria, a la componente DC y n el ruido Gaussiano. Para este
caso, la fdp p(z) se expresa como:
p(z ) =
 1  z − a 2 
exp− 
 
 2  σ  
σ 2π
1
(32)
donde, una vez más, sigma cuadrado es la varianza de n. Esta forma gaussiana que se
le asigna a la distribución de probabilidad de ruido blanco surge de un teorema que dice que la
suma de muchas variables aleatorias independientes tiende a una distribución gaussiana, sin
importar qué distribución tiene cada variable. La gráfica de la (32) es similar a la de la Figura 3
pero en vez de estar centrada en el eje y está centrada en un eje que pasa por a (donde a es
un valor de la abscisa).
Ruido blanco
La característica distintiva del ruido térmico es que su densidad espectral de potencia es
constante para todas las frecuencias que son de interés en la mayoría de los sistemas de
comunicaciones. Es decir, una fuente de ruido térmico emana una igual cantidad de potencia
por unidad de ancho de banda para todas las frecuencias (desde DC hasta aproximadamente
1012 Hz). Por lo tanto se puede describir al ruido térmico asumiendo que su densidad espectral
de potencia Gn(f) es constante para todas las frecuencias, y se expresa como:
Gn(f ) =
14
N0
2
watts / hertz
(33)
Clasificación de las señales
El factor ½ se incluye para indicar que la función es par y abarca tanto frecuencias
negativas como positivas. Un ruido de estas características se dice que es ruido blanco. El
adjetivo blanco se debe a que se lo compara con la luz blanca que tiene componentes iguales
para todas las frecuencias (para todos los “colores”).
La función de autocorrelación del ruido blanco viene dada por la antitransformada de
Fourier de la densidad espectral de potencia:
Rn (τ ) = ℑ −1 {G n (f )} =
N0
δ (t )
2
(34)
Por lo tanto, la función de autocorrelación del ruido blanco es una función delta
“pesada” por el factor N0/2 y ocurre en τ = 0. Esto indica que dos valores cualquiera de la
función de ruido son incorrelados y no tienen ningún “parecido”.
La potencia media Pn del ruido blanco es infinita ya que el ancho de banda es infinito y
el área debajo de la curva de densidad espectral de potencia es infinita:
Pn =
∫
∞
−∞
N0
df = ∞
2
También puede verse que la función de autocorrelación vale infinito en el origen,
cumpliendo con las propiedades enunciadas anteriormente para los procesos aleatorios
estacionarios. Desde luego, hay que tener en cuenta que esto de considerar infinito al ancho
de banda y a la potencia media, es una abstracción. En realidad el ancho de banda no puede
ser infinito. Sin embargo, para los fines prácticos, siempre que este ancho de banda sea mayor
que el ancho de banda del sistema de comunicaciones, se lo puede considerar como infinito. La
Figura 4 muestra la densidad espectral de potencia y la función de autocorrelación del ruido
blanco.
Figura 4. (a) Densidad espectral de potencia del ruido blanco. (b) Función
de autocorrelación del ruido blanco.
Ya que el ruido es un proceso ergódico, veamos cómo se relacionan sus propiedades
estadísticas con sus propiedades eléctricas:
1. El valor medio o esperanza de la fdp Gaussiana es cero, por lo tanto el nivel
de tensión continua del ruido es cero. Esto es intuitivamente lógico, ya que los niveles
positivos de tensión de ruido compensan a los niveles negativos.
2. Como consecuencia del punto anterior, la potencia normalizada de la componente
de tensión continua también es cero.
3. La varianza σ2 es igual a la potencia media normalizada de la señal de
ruido. Y aquí parece haber una contradicción, ya que anteriormente se había dicho que la
potencia media de ruido es infinita. Lo que ocurre es que esto último es una abstracción como
Clasificación de las señales
15
consecuencia de considerar infinito al ancho de banda de ruido (por una cuestión de
practicidad matemática y de análisis) aunque ya se dijo que no es así. La potencia de ruido
viene dada por la varianza de la fdp Gaussiana. Entonces, a mayor varianza, mayor
potencia de ruido y por lo tanto mayor “dispersión” estadística, es decir, más ancha
es la curva gaussiana. Siendo más estrictos, σ2 representa a la potencia media normalizada
de la componente AC, pero, como en este caso la componente DC es cero, finalmente σ2
representa a la potencia media normalizada total de la señal de ruido.
4. La desviación estándar σ, representa el valor rms o valor eficaz de la señal
de ruido. Siendo estrictos una vez más, σ es en realidad el valor rms de la componente AC,
pero como la componente DC es cero, finalmente la desviación estándar representa al valor
rms total del ruido.
La función delta en la expresión (34) indica que n(t) es totalmente incorrelado con su
versión desplazada, para cualquier valor de τ ≠ 0. Esto significa que una muestra en un tiempo
cualquiera t no se “parece” en nada con otra muestra cualquiera. Se dice que el ruido de este
tipo es Ruido Blanco Gaussiano Aditivo (RBGA). Además, al ser la distribución gaussiana y las
muestras incorreladas, se dice que las muestras de ruido son independientes. Por lo tanto,
este tipo de ruido, en un canal de comunicación, afecta en forma independiente a cada símbolo
transmitido. El término aditivo significa que el ruido simplemente se superpone a la señal y no
hay ningún tipo de mecanismo multiplicativo o de otra naturaleza.
Ya que el RBGA es el más común en los sistemas de comunicaciones, es el que
comúnmente se utiliza para modelar los sistemas de comunicaciones y para analizar y diseñar
los receptores para que tengan un desempeño óptimo. Normalmente hablaremos de ruido
blanco gaussiano aditivo de media cero.
Transmisión de señales a través de sistemas lineales
Una señal aplicada a la entrada de un sistema, puede ser descripta tanto en el dominio
del tiempo, como x(t), o en el dominio de la frecuencia, como X(f), (a través de su
transformada de Fourier). El análisis en el dominio del tiempo produce, ante una señal de
entrada x(t), una señal de salida y(t), siendo en tal caso h(t) la respuesta impulsiva de la red.
Si el análisis se hace en el dominio de la frecuencia entonces definimos la función de
transferencia H(f) de la red, que determina la señal de salida Y(f) en función de la frecuencia.
Esta explicación se ve resumida en la Figura 5.
Entrada
Salida
Red Lineal
x(t)
X(f)
h(t)
H(f)
y(t)
Y(f)
Figura 5. Sistema lineal.
Recordemos que un sistema es lineal si se cumple que:
y 1 (t ) = respuesta del sistema a la entrada x1 (t )
y 2 (t ) = respuesta del sistema a la entrada x 2 (t )
ay 1 (t ) + by 2 (t ) = respuesta del sistema a la entrada ax1 (t ) + bx 2 (t )
16
Clasificación de las señales
Un sistema lineal invariante en el tiempo es caracterizado por su respuesta impulsiva
h(t), la cual es la respuesta del sistema cuando la entrada es una función impulso unitario δ(t):
h(t ) = y (t ) cuando x(t ) = δ (t )
(35)
La respuesta de la red cuando la entrada es una señal arbitraria x(t) se halla
resolviendo la convolución entre x(t) y h(t):
y(t ) = x(t ) ∗ h(t ) =
∫
∞
−∞
x(τ )h(t − τ )dτ
(36)
El sistema es asumido como causal, lo cual significa que no hay salida antes del tiempo
t = 0 cuando la señal es aplicada. Por lo tanto, la expresión anterior queda:
y(t ) =
∞
∫ x(τ )h(t − τ )dτ
0
(37)
Aplicando la transformada de Fourier en ambos miembros de (36) se obtiene la señal
Y(f) en el dominio de la frecuencia. De ese modo, la convolución en el dominio del tiempo se
transforma en una multiplicación en el dominio de la frecuencia:
Y (f ) = X (f )H(f )
(38)
o
H(f ) =
Y (f )
X (f )
(39)
siempre y cuando X(f) ≠ 0 para todo f. Aquí, H(f) es la transformada de Fourier de h(t)
y se llama función de transferencia en frecuencia o respuesta en frecuencia de la red. En
general, H(f) es una expresión compleja y puede escribirse como:
H(f ) = H(f ) e jθ (f )
(40)
donde H(f)es la respuesta de magnitud. La respuesta de fase, θ(f) es:
θ (f ) = tan−1
Im{H(f )}
Re{H(f )}
(41)
donde Re e Im indican la parte real e imaginaria, respectivamente, de H(f).
Procesos aleatorios y sistemas lineales. Si un proceso aleatorio es aplicado a la
entrada de un sistema lineal e invariante en el tiempo entonces la salida será también un
proceso aleatorio. La densidad espectral de potencia de la entrada, GX(f), y de la salida, GY(f),
están relacionadas como sigue:
GY (f ) = G X (f ) H(f )
2
(42)
Más adelante veremos la detección de señales en presencia del ruido blanco Gaussiano.
Para ello aplicaremos una propiedad fundamental de los procesos Gaussianos aplicados a
sistemas lineales invariantes en el tiempo: puede demostrarse que si un proceso Gaussiano
X(t) es aplicado a un filtro lineal invariante en el tiempo, entonces el proceso a la salida, Y(t),
es también Gaussiano.
Transmisión sin distorsión. Veamos ahora cuál es el requerimiento de una red o
función de transferencia para que la transmisión a través de la misma sea sin distorsión. La
Clasificación de las señales
17
señal que sale de una línea de transmisión ideal debe ser igual a la señal de entrada, salvo un
factor de escala y un retardo. Es decir, una línea de transmisión ideal, sin distorsión, debe
relacionar las señales de entrada y de salida de la siguiente manera:
y(t ) = Kx(t − t 0 )
(43)
siendo K y t0 constantes. Aplicando transformada de Fourier queda:
Y (f ) = KX (f )e − j 2πft0
(44)
H(f ) = Ke − j2πft0
(45)
o bien
Por lo tanto, para que un sistema de transmisión no tenga distorsión su respuesta en
magnitud debe ser constante con la frecuencia, mientras que su respuesta en fase debe ser
lineal con la frecuencia. No es suficiente que el sistema amplifique o atenúe todas las
componentes en frecuencia por igual. Además de eso, todas las componentes en frecuencia
deben arribar con igual retardo para que se sumen correctamente. El retardo t0 está
relacionado con la fase θ0 de la siguiente manera:
t0[segundos] =
θ [radianes]
2πf [radianes/segundo]
(46)
Dilema del ancho de banda
Muchos teoremas importantes de las comunicaciones y de la teoría de la información se
basan en la suposición o existencia de canales con un ancho de banda limitado
(estrictamente). Sin embargo, considerar un ancho de banda así implica considerar una señal
de duración infinita, lo cual es impracticable. Por otra parte, considerar que el ancho de banda
se extiende de forma infinita también es irrazonable. Realmente, no hay una definición
universal para el ancho de banda.
Figura 6. Ancho de banda de una señal digital. (a) Mitad de potencia. (b) Rectángulo
equivalente. (c) Ancho entre ceros. (d) 99% de la potencia. (e) DEP limitada a 35 y
50 dB.
18
Clasificación de las señales
Todos los criterios de ancho de banda tienen en común la intención de especificar una
medida del ancho B, para una densidad espectral de potencia definida para todas las
frecuencias tales que f<∞. En la Figura 6 se ilustran algunas de las definiciones más
comunes.
a) Ancho de banda de mitad de potencia. Es el intervalo de frecuencias en los puntos
donde G(f) cae a la mitad del valor máximo. Esto equivale a una caída de 3 dB.
b) Rectángulo equivalente (también llamado ancho de banda de ruido equivalente). Es
un ancho de banda definido como BN = Px/Gx(fc), donde Px es la potencia total de la
señal sobre todo el espectro de frecuencias y Gx(fc) es el valor de la densidad
espectral de potencia en el centro de la banda. Nótese que si Px se expresa en watts
y Gx(fc) en watts/hertz entonces BN resulta en hertz, como debe ser.
c) Ancho de banda entre ceros. Es quizás la clasificación más popular para el ancho de
banda en sistemas digitales. Es el lóbulo principal del espectro, allí donde se
distribuye la mayor cantidad de potencia.
d) Ancho de banda de 99%. Es el ancho de banda limitado por las frecuencias que
determinan una potencia del 99% del total.
e) Densidad Espectral de Potencia limitada. Establece un ancho de banda tal que, fuera
de él, Gx(f) debe caer por debajo de un cierto nivel con respecto del nivel que hay
en el centro de banda. Valores típicos son 35 dB y 50 dB.
Resumen
Hemos clasificado las señales según sean determinísticas o aleatorias. Por otra parte
también las clasificamos según sean señales de energía o señales de potencia, y hablamos de
densidades espectrales de energía y densidades espectrales de potencia, respectivamente. Las
señales que manejaremos en el resto del curso serán de alguno de estos dos últimos tipos y
sus espectros serán de energía o de potencia.
Las señales aleatorias, muy comunes en sistemas de comunicaciones, quedan
representadas por sus parámetros estadísticos, como ser la media o la varianza. Cuando las
señales aleatorias son ergódicas entonces los parámetros estadísticos pueden calcularse a
partir de los valores temporales de la señal. Por ejemplo, el valor medio estadístico coincide
con el valor medio temporal. Así, vimos cómo se relacionan los parámetros estadísticos con
variables temporales como potencia media, tensión media, tensión eficaz, entre otros. Esta es
la manera de describir las características eléctricas de una señal aleatoria. La función de
autocorrelación y la densidad espectral de potencia en estas señales quedan vinculadas a
través de la transformada de Fourier. El ruido blanco gaussiano es uno de estos tipos de
señales ergódicas y tiene una fdp precisamente de forma gaussiana, un espectro de potencia
en forma práctica de extensión infinita en frecuencia y una función de autocorrelación que es
una delta ubicada en τ = 0.
Finalmente vimos algunas características de las funciones de transferencias lineales y
cómo deben ser éstas para que no se distorsione la señal a transmitir. También se habló de los
límites prácticos que tienen los espectros de potencia dado que no es posible que se extiendan
infinitamente con la frecuencia y cuáles son los criterios para establecer esos límites.
Clasificación de las señales
19
Descargar