Unidad Temática 3: Probabilidad y Variables Aleatorias

Anuncio
Guía de Coloquio 2 - Sistemas de Comunicaciones
Unidad Temática 3: Probabilidad y Variables Aleatorias
1) ¿Qué entiende por probabilidad? ¿Cómo lo relaciona con los
Sistemas de Comunicaciones?
Probabilidad - Definiciones
 Experimento aleatorio: Un experimento se dice aleatorio si no es posible conocer su
resultado con anticipación a la ocurrencia del mismo.
 Resultado o muestra: Es el resultado final de un experimento aleatorio.
 Evento aleatorio: Es el resultado o conjunto de resultados de un experimento
aleatorio.
 Espacio muestral (S): Es el conjunto de todos los resultados posibles de un
experimento aleatorio.
 Eventos mutuamente excluyentes: Dos eventos se dicen mutuamente excluyentes si
no poseen elementos (resultados) en común.
Probabilidades Asociadas a Eventos Aleatorios
 Frecuencia relativa: Supongamos que repetimos un experimento aleatorio n veces.
Si el evento A ocurre nA veces, entonces la probabilidad P(A) es definida como el
límite de la frecuencia relativa , es decir:

Definición clásica: Si N es el número total de resultados posibles de un experimento
aleatorio, y N A es el numero de resultados favorables al evento A , entonces:

Probabilidad conjunta: Supongamos tener un experimento formado por dos
subexperimentos (Ej.; la observación simultánea de la entrada y la salida de un
sistema digital de comunicaciones). Sean A1; A2; ... ; An n eventos asociados al
primer subexperimento (observación de la entrada al sistema) y B1; B2; ... ; Bm m
eventos del segundo subexperimento (observación de la salida del sistema).
Entonces podemos definir el evento Ai Bj del experimento total y asociarles una
probabilidad P(Ai B j) denominada probabilidad conjunta.

Probabilidad marginal: Si los eventos anteriores A1; A2; ... ; An asociados al primer
subexperimento son mutuamente excluyentes y completos, entonces:
Como Bj es un evento asociado al segundo subexperimento, P(Bj) es la probabilidad
marginal.
Unidad Temática 3 – Probabilidad y Variables Aleatorias
1
Guía de Coloquio 2 - Sistemas de Comunicaciones
2) Defina lo que es la probabilidad condicional y la independencia estadística.
Proporcione ejemplos de cada una de ellas.
Probabilidad condicional:
La probabilidad de ocurrencia del evento Bj puede depender de la ocurrencia de un
evento relativo Ai. Una expresión para la probabilidad P(B/A) en términos de la
probabilidad conjunta P(AB) y las probabilidades marginales P(A) y P(B) puede ser:
Sea NA, NB y NAB los numero de resultados favorables a los eventos A, B y
AB respectivamente, y N el número de resultados del espacio muestreal, entonces:
Como el evento A ha ocurrido, sabemos que el resultado pertenecerá a A. Para que
ocurra B, habiendo ocurrido A, el resultado deberá pertenecer a A y B, por lo tanto:
Independencia estadística:
Supongamos que Ai y Bj son eventos asociados con los resultados de dos experimentos.
El evento Bj es independiente de Ai, es decir, que la ocurrencia de Ai no influye en la
ocurrencia de Bj y viceversa, entonces podemos afirmar que los eventos son
estadísticamente independientes y que se cumple la siguiente relación:
3) ¿Qué es una Variable Aleatoria (V.A.)? ¿Qué tipos conoce?
La regla o relación funcional, que asigna números reales X(λ) a cada resultado posible λ
de un experimento aleatorio, es llamada variable aleatoria. Los números X(λ) se llaman
valores de la variable aleatoria.
Una variable aleatoria puede ser discreta o continua. Será discreta si en un intervalo
acotado puede tomar solamente un número finito de valores. Será continua cuando
pueda asumir algún valor dentro de uno o más intervalos en el eje real.
4) Defina función de distribución acumulativa (f.d.a.). Ejemplifique el concepto
con alguna señal.
Variables Aleatorias Discretas:
A cada valor de la variable aleatoria X se asigna también una probabilidad. Por lo tanto,
PX(xi) es la probabilidad del resultado o suceso al cual fue asignado el valor xi. En esta
notación el subíndice se refiere a la V.A. X y el argumento es el valor particular de la
VA. Nótese que si en el experimento hay un total de n resultados xi disjuntos y
exhaustivos, entonces:
Una VA discreta se puede describir entonces mediante la llamada “función de
frecuencia”
donde xi son los valores que X puede tomar y P(X=xi) su probabilidad correspondiente.
Unidad Temática 3 – Probabilidad y Variables Aleatorias
2
Guía de Coloquio 2 - Sistemas de Comunicaciones
A menudo es conveniente describir en forma gráfica las probabilidades asignadas en
relación con los valores de la V.A. asignados. Esto nos lleva al concepto de “función de
distribución de probabilidad de X”. En efecto, la “función de distribución acumulativa
de una V.A. X”, se define en la forma:
Como FX(x) está basada directamente en el concepto de probabilidad, ella tiene las
siguientes propiedades:
Variables Aleatorias Continuas:
Si el espacio de las muestras es continuo, entonces la respectiva VA, definida en este
espacio, será una variable aleatoria continua. Un espacio de muestras continuo contiene
infinitos puntos (no contables) y es evidente que la probabilidad de observar un punto
dado es cero. Para este caso, lo que se tiene en cuenta es la probabilidad de que la V.A.
X tome valores iguales o menores que cierto valor x.
Es conveniente definir una función cuya “área” sea la probabilidad de ocurrencia dentro
de una gama dada. Como se está igualando un área con probabilidad, la función en
cuestión se denomina “función de densidad de probabilidad”.
La “función de densidad de probabilidad, pX (x)” de una V.A. X se define en la forma:
La probabilidad de observar la V.A. X en el intervalo (x, x + dx) es igual a pX(x)Δx
cuando Δx → 0. Esta probabilidad es simplemente el área encerrada por la curva pX(x)
en el respectivo intervalo.
Integrando:
Podemos demostrar también que
Unidad Temática 3 – Probabilidad y Variables Aleatorias
3
Guía de Coloquio 2 - Sistemas de Comunicaciones
La probabilidad de observar X en cualquier intervalo (x1, x2) viene dada por el área bajo
dicho intervalo.
Puesto que FX(+∞) = 1, entonces
Como la probabilidad es una magnitud positiva, la densidad de probabilidad deberá ser
siempre positiva; la función de densidad de probabilidad deberá cumplir entonces con
las condiciones:
5) Defina función de distribución de probabilidad (f.d.p.). ¿Qué relación encuentra
con la f.d.a.? Ejemplifique el concepto con alguna señal.
Función densidad de probabilidad y promedios estadísticos:
Una variable aleatoria continua se caracterizada por una función densidad de
probabilidad fx(x), la cual posee las siguientes propiedades:
a Fx(x) se la denomina función de probabilidad acumulada o simplemente función
distribución de X .
Un proceso aleatorio puede incluir dos o más variables aleatorias continuas y por lo
tanto definimos la función densidad de probabilidad conjunta f xy(x,y) y a partir de ella
podemos obtener las funciones densidad marginal de probabilidad como:
Y las funciones densidad de probabilidad condicional:
Finalmente, las variables aleatorias X y Y se dicen estadísticamente independientes si:
Unidad Temática 3 – Probabilidad y Variables Aleatorias
4
Guía de Coloquio 2 - Sistemas de Comunicaciones
Los valores esperados de funciones que involucran variables aleatorias continuas están
definidos según:
6) ¿Qué es un Proceso Aleatorio (P.A.)? ¿Qué correspondencia posee con una
V.A.? Explique y ejemplifique.
Variable aleatoria:
Si asociamos un punto de muestra con cada resultado de un experimento, la colección
de todos los puntos de muestra se llama “espacio de las muestras” del experimento. Para
cada punto de muestra en el espacio de las muestras se asigna un número real X de
acuerdo con alguna regla, y una probabilidad de ocurrencia Px(x).
Proceso aleatorio:
A cada punto de muestra que distinguiremos con la notación λ, se asigna una forma de
onda (que es función del tiempo t), de acuerdo con alguna regla x(t,λ). Por lo tanto, el
espacio de las muestras tendrá asociada una cierta colección de formas de onda y cada
una de ellas corresponde a un punto de muestra λ. Esta colección de formas de onda se
conoce con el nombre de “conjunto aleatorio (CA)” y las formas de onda individuales
como “funciones de muestra”. La distribución de la probabilidad de los puntos de
muestra determina la distribución de probabilidad de las funciones de muestra del CA.
El sistema de probabilidades, que comprende el espacio de las muestras, el CA o
conjunto de formas de onda y las funciones de probabilidad, constituyen el “proceso
aleatorio (PA)”.
A los PA se les conoce también con el nombre de “Procesos Estocásticos”. La notación
X(t,λ) representará el PA; sin embargo, generalmente se omite λ y el PA simplemente
se representa con X(t), cuyo significado es “una colección de formas de onda que
ocurren con una cierta medida de probabilidad”. Una función de muestra individual se
representará simplemente con x(t).
7) ¿Cuándo un P.A. es ergódico? ¿Y estacionario?
Proceso Aleatorio Estacionario:
 Estacionaridad en el Sentido Estricto
Se dice que un proceso aleatorio X(t,λ) es estrictamente estacionario si todas sus
estadísticas conjunto son invariantes en el tiempo; en otras palabras, un proceso
aleatorio es estrictamente estacionario si ninguna de sus estadísticas conjunto es
afectada por un desplazamiento del origen del tiempo, es decir, si:
Unidad Temática 3 – Probabilidad y Variables Aleatorias
5
Guía de Coloquio 2 - Sistemas de Comunicaciones
En este caso el proceso aleatorio X(t,λ) se denota simplemente como X.
Los dos primeros momentos de primer orden serán:
Y en general:
 Estacionaridad en el Sentido Amplio
Se dice que un proceso aleatorio X(t,λ) es estacionario en el sentido amplio o
débilmente estacionario, sí;
a) Su valor promedio conjunto E{X(t1,λ)}=E{X(t2,λ)}=constante para todo t
b) Su promedio conjunto de segundo orden
E{X(t1,λ)⋅X(t2,λ)}=E{X(t)⋅X(t +τ)}
donde τ es la diferencia absoluta τ = |t2−t1|.
Un proceso es débilmente estacionario cuando su valor promedio conjunto es constante
para todo t, y su promedio conjunto de segundo orden depende solamente de la
diferencia absoluta τ = |t 2 − t1|.
Nótese que un proceso aleatorio estrictamente estacionario es también débilmente
estacionario, pero lo contrario no necesariamente es cierto.
Ergodicidad:
La propiedad de estacionaridad estricta o amplia no asegura que los promedios conjunto
y los promedios tiempo sean iguales. Puede suceder que aún cuando las estadísticas
conjunto son estacionarias, las señales de muestra individuales pueden diferir
estadísticamente una de la otra. En este caso los promedio tiempo dependerán de la
señal de muestra utilizada, pues se verifica que:
Cuando la naturaleza de un proceso aleatorio es tal que los promedios conjunto y los
promedios tiempo son iguales, se dice entonces que el proceso aleatorio es “ergódico”.
Por lo tanto, si el proceso representado por X(t, λ) es ergódico, entonces todas las
estadísticas se pueden determinar a partir de una sola señal de muestra x(t). Nótese que
un proceso ergódico es estacionario o por lo menos débilmente estacionario, pero un
proceso estacionario o por lo menos débilmente estacionario no necesariamente es
ergódico.
Puesto que todas las estadísticas se pueden determinar a partir de una sola señal de
muestra, la ergodicidad implica también que:
Las estadísticas de un proceso aleatorio ergódico se escriben entonces en la forma
Unidad Temática 3 – Probabilidad y Variables Aleatorias
6
Guía de Coloquio 2 - Sistemas de Comunicaciones
En la práctica generalmente se conoce x(t) durante un intervalo (-T/2, T/2), de modo
que se puede escribir (suponiendo que x(t) es una señal de potencia):
En el proceso ergódico los momentos conjunto y los momentos tiempo son iguales:
Para los dos primeros momentos de primer orden:
Las estadísticas de primer orden E{X} y E{X2} de un proceso ergódico nos permiten
hacer las siguientes observaciones:
a. E{X} = <x(t)>, es el valor promedio de la señal x(t); es simplemente el valor de
la componente continua de x(t).
b. [E{X}]2=[< x(t)>]2, es la potencia de la componente continua de x(t) disipada en
una resistencia de 1 Ohm.
c. E{X2}=< x2(t)>, es la potencia promedio de la señal x(t), normalizada para una
resistencia de 1 Ohm.
d. E{X } = < x (t) >, es el valor eficaz (RMS) de la señal x(t).
e. La varianza σ es igual a la potencia promedio de la componente alterna de x(t),
normalizada para una resistencia de 1 Ohm.
f. La desviación estándar σx es el valor eficaz de la componente alterna de la señal
x(t).
g. Si E{X} =< x(t) >= 0, entonces σx es el valor eficaz de la señal x(t).
h. Si x(t) contiene una componente continua xo y una componente alterna, la
potencia promedio de x(t) será igual a (σ +x ), normalizada para una resistencia
de 1Ohm.
8) ¿Qué distribuciones de probabilidad conoce? Describa brevemente c/u de ellas.
a) Distribución Normal o Gaussiana:
Se dice que una V.A. X está distribuida normalmente o en forma gaussiana, si su
función de densidad de probabilidad es la curva de Gauss, es decir:
donde σ es la desviación de la V.A. X. En este caso σ se conoce con el nombre de
“desviación normal”, mientras que σ2 en la “varianza” o valor eficaz de la V.A. X.
Unidad Temática 3 – Probabilidad y Variables Aleatorias
7
Guía de Coloquio 2 - Sistemas de Comunicaciones
En las distribuciones no centradas pX(x) y FX(x) están desplazadas a lo largo del eje x en
una cantidad xo; en este caso:
También, por definición:
La distribución gaussiana se determina completamente a partir de su valor promedio x0
y la desviación estándar σ.
b) Distribución de Poisson
Si una V.A. X es de tipo discreto y toma valores en los puntos k = 0, 1, 2, 3,....., n con
probabilidades
entonces se dice que la V.A. X tiene una “distribución de Poisson”, cuyo parámetro es
la constante positiva α.
La correspondiente densidad de probabilidad es una secuencia de impulsos de la forma:
Unidad Temática 3 – Probabilidad y Variables Aleatorias
8
Guía de Coloquio 2 - Sistemas de Comunicaciones
Si ατ < 1, entonces Pk (τ) es máxima para k = 0. Si ατ > 1, pero no es un número
entero, entonces PX(τ) es máxima para k =|α τ| . Si α τ es un número entero,
entonces PX(τ) tiene dos puntos máximos para k = α τ y k = α τ -1.
c) Distribución Binomial
Si una V.A. X es de tipo discreto y toma valores en los puntos k = 0, 1, 2,..., n con
probabilidades definidas mediante la expresión:
se dice que tiene una “Distribución Binomial”.
La densidad de probabilidad de la distribución binomial es:
donde, por definición:
d) Distribución Uniforme
Si la densidad de probabilidad de una V.A. X es una función rectangular de la forma:
donde xo =(x2+x1)/2 , se dice entonces que la V.A. X está distribuida uniformemente en
el intervalo (x1, x2) con x2 > x1 , Fig. a. En este caso la V.A. X es de tipo continuo y su
función de distribución será una rampa de la forma dada en la Fig. b.
Unidad Temática 3 – Probabilidad y Variables Aleatorias
9
Guía de Coloquio 2 - Sistemas de Comunicaciones
Por inspección de la Fig. b, aplicando la función rampa r(x),
e) Distribución de Laplace
La función de densidad de probabilidad de Laplace de una V.A. X es:
donde α es el parámetro de la distribución.
La correspondiente función de distribución es:
f) Distribución de Cauchy
La función de densidad de Cauchy es:
donde α es el parámetro de la distribución.
La correspondiente función de distribución es:
g) Distribución de Raleigh
La función de densidad de Raleigh de una V.A. X es:
El valor máximo de pX(x) ocurre cuando x = α. α es el parámetro de la distribución
Unidad Temática 3 – Probabilidad y Variables Aleatorias
10
Guía de Coloquio 2 - Sistemas de Comunicaciones
La correspondiente función de distribución es:
h) Distribución de Maxwell
La función de densidad de Maxwell de una V.A. X es:
El valor máximo de pX(x) ocurre cuando
α es el parámetro de la distribución.
La correspondiente función de distribución es:
Unidad Temática 3 – Probabilidad y Variables Aleatorias
11
Descargar