Guía de Coloquio 2 - Sistemas de Comunicaciones Unidad Temática 3: Probabilidad y Variables Aleatorias 1) ¿Qué entiende por probabilidad? ¿Cómo lo relaciona con los Sistemas de Comunicaciones? Probabilidad - Definiciones Experimento aleatorio: Un experimento se dice aleatorio si no es posible conocer su resultado con anticipación a la ocurrencia del mismo. Resultado o muestra: Es el resultado final de un experimento aleatorio. Evento aleatorio: Es el resultado o conjunto de resultados de un experimento aleatorio. Espacio muestral (S): Es el conjunto de todos los resultados posibles de un experimento aleatorio. Eventos mutuamente excluyentes: Dos eventos se dicen mutuamente excluyentes si no poseen elementos (resultados) en común. Probabilidades Asociadas a Eventos Aleatorios Frecuencia relativa: Supongamos que repetimos un experimento aleatorio n veces. Si el evento A ocurre nA veces, entonces la probabilidad P(A) es definida como el límite de la frecuencia relativa , es decir: Definición clásica: Si N es el número total de resultados posibles de un experimento aleatorio, y N A es el numero de resultados favorables al evento A , entonces: Probabilidad conjunta: Supongamos tener un experimento formado por dos subexperimentos (Ej.; la observación simultánea de la entrada y la salida de un sistema digital de comunicaciones). Sean A1; A2; ... ; An n eventos asociados al primer subexperimento (observación de la entrada al sistema) y B1; B2; ... ; Bm m eventos del segundo subexperimento (observación de la salida del sistema). Entonces podemos definir el evento Ai Bj del experimento total y asociarles una probabilidad P(Ai B j) denominada probabilidad conjunta. Probabilidad marginal: Si los eventos anteriores A1; A2; ... ; An asociados al primer subexperimento son mutuamente excluyentes y completos, entonces: Como Bj es un evento asociado al segundo subexperimento, P(Bj) es la probabilidad marginal. Unidad Temática 3 – Probabilidad y Variables Aleatorias 1 Guía de Coloquio 2 - Sistemas de Comunicaciones 2) Defina lo que es la probabilidad condicional y la independencia estadística. Proporcione ejemplos de cada una de ellas. Probabilidad condicional: La probabilidad de ocurrencia del evento Bj puede depender de la ocurrencia de un evento relativo Ai. Una expresión para la probabilidad P(B/A) en términos de la probabilidad conjunta P(AB) y las probabilidades marginales P(A) y P(B) puede ser: Sea NA, NB y NAB los numero de resultados favorables a los eventos A, B y AB respectivamente, y N el número de resultados del espacio muestreal, entonces: Como el evento A ha ocurrido, sabemos que el resultado pertenecerá a A. Para que ocurra B, habiendo ocurrido A, el resultado deberá pertenecer a A y B, por lo tanto: Independencia estadística: Supongamos que Ai y Bj son eventos asociados con los resultados de dos experimentos. El evento Bj es independiente de Ai, es decir, que la ocurrencia de Ai no influye en la ocurrencia de Bj y viceversa, entonces podemos afirmar que los eventos son estadísticamente independientes y que se cumple la siguiente relación: 3) ¿Qué es una Variable Aleatoria (V.A.)? ¿Qué tipos conoce? La regla o relación funcional, que asigna números reales X(λ) a cada resultado posible λ de un experimento aleatorio, es llamada variable aleatoria. Los números X(λ) se llaman valores de la variable aleatoria. Una variable aleatoria puede ser discreta o continua. Será discreta si en un intervalo acotado puede tomar solamente un número finito de valores. Será continua cuando pueda asumir algún valor dentro de uno o más intervalos en el eje real. 4) Defina función de distribución acumulativa (f.d.a.). Ejemplifique el concepto con alguna señal. Variables Aleatorias Discretas: A cada valor de la variable aleatoria X se asigna también una probabilidad. Por lo tanto, PX(xi) es la probabilidad del resultado o suceso al cual fue asignado el valor xi. En esta notación el subíndice se refiere a la V.A. X y el argumento es el valor particular de la VA. Nótese que si en el experimento hay un total de n resultados xi disjuntos y exhaustivos, entonces: Una VA discreta se puede describir entonces mediante la llamada “función de frecuencia” donde xi son los valores que X puede tomar y P(X=xi) su probabilidad correspondiente. Unidad Temática 3 – Probabilidad y Variables Aleatorias 2 Guía de Coloquio 2 - Sistemas de Comunicaciones A menudo es conveniente describir en forma gráfica las probabilidades asignadas en relación con los valores de la V.A. asignados. Esto nos lleva al concepto de “función de distribución de probabilidad de X”. En efecto, la “función de distribución acumulativa de una V.A. X”, se define en la forma: Como FX(x) está basada directamente en el concepto de probabilidad, ella tiene las siguientes propiedades: Variables Aleatorias Continuas: Si el espacio de las muestras es continuo, entonces la respectiva VA, definida en este espacio, será una variable aleatoria continua. Un espacio de muestras continuo contiene infinitos puntos (no contables) y es evidente que la probabilidad de observar un punto dado es cero. Para este caso, lo que se tiene en cuenta es la probabilidad de que la V.A. X tome valores iguales o menores que cierto valor x. Es conveniente definir una función cuya “área” sea la probabilidad de ocurrencia dentro de una gama dada. Como se está igualando un área con probabilidad, la función en cuestión se denomina “función de densidad de probabilidad”. La “función de densidad de probabilidad, pX (x)” de una V.A. X se define en la forma: La probabilidad de observar la V.A. X en el intervalo (x, x + dx) es igual a pX(x)Δx cuando Δx → 0. Esta probabilidad es simplemente el área encerrada por la curva pX(x) en el respectivo intervalo. Integrando: Podemos demostrar también que Unidad Temática 3 – Probabilidad y Variables Aleatorias 3 Guía de Coloquio 2 - Sistemas de Comunicaciones La probabilidad de observar X en cualquier intervalo (x1, x2) viene dada por el área bajo dicho intervalo. Puesto que FX(+∞) = 1, entonces Como la probabilidad es una magnitud positiva, la densidad de probabilidad deberá ser siempre positiva; la función de densidad de probabilidad deberá cumplir entonces con las condiciones: 5) Defina función de distribución de probabilidad (f.d.p.). ¿Qué relación encuentra con la f.d.a.? Ejemplifique el concepto con alguna señal. Función densidad de probabilidad y promedios estadísticos: Una variable aleatoria continua se caracterizada por una función densidad de probabilidad fx(x), la cual posee las siguientes propiedades: a Fx(x) se la denomina función de probabilidad acumulada o simplemente función distribución de X . Un proceso aleatorio puede incluir dos o más variables aleatorias continuas y por lo tanto definimos la función densidad de probabilidad conjunta f xy(x,y) y a partir de ella podemos obtener las funciones densidad marginal de probabilidad como: Y las funciones densidad de probabilidad condicional: Finalmente, las variables aleatorias X y Y se dicen estadísticamente independientes si: Unidad Temática 3 – Probabilidad y Variables Aleatorias 4 Guía de Coloquio 2 - Sistemas de Comunicaciones Los valores esperados de funciones que involucran variables aleatorias continuas están definidos según: 6) ¿Qué es un Proceso Aleatorio (P.A.)? ¿Qué correspondencia posee con una V.A.? Explique y ejemplifique. Variable aleatoria: Si asociamos un punto de muestra con cada resultado de un experimento, la colección de todos los puntos de muestra se llama “espacio de las muestras” del experimento. Para cada punto de muestra en el espacio de las muestras se asigna un número real X de acuerdo con alguna regla, y una probabilidad de ocurrencia Px(x). Proceso aleatorio: A cada punto de muestra que distinguiremos con la notación λ, se asigna una forma de onda (que es función del tiempo t), de acuerdo con alguna regla x(t,λ). Por lo tanto, el espacio de las muestras tendrá asociada una cierta colección de formas de onda y cada una de ellas corresponde a un punto de muestra λ. Esta colección de formas de onda se conoce con el nombre de “conjunto aleatorio (CA)” y las formas de onda individuales como “funciones de muestra”. La distribución de la probabilidad de los puntos de muestra determina la distribución de probabilidad de las funciones de muestra del CA. El sistema de probabilidades, que comprende el espacio de las muestras, el CA o conjunto de formas de onda y las funciones de probabilidad, constituyen el “proceso aleatorio (PA)”. A los PA se les conoce también con el nombre de “Procesos Estocásticos”. La notación X(t,λ) representará el PA; sin embargo, generalmente se omite λ y el PA simplemente se representa con X(t), cuyo significado es “una colección de formas de onda que ocurren con una cierta medida de probabilidad”. Una función de muestra individual se representará simplemente con x(t). 7) ¿Cuándo un P.A. es ergódico? ¿Y estacionario? Proceso Aleatorio Estacionario: Estacionaridad en el Sentido Estricto Se dice que un proceso aleatorio X(t,λ) es estrictamente estacionario si todas sus estadísticas conjunto son invariantes en el tiempo; en otras palabras, un proceso aleatorio es estrictamente estacionario si ninguna de sus estadísticas conjunto es afectada por un desplazamiento del origen del tiempo, es decir, si: Unidad Temática 3 – Probabilidad y Variables Aleatorias 5 Guía de Coloquio 2 - Sistemas de Comunicaciones En este caso el proceso aleatorio X(t,λ) se denota simplemente como X. Los dos primeros momentos de primer orden serán: Y en general: Estacionaridad en el Sentido Amplio Se dice que un proceso aleatorio X(t,λ) es estacionario en el sentido amplio o débilmente estacionario, sí; a) Su valor promedio conjunto E{X(t1,λ)}=E{X(t2,λ)}=constante para todo t b) Su promedio conjunto de segundo orden E{X(t1,λ)⋅X(t2,λ)}=E{X(t)⋅X(t +τ)} donde τ es la diferencia absoluta τ = |t2−t1|. Un proceso es débilmente estacionario cuando su valor promedio conjunto es constante para todo t, y su promedio conjunto de segundo orden depende solamente de la diferencia absoluta τ = |t 2 − t1|. Nótese que un proceso aleatorio estrictamente estacionario es también débilmente estacionario, pero lo contrario no necesariamente es cierto. Ergodicidad: La propiedad de estacionaridad estricta o amplia no asegura que los promedios conjunto y los promedios tiempo sean iguales. Puede suceder que aún cuando las estadísticas conjunto son estacionarias, las señales de muestra individuales pueden diferir estadísticamente una de la otra. En este caso los promedio tiempo dependerán de la señal de muestra utilizada, pues se verifica que: Cuando la naturaleza de un proceso aleatorio es tal que los promedios conjunto y los promedios tiempo son iguales, se dice entonces que el proceso aleatorio es “ergódico”. Por lo tanto, si el proceso representado por X(t, λ) es ergódico, entonces todas las estadísticas se pueden determinar a partir de una sola señal de muestra x(t). Nótese que un proceso ergódico es estacionario o por lo menos débilmente estacionario, pero un proceso estacionario o por lo menos débilmente estacionario no necesariamente es ergódico. Puesto que todas las estadísticas se pueden determinar a partir de una sola señal de muestra, la ergodicidad implica también que: Las estadísticas de un proceso aleatorio ergódico se escriben entonces en la forma Unidad Temática 3 – Probabilidad y Variables Aleatorias 6 Guía de Coloquio 2 - Sistemas de Comunicaciones En la práctica generalmente se conoce x(t) durante un intervalo (-T/2, T/2), de modo que se puede escribir (suponiendo que x(t) es una señal de potencia): En el proceso ergódico los momentos conjunto y los momentos tiempo son iguales: Para los dos primeros momentos de primer orden: Las estadísticas de primer orden E{X} y E{X2} de un proceso ergódico nos permiten hacer las siguientes observaciones: a. E{X} = <x(t)>, es el valor promedio de la señal x(t); es simplemente el valor de la componente continua de x(t). b. [E{X}]2=[< x(t)>]2, es la potencia de la componente continua de x(t) disipada en una resistencia de 1 Ohm. c. E{X2}=< x2(t)>, es la potencia promedio de la señal x(t), normalizada para una resistencia de 1 Ohm. d. E{X } = < x (t) >, es el valor eficaz (RMS) de la señal x(t). e. La varianza σ es igual a la potencia promedio de la componente alterna de x(t), normalizada para una resistencia de 1 Ohm. f. La desviación estándar σx es el valor eficaz de la componente alterna de la señal x(t). g. Si E{X} =< x(t) >= 0, entonces σx es el valor eficaz de la señal x(t). h. Si x(t) contiene una componente continua xo y una componente alterna, la potencia promedio de x(t) será igual a (σ +x ), normalizada para una resistencia de 1Ohm. 8) ¿Qué distribuciones de probabilidad conoce? Describa brevemente c/u de ellas. a) Distribución Normal o Gaussiana: Se dice que una V.A. X está distribuida normalmente o en forma gaussiana, si su función de densidad de probabilidad es la curva de Gauss, es decir: donde σ es la desviación de la V.A. X. En este caso σ se conoce con el nombre de “desviación normal”, mientras que σ2 en la “varianza” o valor eficaz de la V.A. X. Unidad Temática 3 – Probabilidad y Variables Aleatorias 7 Guía de Coloquio 2 - Sistemas de Comunicaciones En las distribuciones no centradas pX(x) y FX(x) están desplazadas a lo largo del eje x en una cantidad xo; en este caso: También, por definición: La distribución gaussiana se determina completamente a partir de su valor promedio x0 y la desviación estándar σ. b) Distribución de Poisson Si una V.A. X es de tipo discreto y toma valores en los puntos k = 0, 1, 2, 3,....., n con probabilidades entonces se dice que la V.A. X tiene una “distribución de Poisson”, cuyo parámetro es la constante positiva α. La correspondiente densidad de probabilidad es una secuencia de impulsos de la forma: Unidad Temática 3 – Probabilidad y Variables Aleatorias 8 Guía de Coloquio 2 - Sistemas de Comunicaciones Si ατ < 1, entonces Pk (τ) es máxima para k = 0. Si ατ > 1, pero no es un número entero, entonces PX(τ) es máxima para k =|α τ| . Si α τ es un número entero, entonces PX(τ) tiene dos puntos máximos para k = α τ y k = α τ -1. c) Distribución Binomial Si una V.A. X es de tipo discreto y toma valores en los puntos k = 0, 1, 2,..., n con probabilidades definidas mediante la expresión: se dice que tiene una “Distribución Binomial”. La densidad de probabilidad de la distribución binomial es: donde, por definición: d) Distribución Uniforme Si la densidad de probabilidad de una V.A. X es una función rectangular de la forma: donde xo =(x2+x1)/2 , se dice entonces que la V.A. X está distribuida uniformemente en el intervalo (x1, x2) con x2 > x1 , Fig. a. En este caso la V.A. X es de tipo continuo y su función de distribución será una rampa de la forma dada en la Fig. b. Unidad Temática 3 – Probabilidad y Variables Aleatorias 9 Guía de Coloquio 2 - Sistemas de Comunicaciones Por inspección de la Fig. b, aplicando la función rampa r(x), e) Distribución de Laplace La función de densidad de probabilidad de Laplace de una V.A. X es: donde α es el parámetro de la distribución. La correspondiente función de distribución es: f) Distribución de Cauchy La función de densidad de Cauchy es: donde α es el parámetro de la distribución. La correspondiente función de distribución es: g) Distribución de Raleigh La función de densidad de Raleigh de una V.A. X es: El valor máximo de pX(x) ocurre cuando x = α. α es el parámetro de la distribución Unidad Temática 3 – Probabilidad y Variables Aleatorias 10 Guía de Coloquio 2 - Sistemas de Comunicaciones La correspondiente función de distribución es: h) Distribución de Maxwell La función de densidad de Maxwell de una V.A. X es: El valor máximo de pX(x) ocurre cuando α es el parámetro de la distribución. La correspondiente función de distribución es: Unidad Temática 3 – Probabilidad y Variables Aleatorias 11