Repaso de Teoría de la Probabilidad Luis Mendo Tomás Escuela Politécnica Superior Universidad Autónoma de Madrid Febrero de 2008 1. Introducción Este documento contiene, de forma esquemática, los conceptos básicos so- bre Teoría de la Probabilidad necesarios para la asignatura Móviles. Comunicaciones En este documento, las funciones de una variable discreta se denotan utilizando corchetes, y las de una variable continua utilizando paréntesis. Las variables aleatorias se denotan mediante letras mayúsculas en negrita. Los procesos estocásticos se denotan mediante letras minúsculas en negrita. Las probabilidades, esperanzas matemáticas y varianzas se escriben indicando su argumento entre corchetes. 2. Variables aleatorias Caracterización de una variable aleatoria discreta X se dene su función de probabilidad Para una variable aleatoria fX [n]: fX [n] = Pr[X = n]. Para una variable aleatoria continua X (1) se dene su función de distribución FX (x): FX (x) = Pr[X ≤ x]. FX (x), X , fX (x): La derivada de bilidad de (2) si existe, se denomina función de densidad de proba- fX (x) = dF (X)(x) . dx (3) Habitualmente puede unicarse el tratamiento de ambos tipos de variables deniendo para el caso discreto una función de densidad de probabilidad formada por deltas de Dirac: fX (x) = X fX [n]δ(x − n). (4) n Mediana y percentil x0,5 ] = 0,5. El percentil La mediana de p es el valor xp 1 X x0,5 que verica Pr[X ≤ Pr[X ≤ xp ] = p. es el valor tal que Función de una variable aleatoria a partir de fX (x) Si como n X fX (xi ) fY (y) = i=1 donde x1 , xn ..., Y = g(X), fY (y) puede calcularse |g 0 (xi )| y = g(x), y g 0 (x) es la g(x). Operador E o esperanza matemática X (5) son las soluciones de la ecuación función derivada de lor medio de , La esperanza matemática o va- se dene como ∞ Z E[X] = xfX (x)dx. (6) −∞ El operador E es lineal. Media de una función de variable aleatoria ∞ Z g(x)fX (x)dx. E[g(X)] = (7) −∞ Varianza, desviación típica y coeciente de variación Sea ηx = E[X]. La varianza se dene como Var[X] = E[(X − ηx )2 ] = E[X 2 ] − ηx2 . (8) La desviación típica es la raíz cuadrada de la varianza. Se emplea habitualmente como medida de la dispersión de una variable aleatoria en torno a su media. El coeciente de variación se dene como la desviación típica entre la media. Es una medida normalizada de la dispersión. Caracterización de dos variables aleatorias X FX,Y (x, y): aleatorias e Y Una pareja de variables se caracteriza mediante su función de distribución conjunta, FX,Y (x, y) = Pr[X ≤ x, Y ≤ y]. (9) La función de densidad se dene como la siguiente derivada doble, si existe: fX,Y (x, y) = Dada una región nezca a D D ∂ 2 FX,Y (x, y) . ∂x ∂y del plano, la probabilidad de que el punto (10) (X, Y ) perte- se calcula como ZZ Pr[(X, Y ) ∈ D] = fX,Y (x, y) dx dy. D 2 (11) Probabilidad condicionada (o condicional) la probabilidad de A condicionada a B , Pr[A|B], Pr[A|B] = siendo Pr[A, B] X A y un suceso A Pr[A, B] , Pr[B] A, y B, se dene como (12) la probabilidad de que ocurran simultáneamente Dada una variable condicionada a Dados dos sucesos A y B. la función de distribución de X viene dada por FX (x|A) = Pr[X ≤ x|A] = Pr[X ≤ x, A] . Pr[A] (13) La función de densidad condicionada se dene como fX (x|A) = Dadas dos variables Y X e Y, dF (X)(x|A) . dx (14) la función de densidad de X condicionada a viene dada por fX (x|Y = y) = fX,Y (x, y) . fY (y) (15) Teorema de la probabilidad total Z ∞ Pr[A] = Pr[A|X = x]fX (x)dx. (16) fY (y|X = x)fX (x)dx. (17) Z−∞ ∞ fY (y) = −∞ Teorema de Bayes Pr[A|X = x]fX (x) . Pr[A] fY (y|X = x)fX (x) fX (x|Y = y) = . fY (y) fX (x|A) = Independencia e incorrelación Dos sucesos AyB (18) (19) son (estadísticamente) Pr[A, B] = Pr[A] Pr[B]. X e Y son (estadísticamente) independientes si, para cualesquiera conjuntos C y D , Pr[X ∈ C, Y ∈ D] = Pr[X ∈ C] Pr[Y ∈ D]. Equivalentemente, X e Y son independientes si FX,Y (x, y) = FX (x)FY (y), o bien si fX,Y (x, y) = fX (x)fY (y). Si X e Y son independientes, también lo son g(X) y h(Y ). Dos variables aleatorias X e Y son incorreladas si E[XY ] = E[X] E[Y ]. independientes si Dos variables Si dos variables son independientes, son también incorreladas. Una función de dos variables aleatorias Si Z = g(X, Y ), ZZ FZ (z) = fX,Y (x, y)dx dy, Dz donde Dz es la región del plano tal que 3 g(x, y) ≤ z . (20) Dos funciones de dos variables aleatorias Si Z = g(X, Y ) y W = h(X, Y ), fZ,W (z, w) = n X fX,Y (xi , yi ) |J(xi , yi )| i=1 , (21) (x1 , y1 ), . . . , (xn , yn ) son las soluciones del sistema z = g(x), w = h(y), J(x, y) es el determinante jacobiano de (z, w) respecto a (x, y): donde y J(x, y) = ∂z ∂w ∂z ∂w − . ∂x ∂y ∂y ∂x (22) Suma de variables aleatorias independientes o incorreladas La fun- ción de densidad de probabilidad de una suma de variables aleatorias independientes se obtiene como la convolución de las funciones de densidad individuales. La varianza de la suma de variables aleatorias incorreladas es igual a la suma de las varianzas. Algunas distribuciones Función de densidad de probabilidad gaussiana o normal de media desviación típica (23) Función de densidad de probabilidad exponencial de parámetro f (x) = ce−cx , c y σ: 1 (x − η)2 . f (x) = √ e− 2σ 2 σ 2π El parámetro η para c: x ≥ 0. (24) representa el inverso del valor medio. La suma de los cuadrados de dos variables aleatorias gaussianas independientes de media nula y la misma varianza es una variable aleatoria exponencial. Función de densidad de probabilidad Rayleigh de parámetro f (x) = El parámetro b x e b −x2 2b , para b: x ≥ 0. (25) representa la mitad del valor cuadrático medio: b = E[X 2 ]/2. La raíz cuadrada de una variable aleatoria exponencial es una variable Rayleigh. Variable aleatoria log-normal: es, por denición, aquélla cuyo logaritmo es una variable aleatoria gaussiana. Función de probabilidad de Poisson de parámetro f [n] = e−a El parámetro a ak . k! representa el valor medio. 4 a: (26) Variables conjuntamente gaussianas n variables X 1 , . . . , X n , éstas se denominan conjuntamente gaussianas si a1 X 1 +· · ·+an X n es gaussiana para cualesquiera a1 , . . . , an . Si X 1 , . . . , X n son conjuntamente gaussianas e incorreladas, son indepenDadas dientes. Teorema del límite central Bajo condiciones muy generales, la distri- bución de la suma de un gran número de variables aleatorias tiende a ser gaussiana. Una condición suciente es que las variables aleatorias sean independientes e idénticamente distribuidas con varianza nita. Ley de los grandes números y resultados relacionados experimento y se observa la ocurrencia o no de un suceso es p. Si el experimento se realiza ocurre A, n k A, veces, y la frecuencia relativa del suceso Se realiza un A, cuya probabilidad denota el número de veces que k/n, denida como tiende a p en el sentido siguiente: k Pr − p ≤ → 1 n para n→∞ (27) (versión débil de la ley de los grandes números). n variables aleatorias X 1 , . . . , X n independientes idénticamente distribuidas, con media η , desviación típica σ y coeciente de variación c = σ/µ. Sean En estas condiciones, la variable suma Pn i=1 Xi tiene coeciente de variación la variable promedio (o suma normalizada) ción típica 3. √ σ/ n. 1/n · Pn i=1 √ c/ n; Xi y tiene desvia- Procesos estocásticos Caracterización de procesos estocásticos estocástico x(t) variables aleatorias todo Para caracterizar un proceso debe conocerse la función de distribución conjunta de las x(t1 ), ..., x(tn ), para todos los posibles t1 , ..., tn y para n. Para caracterizar dos procesos estocásticos debe conocerse la función de distribución conjunta de las variables correspondientes a ambos. Un proceso x(t) x(t1 ), . . . , x(tn ) son t1 , . . . , tn y para todo n. es gaussiano si las variables tamente gaussianas para todos los posibles Autocorrelación y correlación cruzada neral complejo), su autocorrelación Dados dos procesos x(t) e ∗ como E[x(t1 )y (t2 )]. y(t), Rx (t1 , t2 ) 5 x(t) (en geE[x(t1 )x∗ (t2 )]. Rx,y (t1 , t2 ) se dene Dado un proceso se dene como su correlación cruzada conjun- Estacionariedad en sentido amplio Un proceso x(t) es estacionario en sentido amplio si t; su media es independiente del tiempo y su autocorrelación depende sólo de la diferencia de tiempos τ = t1 − t2 . Para un proceso estacionario en sentido amplio, la autocorrelación se denota ∗ como Rx (τ ) = E[x(t + τ )x (t)]. Dos procesos son conjuntamente estacionarios en sentido amplio si cada uno de ellos es estacionario en sentido amplio; y su correlación cruzada depende sólo de la diferencia de tiempos. Espectro de potencia Dado Sx (f ) su espectro de potencia x(t) estacionario en sentido amplio, se dene como la transformada de Fourier de x(t) El valor cuadrático medio (potencia) de Z 2 Rx (τ ). viene dado por ∞ Sx (f )df. E[|x(t)| ] = Rx (0) = (28) −∞ Sistemas lineales invariantes con entradas estocásticas Dado un siste- h(t), cuya entrada x(t), con autocorrelación Rx (τ ) y es y(t), se verica que los procesos ma lineal invariante (determinista) con respuesta al impulso es un proceso estocástico en sentido amplio espectro de potencia Sx (f ), y cuya salida de entrada y salida son conjuntamente estacionarios en sentido amplio, con E[y(t)] = E[x(t)] ∗ h(t) Rx,y (τ ) = Rx (τ ) ∗ h∗ (−τ ) Ry (τ ) = Rx,y (τ ) ∗ h∗ (τ ) Sx (f ) = Sy (f ) |H(f )|2 . Además, si x(t) es gaussiano, Procesos puntuales y(t) (29) (30) (31) (32) es gaussiano. Un proceso puntual es un conjunto de puntos aleato- rios en el eje real. Proceso de Poisson Un proceso de Poisson de tasa λ es un proceso puntual que verica lo siguiente: (t1 , t2 ) de longitud t = t1 − t2 parámetro λt. El número de puntos en un intervalo una distribución de Poisson de sigue Dados dos intervalos disjuntos, los números de puntos que contienen son variables aleatorias independientes. Superposición de procesos puntuales Dados n procesos puntuales, su superposición se dene como un proceso puntual formado por la unión de todos los puntos pertenecientes a los Teorema de Cinlar n procesos. Bajo ciertas condiciones muy generales, la superposi- ción de un gran número de procesos puntuales tiende a un proceso de Poisson. 6