UNIVERSIDAD NACIONAL DEL CALLAO FACULTAD DE INGENIERÍA ELÉCTRICA Y ELECTRÓNICA INSTITUTO DE INVESTIGACIÓN DE LA FACULTAD DE INGENIERÍA ELÉCTRICA Y ELECTRÓNICA TEXTO: “PROBABILIDADES Y PROCESOS ESTOCÁSTICOS EN INGENIERÍA” INFORME FINAL AUTOR: Lic. ADÁN ALMIRCAR TEJADA CABANILLAS. PERIODO DE EJECUCIÓN: DEL 01-12-2010 AL 29-02-2012. RESOLUCIÓN: R.R.Nº 1246-2010-R. CALLAO-LIMA-PERU FEBRERO 2012 INDICE Pág. I. RESUMEN……………………………………….…………………….….iv II. INTRODUCCION………………………………………………………….v III. PARTE TEÓRICA………………………………………………………..vi CAPITULO I FUNDAMENTOS DE LA TEORÍA DE PROBABILIDAD 1.1. Conceptos básicos……………………………………………..……….…1 1.2 Conjuntos y técnicas de conteo…………………………..………….….2 1.2.1 Conjuntos……………………………………………………….….2 1.2.2 Técnicas de conteo……………………………………………..…3 1.3 Permutaciones y combinaciones…………………………….……….….4 1.3.1. Permutaciones……………………………….………..……….......4 1.3.2. Combinaciones………………………………………………..…6 1.4 Probabilidades……………………………………………………….….….7 1.4.1 Probabilidad condicional e independencia……………….…....7 1.4.1.1 Independencia……………………………………………7 1.4.1.2 Probabilidad Condicional…………………………….....8 CAPITULO II VARIABLE ALEATORIA 2.1 Aleatoriedad…………………………………………………….…..…..….10 2.2 Variable aleatoria…………………………………………….…..…….….10 2.2.1Variables aleatorias discretas………………………………...…11 2.2.1.1 Distribución uniforme……………………………….….11 2.2.1.2 Distribución binomial………………………………..…12 2.2.1.3 Distribución multinomial………………………..…..….14 2.2.1.4 Distribución hipergeométrica……………………….…15 2.2.1.5 Distribución multihipergeométrica…………………....16 2.2.1.6 Distribución de Poissón……………………………..…16 2.2.2 Variables aleatorias continúas…………………………………..18 2.2.2.1 Distribución normal o de Gauss………………………18 2.2.2.2 Distribución Gamma (Γ)……………………………......21 2.2.2.3 Distribución exponencial……………………..………..22 2.2.2.4 Distribución Chi-cuadrado…………………………..…22 2.2.2.5 Distribución T de Student…………………………...…24 2.2.2.6 Distribución F de Snedecor……………………..…….25 i CAPITULO III DISTRIBUCION DE PROBABILIDADES 3.1 Función de probabilidad discreta o de cuantía……………………..…26 3.2 Función de probabilidad continua - Función de densidad…………..27 3.3 Distribución de probabilidad acumulada……………………………….28 CAPITULO IV VECTORES ALEATORIOS 4.1 Vectores aleatorios…………………………………………….………….29 CAPITULO V PROCESOS ESTOCASTICOS 5.1 Definición 1………………………………………………….…………….31 5.2 Definición 2………………………………………………………………..31 5.3 Definición 3………………………………………………………………..32 CAPITULO VI 6.1 6.2 6.3 REPRESENTACION ESPECTRAL Representación temporal………………………………………..………32 Representación frecuencial………………………………………..……33 6.2.1 Espectro………………………………………………………...…33 6.2.2 Espectro de potencia………………………….…………………33 Representación tiempo-frecuencia………………………………..…….34 CAPITULO VII ESTIMACION ESPECTRAL 7.1 Estimación espectral…………………………………..………………..…34 7.2 Estimación de la densidad espectral……………………………………35 CAPITULO VIII ENTROPIA 8.1 Definición…………………………………………………………………...35 8.2 Aplicaciones………………………………………………………….…….35 CAPITULO IX PROCESOS ESTACIONARIOS 9.1 Procesos estacionarios…………………………………………………..43 9.2 Procesos con incrementos estacionarios………………………….…..43 9.3 Proceso de Bernoulli (proceso bernoulliano de ensayos independientes)…………..43 9.4 Caminata Aleatoria (recorrido aleatorio de estado discreto y tiempo discreto)……..43 CAPITULO X 10.1 ESTECTRO DE POTENCIA Proceso Aleatorio……………………………………..………………..…45 10.2 Espectro de potencia…………………………………………..…………45 ii 10.2.1 Propiedades del espectro de potencia………………………….45 10.2.1.1 Simetría……………………………………………..….46 10.2.1.2 Positividad……………………………………….….…46 10.2.1.3 Potencia total……………………………………….…46 10.2.1.4Propiedades autovalores………………….…………46 10.3 Aplicaciones a las telecomunicaciones…………………………………..47 CAPITULO XI PROCESOS DISCRETOS EN EL TIEMPO 11.1 Tiempo discreto……………………………………………………….…….52 11.2 Variable discreta…………………………………………………………….52 11.3 Simulación de procesos en tiempo discreto…………………………..…52 CAPITULO XII PUNTOS DE POISSON Y RUIDO IMPULSIVO 12.1 Ruido impulsivo…………………………………………………………….54 12.2 Ruido blanco…………………………………………………………….….54 CAPITULO XIII PROCESOS CICLO ESTACIONARIOS 13.1 Sistemas Cerrados Estacionario……………………………………..…..56 IV MATERIALES Y MÉTODOS…….……………………............................vii V RESULTADOS…………………………………………………..……….....vii VI DISCUSIÓN………………………………………………………………...vii VII REFERENCIA………………………………………………………….….viii VIII APÉNDICE…………………………………………………………………ix IX ANEXOS………………………………………………………………….…x iii I. RESUMEN El objetivo fundamental del presente trabajo titulado “TEXTO: PROBABILIDADES Y PROCESOS ESTOCASTICOS EN INGENIERIA”, eselaborar un texto adecuado con el propósito de brindar al estudiantado de ingeniería los conocimientos de Probabilidades, variables aleatorias, significado de probabilidad, los axiomas de probabilidad, pruebas repetidas, funciones de una variable aleatoria, vectores aleatorios, momentos y distribuciones condicionales. Procesos estocásticos: conceptos generales, aplicaciones básicas, representación espectral, estimación espectral, Estimación cuadrática media, entropía, tópicos selectos con sus respectivas aplicaciones, con el propósito de satisfacer las necesidades y expectativas de los usuarios de esta bibliografía, en cuanto a la formación básica en probabilidades, procesos estocásticos y sus aplicaciones de todas aquellas personas que siguen las carreras profesiones de Ingeniería, para hacerlos diestros en Investigación en cualquier campo laboral dentro de área profesional respectiva. Mi intención al escribir este texto es que sirva como herramienta incluso de autoaprendizaje de las probabilidades y procesos estocásticos con el apoyo de Software especializado en algunos casos, debido a que cuando se desarrolla una investigación tendremos a la manos gran cantidad de datos, manipularlos a mano sería muy tedioso. Finalmente, los grandes beneficiados de este texto serán todos los estudiantes de estudios superiores de Ingeniería y de todas las Especialidades en general, por tratarse de un ejemplar muy sencillo de entender, comprender, aprender y manejar las técnicas estadísticas probabilísticas en cualquier trabajo de investigación científica. iv II.- INTRODUCCIÓN El Proyecto de Investigación titulado TEXTO:“PROBABILIDADES Y PROCESOS ESTOCASTICOS EN INGENIERIA” desarrollado observamos de la gran importancia que tiene, la justificación planteada en la investigación permite conocer la temática sustancial mínima y su aplicación usando Programas estadísticos mediante la computadora usando el SPSS V 19,0 bajo la modalidad Windows, además de otros programas permitiendo de este modo llevar a cabo Investigación desde el más mínimo nivel hasta el científico, permitiendo manipular datos o procesarlos en corto tiempo. He alcanzado el objetivo general el cual era: “Desarrollar un Proyecto de Investigación sobre aplicaciones de la probabilidad y procesos estocásticos en ingeniería, lo cual servirá como modelo de desarrollo de ejercicios tipos de acuerdo a los avances tecnológicos e informáticos”. Igualmente en la hipótesis que había planteado: “La elaboración del trabajoTEXTO: “Probabilidad Y Procesos Estocásticos en Ingeniería”, permitirá ahondar los temas de probabilidades. variables aleatorias, distribución de probabilidades, vectores aleatorios, procesos estocásticos, representación espectral, entropía, procesos estocásticos estacionarios, espectro de potencia, procesos discretos en el tiempo, espectro de potencia y sistemas lineales, puntos de Poisson y ruido impulsivo y por último procesos de ciclo estacionarios, cada uno de los cuales desarrollados en un capitulo favoreciendo a los alumnos un aprendizaje sólido de la Asignatura; con el objeto de realizar Proyectos de Investigación Científica de alto nivel académico de manera precisa y clara”, está plenamente demostrada. v III.- PARTE TEÓRICA vi III PARTE TEÓRICA CAPITULO I: 1.1. FUNDAMENTOS DE LA TEORÍA DE PROBABILIDAD CONCEPTOS BÁSICOS Las probabilidades son muy útiles, ya que pueden servir para desarrollar estrategias. Por ejemplo, los inversionistas estarán más interesados en invertirse dinero si las posibilidades de ganar son buenas. El punto central en todos estos casos es la capacidad de cuantificar cuan probable es determinado evento. En concreto decimos que las probabilidades se utilizan para expresar cuan probable es un determinado evento. La probabilidad clásica, el enfoque clásico o a priori de la probabilidad se basa en la consideración de que los resultados de un experimento son igualmente posibles. Empleando el punto de vista clásico, la probabilidad de que suceda un evento se calcula dividiendo el número de resultados favorables, entre el número de resultados posibles. La probabilidad clásica de un evento E, que denotaremos por P(E), se define como el número de eventos elementales que componen al evento E, entre el número de eventos elementales que componen el espacio muestral: Probabilidad. Es el estudio de los fenómenos de los que no estamos seguros de su ocurrencia. Fenómeno. Es la ocurrencia de un hecho o suceso. Experimento. Es un fenómeno observable perfectamente definido. Los fenómenos observables se pueden clasificar en: Deterministicos. Se puede predecir el resultado. Aleatorios. No se puede predecir el resultado. 1 La probabilidad de que un evento ocurra está dada mediante un número que va desde de 0 a 1,00. 1.1. CONJUNTOS Y TÉCNICAS DE CONTEO 1.1.1. Conjuntos Conjunto es un grupo, una colección o una lista de objetos con características comunes, a esos elementos se les llama miembros o elementos del conjunto. Un conjunto debe estar bien definido, es decir, podrá determinarse si un elemento dado pertenece o no al conjunto. De esta manera, si el conjunto está formado por las estaciones del año, entonces primavera es un elemento del conjunto, pero junio no lo es. Un conjunto vacío, es el conjunto sin elementos que se denota por ó { }, por ejemplo supóngase que en un grupo escolar la lista de los alumnos, ordenada alfabéticamente por apellidos, inician con la letra P y terminan con la letra Z, si queremos formar el conjunto A con los alumnos del grupo cuyo apellido empiecen con la letra A, no tiene elementos = = { } Un conjunto unitario es un conjunto que tiene un solo elemento. Por ejemplo, el conjunto del satélite natural de la tierra = {luna} La unión de dos eventos es el evento que está formado por todos los resultados contenidos en cualquiera de los dos eventos. La unión se denota por E1 U E2 La intersección de dos eventos es el evento que está formado por los resultados contenidos en ambos eventos. La intersección se denota E1 ∩ E2 El complemento de un evento en un espacio muestral es el conjunto de los resultados en el espacio muestral que no están en el evento. Este componente del evento E se denota por E’. Los diagramas se utilizan con frecuencia para representar las relaciones entre conjuntos, y también son muy útiles para describir relaciones entre eventos. Los diagramas de Venn pueden emplearse para representar un espacio muestral y los eventos contenidos en éste Dos eventos E1 y E2 que no tienen resultados en común tienen una relación importante. Dos eventos E1 y E2, tales que E1 ∩ E2 = , se dice que son mutuamente excluyentes. Un evento E y su complemento E’, siempre son mutuamente excluyentes. 2 Ejemplo 1 Se analizan muestras de policarbonato plástico para determinar su resistencia a las ralladuras y a los golpes. A continuación se presenta el resumen de los resultados obtenidos con 49 muestras: Resistencia a los golpes Resistencia a las ralladuras Alta Baja Alta 40 4 Baja 2 3 Sean A: el evento “la muestra tiene una alta resistencia a los golpes”, y B: el evento “la muestra tiene una alta resistencia a las ralladuras”. Determine el número de muestras en A∩B, A’, B’, AUB, A’∩B, A’UB, dibujando el diagrama de Venn para cada uno. 1.2.2 Técnicas de Conteo. Diagrama de árbol Un diagrama de árbol es una representación gráfica de un experimento que consta de r pasos, donde cada uno de los pasos tiene un número finito de maneras de ser llevado a cabo. 3 Ejemplos: 1.- Un vendedor de autos quiere presentar a sus clientes todas las diferentes opciones con que cuenta: auto convertible, auto de dos puertas, y auto de 4 puertas, cualquiera de ellos con rines deportivos o estándar ¿Cuántos diferentes arreglos de autos y rines puede ofrecer el vendedor? 2. Un médico general clasifica a sus pacientes de acuerdo a: su sexo (masculino o femenino), tipo de sangre (A, B, AB u O) y en cuanto a la presión sanguínea (Normal, Alta o Baja). Mediante un diagrama de árbol diga en cuantas clasificaciones pueden estar los pacientes de este médico. 3. En la prueba de tarjetas de circuito impreso. Cada tarjeta pasa o no pasa la prueba. En una tarjeta que no pasa la prueba se hace una verificación adicional. Si se representan cinco pruebas. Representa mediante un diagrama de árbol espacio muestral de este experimento. 4. Un sistema de comunicación digital, cada mensaje se clasifica según llega o no dentro del tiempo establecido por el diseño del sistema. Si se clasifican tres mensajes, utilice un diagrama de árbol para representar el espacio muestral de los posibles resultados. 1.3 PERMUTACIONES Y COMBINACIONES 1.3.1 Permutaciones Permutación es todo arreglo de elementos en donde nos interesa el lugar o posición que ocupa cada uno de los elementos que constituyen dicho arreglo. Para ver de una manera objetiva la diferencia entre una combinación y una permutación, plantearemos cierta situación. Suponga que un salón de clase está constituido por 35 alumnos. 4 a) El maestro desea que tres de los alumnos lo ayuden en actividades tales como mantener el aula limpia o entregar material a los alumnos cuando así sea necesario. b) El maestro desea que se nombre a los representantes del salón (Presidente, Secretario y Tesorero). Solución: a) Suponga que por unanimidad se ha elegido a Daniel, Arturo y a Rafael para limpiar el aula o entregar material, (aunque pudieron haberse seleccionado a Rafael, Daniel y a Enrique, o pudo haberse formado cualquier grupo de tres personas para realizar las actividades mencionadas anteriormente). ¿Es importante el orden como se selecciona a los elementos que forma el grupo de tres personas? Reflexionando al respecto nos damos cuenta de que el orden en este caso no tiene importancia, ya que lo único que nos interesaría es el contenido de cada grupo, dicho de otra forma, ¿quiénes están en el grupo? Por tanto, este ejemplo es una combinación, quiere decir esto que las combinaciones nos permiten formar grupos o muestras de elementos en donde lo único que nos interesa es el contenido de los mismos. b) Suponga que se han nombrado como representantes del salón a Daniel como Presidente, a Arturo como secretario y a Rafael como tesorero, pero resulta que a alguien se le ocurre hacer algunos cambios, los que se muestran a continuación: CAMBIOS PRESIDENTE: Daniel ,Arturo, Rafael, Daniel SECRETARIO: Arturo, Daniel, Daniel, Rafael TESORERO: Rafael, Rafael, Arturo, Arturo Ahora tenemos cuatro arreglos, ¿se trata de la misma representación? Creo que la respuesta sería no, ya que el cambio de función que se hace a los integrantes de la representación original hace que definitivamente cada una de las 5 representaciones trabaje de manera diferente, ¿importa el orden de los elementos en los arreglos?. La respuesta definitivamente sería sí, luego entonces las representaciones antes definidas son diferentes ya que el orden o la forma en que se asignan las funciones sí importa, por lo tanto es este caso estamos tratando con permutaciones. Notación: E je m pl o. ¿Cu án t os n úm e ro s de 5 cif ra s d if e ren t e s se pu e de f o rm a r co n lo s d ígi t o s: 1, 2 , 3 , 4 , 5 . ? m = 5, n = 5 S í e nt ra n t o do s los e le me n to s. De 5 d ígit o s e n t ra n só lo 3 . S í imp o rt a e l o rden . S on núm e ro s d ist in t o s e l 1 23 , 23 1, 3 21 . No se re p it e n lo s e le m en t o s. E l en u n ciad o no s p ide qu e la s cif ra s se a n d if e rent e s. 1.3.2 Combinaciones Una combinación de objetos es un arreglo de éstos en el que el orden no importa. Para encontrar el número de combinaciones de n objetos en grupos de r, se usa la siguiente fórmula: Ejemplo Supongamos que se elegirá a tres miembros de una pequeña organización social con un total de diez miembros para que integren un comité. ¿Cuál es el número 6 de grupos diferentes de tres personas que pueden ser elegidos, sin importar el diferente orden en el que cada grupo podría elegirse? Solución nCr =10C3 = n! = 10! =10×9x8×7!=10×9x8=720= 120 1.4 PROBABILIDADES Las Probabilidades pertenecen a la rama de la matemática que estudia ciertos experimentos llamados aleatorios, o sea regidos por el azar, en que se conocen todos los resultados posibles, pero no es posible tener certeza de cuál será en particular el resultado del experimento. 1.4.1 PROBABILIDAD CONDICIONAL E INDEPENDENCIA 1.4.1.1 Independencia Si se tienen 2 eventos A y B, se dice que son independientes si la probabilidad de que uno de ellos suceda no depende de que el otro suceso ocurra o no ocurra. Si los eventos son independientes se tiene: p(AB) = p(A) . p(B) p(ABC) = p(A). p (B). p(C) P(A/B) = P(A), se lee “la probabilidad de A dado B, es igual a la probabilidad de A” P(B/A) = P(B), se lee “la probabilidad de B dado A, es igual a la probabilidad de B” 1. La probabilidad de que una muestra de laboratorio contenga altos niveles de contaminación es 0.10. Se analizan cinco muestras, esta son independientes. a) ¿Cuál es la probabilidad de que ninguna contenga altos niveles de contaminación? b) ¿Cuál es la probabilidad de que exactamente una contenga altos niveles de contaminación? Si los sucesos son dependientes, esto es que lo que ocurra después depende de lo que haya ocurrido antes se obtiene: p(AB) = p(A).p(B/A) 7 Se lee “probabilidad de que ocurran A y B (sucesivas o simultáneas) es igual a la probabilidad de que ocurra A por la probabilidad de que ocurra B dado que ya ocurrió antes A.” 1 La producción diaria de 850 partes contiene 50 que no satisfacen los requerimientos del cliente. Del lote se eligen dos partes, sin reemplazo. ¿Cuál es la probabilidad de que la segunda parte sea defectuosa dado que la primera lo es? 49/849 1.4.1.2 Probabilidad Condicional La probabilidad del evento A dado que el evento B se ha presentado se llama probabilidad condicional, se denota por p(A/B) y se define como: Ejemplo: En una agencia de autos, las ventas de un mes, reportaron los siguientes datos. Rojos Blancos Medianos 14 8 Grandes 10 18 Encuentre las siguientes probabilidades. a) Comprar un auto mediano y blanco b) Dado que se compró un auto blanco que sea grande c) Dado que el auto es mediano que sea Rojo Para encontrar las tres probabilidades que se piden, conviene hacer una tabla de probabilidades. Sólo tiene que calcular las probabilidades que se requieran Medianos Rojos Blancos Total 14 8 22 8 Grandes 10 18 28 Total 24 26 50 Dividimos cada celda entre el total y se obtiene la probabilidad correspondiente a cada evento. Rojos Blancos Total Medianos 0.28 0.16 0.44 Grandes 0.2 0.36 0.56 Total 0.48 0.52 1 El cruce de cada fila y columna nos da la probabilidad de que ocurra uno y otro evento. Por ejemplo, la probabilidad de que sean medianos y rojos es: P( M y R) P( M R) 0.28 Al final de cada columna se tienen las probabilidades de que sean rojos o que sean blancos. Por ejemplo, probabilidad de que sean blancos = P ( B ) 0.52 Al final de cada fila se tienen las probabilidades de que sean medianos o grandes. Por ejemplo, probabilidad de grandes, P (G ) 0.56 Con estos resultados se puede calcular probabilidad condicional. Se debe de hacer la traducción del lenguaje oral al de probabilidades, esto es, escribir la probabilidad condicional en forma de ecuación: a) P ( M B ) 0.16 b) P (G / B ) P (G B ) 0.36 0.86 P( B) 0.52 P( R / M ) P ( R M ) 0.28 0.64 P(M ) 0.44 c) 9 CAPITULO II VARIABLE ALEATORIA El objeto de la teoría de probabilidad es proporcionar un modelo matemático adecuado a la descripción e interpretación de cierta clase de fenómenos aleatorios. Vemos como se idealiza el estudio experimental de las distribuciones de frecuencia relativas para variables aleatorias discretas y continuas; y sus distribuciones acumuladas a través de un modelo teórico representativo de la población de la cual provino la muestra. Se busca definir una función analítica que dé el comportamiento matemático de esa variable aleatoria real ; sujeta a los axiomas de probabilidad. 2.1 ALEATORIEDAD La aleatoriedad la produce un proceso o experimento aleatorio en si mismo, por eso hablamos de experimento aleatorio. Una muestra aleatoria es el resultado de un experimento aleatorio. Realizado el experimento, definido el , calculamos la probabilidad de los sucesos. En la teoría de probabilidad no interesa sólo la probabilidad de un suceso determinado sino el comportamiento general de todos los sucesos posibles que resultan del experimento y conforman el . Es decir que interesa la distribución de la masa de probabilidad. Esto nos conduce a la definición de variable aleatoria y al estudio de sus funciones de probabilidad. 2.2 VARIABLE ALEATORIA Sea un experimento aleatorio ; y el espacio muestra asociado a él. Una función X que asigna a cada uno de los elementos un número real x = X(), se llama variable aleatoria. Observación :en algunos casos es ya la característica numérica que queremos estudiar X() = es la función identidad. En general tenemos: : espacio muestra del experimento . Rx: valores posibles de X, llamado recorrido o campo de variación de la variable aleatoria. 10 Ejemplos de variables aleatorias: a.- Sea el experimento : arrojar dos dados = { (1,1) ; (1,2) ; (1,3) ;..................(6,6)} X : suma de los puntos de los dos dados ; Rx = { 2 , 3 , 4 , 5 , 6 , 7 , 8 , 9 , 10 , 11 , 12 } Y : diferencia entre los puntos de los dados; tomada en valor absoluto ; Ry = { 0, 1, 2, 3, 4, 5 } b.- Sea el experimento : arrojar dos monedas = { (c,c) ; (c,x) ; (x,c) ; (x,x) } Rx Interesa la cantidad de caras; Rx= { 0, 1, 2 } La variable aleatoria X determina una relación de equivalencia entre y Rx , existe un suceso en equivalente a cada suceso definido en Rx . Dado un suceso B Rx , existe A , tal que A es equivalente con B, es decir : para todo x Rx , existe tal que X() = x . Ejemplo: Consideremos el experimento de arrojar dos monedas = { (c,c) ; (c,x) ; (x,c); (x,x) } Sea el suceso A = se obtiene una cara A = { (c,x) ; (x,c) } P(A) = 1/4 + 1/4 = 1/2 Rx = {0 , 1 , 2 } B={1} P(B) = 1/2 2.2.1 VARIABLES ALEATORIAS DISCRETAS Si el número de valores posibles de la variable X es finito o infinito numerable, ésta será una variable discreta. Entonces Rx = { x1 , x2 , x3 ,...,.xn } ó Rx = { x1 , x2 , x3 ,....... } 2.2.1.1 Distribución uniforme La distribución uniforme es la que corresponde a una variable que toma todos sus valores, x1, x2... ,xk, con igual probabilidad; el espacio muestral debe ser finito. Si la variable tiene k posibles valores, su función de probabilidad sería: 11 donde k es el parámetro de la distribución (un parámetro es un valor que sirve para determinar la función de probabilidad o densidad de una variable aleatoria) La media y la varianza de la variable uniforme se calculan por las expresiones: El histograma de la función toma el aspecto de un rectángulo, por ello, a la distribución uniforme se le suele llamar distribución rectangular. 2.2.1.2 Distribución binomial La distribución binomial es típica de las variables que proceden de un experimento que cumple las siguientes condiciones: 1) El experimento está compuesto de n pruebas iguales, siendo n un número natural fijo. 2) Cada prueba resulta en un suceso que cumple las propiedades de la variable binómica o de Bernouilli, es decir, sólo existen dos posibles resultados, mutuamente excluyentes, que se denominan generalmente como éxito y fracaso. 12 3) La probabilidad del ‚éxito (o del fracaso) es constante en todas las pruebas. P(éxito) = p ; P(fracaso) = 1 - p = q 4) Las pruebas son estadísticamente independientes, En estas condiciones, la variable aleatoria X que cuenta el número de ‚éxitos en las n pruebas se llama variable binomial. Evidentemente, el espacio muestral estar compuesto por los números enteros del 0 al n. Se suele decir que una variable binómica cuenta objetos de un tipo determinado en un muestreo de n elementos con reemplazamiento. La función de probabilidad de la variable binomial se representa como b(x,n,p) siendo n el número de pruebas y p la probabilidad del ‚éxito. n y p son los parámetros de la distribución. La manera más fácil de calcular de valor de números combinatorios, como los incluidos en la expresión anterior, es utilizando el triángulo de Tartaglia La media y la varianza de la variable binomial se calculan como: 13 Media = μ = n p Varianza = σ2 = n p q Gráficamente el aspecto de la distribución depende de que sea o no simétrica Por ejemplo, el caso en que n = 4: 2.2.1.3 Distribución multinomial La distribución multinomial es esencialmente igual a la binomial con la única diferencia de que cada prueba tiene más de dos posibles resultados mutuamente excluyentes. Si tenemos K resultados posibles (Ei , i = 1, ... , K) con probabilidades fijas (pi , i = 1, ... , K), la variable que expresa el número de resultados de cada tipo obtenidos en n pruebas independientes tiene distribución multinomial. La probabilidad de obtener x1 resultados E1, x2 resultados E2, etc. se representa como: Los parámetros de la distribución son p1,..., pK y n. 14 2.2.1.4 Distribución hipergeométrica Una variable tiene distribución hipergeométrica si procede de un experimento que cumple las siguientes condiciones: 1) Se toma una muestra de tamaño n, sin reemplazamiento, de un conjunto finito de N objetos. 2) K de los N objetos se pueden clasificar como ‚éxitos y N - K como fracasos. X cuenta el número de ‚éxitos obtenidos en la muestra. El espacio muestral es el conjunto de los números enteros de 0 a n, ó de 0 a K si K < n. En este caso, la probabilidad del ‚éxito en pruebas sucesivas no es constante pues depende del resultado de las pruebas anteriores. Por tanto, las pruebas no son independientes entre sí. La función de probabilidad de la variable hipergeométrica es: Los parámetros de la distribución son n, N y K. Los valores de la media y la varianza se calculan según las ecuaciones: Si n es pequeño, con relación a N (n << N), la probabilidad de un ‚éxito variar muy poco de una prueba a otra, así pues, la variable, en este caso, es esencialmente binomial; en esta situación, N suele ser muy grande y los números combinatorios se vuelven prácticamente inmanejables, así pues, la probabilidades se calculan más cómodamente aproximando por las ecuaciones de una binomial con p = K / N. La media de la variable aproximada (μ = n p = n (K / N)) es la misma que la de la variable antes de la aproximación; sin embargo, la varianza de la variable binomial es ligeramente superior a la de la hipergeométrica. 15 el factor por el que difieren ser siempre menor que 1 y tan próximo a 1 como cierto sea que n << N. El aspecto de la distribución es bastante similar al de la binomial. Como ejemplo, mostramos los casos análogos a los de las binomiales del apartado anterior (p inicial = 0,25 y n = 4) 2.2.1.5 Distribución multihipergeométrica Este variable se define igual que la hipergeométrica con la única diferencia de que se supone que el conjunto de objetos sobre el que se muestrea se divide en R grupos de A1, A2,..., AR objetos y la variable describe el número de objetos de cada tipo que se han obtenido (x1, x2,..., xR) Esta situación es análoga a la planteada en el caso de la distribución multinomial. La función de probabilidad es: 2.2.1.6 Distribución de Poissón Una variable de tipo Poisson cuenta ‚éxitos (es decir, objetos de un tipo determinado) que ocurren en una región del espacio o del tiempo. El experimento que la genera debe cumplir las siguientes condiciones: 16 1. El número de éxitos que ocurren en cada región del tiempo o del espacio es independiente de lo que ocurra en cualquier otro tiempo o espacio disjunto del anterior. 2. La probabilidad de un ‚éxito en un tiempo o espacio pequeño es proporcional al tamaño de este y no depende de lo que ocurra fuera de él. 3. La probabilidad de encontrar uno o más ‚éxitos en una región del tiempo o del espacio tiende a cero a medida que se reducen las dimensiones de la región en estudio. Como consecuencia de estas condiciones, las variables Poisson típicas son variables en las que se cuentan sucesos raros. La función de probabilidad de una variable Poisson es: El parámetro de la distribución es λ que es igual a la media y a la varianza de la variable. Esta característica puede servirnos para identificar a una variable Poisson en casos en que se presenten serias dificultades para verificar los postulados de definición. La distribución de Poisson se puede considerar como el límite al que tiende la distribución binomial cuando n tiende a y p tiende a 0, siendo np constante (y menor que 7); en esta situación sería difícil calcular probabilidades en una variable binomial y, por tanto, se utiliza una aproximación a través de una variable Poisson con media l = n p. La varianza de la variable aproximada es ligeramente superior a la de la variable binomial. Las variables Poisson cumplen la propiedad de que la suma de variables Poisson independientes es otra Poisson con media igual a la suma las medias. El aspecto de la distribución depende muchísimo de la magnitud de la media. Como ejemplo, mostramos tres casos con λ = 0,5 (arriba a la izquierda), λ = 1,5 (arriba a la derecha) y λ = 5 (abajo) Obsérvese que la asimetría de la distribución disminuye al crecer λ y que, en paralelo, la gráfica empieza a tener un aspecto acampanado. 17 2.2.2 VARIABLES ALEATORIAS CONTINUAS Si el recorrido de la variable X es un intervalo real cuyos extremos pueden ser -∞ y +∞ ; ésta será una variable aleatoria continua. Entonces Rx = ( a , b ) óRx = (-∞ , +∞ ) óRx = ( a , +∞ ) ó Rx = ( -∞ , b ) Tanto para variables aleatorias discretas o continuas podemos asociar valores de probabilidad. P( X = xi ) = P( suceso : X toma el valor xi ) P( c< X < d ) = P( suceso : X toma cualquier valor en el intervalo) P( X xo ) = P( suceso : X toma valores menores o iguales que xo ) 2.2.2.1 Distribución normal o de Gauss La distribución normal fue definida por De Moivre en 1733 y es la distribución de mayor importancia en el campo de la estadística. Una variable es normal cuando se ajusta a la ley de los grandes números, es decir, cuando sus valores son el resultado de medir reiteradamente una magnitud sobre la que influyen infinitas causas de efecto infinitesimal. 18 Las variables normales tienen una función de densidad con forma de campana a la que se llama campana de Gauss. Su función de densidad es la siguiente: Los parámetros de la distribución son la media y la desviación típica, μ y σ, respectivamente. Como consecuencia, en una variable normal, media y desviación típica no deben estar correlacionadas en ningún caso (como desgraciadamente ocurre en la inmensa mayoría de las variables aleatorias reales que se asemejan a la normal. La curva normal cumple las siguientes propiedades: 1) El máximo de la curva coincide con la media. 2) Es perfectamente simétrica respecto a la media (g1 = 0). 3) La curva tiene dos puntos de inflexión situados a una desviación típica de la media. Es convexa entre ambos puntos de inflexión y cóncava en ambas colas. 4) Sus colas son asintóticas al eje X. 19 Para calcular probabilidades en intervalos de valores de la variable, habría que integrar la función de densidad entre los extremos del intervalo. por desgracia (o por suerte), la función de densidad normal no tiene primitiva, es decir, no se puede integrar. Por ello la única solución es referirse a tablas de la función de distribución de la variable (calculadas por integración numérica) Estas tablas tendrían que ser de triple entrada (μ, σ, valor) y el asunto tendría una complejidad enorme. Afortunadamente, cualquier que sea la variable normal, X, se puede establecer una correspondencia de sus valores con los de otra variable con distribución normal, media 0 y varianza 1, a la que se llama variable normal tipificada o Z. La equivalencia entre ambas variables se obtiene mediante la ecuación: La función de distribución de la variable normal tipificada está tabulada y, simplemente, consultando en las tablas se pueden calcular probabilidades en cualquier intervalo que nos interese. De forma análoga a lo pasaba con las variables Poisson, la suma de variables normales independientes es otra normal. 20 Histograma de una normal idealizada 2.2.2.2 Histograma de una muestra de una variable normal Distribución Gamma (Γ) La distribución gamma se define a partir de la función gamma, cuya ecuación es: La función de densidad de la distribución gamma es: α y β son los parámetros de la distribución. La media y la varianza de la variable gamma son: 21 2.2.2.3 Distribución exponencial Es un caso particular de la distribución gamma cuando α = 1. Su función de densidad es: Su parámetro es β. La media y la varianza de la distribución exponencial son: 2.2.2.4 Distribución Chi-cuadrado Es otro caso particular de la distribución gamma para el caso β = 2 y α = n / 2, siendo n un número natural. Su función de densidad es: 22 El parámetro de la distribución es y su media y su varianza son, respectivamente: Otra forma de definir la distribución es la siguiente: Supongamos que tenemos n variables aleatorias normales independientes, X1,..., Xn, con media μi y varianza (i = 1 ... n), la variable definida como tiene distribución con n grados de libertad y se le denomina n. Variables chi-cuadrado con valores de progresivamente mayores son cada vez menos asimétricas. 23 2.2.2.5 Distribución T de Student Supongamos dos variables aleatorias independientes, una normal tipificada, Z , y otra con distribución con grados de libertad, la variable definida según la ecuación: tiene distribución t con grados de libertad. La función de densidad de la distribución t es: El parámetro de la distribución t es , su número de grados de libertad. Esta distribución es simétrica respecto al eje Y y sus colas se aproximan asintóticamente al eje X. Es similar a la distribución Z salvo que es platicúrtica y, por tanto, más aplanada. Cuando n tiende a infinito, t tiende asintóticamente a Z y se pueden considerar prácticamente iguales para valores de n mayores o iguales que 30.. 24 Variables T con valores de progresivamente mayores son cada vez menos platicúrticas Comparación entre la variable T y la normal tipificado. 2.2.2.6 Distribución F de Snedecor Sean U y V dos variables aleatorias independientes con distribución con 1 y 2 grados de libertad, respectivamente. La variable definida según la ecuación: tiene distribución F con 1, 2 grados de libertad. La función de densidad de la distribución F es: 25 Los parámetros de la variable F son sus grados de libertad 1 y 2. Las distribuciones F tienen una propiedad que se utiliza en la construcción de tablas que es la siguiente: Llamemos f1,2 al valor de una distribución F con 1 y 2 grados de libertad que cumple la condición, P(F > f1,2) = α; llamemos f1,2 al valor de una distribución F con 1 y 2 grados de libertad que cumple la condición, P(F > f1,2) = 1- α. Ambos valores están relacionados de modo que uno es el inverso del otro. Variables F con distintos valores de CAPITULO III 3.1 1, 2 DISTRIBUCION DE PROBABILIDADES FUNCIÓN DE PROBABILIDADDISCRETA O DE CUANTÍA Llamamos función de probabilidad discreta o función de cuantía o función de probabilidad puntual correspondiente a la variable aleatoria X a la 26 colección de pares [ x , p(x)] ; donde las probabilidades p(x)= P(X= x) verifican : a.- p(x) 0 x R b.- p(x) = 1 Esta distribución se representa a través de un gráfico de bastones: p(x) 0 1 2 n x Interpretación física: Si consideramos al eje real como una barra; podemos suponer que por sobre cada punto de abscisa x hay aplicada una masa puntual P[ X = x ] = p(x ). Además la masa total de probabilidad es igual a uno. Observaciones: - Supóngase que la variable discreta puede tomar un número finito de valores x1, x2 , x3,...., xn; si cada resultado es igualmente probable p(x1 ) = p(x2 )=.....= p(xn )= 1/n . - Si X toma un número infinito no numerable es imposible que todos los resultados sean equiprobables, pues no satisface la condición de cierre ; p(x ) = 1 Ejemplo: Sea : un jugador arroja 3 monedas; gana $2 por cada cara que aparece y pierde $2 por cada cruz. = { (ccc); (ccx); (cxx); (xxx); (xcc); (xxc); (cxc); (xcx) } Al jugador le interesa la ganancia o pérdida que el punto muestra le representa.. La variable aleatoria se define: X :Rx X= ganancia del jugador. P()= 1/8 P(ganar 6) = P(x=6) = P( = ccc) = 1/8 P(ganar 2) = P(x=2) = P ( { cxc , xcc , ccx }) = 3/8 3.2 FUNCIÓN DE PROBABILIDAD CONTINUA–FUNCIÓN DE DENSIDAD Dada una variable aleatoria continua X; se llama función de densidad de probabilidad de X a f(x) si existe tal que satisfagan las siguientes condiciones: a.- f(x) 0 para todo x 27 b.- f (x ). dx 1 R Nota: f(x) no indica probabilidad. Sólo indica cómo se distribuye la masa de probabilidad dentro del recorrido de la variable. Geométricamente, P( a< X < b) = 1 es el área bajo la curva f(x). f(x) f(x) = 0 f(x) = 0 a b x 3.3 DISTRIBUCIÓN DE PROBABILIDAD ACUMULADA Sea X una variable aleatoria discreta, definimos F(x) como función de distribución acumulada de la variable aleatoria X a :F(x ) = P( X x ). Si X es una variable aleatoria discreta la gráfica es una función escalonada con tramos continuos y un número finito o infinito numerable de saltos correspondiente a los valores de X = x1 ,x2 ,....xn k P ( X x k ) p( xi ) i 1 F(x) F(x) =1 1 F(x) = 0 0 1 2 n x Si X es una variable aleatoria continua su función de distribución acumulada es el valor del área bajo la curva f(x) a la izquierda de x. x F ( x ) P( X x ) f ( s)ds F(x) Título del eje 28 Propiedades de F(x) 1.- F(x) 0 , x R ( no negatividad ) 2.- x1< x2 F(x1 ) F(x2 ) ( no decreciente ) 3.- 0 F(x) 1 4.- Si F(x) es la función de distribución de una variable aleatoria continua, entonces F ( x ) f ( x ) x donde F(x) es diferenciable, siendo f(x) la función x de densidad de la variable. 5.- x1 < x2 F(x2 ) - F(x1 ) = P( x1 < x x2 ) CAPITULO IV VECTORES ALEATORIOS En la vida real es muy frecuente enfrentarnos a problemas en los que nos interesa analizar varias características simultáneamente, como por ejemplo la velocidad de transmisión de un mensaje y la proporción de errores. De esta forma seremos capaces de estudiar no solo el comportamiento de cada variable por separado, sino las relaciones que pudieran existir entre ellas. 4.1 VECTOR ALEATORIO El concepto de vector aleatorio nace como una generalización natural de la noción de variable aleatoria, al considerar simultáneamente el comportamiento aleatorio de varias características asociadas a un experimento. Ejercicio1. Sean U1, U2, … Un vectores aleatorios Np independientes e igualmente distribuidos. Sean V1 y V2 sendas combinaciones lineales de U1, U2, … Un : V1= b1U1 + b2U2 + … + bn Un V2= c1U1 + c2U2 + … + cn Un Notaremos por B y C los vectores de los coeficientes reales: b1 c1 b2 c2 B = y C = bn cn Demostrar que V1 y V2 son independientes si y solo si Bt C = 0 29 Ejercicio2. Sea X= X1 X2 X3 X4 un v.a. Normal de media X1 X3 = 1 2 3 4 y dispersión a) Dar la ley de b) A partir de ella y de la tabla de función de distribución de la N(0,1), -1 1 3 1 0 -2 . 0 1 1 -2 1 5 sabiendo que X2 =1. calcula la probabilidad condicionada CAPITULO V 2 -1 1 3 p( X12 + X32 < 1 / X2 =1) PROCESOS ESTOCASTICOS La teoría de los procesos estocásticos se centra en el estudio y modelización de sistemas que evolucionan a lo largo del tiempo, o del espacio, de acuerdo a unas leyes no determinísticas, esto es, de carácter aleatorio. La forma habitual de describir la evolución del sistema es mediante sucesiones o colecciones de variables aleatorias. De esta manera, se puede estudiar cómo evoluciona una variable aleatoria a lo largo del tiempo. Por ejemplo, el número de personas que espera ante una ventanilla de un banco en un instante t de tiempo; el precio de las acciones de una empresa a lo largo de un año. La primera idea básica es identificar un proceso estocástico con una sucesión de variable aleatoria {Xn, n ∈ N} donde el subíndice indica el instante de tiempo (o espacio) correspondiente. Esta idea inicial se puede generalizar fácilmente, permitiendo que los instantes de tiempo en los que se definen las variables aleatorias sean continuos. Así, se podrá hablar de una colección o familia de variables aleatorias {Xt, t ∈ R}, que da una idea más exacta de lo que es un proceso estocástico. Se tenía que una v.a. X(s) es una función que va desde un espacio muestral S a la recta real, de manera que a cada punto s ∈ S del espacio muestral se le puede asociar un número de la recta real. De este modo, la probabilidad de cada suceso de S se puede trasladar a la probabilidad de que un valor de X (v.a.) caiga en un cierto intervalo o conjunto de números reales. Si a todo esto se le añade una dimensión temporal, se obtiene un proceso estocástico. 30 En general trabajamos con procesos estocásticos en cualquier caso en que intentamos ajustar un modelo teórico que nos permita hacer predicciones sobre el comportamiento futuro de un proceso. Un ejemplo particularmente importante lo proporcionan las denominadas “Series de Tiempo” o “Series Temporales”, que registran observaciones de determinado proceso en función del tiempo. 5.1 Definición 1 Se denomina proceso aleatorio o estocástico a toda variable que evoluciona a lo largo del tiempo de forma total o parcialmente aleatoria. Un ejemplo, Fig.1 es la temperatura en Madrid, aumenta durante el día y baja durante la noche; aumenta en el verano y desciende mucho en invierno (“nueve meses de invierno y tres de infierno”, que se dice del clima castellano); su variación es parcialmente determinística y parcialmente aleatoria. Figura 1: Temperaturas máximas y mínimas en Madrid 5.2 Definición 2 Esel conjunto de funciones temporales que resultan de un experimento particular, es decir, cada vez que se realiza el experimento, se produce como salida una determinada señal. La aleatoriedad radica en saber cual de todas las funciones saldrá.Fig.2. Además, en cada instante de tiempo tk, se puede definir una variable aleatoria que podría llamarse xtk. Queda claro que la diferencia fundamental entre una variable aleatoria y un proceso aleatorio es la dependencia con la variable tiempo. Figura 2: Procesos Estocásticos 31 Ejemplo: suponga un proceso estocástico definido como x(t)=at donde a está uniformemente distribuida entre 0 y 1. Cada vez que se realiza el experimento, la salida es una recta de pendiente diferente. Para un tiempo dado, digamos t=t0, se tendrá una v.a xt0= at0, que puede tomar valores entre 0 y t0. Una forma de caracterizar el proceso x(t) es a través de la definición de una función conjunta de infinitas variables aleatoria correspondientes a tiempos distintos tk. 5.3 Definición 3 Es una colección de variables aleatorias {Xt : t ∈ T} parametrizada por un conjunto T llamado espacio parametral y con valores en un conjunto S llamado espacio de estados (conjunto de posibles valores que pueden tomar las variables aleatorias {Xt}t ∈R).Fig.3 Figura 3: Proceso Estocástico Nota: en general, se piensa en el subíndice t como el indicativo del tiempo y en Xt como el estado o posición del proceso estocástico en el instante t. CAPITULO VI REPRESENTACION ESPECTRAL 6.1 REPRESENTACIÓN TEMPORAL Un método simple de representación de una señal sonora es dibujarla en unagráfica dependiente del tiempo. Esta representación se denomina representaciónen el dominio temporal (o time domainrepresentation). En este caso, representamosla evolución de la amplitud (de la magnitud que medimos: presión,voltaje, etc) respecto al tiempo. En el caso del sonido, la amplitud representa lavariación de la presión atmosférica respecto al tiempo. En general, la amplitudse representa a partir del valor 0 (posición de equilibrio o valor medio de lapresión) hasta el punto de máxima amplitud de la forma de onda.Fig 4. 32 Figura 4: Representación de una señal en el dominio temporal. 6.2 REPRESENTACIÓN FRECUENCIAL La representación frecuencial captura las características espectrales de unaseñal de audio. Además de la frecuencia fundamental, existen muchas frecuenciaspresentes en una forma de onda. Una representación en el dominio frecuencial(o frequencydomainrepresentation) o representación espectral muestra el contenido frecuencial de un sonido. Las componentes de frecuencias individualesdel espectro pueden denominarse harmónicos o parciales. Las frecuencias armónicas son enteros simples de la frecuencia fundamental. Cualquier frecuenciapuede denominarse parcial, sea o no múltiplo de la frecuencia fundamental. Dehecho, muchos sonidos no tienen una fundamental clara. El contenido frecuencial de un sonido puede mostrarse de diversas maneras.Una forma estándar es la de dibujar cada parcial como una línea en el eje x. La altura de cada línea correspondería a la fuerza o amplitud de cada componentefrecuencial. Una señal sinusoidal pura viene representada por una solacomponente frecuencial. 6.2.1 Espectro El espectro de una señal es una representación en el dominio de la frecuencia que viene dada por la evolución de la amplitud y de la fase respecto a lafrecuencia. 6.2.2 Espectro de potencia Del espectro de amplitud se puede derivar el espectro de potencia (powerspectrum). Generalmente, se define la potencia de una señal como el cuadradode la amplitud de dicha señal. Por tanto, el espectro de potencia sería el cuadradodel espectro de amplitud. La potencia espectral está más correlacionada conla percepción humana de la intensidad, y por ello es útil esta representación. 33 6.3 REPRESENTACIÓN TIEMPO-FRECUENCIA El espectro cambia constantemente, por lo que las gráficas mencionadas anteriormenterepresentan sólo una porción de sonido que se ha analizado. Unagráfica que represente la variación del espectro a lo largo del tiempo nos da unaidea de la evolución de la amplitud de las distintas frecuencias a lo largo deltiempo. Esta gráfica puede dibujarse de forma tridimensional, representando losdistintos espectros a lo largo del tiempo. En gráficos de computadora, representación espectral es donde el transporte ligero de una escena se modela con longitudes de onda verdaderas. Este proceso es típicamente mucho más lento que la representación tradicional, que rinde la escena en sus componentes rojos, verdes, y azules y después sobrepone las imágenes. La representación espectral es de uso frecuente adentro trazo del rayo o el trazo del fotón a simule más exactamente la escena, para la comparación con una fotografía real para probar a menudo el algoritmo de representación (como en a Caja de Cornell) o simular diversas porciones de espectro electromagnético con el fin de trabajo científico. Las imágenes simuladas no son necesariamente más realistas el aparecer; sin embargo, cuando está comparado a un pixel verdadero de la imagen para el pixel, el resultado está a menudo mucho más cercano. La representación espectral puede también simular fuentes de luz y se opone más con eficacia, como la luz espectro de emisión puede ser utilizado lanzar los fotones en una longitud de onda particular en proporción con el espectro. Las curvas espectrales de la reflexión de los objetos se pueden utilizar semejantemente para reflejar ciertas porciones del espectro más exactamente. Como ejemplo, ciertas características de tomates hacen que aparecen diferentemente bajo luz del sol que bajo luz fluorescente. El usar radiación del blackbody las ecuaciones para simular luz del sol o el espectro de emisión de un bulbo fluorescente conjuntamente con la curva espectral de la reflexión del tomate, imágenes más exactas de cada panorama pueden ser producidas. CAPITULO VII 7.1 ESTIMACION ESPECTRAL ESTIMACION ESPECTRAL Consideramos la estimación de la densidad espectral de potencia de un proceso aleatorio estacionario en sentido amplio (WSS). El espectro de potencia es la transformada de Fourier de la secuencia de autocorrelación. Por tanto, estimar el espectro de potencia es equivalente a estimar la autocorrelación. Para un proceso ergódico en autocorrelación, 34 Así, si conocemos x(n) para todo n, para estimar el espectro únicamente tendremos que calcular la secuencia de autocorrelaciónrx(k) y posteriormente hallar la transformada de Fourier. Pero existen dificultades en este proceso. Por ejemplo, la cantidad de datos disponible no es ilimitada y, en muchos casos, puede que dispongamos de un conjunto de datos pequeño e insuficiente. Otro problema añadido es que la señal puede estar contaminada con ruido o con una señal interferente. Por tanto, la estimación espectral implica estimar Sx(ejw) a partir de un número finito de medidas ruidosas de x(n). Las técnicas de estimación espectral pueden catalogarse atendiendo al siguiente criterio: 1.7.1 Métodos clásicos o no paramétricos. Estiman la secuencia de autocorrelaciónrx(k) a partir de un conjunto de datos. Calculando la transformada de Fourier de la secuencia de autocorrelación estimada se obtiene una estimación del espectro. 1.7.2 Métodos clásicos o paramétricos Utilizan un modelo del proceso para estimar el espectro de potencia. 7.2 ESTIMACIÓN DE LA DENSIDAD ESPECTRAL Un problema muy común y con grandes aplicaciones prácticas en procesado de señal es el de estimar la densidad espectral de potencia de una señal aleatoria estacionaria. Decimos "estimar" puesto que, como la señal es un proceso estocástico (estacionario) dada la naturaleza estocástica del mismo no es posible determinar con absoluta precisión su DEP a no ser que dispongamos de un registro de señal infinito, lo cual no es posible. Las técnicas de estimación se dividen en dos grandes grupos: No Paramétricas. Están basadas siempre de una u otra forma en el cálculo del periodograma. Calcular la transformada de fourier (en un ordenador es la DFT) de un registro de señal para estimar su espectro es un ejemplo de técnica no paramétrica. Paramétricas. Consisten en suponer un determinado modelo para el proceso estocástico (modelos AR, MA, ARMA, etc) y en la estimación de los parámetros de estos modelos mediante técnicas de predicción lineal (filtrado lineal óptimo) u otros métodos. 35 CAPITULO VIII 8.1 ENTROPIA DEFINICIÓN Entropía es el grado de desorden que tiene un sistema. La palabra entropía procede del griego em que significa sobre, en y cerca de; y sqopg, que significa giro, alternativa, cambio, evolución o transformación. La entropía es un patrón de medida. En física esto se aplica a la segunda ley de la termodinámica , la cual dice que los sistemas aislados tienden al desorden, es decir, las cosas tienden al caos a medida que pasa el tiempo (no hay más que fijarse en el organismo de un ser vivo);mientras que en la teoría de la comunicación este concepto es empleado como unnº que mide el grado de incertidumbre que posee un mensaje. La entropía es nula cuando la certeza es absoluta, y alcanzará un máximocuando el sistema se acerca al equilibrio. Cuando la entropía sea máxima en eluniverso, esto es, exista un equilibrio entre todas las temperaturas y presiones,llegará la muerte térmica del universo. Toda la energía se encontrará en forma decalor y no podrán darse transformaciones energéticas. “El orden de un cuerpo puede aumentar, pero a condición de que lacantidad de desorden a su alrededor aumente en una cantidad mayor. Esto es loque le sucede a un ser vivo. Podríamos definir la vida como un sistema ordenadoque puede sostenerse contra la tendencia al desorden, y que puede reproducirse. Es decir, que puede formar sistemas ordenados similares, pero independientes. Elsistema debe convertir energía partiendo de una forma ordenada en energíadesordenada. De esta manera el sistema puede satisfacer el requisito de que lacantidad de desorden aumente, mientras que, al mismo tiempo, aumenta el ordenen sí mismo y en su descendencia. 8.2 APLICACIONES H (X ,Y ) H ( X | Y ) I ( X ;Y ) H (X ) H (Y | X ) H (Y ) 36 H(X,Y) H(X) H(Y) H(X|Y) I(Y;X) H(Y|X) Desde estos dibujos se pueden sacar todas las relaciones posibles: I ( X ;Y ) H ( X ) H ( X | Y ) H (Y ) H (Y | X ) I ( X ;Y ) H ( X ) H (Y ) H ( X , Y ) H ( X , Y ) H ( X | Y ) H (Y | X ) I ( X ;Y ) etc… H (X ) H (X | Y) H (Y ) H (Y | X ) Cuando las variables son independientes H(X,Y)=H(X)+H(Y)y la información mutua será nula I(X;Y)=0. Ejemplo: Dadas dos variables aleatorias discretas (X,Y) que pueden asumir 4 valores distintos cada una, conocemos la densidad Conjunta(en general puede será una matriz rectangular): X 1 8 1 p ( x, y ) 16 1 16 Y 1 4 1 16 1 8 1 16 1 32 1 32 1 16 0 0 1 32 1 32 1 16 0 Marginales p ( x); p ( y ) Condicionales p ( y | x); p ( x | y ) Se puede ver claramente que la suma de todos los valores da 1, como debe de ser: 37 4 4 1 1 1 1 p( x, y ) 2 8 4 6 16 4 32 3 0 1 i 1 j 1 i Con la conjunta tenemos toda la información necesaria; podemos calcular las marginales(serán vectores) fácilmente: 4 1 1 1 1 p( x) p( x, yi ) Sumar las Filas!= , , , 2 4 8 8 i 1 4 1 1 1 1 p( y ) p( x j , y ) Sumar las Columnas!= , , , 4 4 4 4 j 1 Podemos ver que las variables son dependientesporque: p( x, y) p( x) p( y) Para hallar las densidades condicionales(serán matrices), utilizaremos: p( x | y) p ( x, y ) p( y) ; p( y | x) p ( x, y ) p( x) Esto significa por ejemplo: p( X | Y 1) 1/ 8,1/16,1/ 32,1/ 32 1 , 1 , 1 , 1 1/ 4 2 4 8 8 Es decir, si miramos bien estamos normalizando las Filas de la conjunta: 1 2 1 p( x | y) 4 1 4 1 1 4 1 2 1 4 0 1 8 1 8 1 4 0 1 8 1 8 1 1 0 (normalizando las filas) Donde las líneas suman 1; normalizando las columnas logramos: 1 4 1 p( y | x) 8 1 8 1 2 1 4 1 2 1 4 1 4 1 4 1 2 0 0 1 4 1 4 1 2 0 (normalizando las columnas) Donde las columnas sumas 1. 38 Calculo de las Entropías: 1 1 1 1 1 1 1 1 7 1 1 1 1 H ( X ) H , , , log2 log2 log2 log2 bits 1.75 bits 2 2 4 4 8 8 8 8 4 2 4 8 8 1 1 1 1 1 1 H (Y ) H , , , 4 log2 2 bits 4 4 4 4 4 4 Las formulas de las entropías condicionales son: 4 H ( X | Y ) p( yi ) H ( X | yi ) i 1 Las H ( X | yi ) las columnas de 1 2 1 p( x | y) 4 1 4 1 y las H (Y | x j ) 4 ; H (Y | X ) p( x j ) H (Y | x j ) j 1 son respectivamente las entropías de las filas de p( x | y ) y las entropías de p ( y | x) : 1 4 1 2 1 4 0 1 8 1 8 1 4 0 1 8 1 8 1 1 0 H ( X | y 1) 7 / 4 H ( X | y 2) 7 / 4 H ( X | y 3) 2 H ( X | y 4) 0 La entropía condicional será finalmente el promedio de todas: H(X | Y) 1 7 1 7 1 1 11 2 0 bits 4 4 4 4 4 4 8 A la misma manera, trabajando sobre las columnas de H(X | Y) p ( y | x) y promediando logramos: 13 bits 8 La Información Mutuaserá: I ( X ;Y ) H ( X ) H ( X | Y ) H (Y ) H (Y | X ) La Entropía Conjunta podemos calcularla directamente de la matriz 3 bits 8 p( x, y) : 2 1 1 1 6 1 4 1 27 H ( X , Y ) log2 log2 log2 log2 bits 3.37 bits 8 8 4 4 16 16 32 32 8 O a través de una de las formulas: 39 H ( X , Y ) H ( X ) H (Y ) I ( X ;Y ) 7 3 14 16 3 27 2 bits 4 8 8 8 Observaciones importantes: 1. Podemos notar como, por ejemplo, H ( X es mayor que H (X ) !! | y 4) 0 es menor de H (X ) , pero H ( X | y 3) 2 Parece increíble: en unos caso “aprender” información de la variable Y nos hace incrementar la incertidumbre sobre X!!!Pero promediando Y nos aporta información sobre X(siendo no independientes), de hecho: H(X | Y) H(X ) 2. p( x | y 2) vemos que es una densidad diferente de p(x) , pero la las entropías son iguales H ( X | y 2) H ( X ) . Esto porque la entropía es una cantidad independientes de permutaciones, o Si miramos mejor dicho, de los valores que asumen las variables (del soporte de la densidad). La entropía depende solo de los valores de las probabilidades.Esto no pasa con otras medidas de dispersión como la varianza, que en general será distinta. Calcular la Capacidad de un Canal discreto sin memoria: x1 x2 1 2 y1 10 1 2 3 p ( y | x ) matriz NM .... y j igual Entropía Varianza distinta .... .… “de canal” yN xM En la figura anterior, se muestra una representación típica de un canal discreto de comunicación; esto equivale a una matriz de probabilidad condicional o p ( y | x) . Habría que añadir o suponer algún tipo de información más sobre p(x) p(y) , por ejemplo. DISCRETO: se define así porque las entradas x y las salidas y pueden tomar un conjunto discreto de valores. SIN MEMORIA: si las salidassolo depende de las entradas al tiempo en cuestión, y son condicionalmente independientes de otras entradas y otras salidas en otro instante de tiempo (es equivalente a la formula Y X ruido ). Sabemos que por definición de capacidad de canal: C max I ( X ; Y ) p( x) 40 Vamos a ver los pasos que generalmente habrá que hacer para calcular la capacidad, en los problemas típicos. Empezamos diciendo que la formula que suele ser más útil para expresar la información mutua es: I ( X ; Y ) H (Y ) H (Y | X ) Esto no quiere decir que haya que utilizar siempre esta. Los pasos para en cálculo serán: 1) Hallar la matriz p( y | x) equivalente al grafico del canal. y1 x1 x2 .... yj .… p ( y | x ) C1 C2 ... C M .... yN xM valor1 valor 2 Donde con C i hemos indicado los M vectores columna (de N filas) que componen las matrices; por ... valorN definición de la matriz p( y | x) , las sumas de los valores a lo largo de cada columna dará 1. 2) Calcular H (Y ) ; esto necesita de dos pasos: primero hay que calcular p(y) y luego la Entropía. En formula: p( y) C1 p( x 1) C2 p( x 2) ... C M p( x M ) CY y luego: H ( y ) H (CY ) Es decir para hallar p(y) p(x) ; el CY (cuyos elementos tendrán que sumar 1, por construcción) que representa p(y) . desde resultado será un vector columna p ( y | x) , hay que promediar las columnas a través de la densidad Así que se podrá calcular la entropía utilizando la definición. 3) Calcular H (Y | X ) ; también en este caso necesitaríamos 2 pasos: calcular las entropías de cada columna C i y luego promediar. Juntando los dos pasos, podemos escribir en formula: H (Y | X ) H C1 p( x 1) H C 2 p( x 2) ... H C M p( x M ) Es decir: respecto al punto precedente, aquí primero calculamos las entropías de las columnas y luego promediamos. Antes para hallar H (Y ) , hemos promediado y luego calculado la entropía. 4) Como tememos H (Y ) y H (Y | X ) , tenemos también: I ( X ; Y ) H (Y ) H (Y | X ) 41 ahora, nos tocará maximizarla según algún parámetro, para hallar C. Para que se entienda mejor, vamos a hacer un ejemplo: p x1 1 2 p x2 1 1 p x 3 1 0 p( y | x) 1 0 1 y1 y2 1 Como se puede ver ya hemos hallado la matriz p( y | x) , cuyas columnas son: 1 0 C1 ; C ; C 2 3 0 1 1 Vamos a calcular p(y) : p( y) CY C1 p( x 1) C2 p( x 2) ... C M p( x M ) 1 0 p (1 2 p ) 1 ( 2) p p ( y ) CY p (1 2 p ) p 1 0 1 (1 ) p p (2 ) p Se puede comprobar que los elementos de CY suman efectivamente 1, como debe de ser siendo una densidad de probabilidad. Así que la entropía de las salidas será: H (Y ) H (CY ) 1 ( 2) plog 2 1 ( 2) p (2 ) plog 2 (2 ) p Ahora nos hace falta la entropía condicional H (Y | X ) : H (Y | X ) H C1 p H C 2 (1 2 p ) H C 3 p H C1 log 2 ( ) (1 ) log 2 (1 ) H C 2 0 H C 3 0 H Y | X log 2 ( ) (1 ) log 2 (1 ) p Así que la información mutua será: I ( X ; Y ) H (Y ) H (Y | X ) 1 ( 2) plog 2 1 ( 2) p (2 ) plog 2 (2 ) p log 2 ( ) (1 ) log 2 (1 ) p 42 Nos queda solo derivar respecto a p: I ( X ; Y ) ( 2) log 2 1 ( 2) p ( 2) (2 ) log 2 (2 ) p (2 ) ... p log 2 ( ) (1 ) log 2 (1 ) 0 I ( X ; Y ) ( 2) log 2 1 ( 2) p log 2 (2 ) p log 2 ( ) (1 ) log 2 (1 ) 0 p pˆ .... Finalmente, la capacidad será: C 1 ( 2) pˆ log 2 1 ( 2) pˆ (2 ) pˆ log 2 (2 ) pˆ log 2 ( ) (1 ) log 2 (1 ) pˆ CAPITULO IX PROCESOS ESTACIONARIOS 9.1 PROCESOS ESTACIONARIOS Se dice que un proceso {Xt : t ≥ 0} es estacionario (en el sentido estricto) si para cualesquiera tiempos t1 , . . . , tn, la distribución del vector (Xt1 , . , Xtn) es la misma que la del vector (Xt1 +h , . . . , Xtn +h ) para cualquier valor de h > 0. En particular, la distribución de Xt es la misma que la de Xt+h para cualquier h > 0, y entonces esta distribución es la misma para cualquier valor de t. 9.2 PROCESOS CON INCREMENTOS ESTACIONARIOS Se dice que un proceso {Xt : t ≥ 0} tiene incrementos estacionarios si para cualesquiera tiempos s < t, y para cualquier h > 0, las variables Xt+h − Xs+h y Xt − Xs tienen la misma distribución de probabilidad. Es decir, el incremento que sufre el proceso entre los tiempos s y t sólo depende de estos tiempos a través de la diferencia t − s, y no de los valores específicos de s y t. 9.3 PROCESO DE BERNOULLI (proceso bernoulliano de ensayos independientes) La distribución de bernoulli se refiere a un experimento aleatorio discreto que solo puede tomar dos valores, 0 ó 1 y más comúnmente éxito o fracaso para el cual la probabilidad p del resultado éxito ó 1 es conocida. P(1) = P(éxito) = p P(0) = P(fracaso) = 1 – p = q Distribución de probabilidad es: p(x) = px(1-p)1-x para x = 0, 1 Existen cantidad de fenómenos aleatorios que obedecen a este modelo: Cursar la materia procesos estocásticos: se aprueba o se reprueba. La repetición de estos experimentos Bernoullianos, como por ejemplo el lanzamiento de una moneda más de una vez, o la observación del sexo de varios hijos de una misma pareja, etc, es llamado proceso Bernoulliano de ensayos independientes. 43 9.4 CAMINATA ALEATORIA (recorrido aleatorio de estado discreto y tiempo discreto) Una caminata aleatoria simple sobre el conjunto de números enteros Z es un proceso estocástico a tiempo discreto {Xt:t = 0, 1, . . .} que evoluciona como se muestra en la figura 5. Es decir, iniciando en el estado 0, al siguiente tiempo el proceso puede pasar al estado +1 con probabilidad p, o al estado −1 con probabilidad q, en donde p+q= 1. Se usa la misma regla para los siguientes tiempos, es decir, pasa al estado de la derecha con probabilidad p, o al estado de la izquierda con probabilidad q. El valor de Xnes el estado del proceso al tiempo n. Este proceso cambia de un estado a otro en dos tiempos consecutivos de acuerdo a las probabilidades de transición que se muestran en la figura, válidas para cualquier t ≥ 0, y para cualesquiera enteros i y j. p si j = i + 1 P(Xn+1 = j | X n = i) = 0 q si j = i-1 en otro caso Figura 5. Caminata Aleatoria Dado que estas probabilidades no dependen de n, se dice que son homogéneas en el tiempo, es decir, son las mismas para cualquier valor de n. A partir de estasconsideraciones, es intuitivamente claro que este proceso cumple la propiedad deMarkov, es decir, el estado futuro del proceso depende únicamente del estado presentey no de los estados previamente visitados. Una posible trayectoria de esteproceso se muestra en la figura 6. Figura 6. Trayectoria del proceso. Propiedad de Markov Una caminata aleatoria puede también definirse de la forma siguiente: Sea ξ1, ξ2, .una sucesión de variables aleatorias independientes e 44 idénticamente distribuidastales que P(ξ = +1) = p y P(ξ = −1) = q, en donde, como antes, p + q = 1.Entonces para t ≥ 1 se define: Xn= X0 + ξ1 + · · · + ξn Este es uno de los ejemplos más simples de un proceso estocástico. En este caso Xn es una variable aleatoria que comienza con un valor conocido X0 y a lo largo de los períodos n = 1,2,3,…va variando a razón de saltos unitarios hacia arriba o hacia abajo con una probabilidad asociada del 50% en cada caso. CAPITULO X ESTECTRO DE POTENCIA 10.1 PROCESO ALEATORIO Es una colección de señales en tiempo discreto, por tanto, no podemos calcular la transformada de Fourier del proceso en sí mismo. Pero podemos obtener una representación del proceso en el dominio de la frecuencia si expresamos la transformada de Fourier en términos de un promedio del conjunto de realizaciones. La secuencia de autocorrelación de un proceso estacionario en sentido amplio (WSS) proporciona una descripción en el dominio del tiempo del momento de segundo orden del proceso. Como rx(k) es una secuencia determinista, podemos calcular la transformada de Fourier en tiempo discreto, 10.2 ESPECTRO DE POTENCIA Esta expresión determina el espectro de potencia o densidad espectral de potencia del proceso. Conocido el espectro de potencia, podemos obtener la secuencia de autocorrelación mediante la transformada inversa: Por tanto, el espectro de potencia proporciona una descripción en el dominio de la frecuencia del momento de segundo orden del proceso. En ocasiones puede resultar conveniente utilizar la transformada-z en lugar de la transformada de Fourier en tiempo discreto, A Px(z) también se le denomina espectro de potencia de x(n). 45 10.2.1 Propiedades del espectro de potencia. 10.2.1.1 Simetría Puesto que la secuencia de autocorrelación de un proceso aleatorio WSS posee simetría conjugada, el espectro de potencia es una función real de w. Si el proceso es real, la secuencia de autocorrelación es real y par, lo que implica que el espectro de potencia es real y par. El espectro de potencia de un proceso aleatorio WSS x(n) es real, Px(ejw) = Px*(ejw), y Px(z) satisface la condición de simetría Si x(n) es real, entonces el espectro de potencia es par, Px(ejw) = Px(ejw), lo que implica 10.2.1.2 Positividad El espectro de potencia de un proceso aleatorio WSS es no negativo 10.2.1.3 Potencia total La potencia de un proceso aleatorio WSS de media cero es proporcional al área bajo la curva de densidad espectral de potencia 10.2.1.4 Propiedad de autovalores Los autovalores de la matriz de autocorrelación de dimensiones N x N de un proceso aleatorio WSS de media cero están limitados por los valores máximo y mínimo del espectro de potencia, El espectro de potencia también puede relacionarse con el promedio de magnitudes de Fourier al cuadrado, |X(ejw|2. Consideramos (Ec. 1) Que es proporcional al cuadrado de la magnitud de la transformada de Fourier en tiempo discreto de 2N + 1 muestras de una realización dada de un proceso aleatorio. Puesto que, para cada frecuencia w, PN(ejw) es una variable aleatoria, si tomamos el valor esperado obtenemos (Ec. 2) Con la sustitución k = n - m, tenemos 46 (Ec. 3) Suponiendo que la secuencia de autocorrelación decae a cero lo suficientemente rápido para considerar (Ec. 4) Podemos tomar el límite de Ec. 3 con N tendiendo a infinito, y (Ec. 5) Combinando Ec. 1 y Ec. 5 obtenemos Por tanto, el espectro de potencia puede ser visto como el valor esperado de PN(ejw) en el límite cuando N tiende a infinito. 10.3 APLICACIONES A LAS TELECOMUNICACIONES Un uso común de la transformada de Fourier, es encontrar las componentes frecuenciales de una señal en el dominio del tiempo que esta contaminada con ruido. Considérese dos señales senoidales que tienen frecuencias fundamentales de 50Hz y 120Hz, luego considérese estas señales contaminadas con ruido aleatorio. Los comandos para generar una señal con las especificaciones anteriormente mostradas son los siguientes: >> t = 0:0.001:0.6; >> x = sin ( 2 * pi * 50 * t ) + sin ( 2 * pi * 120 * t ); >> y = x + 2 * randn( size ( t ) ); >>plot( 1000 * t (1:50), y (1:50) ) Es de gran dificultad identificar las componentes de frecuencia mirando la señal original. Sin embargo al realizar la conversión de esta señal al dominio de la frecuencia, la identificación de estas componentes se hace más sencilla. La conversión de la señal al dominio de la frecuencia se hace calculando la Transformada Rápida de Fourier, tomando para el cálculo los primeros 512 puntos de la señal. El espectro de potencia es una medida de la potencia a varias frecuencias, y este puede ser calculado con los siguientes comandos. >>Pyy = Y .* conj (Y) / 512; 47 Para realizar la gráfica se puede tener en cuenta que la información que aparece en el arreglo Pyy es por propiedades de la transformada, simétrica con respecto a la frecuencia media, es decir que si tenemos 512 puntos de muestra, la señal que esta almacenada en el arreglo es simétrica con respecto a la muestra 256, por lo tanto dibujar las ultimas 256 muestras del arreglo será completamente innecesario. De manera que para visualizar el espectro de potencia los comandos deben ser como se muestran a continuación: >> f = 1000*(0:256)/512; >>plot(f,Pyy(1:257)) Para ver todas las muestras y entender la característica de simetría descrita anteriormente se pueden utilizar los siguientes comandos: >> f = 1000*(0:511)/512; >>plot(f,Pyy) Del espectro de potencia se puede visualizar que las componentes con mayor frecuencia se encuentran a los 50 y 120 Hz respectivamente. Comprobando así que las señales de las cuales se formo la señal contaminada con ruido tienen estas frecuencias fundamentales. AHORA OBSERVAREMOS LA DENSIDAD ESPECTRAL DE POTENCIA. %FUNCTION SPECTRAL DENSITY UNIPOLAR NRZ A=sqrt(2); Tb=1.5; R=1/Tb; L=2*R; f=0:L/50:L; del=0; P=(A.^2*Tb)/4*(sinc(f*Tb)).^2*(1+(1/Tb)*del); g=plot(f,P); title('ESPECTRAL DENSITY: UNIPOLAR NRZ'); holdon;xlabel('Frequency');ylabel('Normalized Power'); axis([0 L 0 1.1*Tb]);set(g,'LineWidth',2.5); stem(0,(A.^2*Tb)/2,'LineWidth',2.5);hold off; axis([0 L 0 1.09*Tb]);set(g,'LineWidth',2.5); 48 set(gca,'XTickMode','manual','XTick',[R,2*R]);grid on; set(gca,'YTickMode','manual','YTick',[0.5*Tb,Tb]); set(gca,'XTickLabel',{'R =';'2R'}) set(gca,'YTickLabel',{'0.5*Tb';'Tb'}) %FUNCTION SPECTRAL DENSITY POLAR NRZ A=1; Tb=1.5; R=1/Tb; L=2*R; f=0:L/50:L; del=0; P=(A.^2*Tb)*(sinc(f*Tb)).^2; g=plot(f,P);hold on;xlabel('Frequency');ylabel('Normalized Power'); title('ESPECTRAL DENSITY: POLAR NRZ') axis([0 L 0 1.01*Tb]);set(g,'LineWidth',2.5); set(gca,'XTickMode','manual','XTick',[R,2*R]);grid on; set(gca,'YTickMode','manual','YTick',[0.5*Tb,Tb]); set(gca,'XTickLabel',{['R'];['2R']}) set(gca,'YTickLabel',{['0.5*Tb'];['Tb']}) %FUNCTION SPECTRAL DENSITY UNIPOLAR RZ 49 A=2; Tb=1; R=1/Tb; L=2*R; f=0:L/50:L; del=0; P=(A.^2*Tb)/16*(sinc(f*Tb/2)).^2; g=plot(f,P); title('ESPECTRAL DENSITY: UNIPOLAR RZ'); holdon;xlabel('Frequency');ylabel('Normalized Power'); axis([0 L 0 1.1*Tb]);set(g,'LineWidth',2.5); stem([0 R],[(A.^2*Tb)/8 P(26)+0.1],'LineWidth',2.5);hold off; set(gca,'XTickMode','manual','XTick',[R,2*R]);grid on; set(gca,'YTickMode','manual','YTick',[0.5*Tb,Tb]); set(gca,'XTickLabel',{['R'];['2R']}) set(gca,'YTickLabel',{['0.5*Tb'];['Tb']}) %FUNCTION SPECTRAL DENSITY BIPOLAR RZ A=2; Tb=1.5; R=1/Tb; L=2*R; f=0:L/50:L; P=(A.^2*Tb)/8*(sinc(f*Tb/2)).^2.*(1-cos(2*pi*f*Tb)); g=plot(f,P); title('ESPECTRAL DENSITY: BIPOLAR RZ'); holdon;xlabel('Frequency');ylabel('Normalized Power'); axis([0 L 0 1.1*Tb]);set(g,'LineWidth',2.5); set(gca,'XTickMode','manual','XTick',[R,2*R]);grid on; set(gca,'YTickMode','manual','YTick',[0.5*Tb,Tb]); set(gca,'XTickLabel',{['R'];['2R']}) set(gca,'YTickLabel',{['0.5*Tb'];['Tb']}) 50 %FUNCTION SPECTRAL DENSITY MANCHESTER NRZ A=1; Tb=1.5; R=1/Tb; L=2*R; f=0:L/50:L; P=(A.^2*Tb)*(sinc(f*Tb/2)).^2.*(sin(pi*f*Tb/2)).^2; g=plot(f,P); title('ESPECTRAL DENSITY: MANCHESTER NRZ'); holdon;xlabel('Frequency');ylabel('Normalized Power'); axis([0 L 0 1.1*Tb]);set(g,'LineWidth',2.5); set(gca,'XTickMode','manual','XTick',[R,2*R]);grid on; set(gca,'YTickMode','manual','YTick',[0.5*Tb,Tb]); set(gca,'XTickLabel',{['R'];['2R']}) set(gca,'YTickLabel',{['0.5*Tb'];['Tb']}) 51 CAPITULO XI PROCESOS DISCRETOS EN EL TIEMPO 11.1 TIEMPO DISCRETO Cuando el valor de la variable sólo puede cambiar en una serie de momentos determinados del tiempo (por ejemplo, los sorteos de la lotería tienen lugar en determinadas fechas). 11.2 VARIABLE DISCRETA La variable sólo puede tomar determinados valores o estados discretos (los mercados financieros cotizan sus activos con unos precios que oscilan: de céntimo de euro en céntimo de euro, o en 1/8 de punto, etc.). 11.3 SIMULACIÓN DE PROCESOS EN TIEMPO DISCRETO Cuando el modelo de colas es complejo, el método que hemos estado utilizando hasta ahora (obtener unas ecuaciones y resolverlas) deja de ser válido. Es entonces cuando se recurre a simular el proceso para tener al menos una visión aproximada de lo que ocurre. Por supuesto, este procedimiento también es válido para cualquiera de los sistemas vistos en los capítulos precedentes. Supongamos que tenemos un modelo GI/G/1 y queremos calcular el tiempo medio de espera en cola. En una simulación tenemos una lista de tiempos entre llegadas y una lista de tiempos de servicio generados al iniciarse la simulación de modo que los únicos instantes de tiempo interesantes (cuándo llega un cliente determinado, cuándo entra en el servicio y cuándo se va) son ya conocidos. Como entre dos de estos instantes consecutivos no sucede nada que afecte al sistema, a la hora de efectuar cálculos, avanzamos en el tiempo de forma discreta saltando de uno de estos tiempos al siguiente. Por ejemplo, el tiempo de espera del cliente k-ésimo se obtiene a partir del instante en que llega al servicio y el instante en que el cliente (k-1)-ésimo sale del sistema. Si hacemos la media de los tiempos de espera de los primeros 100 clientes, tendremos una aproximación del tiempo de espera medio en esa cola. El siguiente organigrama muestra cómo implementar este método en cualquier lenguaje de programación. 52 53 CAPITULO XII PUNTOS DE POISSON Y RUIDO IMPULSIVO 12.1 RUIDO IMPULSIVO Puede modelate con un proceso de Poisson.Este proceso tiene una entrada con este formulario: z (t) = Σδ (t-ti)porque el proceso es ActiveDs por una Secuencia de impulsos al azar ocurring ti veces. Se necesita el conjunto de puntos de TI de Poisson, con λi media y una función real h (t), entonces usted tiene que el proceso es el siguiente: w (t) = Σh (t-ti). Si usted usa el teorema de Campbell's, la media es η ˛ σ = λ ∫ h (t) dt y varianza = λ ∫ ˛ h (t), donde los límites de la integral es de - ∞ a ∞ 12.2 RUIDO BLANCO Ruido aleatorio que posee la misma densidad espectral de potencia a lo largo de toda la banda de frecuencias. Dado que la luz blanca es aquella que contiene todas las frecuencias del espectro visible, el ruido blanco deriva su nombre de contener también todas las frecuencias. El ruido blanco es una señal no correlativa, es decir, en el eje del tiempo la señal toma valores sin ninguna relación unos con otros. Cuando se dice que tiene una densidad espectral de potencia plana, con un ancho de banda teóricamente infinito, es que en un gráfica espectral de frecuencia tras haber realizado una descomposición espectral de Fourier, en el dominio de la frecuencia veríamos todas las componentes con la misma amplitud, haciendo el efecto de una línea continua paralela al eje horizontal. Fig 7. Normalmente se suele emplear como señal de pruebas, aunque en realidad se prefiere el ruido rosa, dada que su densidad espectral se asemeja mucho más a la del audio real y cómo percibimos nosotros. Además, dado que en la mayoría de gráficas el eje horizontal está graduado en octavas con un comportamiento logarítmico, una medida de ruido blanco la veríamos "ascendente" a 3 dB por octava, al contrario que el ruido rosa que, en ese caso, sí se ve plano. 54 Fig. 7. Espectro del ruido blanco 55 CAPITULO XIII PROCESOS CICLO ESTACIONARIOS 13.1 SISTEMAS CERRADOS ESTACIONARIOS A medida que leemos la descripción del problema, definimos al sistema que se presenta (en cierto modo subjetivamente) dibujando una frontera imaginaria alrededor del objeto de interés. Si no hay transferencia de materia a través de tal frontera, el sistema es cerrado. Para un sistema estacionario la fotografía del sistema tomada con la cámara de estado permanece congelada incluso si el sistema intercambia calor y trabajo con sus alrededores. Los problemas que involucran tales sistemas se denominan Cerrados y Estacionarios. A primera vista, se podría pensar que ejemplos de tales sistemas son sistemas triviales que permanecen en el mismo estado imposibilitado de efectuar cualquier acción. Pero no todos los sistemas cerrados con un estado congelado están necesariamente impedidos de realizar alguna acción. Por ejemplo, puede haber una continua transferencia de calor y trabajo con los alrededores. En el caso de una máquina de calor, un sistema cerrado conceptual operando sobre una base continua, produce trabajo a expensas del calor, transfiriéndose calor entre el sistema y dos fuentes térmicas que están a dos temperaturas diferentes. Un refrigerador o una bomba de calor son dos ejemplos prácticos similares de sistemas Cerrados y Estacionarios. A medida que los detalles internos de una máquina de calor o un ciclo de refrigeración (o una bomba de calor) se vuelven importantes, el análisis global puede basarse en las suposiciones de sistema cerrado y estacionario. En general, tales máquinas, refrigeradores o bombas de calor, se implementan conectando una serie de dispositivos en estado estacionario uno tras otro formando un bucle, o teniendo un dispositivo cilindro-pistón ejecutando una serie de procesos (que involucran transferencia de calor o trabajo solamente) formando un ciclo. Mientras que es fácil de entender que un bucle cerrado de dispositivos estacionarios pueden formar un sistema estacionario, cabe preguntarse cómo un sistema ejecutando una secuencia de procesos transientes (no estacionarios) puede constituir un ciclo estacionario, especialmente cuando los procesos del sistema pasan drásticamente a través de una serie estados diferentes dentro de un único ciclo. La repuesta está en promediar el ciclo sobre un tiempo de interés que sea más largo que el período del ciclo. Si el tiempo de exposición de la cámara de estado es lo suficientemente grande, la imagen del sistema asumirá un estado promedio constante validando el supuesto de estado estacionario. 56 IV. MATERIALES Y MÉTODOS Dado que el trabajo está referido a la elaboración de un texto y no a una investigación tipo experimental, este ítem no se considera. V. RESULTADOS Teniendo en consideración los objetivos trazados para la elaboraciónde este texto, cuales son: reforzar la formación académica de los estudiantes de estudios superiores y presentar técnicas y estrategias de solución de problemas deProbabilidades y Procesos Estocásticos en Ingeniería,con el apoyo de Software especializado como el SPSS V.19,0 bajo la modalidad Windows, además de otros programas, es queno se ha escatimado esfuerzo alguno en la redacción de este trabajo. Se han dedicado muchas horas de trabajo para tratar de abordar los temas con objetividad, con claridad y sobre todo con simplicidad pero sin pérdida de nivel. En tal sentido, se espera que resulte un material de consulta que satisfaga los requerimientos de los estudiantes de ingeniería. VI. DISCUSIÓN El estudio de las Probabilidades y Procesos Estocásticos en Ingeniería es un campo mucho más amplio en el que se abordó en este texto. Queda pendiente incluir dentro de este mismo texto, o en otro similar, un estudio más detallado. Hasta donde se pudo abarcar en este texto quedará para el conocimiento y aplicación de la investigación de las probabilidades y procesos estocásticos en ingeniería. vii VII. REFERENCIALES 1. EVANS & ROSENTHAL. Probabilidad y Estadística. La ciencia de la incertidumbre. Reverté, 2005. 2. GRIMMETT & STIRZAKER. Probability and Random Processes. Oxford. 1992. 3. GUT, ALLAN. An Intermediate Course in Probability. Springer-Verlag., 1995. 4. GUT, ALLAN. Probability. A graduate course. Springer, 2005. 5. KAI-LAI CHUNG. Teoría elemental de la probabilidad y de los procesos estocásticos. Reverté.1983. 6. K. S. Shanmugan and A. M. Breipohl, Random Signals: Detection, Estimation and Analysis, John Wiles and Sons, 1988. 7. Papoulis and S. U. Pillai, Probability, Random Variables and Stochastic Processes, 4th edition, McGraw-Hill, 2002. 8. STIRZAKER, D. Elementary Probability. Cambridge.1994. 9. Stark and J. W. Woods, Probability and Random Processes with Applications to Signal Processing , 3rd edition , Prentice Hall, 2001. 10. W.B. Davenport, Jr. and W.L. Root, An Introduction to the Theory of Random Signals and Noise , McGraw Hill, 1987. 11. W. Feller , An Introduction to Probability Theory and Its Applications, Volume 1 , 3rd ed., John Wiley and Sons, Inc., New York , 1968. 12. W. Feller, An Introduction to Probability Theory and Its Applications, Volume 2 , 2nd ed., John Wiley and Sons, Inc., New York , 1971. viii VIII.APÉNDICE ix IX. ANEXOS Comunicaciones Digitales Trabajo Práctico 1 Señales y sistemas pasabanda. E.1 Una señal pasabajosx(t) con un ancho de banda W es muestreada a la velocidad de Nyquist y como resultado de esto se genera la siguiente señal x1 (t ) (1) n x (nTs ) (t nTs ) : 1)Encontrar la transformada de Fourier de x1(t). 2)Se puede reconstruir x(t) de x1(t) usando un LTI ? Por que? 3)Se puede reconstruir x(t) de x1(t) utilizando un sistema lineal variante en el tiempo ? Como? E.2 Una señal pasabajosx(t) de ancho de banda W es muestreada a intervalos de tiempo Ts y los valores obtenidos se indican como x(nTs) . Una nueva señal x1(t) es generada mediante una interpolación lineal de los valores muestreados, es decir: x1 (t ) x (nTs ) t nTs ( x ((n 1)Ts ) x (nTs )) Ts paranTs t (n+1) Ts 1)Encontrar el espectro de potencia de x1(t). 2)Bajoque condiciones puede la señal original se reconstruida de la señal muestreada y cual es el filtro de reconstrucción requerido? E.3 Una señal pasabajosx(t) tiene un transformada de Fourier como lo indica la siguiente figura: Esta señal es aplicada al siguiente sistema: x Los bloques marcados por H representan transformadores de Hilbert y se asume que W<< f0. Determinar las señales xi(t) para 1 i7 y graficar Xi(t) para las mismas condiciones. E.4 demostrar que la transformada de Hilbert de j 2f t e j 2f 0t es igual a j. sgn( f 0 )e 0 . E.5. Una señal pasabandax(t)=sinc.t.cos(2f0t) es pasada a través de un filtro pasabanda con respuesta impulsiva 2 h(t)=sinc (t).sin(2f0t). Usando los modelos equivalentes pasabajos para la señal y el filtro encontrar el equivalente pasabajos para la salida y desde esta señal encontrar la salida y(t). 2 E.6 Dadas las siguientes señales pasabandas , m(t)= sinc (t) y x(t) = m(t)cos(2f0t)-m^(t)sin(2f0t). 1)Encontrar la preenvolvente z(t) y la señal pasabajo equivalente de a x(t). 2)Determinar y graficar la transformada de Fourier de x(t). Cual es el ancho de banda de x(t)? 3)Repetir el inciso anterior para x(t) = m(t)cos(2f0t)-m^(t)sin(2f0t). SimulacionesMatlab S.1. Determinar y graficar el espectro de magnitud de una señal par x(t) la cual para valores positivos de t esta dada por: x(t) = t+1 0t1 2 1t2 -t+4 2 t 4 0 para cualquier otro valor Determinar los resultados en forma analítica y comparar los resultados S.2 La señal descrita en el problema anterior se pasa a través de un sistema LTI con una respuesta impulsiva h(t) = 1 0t2 2 2t3 0 para otro valor Determinar el espectro de magnitud y fase de la señal de salida. S.3 Dada la siguiente señal : cos(2 *47 t) + cos(2*219 t) para 0t10 x(t) = 0 para otro valor Asumir que la señal esta muestreada a 1000 muestras por segundo . Usando la función butter.m que proveeMatlab para diseñar un filtro Butterworth diseñar uno de orden 4 con frecuencia de corte xi 100Hz y pase la señal x(t) a través del mismo. Graficar el espectro de potencia de salida . Realizar los mismos pasos que el inciso anterior pero con un filtro de orden 8. S.4 Realizar los mismo que en el ejercicio anterior pero con un filtro pasa altos y de la misma frecuencia de corte Procesos Estocásticos y Ruido E1. Dado Z=X+Y donde X e Y son variables aleatorias independientes demostrar que: Z(s)=X(s)Y(s). . es la función característica de X y es definida como la transformada de Laplace de fx(x) evaluada a x=-s. E2. Demostrar que para la siguiente función de densidad de probabilidad Raleigh x 2 e x2 2 2 para x > 0 fx(x) = 0 Como dato se tiene E[X]= 2 para otro y VAR[X]= 2 2 2 E.3 Dadas las variables aleatorias X e Y con sus respectivas p.d.f. e x para x > 0 fx(x)= 0 para otro x e x para x > 0 0 para otro x fY(y)= donde y son constantes positivas , encontrar la p.d.f. de X + Y y tratar el caso especial de = por separado. E.4 Dos variables aleatorias X e Y están distribuidas de la siguiente manera: Ke x y f X,Y (x,y) para x 0 , y 0 = 0 para otro x e y Encontrar: 1) El valor de la constante K xii 2) Las funciones de densidad marginal de X e Y 3) Si X e Y son independientes 4) fX/Y(x/y) 5) E[X/Y=y] 6) COV[X,Y] E.5 Dado un vector aleatorio X=(X1,X2,X3, ....Xn) con distribución conjunta Gaussiana , media m y matriz covarianza C . t Definir un nuevo vector aleatorio Y=AX + b ,dondeY es un vector aleatorio n-dimensional y A y b matrices constantes. Usando el hecho de que funciones lineales de variables aleatorias conjuntamente Gaussianas son conjuntamente Gaussianas encontrar la media y covarianza de Y. E.6 Dos variables aleatorias X e Y son conjuntamente Gaussianas con: media covarianzaC= m=[1 2] 4 4 4 9 1)Encontrar los coeficientes de correlación entre X e Y 2)Si Z=2X +Y y W=X-2Y encontrar la COV(X,Y) 3)Encontrar la función densidad de probabilidad (p.d.f.) de Z E.7 Dos variables aleatorias X e Y están distribuidas acorde a: K e x2 y 2 2 six.y 0 fX,Y(x,y)= 0 si x.y< 0 Encontrar: 1)K 2)Demostrar que X e Y son variables aleatorias Gaussianas 3)Demostrar que X e Y no son conjuntamente Gaussianas 4)¿Son X e Y independientes ? 5)¿Están X e Y decorrelacionadas ? 6) fx/y(x/y) y determinar si es Gaussiana E.8Cual de las siguientes funciones puede ser una función autocorrelación de un proceso aleatorio y porque ? 1)f() = sin (2.f0.) 2 2)f() = 1- || || 1 1+|| || > 1 3)f()= 4)f() como la siguiente figura : xiii E.9.Un proceso aleatorio Z(t) toma valores 0,1. La transición de 0 a 1 y de 1 a 0 ocurre aleatoriamente y la probabilidad de tener n transiciones en un intervalo de tiempo , (>0 ) esta dada por la siguiente ecuación 1 p N (n) 1 1 n , para n=0,1,2,..... donde> 0 es una constante. Se asume que en el tiempo t=0 , Z(0) es equiprobable la ocurrencia de 0 o 1. 1)EncontrarmZ(t) 2)Encontrar RZ(t + , t ). Determinar si es estacionario. Determinar si es cicloestacionario. 3)Determinar la densidad de potencia espectral E.10 Si un proceso aleatorio estacionario X(t) con función autocorrelación RX() es aplicado a un sistema LTI con repuesta impulsiva h(t), la salida Y(t) es también un proceso aleatorio estacionario con funciónautocorrelación RY() =RX() h() h(-) 1)Si el proceso X(t) es un proceso aleatorio cicloestacionario y se aplica a un sistema LTI con respuesta impulsiva h(t) demostrar que el proceso de salida también es cicloestacionario. 2 2)Verificar que la relación SY(f) =SX(f) |H(f)| se cumple para procesos estacionarios así como también paracicloestacionarios E.11 Encontrar la densidad de potencia espectral para los siguientes procesos: 1) X(t)=A.cos(2..fo.t + ), donde A es una constante y es una variable aleatoria uniformemente distribuida en [0 , 4 ]. 2)X(t) = X + Y donde X e Y son independientes, X es uniforme en [-1, 1] e Y es uniforme en [ 0,1]. E.12 Dado Y(t) = X(t) + N(t) donde X(t) y N(t) son respectivamente los procesos señal y ruido. Se asume que X(t) y N(t) son conjuntamente estacionarios con funciones auto correlación RX() y RN() y función correlación cruzada RXN(). Se desea separar la señal del ruido pasando Y(t) a través de un sistema LTI con respuesta impulsiva h(t) y función transferencia H(f) . El proceso de salida se indica como X'(t) y se desea que su valor sea tan cercano a X(t) como sea posible 1) Encontrar la correlación cruzada entre X'(t) y X(t) en terminaos de h() , RX(), RN() y RXN() . 2 2)Demostrar que el sistema LTI que minimiza E[X(t)- X'(t)] tiene la siguiente función transferencia: H( f ) S X ( f ) S XN ( f ) S X ( f ) S N ( f ) 2 ReS XN ( f ) 3) Ahora asuma que X(t) y N(t) son independientes y N(t) es un proceso gaussiano con media cero y densidad de potencia espectral N0/2 .Encontrar la función transferencia H(f) optima para bajo esas 2 condiciones. Cual es el valor de E[X(t)- X'(t)] en este caso. 4)En el caso especial de SN(f) =1 , SX(f) = 1 1 f 2 y SXN(f)= 0 encontrar la función transferencia H(f) optima. E.13 Demostrar que el espectro de potencia cruzada (cross- powerspectrum) de la siguiente figura xiv esta dado por SWU ( j ) H ( j ).G * ( j ).S XY ( j ) E.14 Para una cadena homogénea de Markov la relación de la evolución de la probabilidad de los estados con respecto al tiempo esta determinada por p k 1 ( j ) p( j / i) p i k probabilidad de estar en el estado i en el tiempo k. Hacer la transformada Z en ambos lados de (1) y verificar que Pj ( z ) p0 ( j ) (i ) ,(1) , donde p( j / i) z 1 i p k (i ) es la Pi ( z ) (2) donde Pj ( z ) pk ( j ) z k , si hay N estados la ecuación (2) da N ecuaciones con N incógnitas Pj(z). k 0 E.15 Demostrar que la media del primer tiempo de transito (firstpassagetime ) en una cadena de Markov es fN QN ( z ) z z 1 SimulacionesMatlab S.1 Generar una secuencia de 1000 muestras de un proceso Gauss-Markov descrito por la siguiente relación recursiva Xn= Xn-1 + Wn para n =1,2,.....,1000 donde X0=0 , =0.9 y {Wn} es una secuencia con media cero y varianza unidad. S.2 Generar una secuencia discreta de N=1000 muestras aleatorias uniformemente distribuidas con media cero y varianza unidad en el intervalo -1/2 y 1/2 y computar la auto-correlación de la secuencia {Xn} definida como: R x (m) 1 N m X n X nm , N m n 1 para m=0,1,2,....M y Rx (m) N 1 X n X n m , N | m | n|m| para m=-1,-2,....-M También determine el espectro de potencia de la secuencia {Xn} computando la transformada discreta de Fourier (DFT) de RX(m) la cual es eficientemente computada utilizando el algoritmo FFT (Fast Fourier Transform ) definido como: SX ( f ) M R m M X ( m)e j 2fm /( 2 M 1) S.3 Generar una secuencia {Xn} de N=1000 valores aleatorios uniformemente distribuidos en el intervalo [-1/2 , 1/2]. Pasar esta secuencia a través de un filtro con respuesta impulsiva: xv n (0.95) para n 0 0 para n 0 h(n)= La ecuación recursiva que describe la salida de este filtro como una función de la entrada esta dada por: para n 0 y-1= 0 yn=0.95.yn-1 + xn Computar las funciones auto-correlación xn(m) y Ry(m) de las secuencias {xn} e {yn} y sus correspondientes espectros de potencia Sx(f) y Sy(f) usando las siguientes ecuaciones : 1 N m R x (m) X n X nm , N m n 1 SX ( f ) M R m M X ( m)e j 2fm /( 2 M 1) S.4 Generar dos secuencias {CN} y {SN} de N=1000 valores aleatorios uniformemente distribuidos en el intervalo [-1/2, 1/2]. Cada una de las secuencias es pasada a través de un filtro lineal con respuesta impulsiva n (1/2) para n 0 h(n)= 0 para n < 0 la relación entrada salida de este filtro esta determinada por la siguiente ecuación recursiva: xn=1/2.xn-1 + N para n1 y x0 = 0 Obtener dos secuencias {xCN} y {xSN} pasando las secuencias a través del filtro. Con la secuencia de salida {xCN} modular una portadora cos(/2)n y con la secuencia {xSN} modular una portadora en cuadratura sin(/2)n . Generar una señal pasabanda combinando las componentes obtenidas. Computar y graficar la auto-correlación de las secuencias {xSN} y {xCN} para |m| 10 . Computar la auto-correlación de la señal pasabanda para |m| 10. Utilizar DFt o FFT para computar el espectro de potencia de SC(f) , SS(f) y SX(f) . Graficar dichos espectros y comentar los resultados . xvi