IF_TEJADA CABANILLAS_FIEE - Universidad Nacional del

Anuncio
UNIVERSIDAD NACIONAL DEL CALLAO
FACULTAD DE INGENIERÍA ELÉCTRICA Y ELECTRÓNICA
INSTITUTO DE INVESTIGACIÓN DE LA FACULTAD DE INGENIERÍA ELÉCTRICA Y ELECTRÓNICA
TEXTO:
“PROBABILIDADES Y PROCESOS ESTOCÁSTICOS
EN INGENIERÍA”
INFORME FINAL
AUTOR:
Lic. ADÁN ALMIRCAR TEJADA CABANILLAS.
PERIODO DE EJECUCIÓN:
DEL 01-12-2010 AL 29-02-2012.
RESOLUCIÓN:
R.R.Nº 1246-2010-R.
CALLAO-LIMA-PERU
FEBRERO
2012
INDICE
Pág.
I.
RESUMEN……………………………………….…………………….….iv
II.
INTRODUCCION………………………………………………………….v
III.
PARTE TEÓRICA………………………………………………………..vi
CAPITULO I
FUNDAMENTOS DE LA TEORÍA DE PROBABILIDAD
1.1. Conceptos básicos……………………………………………..……….…1
1.2
Conjuntos y técnicas de conteo…………………………..………….….2
1.2.1 Conjuntos……………………………………………………….….2
1.2.2 Técnicas de conteo……………………………………………..…3
1.3 Permutaciones y combinaciones…………………………….……….….4
1.3.1. Permutaciones……………………………….………..……….......4
1.3.2. Combinaciones………………………………………………..…6
1.4 Probabilidades……………………………………………………….….….7
1.4.1 Probabilidad condicional e independencia……………….…....7
1.4.1.1 Independencia……………………………………………7
1.4.1.2 Probabilidad Condicional…………………………….....8
CAPITULO II VARIABLE ALEATORIA
2.1 Aleatoriedad…………………………………………………….…..…..….10
2.2 Variable aleatoria…………………………………………….…..…….….10
2.2.1Variables aleatorias discretas………………………………...…11
2.2.1.1 Distribución uniforme……………………………….….11
2.2.1.2 Distribución binomial………………………………..…12
2.2.1.3 Distribución multinomial………………………..…..….14
2.2.1.4 Distribución hipergeométrica……………………….…15
2.2.1.5 Distribución multihipergeométrica…………………....16
2.2.1.6 Distribución de Poissón……………………………..…16
2.2.2 Variables aleatorias continúas…………………………………..18
2.2.2.1 Distribución normal o de Gauss………………………18
2.2.2.2 Distribución Gamma (Γ)……………………………......21
2.2.2.3 Distribución exponencial……………………..………..22
2.2.2.4 Distribución Chi-cuadrado…………………………..…22
2.2.2.5 Distribución T de Student…………………………...…24
2.2.2.6 Distribución F de Snedecor……………………..…….25
i
CAPITULO III DISTRIBUCION DE PROBABILIDADES
3.1 Función de probabilidad discreta o de cuantía……………………..…26
3.2 Función de probabilidad continua - Función de densidad…………..27
3.3 Distribución de probabilidad acumulada……………………………….28
CAPITULO IV
VECTORES ALEATORIOS
4.1 Vectores aleatorios…………………………………………….………….29
CAPITULO V PROCESOS ESTOCASTICOS
5.1 Definición 1………………………………………………….…………….31
5.2 Definición 2………………………………………………………………..31
5.3 Definición 3………………………………………………………………..32
CAPITULO VI
6.1
6.2
6.3
REPRESENTACION ESPECTRAL
Representación temporal………………………………………..………32
Representación frecuencial………………………………………..……33
6.2.1 Espectro………………………………………………………...…33
6.2.2 Espectro de potencia………………………….…………………33
Representación tiempo-frecuencia………………………………..…….34
CAPITULO VII
ESTIMACION ESPECTRAL
7.1
Estimación espectral…………………………………..………………..…34
7.2
Estimación de la densidad espectral……………………………………35
CAPITULO VIII
ENTROPIA
8.1
Definición…………………………………………………………………...35
8.2
Aplicaciones………………………………………………………….…….35
CAPITULO IX
PROCESOS ESTACIONARIOS
9.1
Procesos estacionarios…………………………………………………..43
9.2
Procesos con incrementos estacionarios………………………….…..43
9.3
Proceso de Bernoulli (proceso bernoulliano de ensayos independientes)…………..43
9.4
Caminata Aleatoria (recorrido aleatorio de estado discreto y tiempo discreto)……..43
CAPITULO X
10.1
ESTECTRO DE POTENCIA
Proceso Aleatorio……………………………………..………………..…45
10.2 Espectro de potencia…………………………………………..…………45
ii
10.2.1 Propiedades del espectro de potencia………………………….45
10.2.1.1
Simetría……………………………………………..….46
10.2.1.2
Positividad……………………………………….….…46
10.2.1.3
Potencia total……………………………………….…46
10.2.1.4Propiedades autovalores………………….…………46
10.3 Aplicaciones a las telecomunicaciones…………………………………..47
CAPITULO XI
PROCESOS DISCRETOS EN EL TIEMPO
11.1 Tiempo discreto……………………………………………………….…….52
11.2 Variable discreta…………………………………………………………….52
11.3 Simulación de procesos en tiempo discreto…………………………..…52
CAPITULO XII
PUNTOS DE POISSON Y RUIDO IMPULSIVO
12.1 Ruido impulsivo…………………………………………………………….54
12.2 Ruido blanco…………………………………………………………….….54
CAPITULO XIII
PROCESOS CICLO ESTACIONARIOS
13.1 Sistemas Cerrados Estacionario……………………………………..…..56
IV
MATERIALES Y MÉTODOS…….……………………............................vii
V
RESULTADOS…………………………………………………..……….....vii
VI
DISCUSIÓN………………………………………………………………...vii
VII
REFERENCIA………………………………………………………….….viii
VIII
APÉNDICE…………………………………………………………………ix
IX
ANEXOS………………………………………………………………….…x
iii
I. RESUMEN
El objetivo fundamental del presente trabajo titulado “TEXTO: PROBABILIDADES Y PROCESOS
ESTOCASTICOS EN INGENIERIA”, eselaborar un texto adecuado con el propósito de brindar al estudiantado de
ingeniería los conocimientos de Probabilidades, variables aleatorias, significado de probabilidad, los axiomas de
probabilidad, pruebas repetidas, funciones de una variable aleatoria, vectores aleatorios, momentos y
distribuciones condicionales. Procesos estocásticos: conceptos generales, aplicaciones básicas, representación
espectral, estimación espectral, Estimación cuadrática media, entropía, tópicos selectos con sus respectivas
aplicaciones, con el propósito de satisfacer las necesidades y expectativas de los usuarios de esta bibliografía,
en cuanto a la formación básica en probabilidades, procesos estocásticos y sus aplicaciones de todas aquellas
personas que siguen las carreras profesiones de Ingeniería, para hacerlos diestros en Investigación en cualquier
campo laboral dentro de área profesional respectiva.
Mi intención al escribir este texto es que sirva como herramienta incluso de autoaprendizaje de las probabilidades
y procesos estocásticos con el apoyo de Software especializado en algunos casos, debido a que cuando se
desarrolla una investigación tendremos a la manos gran cantidad de datos, manipularlos a mano sería muy
tedioso.
Finalmente, los grandes beneficiados de este texto serán todos los estudiantes de estudios superiores de
Ingeniería y de todas las Especialidades en general, por tratarse de un ejemplar muy sencillo de entender,
comprender, aprender y manejar las técnicas estadísticas probabilísticas en cualquier trabajo de investigación
científica.
iv
II.-
INTRODUCCIÓN
El Proyecto de Investigación titulado TEXTO:“PROBABILIDADES Y PROCESOS ESTOCASTICOS EN INGENIERIA”
desarrollado observamos de la gran importancia que tiene, la justificación planteada en la investigación permite conocer la
temática sustancial mínima y su aplicación usando Programas estadísticos mediante la computadora usando el SPSS V
19,0 bajo la modalidad Windows, además de otros programas permitiendo de este modo llevar a cabo Investigación desde
el más mínimo nivel hasta el científico, permitiendo manipular datos o procesarlos en corto tiempo.
He alcanzado el objetivo general el cual era: “Desarrollar un Proyecto de Investigación
sobre aplicaciones de la
probabilidad y procesos estocásticos en ingeniería, lo cual servirá como modelo de desarrollo de ejercicios tipos de
acuerdo a los avances tecnológicos e informáticos”.
Igualmente en la hipótesis que había planteado: “La elaboración del trabajoTEXTO: “Probabilidad Y Procesos
Estocásticos en Ingeniería”, permitirá
ahondar los temas de probabilidades. variables aleatorias, distribución de
probabilidades, vectores aleatorios, procesos estocásticos, representación espectral, entropía, procesos estocásticos
estacionarios, espectro de potencia, procesos discretos en el tiempo, espectro de potencia y sistemas lineales, puntos de
Poisson y ruido impulsivo y por último procesos de ciclo estacionarios, cada uno de los cuales desarrollados en un capitulo
favoreciendo a los alumnos un aprendizaje sólido de la Asignatura; con el objeto de realizar Proyectos de Investigación
Científica de alto nivel académico de manera precisa y clara”, está plenamente demostrada.
v
III.- PARTE TEÓRICA
vi
III
PARTE TEÓRICA
CAPITULO I:
1.1.
FUNDAMENTOS DE LA TEORÍA DE PROBABILIDAD
CONCEPTOS BÁSICOS
Las probabilidades son muy útiles, ya que pueden servir para desarrollar
estrategias. Por ejemplo, los inversionistas estarán más interesados en invertirse
dinero si las posibilidades de ganar son buenas. El punto central en todos estos
casos es la capacidad de cuantificar cuan probable es determinado evento. En
concreto decimos que las probabilidades se utilizan para expresar cuan probable
es un determinado evento.
La probabilidad clásica, el enfoque clásico o a priori de la probabilidad se basa en
la consideración de que los resultados de un experimento son igualmente
posibles.
Empleando el punto de vista clásico, la probabilidad de que suceda un evento se
calcula dividiendo el número de resultados favorables, entre el número de
resultados posibles.
La probabilidad clásica de un evento E, que denotaremos por P(E), se define
como el número de eventos elementales que componen al evento E, entre el
número de eventos elementales que componen el espacio muestral:
Probabilidad. Es el estudio de los fenómenos de los que no estamos seguros de
su ocurrencia.
Fenómeno. Es la ocurrencia de un hecho o suceso.
Experimento. Es un fenómeno observable perfectamente definido.
Los fenómenos observables se pueden clasificar en:
 Deterministicos. Se puede predecir el resultado.
 Aleatorios. No se puede predecir el resultado.
1
La probabilidad de que un evento ocurra está dada mediante un número que va
desde de 0 a 1,00.
1.1.
CONJUNTOS Y TÉCNICAS DE CONTEO
1.1.1. Conjuntos
Conjunto es un grupo, una colección o una lista de objetos con características
comunes, a esos elementos se les llama miembros o elementos del conjunto.
Un conjunto debe estar bien definido, es decir, podrá determinarse si un elemento
dado pertenece o no al conjunto. De esta manera, si el conjunto está formado por
las estaciones del año, entonces primavera es un elemento del conjunto, pero
junio no lo es.
Un conjunto vacío, es el conjunto sin elementos que se denota por  ó { }, por
ejemplo supóngase que en un grupo escolar la lista de los alumnos, ordenada
alfabéticamente por apellidos, inician con la letra P y terminan con la letra Z, si
queremos formar el conjunto A con los alumnos del grupo cuyo apellido empiecen
con la letra A, no tiene elementos =  = { }
Un conjunto unitario es un conjunto que tiene un solo elemento. Por ejemplo, el
conjunto del satélite natural de la tierra = {luna}
La unión de dos eventos es el evento que está formado por todos los resultados
contenidos en cualquiera de los dos eventos. La unión se denota por E1 U E2
La intersección de dos eventos es el evento que está formado por los resultados
contenidos en ambos eventos. La intersección se denota E1 ∩ E2
El complemento de un evento en un espacio muestral es el conjunto de los
resultados en el espacio muestral que no están en el evento. Este componente
del evento E se denota por E’.
Los diagramas se utilizan con frecuencia para representar las relaciones entre
conjuntos, y también son muy útiles para describir relaciones entre eventos. Los
diagramas de Venn pueden emplearse para representar un espacio muestral y los
eventos contenidos en éste
Dos eventos E1 y E2 que no tienen resultados en común tienen una relación
importante. Dos eventos E1 y E2, tales que E1 ∩ E2 = , se dice que son
mutuamente excluyentes. Un evento E y
su complemento E’, siempre son
mutuamente excluyentes.
2
Ejemplo 1
Se analizan muestras de policarbonato plástico para determinar su resistencia a
las ralladuras y a los golpes. A continuación se presenta el resumen de los
resultados obtenidos con 49 muestras:
Resistencia a los golpes
Resistencia a las ralladuras
Alta
Baja
Alta
40
4
Baja
2
3
Sean A: el evento “la muestra tiene una alta resistencia a los golpes”, y B: el
evento “la muestra tiene una alta resistencia a las ralladuras”. Determine el
número de muestras en A∩B, A’, B’, AUB, A’∩B, A’UB, dibujando el diagrama de
Venn para cada uno.
1.2.2 Técnicas de Conteo.
Diagrama de árbol
Un diagrama de árbol es una representación gráfica de un experimento que
consta de r pasos, donde cada uno de los pasos tiene un número finito de
maneras de ser llevado a cabo.
3
Ejemplos:
1.- Un vendedor de autos quiere presentar a sus clientes todas las diferentes
opciones con que cuenta: auto convertible, auto de dos puertas, y auto de 4
puertas, cualquiera de ellos con rines deportivos o estándar ¿Cuántos diferentes
arreglos de autos y rines puede ofrecer el vendedor?
2. Un médico general clasifica a sus pacientes de acuerdo a: su sexo (masculino
o femenino), tipo de sangre (A, B, AB u O) y en cuanto a la presión sanguínea
(Normal, Alta o Baja). Mediante un diagrama de árbol diga en cuantas
clasificaciones pueden estar los pacientes de este médico.
3. En la prueba de tarjetas de circuito impreso. Cada tarjeta pasa o no pasa la
prueba. En una tarjeta que no pasa la prueba se hace una verificación adicional.
Si se representan cinco pruebas. Representa mediante un diagrama de árbol
espacio muestral de este experimento.
4. Un sistema de comunicación digital, cada mensaje se clasifica según llega o no
dentro del tiempo establecido por el diseño del sistema. Si se clasifican tres
mensajes, utilice un diagrama de árbol para representar el espacio muestral de
los posibles resultados.
1.3 PERMUTACIONES Y COMBINACIONES
1.3.1 Permutaciones
Permutación es todo arreglo de elementos en donde nos interesa el lugar o
posición que ocupa cada uno de los elementos que constituyen dicho arreglo.
Para ver de una manera objetiva la diferencia entre una combinación y una
permutación, plantearemos cierta situación.
Suponga que un salón de clase está constituido por 35 alumnos.
4
a) El maestro desea que tres de los alumnos lo ayuden en actividades tales como
mantener el aula limpia o entregar material a los alumnos cuando así sea
necesario.
b) El maestro desea que se nombre a los representantes del salón (Presidente,
Secretario y Tesorero).
Solución:
a) Suponga que por unanimidad se ha elegido a Daniel, Arturo y a Rafael para
limpiar el aula o entregar material, (aunque pudieron haberse seleccionado a
Rafael, Daniel y a Enrique, o pudo haberse formado cualquier grupo de tres
personas para realizar las actividades mencionadas anteriormente).
¿Es importante el orden como se selecciona a los elementos que forma el grupo
de tres personas?
Reflexionando al respecto nos damos cuenta de que el orden en este caso no
tiene importancia, ya que lo único que nos interesaría es el contenido de cada
grupo, dicho de otra forma, ¿quiénes están en el grupo? Por tanto, este ejemplo
es una combinación, quiere decir esto que las combinaciones nos permiten formar
grupos o muestras de elementos en donde lo único que nos interesa es el
contenido de los mismos.
b) Suponga que se han nombrado como representantes del salón a Daniel como
Presidente, a Arturo como secretario y a Rafael como tesorero, pero resulta que a
alguien se le ocurre hacer algunos cambios, los que se muestran a continuación:
CAMBIOS PRESIDENTE:
Daniel ,Arturo, Rafael, Daniel
SECRETARIO:
Arturo, Daniel, Daniel, Rafael
TESORERO:
Rafael, Rafael, Arturo, Arturo
Ahora tenemos cuatro arreglos, ¿se trata de la misma representación?
Creo que la respuesta sería no, ya que el cambio de función que se hace a los
integrantes de la representación original hace que definitivamente cada una de las
5
representaciones trabaje de manera diferente, ¿importa el orden de los elementos
en los arreglos?. La respuesta definitivamente sería sí, luego entonces las
representaciones antes definidas son diferentes ya que el orden o la forma en que
se asignan las funciones sí importa, por lo tanto es este caso estamos tratando
con permutaciones.
Notación:
E je m pl o. ¿Cu án t os n úm e ro s de 5 cif ra s d if e ren t e s se pu e de
f o rm a r co n lo s d ígi t o s: 1, 2 , 3 , 4 , 5 . ?
m = 5, n = 5
S í e nt ra n t o do s los e le me n to s. De 5 d ígit o s e n t ra n só lo 3 .
S í imp o rt a e l o rden . S on núm e ro s d ist in t o s e l 1 23 , 23 1, 3 21 .
No se re p it e n lo s e le m en t o s. E l en u n ciad o no s p ide qu e la s
cif ra s se a n d if e rent e s.
1.3.2 Combinaciones
Una combinación de objetos es un arreglo de éstos en el que el orden no importa.
Para encontrar el número de combinaciones de n objetos en grupos de r, se usa
la siguiente fórmula:
Ejemplo
Supongamos que se elegirá a tres miembros de una pequeña organización social
con un total de diez miembros para que integren un comité. ¿Cuál es el número
6
de grupos diferentes de tres personas que pueden ser elegidos, sin importar el
diferente orden en el que cada grupo podría elegirse?
Solución
nCr =10C3 = n! = 10! =10×9x8×7!=10×9x8=720= 120
1.4
PROBABILIDADES
Las Probabilidades pertenecen a la rama de la matemática que estudia ciertos
experimentos llamados aleatorios, o sea regidos por el azar, en que se
conocen todos los resultados posibles, pero no es posible tener certeza de
cuál será en particular el resultado del experimento.
1.4.1 PROBABILIDAD CONDICIONAL E INDEPENDENCIA
1.4.1.1 Independencia
Si se tienen 2 eventos A y B, se dice que son independientes si la probabilidad de
que uno de ellos suceda no depende de que el otro suceso ocurra o no ocurra.
Si los eventos son independientes se tiene:
p(AB) = p(A) . p(B)
p(ABC) = p(A). p (B). p(C)
P(A/B) = P(A), se lee “la probabilidad de A dado B, es igual a la probabilidad de A”
P(B/A) = P(B), se lee “la probabilidad de B dado A, es igual a la probabilidad de B”
1. La probabilidad de que una muestra de laboratorio contenga altos niveles
de contaminación es 0.10. Se analizan cinco muestras, esta son
independientes.
a) ¿Cuál es la probabilidad de que ninguna contenga altos niveles de
contaminación?
b) ¿Cuál es la probabilidad de que exactamente una contenga altos
niveles de contaminación?
Si los sucesos son dependientes, esto es que lo que ocurra después depende de
lo que haya ocurrido antes se obtiene:
p(AB) = p(A).p(B/A)
7
Se lee “probabilidad de que ocurran A y B (sucesivas o simultáneas) es igual a la
probabilidad de que ocurra A por la probabilidad de que ocurra B dado que ya
ocurrió antes A.”
1 La producción diaria de 850 partes contiene 50 que no satisfacen los
requerimientos del cliente. Del lote se eligen dos partes, sin reemplazo.
¿Cuál es la probabilidad de que la segunda parte sea defectuosa dado
que la primera lo es? 49/849
1.4.1.2 Probabilidad Condicional
La probabilidad del evento A dado que el evento B se ha presentado se llama
probabilidad condicional, se denota por p(A/B) y se define como:
Ejemplo: En una agencia de autos, las ventas de un mes, reportaron los
siguientes datos.
Rojos
Blancos
Medianos
14
8
Grandes
10
18
Encuentre las siguientes probabilidades.
a) Comprar un auto mediano y blanco
b) Dado que se compró un auto blanco que sea grande
c) Dado que el auto es mediano que sea Rojo
Para encontrar las tres probabilidades que se piden, conviene hacer una tabla de
probabilidades.
Sólo tiene que calcular las probabilidades que se requieran
Medianos
Rojos
Blancos
Total
14
8
22
8
Grandes
10
18
28
Total
24
26
50
Dividimos cada celda entre el total y se obtiene la probabilidad correspondiente a
cada evento.
Rojos
Blancos
Total
Medianos
0.28
0.16
0.44
Grandes
0.2
0.36
0.56
Total
0.48
0.52
1
El cruce de cada fila y columna nos da la probabilidad de que ocurra uno y otro
evento. Por ejemplo, la probabilidad de que sean medianos y rojos
es:
P( M y R)  P( M  R)  0.28
Al final de cada columna se tienen las probabilidades de que sean rojos o que
sean blancos. Por ejemplo, probabilidad de que sean blancos = P ( B )
 0.52
Al final de cada fila se tienen las probabilidades de que sean medianos o grandes.
Por ejemplo, probabilidad de grandes,
P (G )  0.56
Con estos resultados se puede calcular probabilidad condicional.
Se debe de hacer la traducción del lenguaje oral al de probabilidades, esto es,
escribir la probabilidad condicional en forma de ecuación:
a)
P ( M  B )  0.16
b)
P (G / B ) 
P (G  B ) 0.36

 0.86
P( B)
0.52
P( R / M ) 
P ( R  M ) 0.28

 0.64
P(M )
0.44
c)
9
CAPITULO II
VARIABLE ALEATORIA
El objeto de la teoría de probabilidad es proporcionar un modelo matemático
adecuado a la descripción e interpretación de cierta clase de fenómenos
aleatorios. Vemos como se idealiza el estudio experimental de las distribuciones
de frecuencia relativas para variables aleatorias discretas y continuas; y sus
distribuciones acumuladas a través de un modelo teórico representativo de la
población de la cual provino la muestra. Se busca definir una función analítica que
dé el comportamiento matemático de esa variable aleatoria real ; sujeta a los
axiomas de probabilidad.
2.1
ALEATORIEDAD
La aleatoriedad la produce un proceso o experimento aleatorio en si mismo, por
eso hablamos de experimento aleatorio. Una muestra aleatoria es el resultado de
un experimento aleatorio. Realizado el experimento, definido el , calculamos la
probabilidad de los sucesos. En la teoría de probabilidad no interesa sólo la
probabilidad de un suceso determinado sino el comportamiento general de todos
los sucesos posibles que resultan del experimento y conforman el . Es decir
que interesa la distribución de la masa de probabilidad. Esto nos conduce a la
definición de variable aleatoria y al estudio de sus funciones de probabilidad.
2.2
VARIABLE ALEATORIA
Sea un experimento aleatorio ; y  el espacio muestra asociado a él. Una
función X que asigna a cada uno de los elementos  un número real x =
X(), se llama variable aleatoria.
Observación :en algunos casos  es ya la característica numérica que queremos
estudiar  X() =  es la función identidad.
En general tenemos:
: espacio muestra del experimento .
Rx: valores posibles de X, llamado recorrido o campo de variación de la
variable aleatoria.
10
Ejemplos de variables aleatorias:
a.- Sea el experimento  : arrojar dos dados
 = { (1,1) ; (1,2) ; (1,3) ;..................(6,6)}
X : suma de los puntos de los dos dados ;
Rx = { 2 , 3 , 4 , 5 , 6 , 7 , 8 , 9 , 10 , 11 , 12 }
Y : diferencia entre los puntos de los dados; tomada en valor absoluto ;
Ry = { 0, 1, 2, 3, 4, 5 }
b.- Sea el experimento  : arrojar dos monedas
 = { (c,c) ; (c,x) ; (x,c) ; (x,x) }
Rx
Interesa la cantidad de caras; 
Rx= { 0, 1, 2 }
La variable aleatoria X determina una relación de equivalencia entre  y Rx ,
existe un suceso en  equivalente a cada suceso definido en Rx .
Dado un suceso B Rx , existe A  , tal que A es equivalente con B, es decir
:
para todo x Rx , existe  tal que X() = x .
Ejemplo:
Consideremos el experimento  de arrojar dos monedas
 = { (c,c) ; (c,x) ; (x,c); (x,x) }
Sea el suceso A = se obtiene una cara
A = { (c,x) ; (x,c) }
P(A) = 1/4 + 1/4 = 1/2
Rx = {0 , 1 , 2 }
B={1}
 P(B) = 1/2
2.2.1 VARIABLES ALEATORIAS DISCRETAS
Si el número de valores posibles de la variable X es finito o infinito
numerable, ésta será una variable discreta. Entonces
Rx = { x1 , x2 , x3 ,...,.xn } ó Rx = { x1 , x2 , x3 ,....... }
2.2.1.1
Distribución uniforme
La distribución uniforme es la que corresponde a una variable que toma
todos sus valores, x1, x2... ,xk, con igual probabilidad; el espacio muestral debe ser
finito.
Si la variable tiene k posibles valores, su función de probabilidad sería:
11
donde k es el parámetro de la distribución (un parámetro es un valor que sirve
para determinar la función de probabilidad o densidad de una variable aleatoria)
La media y la varianza de la variable uniforme se calculan por las
expresiones:
El histograma de la función toma el aspecto de un rectángulo, por ello, a
la distribución uniforme se le suele llamar distribución rectangular.
2.2.1.2
Distribución binomial
La distribución binomial es típica de las variables que proceden de un
experimento que cumple las siguientes condiciones:
1) El experimento está compuesto de n pruebas iguales, siendo n un número
natural fijo.
2) Cada prueba resulta en un suceso que cumple las propiedades de la
variable binómica o de Bernouilli, es decir, sólo existen dos posibles
resultados, mutuamente excluyentes, que se denominan generalmente
como éxito y fracaso.
12
3) La probabilidad del ‚éxito (o del fracaso) es constante en todas las
pruebas. P(éxito) = p ; P(fracaso) = 1 - p = q
4) Las pruebas son estadísticamente independientes,
En estas condiciones, la variable aleatoria X que cuenta el número de
‚éxitos en las n pruebas se llama variable binomial. Evidentemente, el espacio
muestral estar compuesto por los números enteros del 0 al n. Se suele decir que
una variable binómica cuenta objetos de un tipo determinado en un muestreo de n
elementos con reemplazamiento.
La función de probabilidad de la variable binomial se representa como
b(x,n,p) siendo n el número de pruebas y p la probabilidad del ‚éxito. n y p son los
parámetros de la distribución.
La manera más fácil de calcular de valor de números combinatorios, como
los incluidos en la expresión anterior, es utilizando el triángulo de Tartaglia
La media y la varianza de la variable binomial se calculan como:
13
Media = μ = n p
Varianza = σ2 = n p q
Gráficamente el aspecto de la distribución depende de que sea o no
simétrica Por ejemplo, el caso en que n = 4:
2.2.1.3
Distribución multinomial
La distribución multinomial es esencialmente igual a la binomial con la
única diferencia de que cada prueba tiene más de dos posibles resultados
mutuamente excluyentes.
Si tenemos K resultados posibles (Ei , i = 1, ... , K) con probabilidades fijas
(pi , i = 1, ... , K), la variable que expresa el número de resultados de cada tipo
obtenidos en n pruebas independientes tiene distribución multinomial.
La probabilidad de obtener x1 resultados E1, x2 resultados E2, etc. se
representa como:
Los parámetros de la distribución son p1,..., pK y n.
14
2.2.1.4
Distribución hipergeométrica
Una variable tiene distribución hipergeométrica si procede de un
experimento que cumple las siguientes condiciones:
1) Se toma una muestra de tamaño n, sin reemplazamiento, de un conjunto
finito de N objetos.
2) K de los N objetos se pueden clasificar como ‚éxitos y N - K como
fracasos.
X cuenta el número de ‚éxitos obtenidos en la muestra. El espacio
muestral es el conjunto de los números enteros de 0 a n, ó de 0 a K si K < n.
En este caso, la probabilidad del ‚éxito en pruebas sucesivas no es
constante pues depende del resultado de las pruebas anteriores. Por tanto, las
pruebas no son independientes entre sí.
La función de probabilidad de la variable hipergeométrica es:
Los parámetros de la distribución son n, N y K.
Los valores de la media y la varianza se calculan según las ecuaciones:
Si n es pequeño, con relación a N (n << N), la probabilidad de un ‚éxito variar muy
poco de una prueba a otra, así pues, la variable, en este caso, es esencialmente
binomial; en esta situación, N suele ser muy grande y los números combinatorios
se vuelven prácticamente inmanejables, así pues, la probabilidades se calculan
más cómodamente aproximando por las ecuaciones de una binomial con p = K /
N.
La media de la variable aproximada (μ = n p = n (K / N)) es la misma que la
de la variable antes de la aproximación; sin embargo, la varianza de la variable
binomial es ligeramente superior a la de la hipergeométrica.
15
el factor por el que difieren ser siempre menor que 1 y tan próximo a 1
como cierto sea que n << N.
El aspecto de la distribución es bastante similar al de la binomial. Como
ejemplo, mostramos los casos análogos a los de las binomiales del apartado
anterior (p inicial = 0,25 y n = 4)
2.2.1.5
Distribución multihipergeométrica
Este variable se define igual que la hipergeométrica con la única
diferencia de que se supone que el conjunto de objetos sobre el que se muestrea
se divide en R grupos de A1, A2,..., AR objetos y la variable describe el número de
objetos de cada tipo que se han obtenido (x1, x2,..., xR)
Esta situación es análoga a la planteada en el caso de la distribución
multinomial. La función de probabilidad es:
2.2.1.6
Distribución de Poissón
Una variable de tipo Poisson cuenta ‚éxitos (es decir, objetos de un tipo
determinado) que ocurren en una región del espacio o del tiempo.
El experimento que la genera debe cumplir las siguientes condiciones:
16
1. El número de éxitos que ocurren en cada región del tiempo o del
espacio es independiente de lo que ocurra en cualquier otro tiempo
o espacio disjunto del anterior.
2. La probabilidad de un ‚éxito en un tiempo o espacio pequeño es
proporcional al tamaño de este y no depende de lo que ocurra fuera
de él.
3. La probabilidad de encontrar uno o más ‚éxitos en una región del
tiempo o del espacio tiende a cero a medida que se reducen las
dimensiones de la región en estudio.
Como consecuencia de estas condiciones, las variables Poisson típicas
son variables en las que se cuentan sucesos raros.
La función de probabilidad de una variable Poisson es:
El parámetro de la distribución es λ que es igual a la media y a la varianza
de la variable.
Esta característica puede servirnos para identificar a una variable Poisson
en casos en que se presenten serias dificultades para verificar los postulados de
definición.
La distribución de Poisson se puede considerar como el límite al que tiende
la distribución binomial cuando n tiende a
y p tiende a 0, siendo np constante (y
menor que 7); en esta situación sería difícil calcular probabilidades en una
variable binomial y, por tanto, se utiliza una aproximación a través de una variable
Poisson con media l = n p.
La varianza de la variable aproximada es ligeramente superior a la de la
variable binomial.
Las variables Poisson cumplen la propiedad de que la suma de variables
Poisson independientes es otra Poisson con media igual a la suma las medias.
El aspecto de la distribución depende muchísimo de la magnitud de la
media. Como ejemplo, mostramos tres casos con λ = 0,5 (arriba a la izquierda), λ
= 1,5 (arriba a la derecha) y λ = 5 (abajo) Obsérvese que la asimetría de la
distribución disminuye al crecer λ y que, en paralelo, la gráfica empieza a tener un
aspecto acampanado.
17
2.2.2 VARIABLES ALEATORIAS CONTINUAS
Si el recorrido de la variable X es un intervalo real cuyos extremos pueden
ser -∞ y +∞ ; ésta será una variable aleatoria continua.
Entonces Rx = ( a , b ) óRx = (-∞ , +∞ ) óRx = ( a , +∞ ) ó
Rx = ( -∞ , b )
Tanto para variables aleatorias discretas o continuas podemos asociar valores
de probabilidad.
P( X = xi ) = P( suceso : X toma el valor xi )
P( c< X < d ) = P( suceso : X toma cualquier valor en el intervalo)
P( X xo ) = P( suceso : X toma valores menores o iguales que xo )
2.2.2.1
Distribución normal o de Gauss
La distribución normal fue definida por De Moivre en 1733 y es la
distribución de mayor importancia en el campo de la estadística.
Una variable es normal cuando se ajusta a la ley de los grandes números,
es decir, cuando sus valores son el resultado de medir reiteradamente una
magnitud sobre la que influyen infinitas causas de efecto infinitesimal.
18
Las variables normales tienen una función de densidad con forma de
campana a la que se llama campana de Gauss.
Su función de densidad es la siguiente:
Los parámetros de la distribución son la media y la desviación típica, μ y σ,
respectivamente. Como consecuencia, en una variable normal, media y
desviación típica no deben estar correlacionadas en ningún caso (como
desgraciadamente ocurre en la inmensa mayoría de las variables aleatorias reales
que se asemejan a la normal.
La curva normal cumple las siguientes propiedades:
1) El máximo de la curva coincide con la media.
2) Es perfectamente simétrica respecto a la media (g1 = 0).
3) La curva tiene dos puntos de inflexión situados a una desviación típica de
la media. Es convexa entre ambos puntos de inflexión y cóncava en ambas
colas.
4) Sus colas son asintóticas al eje X.
19
Para calcular probabilidades en intervalos de valores de la variable,
habría que integrar la función de densidad entre los extremos del intervalo. por
desgracia (o por suerte), la función de densidad normal no tiene primitiva, es
decir, no se puede integrar. Por ello la única solución es referirse a tablas de la
función de distribución de la variable (calculadas por integración numérica) Estas
tablas tendrían que ser de triple entrada (μ, σ, valor) y el asunto tendría una
complejidad enorme.
Afortunadamente, cualquier que sea la variable normal, X, se puede
establecer una correspondencia de sus valores con los de otra variable con
distribución normal, media 0 y varianza 1, a la que se llama variable normal
tipificada o Z. La equivalencia entre ambas variables se obtiene mediante la
ecuación:
La función de distribución de la variable normal tipificada está tabulada y,
simplemente, consultando en las tablas se pueden calcular probabilidades en
cualquier intervalo que nos interese.
De forma análoga a lo pasaba con las variables Poisson, la suma de
variables normales independientes es otra normal.
20
Histograma de una normal idealizada
2.2.2.2
Histograma de una muestra de una
variable normal
Distribución Gamma (Γ)
La distribución gamma se define a partir de la función gamma, cuya
ecuación es:
La función de densidad de la distribución gamma es:
α y β son los parámetros de la distribución.
La media y la varianza de la variable gamma son:
21
2.2.2.3
Distribución exponencial
Es un caso particular de la distribución gamma cuando α = 1. Su función
de densidad es:
Su parámetro es β.
La media y la varianza de la distribución exponencial son:
2.2.2.4
Distribución Chi-cuadrado
Es otro caso particular de la distribución gamma para el caso β = 2 y α = n
/ 2, siendo n un número natural.
Su función de densidad es:
22
El parámetro de la distribución  es  y su media y su varianza son,
respectivamente:
Otra forma de definir la distribución  es la siguiente: Supongamos que
tenemos n variables aleatorias normales independientes, X1,..., Xn, con media μi y
varianza
(i = 1 ... n), la variable definida como
tiene distribución  con n grados de libertad y se le denomina n.
Variables chi-cuadrado con valores de
progresivamente
mayores son cada vez menos asimétricas.
23
2.2.2.5
Distribución T de Student
Supongamos dos variables aleatorias independientes, una normal
tipificada, Z , y otra con distribución  con  grados de libertad, la variable
definida según la ecuación:
tiene distribución t con  grados de libertad.
La función de densidad de la distribución t es:
El parámetro de la distribución t es , su número de grados de libertad.
Esta distribución es simétrica respecto al eje Y y sus colas se aproximan
asintóticamente al eje X. Es similar a la distribución Z salvo que es platicúrtica y,
por tanto, más aplanada.
Cuando n tiende a infinito, t tiende asintóticamente a Z y se pueden
considerar prácticamente iguales para valores de n mayores o iguales que 30..
24
Variables T con valores de  progresivamente mayores
son cada vez menos platicúrticas
Comparación entre la variable T y la normal tipificado.
2.2.2.6
Distribución F de Snedecor
Sean U y V dos variables aleatorias independientes con distribución
 con 1 y 2 grados de libertad, respectivamente. La variable definida según la
ecuación:
tiene distribución F con 1, 2 grados de libertad.
La función de densidad de la distribución F es:
25
Los parámetros de la variable F son sus grados de libertad 1 y 2.
Las distribuciones F tienen una propiedad que se utiliza en la construcción
de tablas que es la siguiente:
Llamemos f1,2 al valor de una distribución F con 1 y 2 grados de
libertad que cumple la condición, P(F > f1,2) = α; llamemos f1,2 al valor de
una distribución F con 1 y 2 grados de libertad que cumple la condición, P(F >
f1,2) = 1- α. Ambos valores están relacionados de modo que uno es el inverso
del otro.
Variables F con distintos valores de
CAPITULO III
3.1
1,
2
DISTRIBUCION DE PROBABILIDADES
FUNCIÓN DE PROBABILIDADDISCRETA O DE CUANTÍA
Llamamos función de probabilidad discreta o función de cuantía o función
de probabilidad puntual correspondiente a la variable aleatoria X
a la
26
colección de pares [ x , p(x)] ; donde las probabilidades
p(x)= P(X= x)
verifican :
a.-
p(x)  0  x  R
b.-
p(x) = 1
Esta distribución se representa a través de un gráfico de bastones:
p(x)
0
1
2
n
x
Interpretación física:
Si consideramos al eje real como una barra; podemos suponer que por sobre
cada punto de abscisa x hay aplicada una masa puntual P[ X = x ] = p(x ).
Además la masa total de probabilidad es igual a uno.
Observaciones:
- Supóngase que la variable discreta puede tomar un número finito de valores x1,
x2 , x3,...., xn; si cada resultado es igualmente probable  p(x1 ) = p(x2 )=.....=
p(xn )= 1/n .
- Si X toma un número infinito no numerable es imposible que todos los resultados
sean equiprobables, pues no satisface la condición de cierre ; p(x ) = 1
Ejemplo:
Sea  : un jugador arroja 3 monedas; gana $2 por cada cara que aparece y
pierde $2 por cada cruz.
 = { (ccc); (ccx); (cxx); (xxx); (xcc); (xxc); (cxc); (xcx) }
Al jugador le interesa la ganancia o pérdida que el punto muestra le representa..
La variable aleatoria se define:
X :Rx
X= ganancia del jugador. P()= 1/8
P(ganar 6) = P(x=6) = P( = ccc) = 1/8
P(ganar 2) = P(x=2) = P (  { cxc , xcc , ccx }) = 3/8
3.2
FUNCIÓN DE PROBABILIDAD CONTINUA–FUNCIÓN DE DENSIDAD
Dada una variable aleatoria continua X; se llama función de densidad de
probabilidad de X a f(x) si existe tal que satisfagan las siguientes condiciones:
a.- f(x)  0 para todo x
27
b.-  f (x ). dx  1
R
Nota: f(x) no indica probabilidad. Sólo indica cómo se distribuye la masa de
probabilidad dentro del recorrido de la variable. Geométricamente, P( a< X < b)
= 1 es el área bajo la curva f(x).
f(x)
f(x) = 0
f(x) = 0
a
b
x
3.3
DISTRIBUCIÓN DE PROBABILIDAD ACUMULADA
Sea X una variable aleatoria discreta, definimos F(x) como función de
distribución acumulada de la variable aleatoria X a :F(x ) = P( X x ). Si X es
una variable aleatoria discreta la gráfica es una función escalonada con tramos
continuos y un número finito o infinito numerable de saltos correspondiente a los
valores de X = x1 ,x2 ,....xn
k
P ( X  x k )   p( xi )
i 1
F(x)
F(x) =1
1
F(x) = 0
0
1
2
n
x
Si X es una variable aleatoria continua su función de distribución acumulada es el
valor del área bajo la curva f(x) a la izquierda de x.
x
F ( x )  P( X  x ) 
 f ( s)ds

F(x)
Título del eje
28
Propiedades de F(x)
1.- F(x) 0 , x  R ( no negatividad )
2.- x1< x2
 F(x1 )  F(x2 ) ( no decreciente )
3.- 0  F(x)  1
4.- Si F(x) es la función de distribución de una variable aleatoria continua,
entonces
F ( x )
 f ( x ) x donde F(x) es diferenciable, siendo f(x) la función
x
de densidad de la variable.
5.- x1 < x2
 F(x2 ) - F(x1 ) = P( x1 < x  x2 )
CAPITULO IV
VECTORES ALEATORIOS
En la vida real es muy frecuente enfrentarnos a problemas en los que nos interesa
analizar varias características simultáneamente, como por ejemplo la velocidad
de transmisión de un mensaje y la proporción de errores. De esta forma seremos
capaces de estudiar no solo el comportamiento de cada variable por separado,
sino las relaciones que pudieran existir entre ellas.
4.1
VECTOR ALEATORIO
El concepto de vector aleatorio nace como una generalización natural de la noción
de variable aleatoria, al considerar simultáneamente el comportamiento aleatorio
de varias características asociadas a un experimento.
Ejercicio1.
Sean U1, U2, … Un vectores aleatorios Np independientes e igualmente
distribuidos.
Sean V1 y V2 sendas combinaciones lineales de U1, U2, … Un :
V1= b1U1 + b2U2 + … + bn Un
V2= c1U1 + c2U2 + … + cn Un
Notaremos por B y C los vectores de los coeficientes reales:
 b1 
 c1 
 
 
b2 
c2
B =
y C = 
 
 
 
 
 bn 
 cn 
Demostrar que V1 y V2 son independientes si y solo si Bt C = 0
29
Ejercicio2.
Sea X=
 X1 
 
 X2 
 X3 
 
 X4 
un v.a. Normal de media
 X1 
 
 X3 


= 



1

2
3

4
y dispersión
a)
Dar la ley de
b)
A partir de ella y de la tabla de función de distribución de la N(0,1),
-1 1 3 

1 0 -2 
.
0 1 1

-2 1 5 
sabiendo que X2 =1.
calcula la probabilidad condicionada
CAPITULO V
 2

 -1
 1

 3
p( X12 + X32 < 1 / X2 =1)
PROCESOS ESTOCASTICOS
La teoría de los procesos estocásticos se centra en el estudio y modelización de
sistemas que evolucionan a lo largo del tiempo, o del espacio, de acuerdo a unas
leyes no determinísticas, esto es, de carácter aleatorio.
La forma habitual de describir la evolución del sistema es mediante sucesiones o
colecciones de variables aleatorias. De esta manera, se puede estudiar cómo
evoluciona una variable aleatoria a lo largo del tiempo. Por ejemplo, el número de
personas que espera ante una ventanilla de un banco en un instante t de tiempo;
el precio de las acciones de una empresa a lo largo de un año.
La primera idea básica es identificar un proceso estocástico con una sucesión de
variable aleatoria {Xn, n ∈ N} donde el subíndice indica el instante de tiempo (o
espacio) correspondiente.
Esta idea inicial se puede generalizar fácilmente, permitiendo que los instantes de
tiempo en los que se definen las variables aleatorias sean continuos. Así, se
podrá hablar de una colección o familia de variables aleatorias {Xt, t ∈ R}, que da
una idea más exacta de lo que es un proceso estocástico.
Se tenía que una v.a. X(s) es una función que va desde un espacio muestral S a
la recta real, de manera que a cada punto s ∈ S del espacio muestral se le puede
asociar un número de la recta real.
De este modo, la probabilidad de cada suceso de S se puede trasladar a la
probabilidad de que un valor de X (v.a.) caiga en un cierto intervalo o conjunto de
números reales. Si a todo esto se le añade una dimensión temporal, se obtiene un
proceso estocástico.
30
En general trabajamos con procesos estocásticos en cualquier caso en que
intentamos ajustar un modelo teórico que nos permita hacer predicciones sobre el
comportamiento futuro de un proceso. Un ejemplo particularmente importante lo
proporcionan las denominadas “Series de Tiempo” o “Series Temporales”, que
registran observaciones de determinado proceso en función del tiempo.
5.1
Definición 1
Se denomina proceso aleatorio o estocástico a toda variable que evoluciona a
lo largo del tiempo de forma total o parcialmente aleatoria. Un ejemplo, Fig.1 es la
temperatura en Madrid, aumenta durante el día y baja durante la noche; aumenta
en el verano y desciende mucho en invierno (“nueve meses de invierno y tres de
infierno”, que se dice del clima castellano); su variación es parcialmente
determinística y parcialmente aleatoria.
Figura 1: Temperaturas máximas y mínimas en Madrid
5.2
Definición 2
Esel conjunto de funciones temporales que resultan de un experimento particular,
es decir, cada vez que se realiza el experimento, se produce como salida una
determinada señal. La aleatoriedad radica en saber cual de todas las funciones
saldrá.Fig.2. Además, en cada instante de tiempo tk, se puede definir una variable
aleatoria que podría llamarse xtk. Queda claro que la diferencia fundamental entre
una variable aleatoria y un proceso aleatorio es la dependencia con la variable
tiempo.
Figura 2: Procesos Estocásticos
31
Ejemplo: suponga un proceso estocástico definido como x(t)=at donde a está
uniformemente distribuida entre 0 y 1. Cada vez que se realiza el experimento, la
salida es una recta de pendiente diferente. Para un tiempo dado, digamos t=t0, se
tendrá una v.a xt0= at0, que puede tomar valores entre 0 y t0. Una forma de
caracterizar el proceso x(t) es a través de la definición de una función conjunta de
infinitas variables aleatoria correspondientes a tiempos distintos tk.
5.3
Definición 3
Es una colección de variables aleatorias {Xt : t ∈ T} parametrizada por un
conjunto T llamado espacio parametral y con valores en un conjunto S llamado
espacio de estados (conjunto de posibles valores que pueden tomar las variables
aleatorias {Xt}t ∈R).Fig.3
Figura 3: Proceso Estocástico
Nota: en general, se piensa en el subíndice t como el indicativo del tiempo y en Xt como el
estado o posición del proceso estocástico en el instante t.
CAPITULO VI
REPRESENTACION ESPECTRAL
6.1
REPRESENTACIÓN TEMPORAL
Un método simple de representación de una señal sonora es dibujarla en
unagráfica dependiente del tiempo. Esta representación se denomina
representaciónen el dominio temporal (o time domainrepresentation).
En este caso, representamosla evolución de la amplitud (de la magnitud que
medimos: presión,voltaje, etc) respecto al tiempo. En el caso del sonido, la
amplitud representa lavariación de la presión atmosférica respecto al tiempo. En
general, la amplitudse representa a partir del valor 0 (posición de equilibrio o valor
medio de lapresión) hasta el punto de máxima amplitud de la forma de onda.Fig 4.
32
Figura 4: Representación de una señal en el dominio temporal.
6.2
REPRESENTACIÓN FRECUENCIAL
La representación frecuencial captura las características espectrales de unaseñal
de audio. Además de la frecuencia fundamental, existen muchas
frecuenciaspresentes en una forma de onda. Una representación en el dominio
frecuencial(o frequencydomainrepresentation) o representación espectral muestra
el contenido
frecuencial de un sonido. Las componentes de frecuencias individualesdel
espectro pueden denominarse harmónicos o parciales. Las frecuencias armónicas
son enteros simples de la frecuencia fundamental. Cualquier frecuenciapuede
denominarse parcial, sea o no múltiplo de la frecuencia fundamental. Dehecho,
muchos sonidos no tienen una fundamental clara.
El contenido frecuencial de un sonido puede mostrarse de diversas maneras.Una
forma estándar es la de dibujar cada parcial como una línea en el eje x.
La altura de cada línea correspondería a la fuerza o amplitud de cada
componentefrecuencial. Una señal sinusoidal pura viene representada por una
solacomponente frecuencial.
6.2.1 Espectro
El espectro de una señal es una representación en el dominio de la frecuencia
que viene dada por la evolución de la amplitud y de la fase respecto a
lafrecuencia.
6.2.2
Espectro de potencia
Del espectro de amplitud se puede derivar el espectro de potencia
(powerspectrum). Generalmente, se define la potencia de una señal como el
cuadradode la amplitud de dicha señal. Por tanto, el espectro de potencia sería el
cuadradodel espectro de amplitud. La potencia espectral está más correlacionada
conla percepción humana de la intensidad, y por ello es útil esta representación.
33
6.3
REPRESENTACIÓN TIEMPO-FRECUENCIA
El espectro cambia constantemente, por lo que las gráficas mencionadas
anteriormenterepresentan sólo una porción de sonido que se ha analizado.
Unagráfica que represente la variación del espectro a lo largo del tiempo nos da
unaidea de la evolución de la amplitud de las distintas frecuencias a lo largo
deltiempo. Esta gráfica puede dibujarse de forma tridimensional, representando
losdistintos espectros a lo largo del tiempo.
En gráficos de computadora, representación espectral es donde el transporte
ligero de una escena se modela con longitudes de onda verdaderas. Este proceso
es típicamente mucho más lento que la representación tradicional, que rinde la
escena en sus componentes rojos, verdes, y azules y después sobrepone las
imágenes. La representación espectral es de uso frecuente adentro trazo del rayo
o el trazo del fotón a simule más exactamente la escena, para la comparación con
una fotografía real para probar a menudo el algoritmo de representación (como en
a Caja de Cornell) o simular diversas porciones de espectro electromagnético con
el fin de trabajo científico. Las imágenes simuladas no son necesariamente más
realistas el aparecer; sin embargo, cuando está comparado a un pixel verdadero
de la imagen para el pixel, el resultado está a menudo mucho más cercano.
La representación espectral puede también simular fuentes de luz y se opone más
con eficacia, como la luz espectro de emisión puede ser utilizado lanzar los
fotones en una longitud de onda particular en proporción con el espectro. Las
curvas espectrales de la reflexión de los objetos se pueden utilizar
semejantemente para reflejar ciertas porciones del espectro más exactamente.
Como ejemplo, ciertas características de tomates hacen que aparecen
diferentemente bajo luz del sol que bajo luz fluorescente. El usar radiación del
blackbody las ecuaciones para simular luz del sol o el espectro de emisión de un
bulbo fluorescente conjuntamente con la curva espectral de la reflexión del
tomate, imágenes más exactas de cada panorama pueden ser producidas.
CAPITULO VII
7.1
ESTIMACION ESPECTRAL
ESTIMACION ESPECTRAL
Consideramos la estimación de la densidad espectral de potencia de un
proceso aleatorio estacionario en sentido amplio (WSS). El espectro de potencia
es la transformada de Fourier de la secuencia de autocorrelación. Por tanto,
estimar el espectro de potencia es equivalente a estimar la autocorrelación.
Para un proceso ergódico en autocorrelación,
34
Así, si conocemos x(n) para todo n, para estimar el espectro únicamente
tendremos que calcular la secuencia de autocorrelaciónrx(k) y posteriormente
hallar la transformada de Fourier. Pero existen dificultades en este proceso. Por
ejemplo, la cantidad de datos disponible no es ilimitada y, en muchos casos,
puede que dispongamos de un conjunto de datos pequeño e insuficiente. Otro
problema añadido es que la señal puede estar contaminada con ruido o con una
señal interferente. Por tanto, la estimación espectral implica estimar Sx(ejw) a partir
de un número finito de medidas ruidosas de x(n).
Las técnicas de estimación espectral pueden catalogarse atendiendo al siguiente
criterio:
1.7.1 Métodos clásicos o no paramétricos.
Estiman la secuencia de autocorrelaciónrx(k) a partir de un conjunto de
datos. Calculando la transformada de Fourier de la secuencia de
autocorrelación estimada se obtiene una estimación del espectro.
1.7.2 Métodos clásicos o paramétricos
Utilizan un modelo del proceso para estimar el espectro de potencia.
7.2
ESTIMACIÓN DE LA DENSIDAD ESPECTRAL
Un problema muy común y con grandes aplicaciones prácticas en
procesado de señal es el de estimar la densidad espectral de potencia de
una señal aleatoria estacionaria. Decimos "estimar" puesto que, como la
señal es un proceso estocástico (estacionario) dada la naturaleza
estocástica del mismo no es posible determinar con absoluta precisión su
DEP a no ser que dispongamos de un registro de señal infinito, lo cual no
es posible.
Las técnicas de estimación se dividen en dos grandes grupos:

No Paramétricas. Están basadas siempre de una u otra forma en el
cálculo del periodograma. Calcular la transformada de fourier (en un
ordenador es la DFT) de un registro de señal para estimar su espectro
es un ejemplo de técnica no paramétrica.
 Paramétricas. Consisten en suponer un determinado modelo para el
proceso estocástico (modelos AR, MA, ARMA, etc) y en la estimación
de los parámetros de estos modelos mediante técnicas de predicción
lineal (filtrado lineal óptimo) u otros métodos.
35
CAPITULO VIII
8.1
ENTROPIA
DEFINICIÓN
Entropía es el grado de desorden que tiene un sistema. La palabra entropía
procede del griego em que significa sobre, en y cerca de; y sqopg, que
significa giro, alternativa, cambio, evolución o transformación. La entropía
es un patrón de medida.
En física esto se aplica a la segunda ley de la termodinámica , la cual dice
que los sistemas aislados tienden al desorden, es decir, las cosas tienden
al caos a medida que pasa el tiempo (no hay más que fijarse en el
organismo de un ser vivo);mientras que en la teoría de la comunicación
este concepto es empleado como unnº que mide el grado de incertidumbre
que posee un mensaje.
La entropía es nula cuando la certeza es absoluta, y alcanzará un
máximocuando el sistema se acerca al equilibrio. Cuando la entropía sea
máxima en eluniverso, esto es, exista un equilibrio entre todas las
temperaturas y presiones,llegará la muerte térmica del universo. Toda la
energía se encontrará en forma decalor y no podrán darse
transformaciones energéticas.
“El orden de un cuerpo puede aumentar, pero a condición de que
lacantidad de desorden a su alrededor aumente en una cantidad mayor.
Esto es loque le sucede a un ser vivo. Podríamos definir la vida como un
sistema ordenadoque puede sostenerse contra la tendencia al desorden, y
que puede reproducirse.
Es decir, que puede formar sistemas ordenados similares, pero
independientes. Elsistema debe convertir energía partiendo de una forma
ordenada en energíadesordenada. De esta manera el sistema puede
satisfacer el requisito de que lacantidad de desorden aumente, mientras
que, al mismo tiempo, aumenta el ordenen sí mismo y en su descendencia.
8.2
APLICACIONES
H (X ,Y )
H ( X | Y ) I ( X ;Y )
H (X )
H (Y | X )
H (Y )
36
H(X,Y)
H(X)
H(Y)
H(X|Y)
I(Y;X)
H(Y|X)
Desde estos dibujos se pueden sacar todas las relaciones posibles:
I ( X ;Y )  H ( X )  H ( X | Y )  H (Y )  H (Y | X )
I ( X ;Y )  H ( X )  H (Y )  H ( X , Y )
H ( X , Y )  H ( X | Y )  H (Y | X )  I ( X ;Y )
etc…
H (X )  H (X | Y)
H (Y )  H (Y | X )
Cuando las variables son independientes H(X,Y)=H(X)+H(Y)y la información mutua será nula I(X;Y)=0.
Ejemplo:
Dadas dos variables aleatorias discretas (X,Y) que pueden asumir 4 valores distintos cada una, conocemos la densidad
Conjunta(en general puede será una matriz rectangular):
X
1
8
1

p ( x, y )  16
1
16
Y
1

4
1
16
1
8
1
16
1
32
1
32
1
16
0
0
1
32 
1

32 
1
16 

0

Marginales
p ( x); p ( y )
Condicionales
p ( y | x); p ( x | y )
Se puede ver claramente que la suma de todos los valores da 1, como debe de ser:
37
4
4
1
1
1
1
 p( x, y )  2  8  4  6  16  4  32  3  0  1
i 1 j 1
i
Con la conjunta tenemos toda la información necesaria; podemos calcular las marginales(serán vectores) fácilmente:
4
1 1 1 1
p( x)   p( x, yi )  Sumar las Filas!=  , , , 
 2 4 8 8
i 1
4
1 1 1 1
p( y )   p( x j , y )  Sumar las Columnas!=  , , , 
4 4 4 4
j 1
Podemos ver que las variables son dependientesporque:
p( x, y)  p( x)  p( y)
Para hallar las densidades condicionales(serán matrices), utilizaremos:
p( x | y) 
p ( x, y )
p( y)
;
p( y | x) 
p ( x, y )
p( x)
Esto significa por ejemplo:
p( X | Y  1) 
1/ 8,1/16,1/ 32,1/ 32   1 , 1 , 1 , 1 
1/ 4


 2 4 8 8
Es decir, si miramos bien estamos normalizando las Filas de la conjunta:
1
2
1

p( x | y)   4
1
4
 1
1
4
1
2
1
4
0
1
8
1
8
1
4
0
1
8
1

8
1
1
0 
(normalizando las filas)
Donde las líneas suman 1; normalizando las columnas logramos:
1
4
1

p( y | x)   8
1
8
1

2
1
4
1
2
1
4
1
4
1
4
1
2
0
0
1
4
1

4
1
2

0

(normalizando las columnas)
Donde las columnas sumas 1.
38
Calculo de las Entropías:
1
1 1
1 1
1 1
1 7
 1 1 1 1
H ( X )  H  , , ,    log2  log2  log2  log2  bits  1.75 bits
2
2 4
4 8
8 8
8 4
 2 4 8 8
1
1 1 1 1
1
H (Y )  H  , , ,   4 log2   2 bits
4
4 4 4 4
4
Las formulas de las entropías condicionales son:
4
H ( X | Y )   p( yi )  H ( X | yi )
i 1
Las
H ( X | yi )
las columnas de
1
2
1

p( x | y)   4
1
4
 1
y las
H (Y | x j )
4
;
H (Y | X )   p( x j )  H (Y | x j )
j 1
son respectivamente las entropías de las filas de
p( x | y )
y las entropías de
p ( y | x) :
1
4
1
2
1
4
0
1
8
1
8
1
4
0
1
8
1

8
1
1
0 
H ( X | y  1)  7 / 4
H ( X | y  2)  7 / 4
H ( X | y  3)  2
H ( X | y  4)  0
La entropía condicional será finalmente el promedio de todas:
H(X | Y) 
1 7 1 7 1
1
11
     2   0  bits
4 4 4 4 4
4
8
A la misma manera, trabajando sobre las columnas de
H(X | Y) 
p ( y | x)
y promediando logramos:
13
bits
8
La Información Mutuaserá:
I ( X ;Y )  H ( X )  H ( X | Y )  H (Y )  H (Y | X ) 
La Entropía Conjunta podemos calcularla directamente de la matriz
3
bits
8
p( x, y) :
2
1 1
1 6
1
4
1 27
H ( X , Y )   log2  log2  log2  log2

bits  3.37 bits
8
8 4
4 16
16 32
32 8
O a través de una de las formulas:
39
H ( X , Y )  H ( X )  H (Y )  I ( X ;Y ) 
7
3 14  16  3 27
2 

bits
4
8
8
8
Observaciones importantes:
1.
Podemos notar como, por ejemplo, H ( X
es mayor que
H (X ) !!
| y  4)  0
es menor de
H (X ) , pero H ( X | y  3)  2
Parece increíble: en unos caso “aprender” información de la variable Y nos hace
incrementar la incertidumbre sobre X!!!Pero promediando Y nos aporta información sobre
X(siendo no
independientes), de hecho:
H(X | Y)  H(X )
2.
p( x | y  2) vemos que es una densidad diferente de p(x) , pero la las entropías son iguales
H ( X | y  2)  H ( X ) . Esto porque la entropía es una cantidad independientes de permutaciones, o
Si miramos
mejor dicho, de los valores que asumen las variables (del soporte de la densidad). La entropía depende solo
de los valores de las probabilidades.Esto no pasa con otras medidas de dispersión como la varianza, que en
general será distinta.
Calcular la Capacidad de un Canal discreto sin memoria:
x1
x2
1
2
y1
10
1
2
3
p ( y | x )  matriz NM
....
y j igual
Entropía
Varianza distinta
....
.…
“de canal”
yN
xM
En la figura anterior, se muestra una representación típica de un canal discreto de comunicación; esto equivale a una
matriz de probabilidad condicional
o
p ( y | x) .
Habría que añadir o suponer algún tipo de información más sobre
p(x)
p(y) , por ejemplo.
DISCRETO: se define así porque las entradas x y las salidas y pueden tomar un conjunto discreto de valores.
SIN MEMORIA: si las salidassolo depende de las entradas al tiempo en cuestión, y son condicionalmente independientes
de otras entradas y otras salidas en otro instante de tiempo (es equivalente a la formula
Y  X  ruido ).
Sabemos que por definición de capacidad de canal:
C  max I ( X ; Y )
p( x)
40
Vamos a ver los pasos que generalmente habrá que hacer para calcular la capacidad, en los problemas típicos.
Empezamos diciendo que la formula que suele ser más útil para expresar la información mutua es:
I ( X ; Y )  H (Y )  H (Y | X )
Esto no quiere decir que haya que utilizar siempre esta. Los pasos para en cálculo serán:
1) Hallar la matriz
p( y | x) equivalente al grafico del canal.
y1
x1
x2
....
yj
.…
p ( y | x )  C1 C2 ... C M 
....
yN
xM
valor1 
valor 
2 
Donde con C i  
hemos indicado los M vectores columna (de N filas) que componen las matrices; por
...



valorN 
definición de la matriz p( y | x) , las sumas de los valores a lo largo de cada columna dará 1.
2) Calcular
H (Y ) ; esto necesita de dos pasos: primero hay que calcular p(y)
y luego la Entropía. En formula:
p( y)  C1   p( x  1)  C2   p( x  2)  ...  C M   p( x  M )  CY
y luego:
H ( y )  H (CY )
Es decir para hallar
p(y)
p(x) ; el
CY (cuyos elementos tendrán que sumar 1, por construcción) que representa p(y) .
desde
resultado será un vector columna
p ( y | x) ,
hay que promediar las columnas a través de la densidad
Así que se podrá calcular la entropía utilizando la definición.
3) Calcular
H (Y | X ) ; también en este caso necesitaríamos 2 pasos: calcular las entropías de cada columna C i
y
luego promediar. Juntando los dos pasos, podemos escribir en formula:
H (Y | X )  H C1   p( x  1)  H C 2   p( x  2)  ...  H C M   p( x  M )
Es decir: respecto al punto precedente, aquí primero calculamos las entropías de las columnas y luego promediamos.
Antes para hallar H (Y ) , hemos promediado y luego calculado la entropía.
4) Como tememos
H (Y ) y H (Y | X ) , tenemos también:
I ( X ; Y )  H (Y )  H (Y | X )
41
ahora, nos tocará maximizarla según algún parámetro, para hallar C.
Para que se entienda mejor, vamos a hacer un ejemplo:
p x1
1  2 p x2

1 
1
p x
3
1 0

p( y | x)  

1   0 1 
y1
y2
1
Como se puede ver ya hemos hallado la matriz
p( y | x) , cuyas columnas son:
 
1 
0 
C1  
;
C

;
C

2
3

0 
1 
1




 
 
Vamos a calcular
p(y) :
p( y)  CY  C1   p( x  1)  C2   p( x  2)  ...  C M   p( x  M )
 
1 
0 
p  (1  2 p ) 1  (  2) p 
p ( y )  CY  
 p     (1  2 p )     p  



1   
0 
1 
(1   ) p  p  (2   ) p 
Se puede comprobar que los elementos de
CY
suman efectivamente 1, como debe de ser siendo una densidad de
probabilidad. Así que la entropía de las salidas será:
H (Y )  H (CY )  1  (  2) plog 2 1  (  2) p  (2   ) plog 2 (2   ) p
Ahora nos hace falta la entropía condicional
H (Y | X ) :
H (Y | X )  H C1   p  H C 2   (1  2 p )  H C 3   p
H C1    log 2 ( )  (1   ) log 2 (1   )
H C 2   0
H C 3   0
H Y | X     log 2 ( )  (1   ) log 2 (1   )  p
Así que la información mutua será:
I ( X ; Y )  H (Y )  H (Y | X ) 
 1  (  2) plog 2 1  (  2) p  (2   ) plog 2 (2   ) p   log 2 ( )  (1   ) log 2 (1   )  p
42
Nos queda solo derivar respecto a p:
I ( X ; Y )
 (  2) log 2 1  (  2) p   (  2)  (2   ) log 2 (2   ) p   (2   )  ...
p
  log 2 ( )  (1   ) log 2 (1   )  0
I ( X ; Y )
 (  2) log 2 1  (  2) p   log 2 (2   ) p    log 2 ( )  (1   ) log 2 (1   )  0
p
pˆ  ....
Finalmente, la capacidad será:
C  1  (  2) pˆ  log 2 1  (  2) pˆ   (2   ) pˆ  log 2 (2   ) pˆ    log 2 ( )  (1   ) log 2 (1   )  pˆ
CAPITULO IX
PROCESOS ESTACIONARIOS
9.1
PROCESOS ESTACIONARIOS
Se dice que un proceso {Xt : t ≥ 0} es estacionario (en el sentido estricto) si
para cualesquiera tiempos t1 , . . . , tn, la distribución del vector (Xt1 , . ,
Xtn) es la misma que la del vector (Xt1 +h , . . . , Xtn +h ) para cualquier
valor de h > 0. En particular, la distribución de Xt es la misma que la de
Xt+h para cualquier h > 0, y entonces esta distribución es la misma para
cualquier valor de t.
9.2
PROCESOS CON INCREMENTOS ESTACIONARIOS
Se dice que un proceso {Xt : t ≥ 0} tiene incrementos estacionarios si para
cualesquiera tiempos s < t, y para cualquier h > 0, las variables Xt+h −
Xs+h y Xt − Xs tienen la misma distribución de probabilidad. Es decir, el
incremento que sufre el proceso entre los tiempos s y t sólo depende de
estos tiempos a través de la diferencia t − s, y no de los valores específicos
de s y t.
9.3
PROCESO DE BERNOULLI (proceso bernoulliano de ensayos independientes)
La distribución de bernoulli se refiere a un experimento aleatorio discreto
que solo puede tomar dos valores, 0 ó 1 y más comúnmente éxito o fracaso
para el cual la probabilidad p del resultado éxito ó 1 es conocida.
P(1) = P(éxito) = p
P(0) = P(fracaso) = 1 – p = q
Distribución de probabilidad es:
p(x) = px(1-p)1-x para x = 0, 1
Existen cantidad de fenómenos aleatorios que obedecen a este modelo:
 Cursar la materia procesos estocásticos: se aprueba o se reprueba.
La repetición de estos experimentos Bernoullianos, como por ejemplo el
lanzamiento de una moneda más de una vez, o la observación del sexo de
varios hijos de una misma pareja, etc, es llamado proceso Bernoulliano
de ensayos independientes.
43
9.4
CAMINATA ALEATORIA (recorrido aleatorio de estado discreto y tiempo discreto)
Una caminata aleatoria simple sobre el conjunto de números enteros Z es
un proceso estocástico a tiempo discreto {Xt:t = 0, 1, . . .} que evoluciona
como se muestra en la figura 5. Es decir, iniciando en el estado 0, al
siguiente tiempo el proceso puede pasar al estado +1 con probabilidad p, o
al estado −1 con probabilidad q, en donde p+q= 1. Se usa la misma regla
para los siguientes tiempos, es decir, pasa al estado de la derecha con
probabilidad p, o al estado de la izquierda con probabilidad q. El valor de
Xnes el estado del proceso al tiempo n. Este proceso cambia de un estado
a otro en dos tiempos consecutivos de acuerdo a las probabilidades de
transición que se muestran en la figura, válidas para cualquier t ≥ 0, y para
cualesquiera enteros i y j.
p si j = i + 1
P(Xn+1 = j | X n = i) =
0
q
si j = i-1
en otro caso
Figura 5. Caminata Aleatoria
Dado que estas probabilidades no dependen de n, se dice que son
homogéneas en el tiempo, es decir, son las mismas para cualquier valor de n.
A partir de estasconsideraciones, es intuitivamente claro que este proceso
cumple la propiedad deMarkov, es decir, el estado futuro del proceso depende
únicamente del estado presentey no de los estados previamente visitados.
Una posible trayectoria de esteproceso se muestra en la figura 6.
Figura 6. Trayectoria del proceso. Propiedad de Markov
Una caminata aleatoria puede también definirse de la forma siguiente: Sea
ξ1, ξ2, .una sucesión de variables aleatorias independientes e
44
idénticamente distribuidastales que
P(ξ = +1) = p y P(ξ = −1) = q, en
donde, como antes, p + q = 1.Entonces para t ≥ 1 se define:
Xn= X0 + ξ1 + · · · + ξn
Este es uno de los ejemplos más simples de un proceso estocástico. En
este caso Xn es una variable aleatoria que comienza con un valor conocido
X0 y a lo largo de los períodos n = 1,2,3,…va variando a razón de saltos
unitarios hacia arriba o hacia abajo con una probabilidad asociada del 50%
en cada caso.
CAPITULO X
ESTECTRO DE POTENCIA
10.1 PROCESO ALEATORIO
Es una colección de señales en tiempo discreto, por tanto, no podemos calcular la
transformada de Fourier del proceso en sí mismo. Pero podemos obtener una
representación del proceso en el dominio de la frecuencia si expresamos la
transformada de Fourier en términos de un promedio del conjunto de
realizaciones.
La secuencia de autocorrelación de un proceso estacionario en sentido amplio
(WSS) proporciona una descripción en el dominio del tiempo del momento de
segundo orden del proceso. Como rx(k) es una secuencia determinista, podemos
calcular la transformada de Fourier en tiempo discreto,
10.2 ESPECTRO DE POTENCIA
Esta expresión determina el espectro de potencia o densidad espectral de
potencia del proceso. Conocido el espectro de potencia, podemos obtener la
secuencia de autocorrelación mediante la transformada inversa:
Por tanto, el espectro de potencia proporciona una descripción en el dominio de la
frecuencia del momento de segundo orden del proceso. En ocasiones puede
resultar conveniente utilizar la transformada-z en lugar de la transformada de
Fourier en tiempo discreto,
A Px(z) también se le denomina espectro de potencia de x(n).
45
10.2.1 Propiedades del espectro de potencia.
10.2.1.1
Simetría
Puesto que la secuencia de autocorrelación de un proceso aleatorio WSS
posee simetría conjugada, el espectro de potencia es una función real
de w. Si el proceso es real, la secuencia de autocorrelación es real y par, lo
que implica que el espectro de potencia es real y par.
El espectro de potencia de un proceso aleatorio WSS x(n) es real, Px(ejw)
= Px*(ejw), y Px(z) satisface la condición de simetría
Si x(n) es real, entonces el espectro de potencia es par, Px(ejw) = Px(ejw), lo que implica
10.2.1.2
Positividad
El espectro de potencia de un proceso aleatorio WSS es no negativo
10.2.1.3
Potencia total
La potencia de un proceso aleatorio WSS de media cero es proporcional al
área bajo la curva de densidad espectral de potencia
10.2.1.4
Propiedad de autovalores
Los autovalores de la matriz de autocorrelación de dimensiones N x N de
un proceso aleatorio WSS de media cero están limitados por los valores
máximo y mínimo del espectro de potencia,
El espectro de potencia también puede relacionarse con el promedio de
magnitudes de Fourier al cuadrado, |X(ejw|2. Consideramos
(Ec. 1)
Que es proporcional al cuadrado de la magnitud de la transformada de Fourier en
tiempo discreto de 2N + 1 muestras de una realización dada de un proceso
aleatorio. Puesto que, para cada frecuencia w, PN(ejw) es una variable aleatoria,
si tomamos el valor esperado obtenemos
(Ec. 2)
Con la sustitución k = n - m, tenemos
46
(Ec. 3)
Suponiendo que la secuencia de autocorrelación decae a cero lo suficientemente
rápido para considerar
(Ec. 4)
Podemos tomar el límite de Ec. 3 con N tendiendo a infinito, y
(Ec. 5)
Combinando Ec. 1 y Ec. 5 obtenemos
Por tanto, el espectro de potencia puede ser visto como el valor esperado
de PN(ejw) en el límite cuando N tiende a infinito.
10.3 APLICACIONES A LAS TELECOMUNICACIONES
Un uso común de la transformada de Fourier, es encontrar las componentes
frecuenciales de una señal en el dominio del tiempo que esta contaminada con
ruido. Considérese dos señales senoidales que tienen frecuencias fundamentales
de 50Hz y 120Hz, luego considérese estas señales contaminadas con ruido
aleatorio. Los comandos para generar una señal con las especificaciones
anteriormente mostradas son los siguientes:
>> t = 0:0.001:0.6;
>> x = sin ( 2 * pi * 50 * t ) + sin ( 2 * pi * 120 * t );
>> y = x + 2 * randn( size ( t ) );
>>plot( 1000 * t (1:50), y (1:50) )
Es de gran dificultad identificar las
componentes de frecuencia mirando la señal
original. Sin embargo al realizar la conversión de esta señal al dominio de la
frecuencia, la identificación de estas componentes se hace más sencilla. La
conversión de la señal al dominio de la frecuencia se hace calculando la
Transformada Rápida de Fourier, tomando para el cálculo los primeros 512
puntos de la señal. El espectro de potencia es una medida de la potencia a varias
frecuencias, y este puede ser calculado con los siguientes comandos.
>>Pyy = Y .* conj (Y) / 512;
47
Para realizar la gráfica se puede tener en cuenta que la información que aparece
en el arreglo Pyy es por propiedades de la transformada, simétrica con respecto a
la frecuencia media, es decir que si tenemos 512 puntos de muestra, la señal que
esta almacenada en el arreglo es simétrica con respecto a la muestra 256, por lo
tanto dibujar las ultimas 256 muestras del arreglo será completamente
innecesario. De manera que para visualizar el espectro de potencia los comandos
deben ser como se muestran a continuación:
>> f = 1000*(0:256)/512;
>>plot(f,Pyy(1:257))
Para ver todas las muestras y entender la
característica de simetría descrita anteriormente se pueden utilizar los siguientes
comandos:
>> f = 1000*(0:511)/512;
>>plot(f,Pyy)
Del espectro de potencia se puede visualizar que las componentes con mayor
frecuencia se encuentran a los 50 y 120 Hz respectivamente. Comprobando así
que las señales de las cuales se formo la señal contaminada con ruido tienen
estas frecuencias fundamentales.
AHORA OBSERVAREMOS LA DENSIDAD ESPECTRAL DE POTENCIA.
%FUNCTION SPECTRAL DENSITY UNIPOLAR NRZ
A=sqrt(2);
Tb=1.5;
R=1/Tb;
L=2*R;
f=0:L/50:L;
del=0;
P=(A.^2*Tb)/4*(sinc(f*Tb)).^2*(1+(1/Tb)*del);
g=plot(f,P);
title('ESPECTRAL DENSITY: UNIPOLAR NRZ');
holdon;xlabel('Frequency');ylabel('Normalized Power');
axis([0 L 0 1.1*Tb]);set(g,'LineWidth',2.5);
stem(0,(A.^2*Tb)/2,'LineWidth',2.5);hold off;
axis([0 L 0 1.09*Tb]);set(g,'LineWidth',2.5);
48
set(gca,'XTickMode','manual','XTick',[R,2*R]);grid on;
set(gca,'YTickMode','manual','YTick',[0.5*Tb,Tb]);
set(gca,'XTickLabel',{'R =';'2R'})
set(gca,'YTickLabel',{'0.5*Tb';'Tb'})
%FUNCTION SPECTRAL DENSITY POLAR NRZ
A=1;
Tb=1.5;
R=1/Tb;
L=2*R;
f=0:L/50:L;
del=0;
P=(A.^2*Tb)*(sinc(f*Tb)).^2;
g=plot(f,P);hold on;xlabel('Frequency');ylabel('Normalized Power');
title('ESPECTRAL DENSITY: POLAR NRZ')
axis([0 L 0 1.01*Tb]);set(g,'LineWidth',2.5);
set(gca,'XTickMode','manual','XTick',[R,2*R]);grid on;
set(gca,'YTickMode','manual','YTick',[0.5*Tb,Tb]);
set(gca,'XTickLabel',{['R'];['2R']})
set(gca,'YTickLabel',{['0.5*Tb'];['Tb']})
%FUNCTION SPECTRAL DENSITY UNIPOLAR RZ
49
A=2;
Tb=1;
R=1/Tb;
L=2*R;
f=0:L/50:L;
del=0;
P=(A.^2*Tb)/16*(sinc(f*Tb/2)).^2;
g=plot(f,P);
title('ESPECTRAL DENSITY: UNIPOLAR RZ');
holdon;xlabel('Frequency');ylabel('Normalized Power');
axis([0 L 0 1.1*Tb]);set(g,'LineWidth',2.5);
stem([0 R],[(A.^2*Tb)/8 P(26)+0.1],'LineWidth',2.5);hold off;
set(gca,'XTickMode','manual','XTick',[R,2*R]);grid on;
set(gca,'YTickMode','manual','YTick',[0.5*Tb,Tb]);
set(gca,'XTickLabel',{['R'];['2R']})
set(gca,'YTickLabel',{['0.5*Tb'];['Tb']})
%FUNCTION SPECTRAL DENSITY BIPOLAR RZ
A=2;
Tb=1.5;
R=1/Tb;
L=2*R;
f=0:L/50:L;
P=(A.^2*Tb)/8*(sinc(f*Tb/2)).^2.*(1-cos(2*pi*f*Tb));
g=plot(f,P);
title('ESPECTRAL DENSITY: BIPOLAR RZ');
holdon;xlabel('Frequency');ylabel('Normalized Power');
axis([0 L 0 1.1*Tb]);set(g,'LineWidth',2.5);
set(gca,'XTickMode','manual','XTick',[R,2*R]);grid on;
set(gca,'YTickMode','manual','YTick',[0.5*Tb,Tb]);
set(gca,'XTickLabel',{['R'];['2R']})
set(gca,'YTickLabel',{['0.5*Tb'];['Tb']})
50
%FUNCTION SPECTRAL DENSITY MANCHESTER NRZ
A=1;
Tb=1.5;
R=1/Tb;
L=2*R;
f=0:L/50:L;
P=(A.^2*Tb)*(sinc(f*Tb/2)).^2.*(sin(pi*f*Tb/2)).^2;
g=plot(f,P);
title('ESPECTRAL DENSITY: MANCHESTER NRZ');
holdon;xlabel('Frequency');ylabel('Normalized Power');
axis([0 L 0 1.1*Tb]);set(g,'LineWidth',2.5);
set(gca,'XTickMode','manual','XTick',[R,2*R]);grid on;
set(gca,'YTickMode','manual','YTick',[0.5*Tb,Tb]);
set(gca,'XTickLabel',{['R'];['2R']})
set(gca,'YTickLabel',{['0.5*Tb'];['Tb']})
51
CAPITULO XI
PROCESOS DISCRETOS EN EL TIEMPO
11.1 TIEMPO DISCRETO
Cuando el valor de la variable sólo puede cambiar en una serie de momentos
determinados del tiempo (por ejemplo, los sorteos de la lotería tienen lugar en
determinadas fechas).
11.2 VARIABLE DISCRETA
La variable sólo puede tomar determinados valores o estados discretos (los
mercados financieros cotizan sus activos con unos precios que oscilan: de
céntimo de euro en céntimo de euro, o en 1/8 de punto, etc.).
11.3 SIMULACIÓN DE PROCESOS EN TIEMPO DISCRETO
Cuando el modelo de colas es complejo, el método que hemos estado utilizando
hasta ahora (obtener unas ecuaciones y resolverlas) deja de ser válido. Es
entonces cuando se recurre a simular el proceso para tener al menos una visión
aproximada de lo que ocurre. Por supuesto, este procedimiento también es válido
para cualquiera de los sistemas vistos en los capítulos precedentes. Supongamos
que tenemos un modelo GI/G/1 y queremos calcular el tiempo medio de espera
en cola. En una simulación tenemos una lista de tiempos entre llegadas y una lista
de tiempos de servicio generados al iniciarse la simulación de modo que los
únicos instantes de tiempo interesantes (cuándo llega un cliente determinado,
cuándo entra en el servicio y cuándo se va) son ya conocidos. Como entre dos de
estos instantes consecutivos no sucede nada que afecte al sistema, a la hora de
efectuar cálculos, avanzamos en el tiempo de forma discreta saltando de uno de
estos tiempos al siguiente. Por ejemplo, el tiempo de espera del cliente k-ésimo
se obtiene a partir del instante en que llega al servicio y el instante en que el
cliente (k-1)-ésimo sale del sistema. Si hacemos la media de los tiempos de
espera de los primeros 100 clientes, tendremos una aproximación del tiempo de
espera medio en esa cola. El siguiente organigrama muestra cómo implementar
este método en cualquier lenguaje de programación.
52
53
CAPITULO XII
PUNTOS DE POISSON Y RUIDO IMPULSIVO
12.1 RUIDO IMPULSIVO
Puede modelate con un proceso de Poisson.Este proceso tiene una entrada con
este formulario:
z (t) = Σδ (t-ti)porque el proceso es ActiveDs por una Secuencia de impulsos al
azar ocurring ti veces.
Se necesita el conjunto de puntos de TI de Poisson, con λi media y una función
real h (t), entonces usted tiene que el proceso es el siguiente:
w (t) = Σh (t-ti).
Si usted usa el teorema de Campbell's, la media es η ˛ σ = λ ∫ h (t) dt y varianza =
λ ∫ ˛ h (t), donde los límites de la integral es de - ∞ a ∞
12.2 RUIDO BLANCO
Ruido aleatorio que posee la misma densidad espectral de potencia a lo largo de
toda la banda de frecuencias. Dado que la luz blanca es aquella que contiene
todas las frecuencias del espectro visible, el ruido blanco deriva su nombre de
contener también todas las frecuencias.
El ruido blanco es una señal no correlativa, es decir, en el eje del tiempo la señal
toma valores sin ninguna relación unos con otros. Cuando se dice que tiene una
densidad espectral de potencia plana, con un ancho de banda teóricamente
infinito, es que en un gráfica espectral de frecuencia tras haber realizado una
descomposición espectral de Fourier, en el dominio de la frecuencia veríamos
todas las componentes con la misma amplitud, haciendo el efecto de una línea
continua paralela al eje horizontal. Fig 7.
Normalmente se suele emplear como señal de pruebas, aunque en realidad se
prefiere el ruido rosa, dada que su densidad espectral se asemeja mucho más a
la del audio real y cómo percibimos nosotros. Además, dado que en la mayoría de
gráficas el eje horizontal está graduado en octavas con un comportamiento
logarítmico, una medida de ruido blanco la veríamos "ascendente" a 3 dB por
octava, al contrario que el ruido rosa que, en ese caso, sí se ve plano.
54
Fig. 7. Espectro del ruido blanco
55
CAPITULO XIII
PROCESOS CICLO ESTACIONARIOS
13.1 SISTEMAS CERRADOS ESTACIONARIOS
A medida que leemos la descripción del problema, definimos al sistema que se
presenta (en cierto modo subjetivamente) dibujando una frontera imaginaria
alrededor del objeto de interés. Si no hay transferencia de materia a través de tal
frontera, el sistema es cerrado. Para un sistema estacionario la fotografía del
sistema tomada con la cámara de estado permanece congelada incluso si el
sistema intercambia calor y trabajo con sus alrededores. Los problemas que
involucran tales sistemas se denominan Cerrados y Estacionarios.
A primera vista, se podría pensar que ejemplos de tales sistemas son sistemas
triviales que permanecen en el mismo estado imposibilitado de efectuar cualquier
acción. Pero no todos los sistemas cerrados con un estado congelado están
necesariamente impedidos de realizar alguna acción. Por ejemplo, puede haber
una continua transferencia de calor y trabajo con los alrededores. En el caso de
una máquina de calor, un sistema cerrado conceptual operando sobre una base
continua, produce trabajo a expensas del calor, transfiriéndose calor entre el
sistema y dos fuentes térmicas que están a dos temperaturas diferentes. Un
refrigerador o una bomba de calor son dos ejemplos prácticos similares de
sistemas Cerrados y Estacionarios. A medida que los detalles internos de una
máquina de calor o un ciclo de refrigeración (o una bomba de calor) se vuelven
importantes, el análisis global puede basarse en las suposiciones de sistema
cerrado y estacionario.
En general, tales máquinas, refrigeradores o bombas de calor, se implementan
conectando una serie de dispositivos en estado estacionario uno tras otro
formando un bucle, o teniendo un dispositivo cilindro-pistón ejecutando una serie
de procesos (que involucran transferencia de calor o trabajo solamente) formando
un ciclo. Mientras que es fácil de entender que un bucle cerrado de dispositivos
estacionarios pueden formar un sistema estacionario, cabe preguntarse cómo un
sistema ejecutando una secuencia de procesos transientes (no estacionarios)
puede constituir un ciclo estacionario, especialmente cuando los procesos del
sistema pasan drásticamente a través de una serie estados diferentes dentro de
un único ciclo. La repuesta está en promediar el ciclo sobre un tiempo de interés
que sea más largo que el período del ciclo. Si el tiempo de exposición de la
cámara de estado es lo suficientemente grande, la imagen del sistema asumirá un
estado promedio constante validando el supuesto de estado estacionario.
56
IV.
MATERIALES Y MÉTODOS
Dado que el trabajo está referido a la elaboración de un texto y no a una
investigación tipo experimental, este ítem no se considera.
V.
RESULTADOS
Teniendo en consideración los objetivos trazados para la elaboraciónde
este texto, cuales son: reforzar la formación académica de los estudiantes
de estudios superiores y presentar técnicas y estrategias de solución de
problemas deProbabilidades y Procesos Estocásticos en Ingeniería,con
el apoyo de Software especializado como el SPSS V.19,0 bajo la
modalidad Windows, además de otros programas, es queno se ha
escatimado esfuerzo alguno en la redacción de este trabajo. Se han
dedicado muchas horas de trabajo para tratar de abordar los temas con
objetividad, con claridad y sobre todo con simplicidad pero sin pérdida de
nivel. En tal sentido, se espera que resulte un material de consulta que
satisfaga los requerimientos de los estudiantes de ingeniería.
VI.
DISCUSIÓN
El estudio de las Probabilidades y Procesos Estocásticos en Ingeniería es
un campo mucho más amplio en el que se abordó en este texto. Queda
pendiente incluir dentro de este mismo texto, o en otro similar, un estudio
más detallado. Hasta donde se pudo abarcar en este texto quedará para el
conocimiento y aplicación de la investigación de las probabilidades y
procesos estocásticos en ingeniería.
vii
VII.
REFERENCIALES
1. EVANS & ROSENTHAL. Probabilidad y Estadística. La ciencia de la
incertidumbre. Reverté, 2005.
2. GRIMMETT & STIRZAKER.
Probability and Random Processes. Oxford.
1992.
3. GUT, ALLAN. An Intermediate Course in Probability. Springer-Verlag., 1995.
4. GUT, ALLAN. Probability. A graduate course. Springer, 2005.
5. KAI-LAI CHUNG. Teoría elemental de la probabilidad y de los procesos
estocásticos. Reverté.1983.
6. K. S. Shanmugan and A. M. Breipohl, Random Signals: Detection,
Estimation and Analysis, John Wiles and Sons, 1988.
7. Papoulis and S. U. Pillai, Probability, Random Variables and Stochastic
Processes, 4th edition, McGraw-Hill, 2002.
8. STIRZAKER, D. Elementary Probability. Cambridge.1994.
9. Stark and J. W. Woods, Probability and Random Processes with
Applications to Signal Processing , 3rd edition , Prentice Hall, 2001.
10. W.B. Davenport, Jr. and W.L. Root, An Introduction to the Theory of
Random Signals and Noise , McGraw Hill, 1987.
11. W. Feller , An Introduction to Probability Theory and Its Applications,
Volume 1 , 3rd ed., John Wiley and Sons, Inc., New York , 1968.
12. W. Feller, An Introduction to Probability Theory and Its Applications,
Volume 2 , 2nd ed., John Wiley and Sons, Inc., New York , 1971.
viii
VIII.APÉNDICE
ix
IX.
ANEXOS
Comunicaciones Digitales
Trabajo Práctico 1
Señales y sistemas pasabanda.
E.1 Una señal pasabajosx(t) con un ancho de banda W es muestreada a la velocidad de Nyquist y como resultado de esto
se genera la siguiente señal
x1 (t )   (1) n x (nTs ) (t  nTs )
:
1)Encontrar la transformada de Fourier de x1(t).
2)Se puede reconstruir x(t) de x1(t) usando un LTI ? Por que?
3)Se puede reconstruir x(t) de x1(t) utilizando un sistema lineal variante en el tiempo ? Como?
E.2 Una señal pasabajosx(t) de ancho de banda W es muestreada a intervalos de tiempo Ts y los valores obtenidos se
indican como x(nTs) . Una nueva señal x1(t) es generada mediante una interpolación lineal de los valores muestreados, es
decir:
x1 (t )  x (nTs ) 
t  nTs
( x ((n  1)Ts )  x (nTs ))
Ts
paranTs t  (n+1) Ts
1)Encontrar el espectro de potencia de x1(t).
2)Bajoque condiciones puede la señal original se reconstruida de la señal muestreada y cual es el filtro de reconstrucción
requerido?
E.3 Una señal pasabajosx(t) tiene un transformada de Fourier como lo indica la siguiente figura:
Esta señal es aplicada al siguiente sistema:
x
Los bloques marcados por H representan transformadores de Hilbert y se asume que W<< f0.
Determinar las señales xi(t) para 1 i7 y graficar Xi(t) para las mismas condiciones.
E.4 demostrar que la transformada de Hilbert de
j 2f t
e j 2f 0t es igual a  j. sgn( f 0 )e 0 .
E.5. Una señal pasabandax(t)=sinc.t.cos(2f0t) es pasada a través de un filtro pasabanda con respuesta impulsiva
2
h(t)=sinc (t).sin(2f0t). Usando los modelos equivalentes pasabajos para la señal y el filtro encontrar el equivalente
pasabajos para la salida y desde esta señal encontrar la salida y(t).
2
E.6 Dadas las siguientes señales pasabandas , m(t)= sinc (t) y x(t) = m(t)cos(2f0t)-m^(t)sin(2f0t).
1)Encontrar la preenvolvente z(t) y la señal pasabajo equivalente de a x(t).
2)Determinar y graficar la transformada de Fourier de x(t). Cual es el ancho de banda de x(t)?
3)Repetir el inciso anterior para x(t) = m(t)cos(2f0t)-m^(t)sin(2f0t).
SimulacionesMatlab
S.1. Determinar y graficar el espectro de magnitud de una señal par x(t) la cual para valores positivos
de t esta dada por:
x(t) =
t+1
0t1
2
1t2
-t+4 2  t  4
0
para cualquier otro valor
Determinar los resultados en forma analítica y comparar los resultados
S.2 La señal descrita en el problema anterior se pasa a través de un sistema LTI con una respuesta
impulsiva
h(t) =
1
0t2
2
2t3
0
para otro valor
Determinar el espectro de magnitud y fase de la señal de salida.
S.3 Dada la siguiente señal :
cos(2
*47 t) + cos(2*219 t) para
0t10
x(t) =
0
para otro valor
Asumir que la señal esta muestreada a 1000 muestras por segundo . Usando la función butter.m que
proveeMatlab para diseñar un filtro Butterworth
diseñar uno de orden 4 con frecuencia de corte
xi
100Hz y pase la señal x(t) a través del mismo. Graficar el espectro de potencia de salida . Realizar los
mismos pasos que el inciso anterior pero con un filtro de orden 8.
S.4 Realizar los mismo que en el ejercicio anterior pero con un filtro pasa altos y de la misma
frecuencia de corte
Procesos Estocásticos y Ruido
E1. Dado Z=X+Y donde X e Y son variables aleatorias independientes demostrar que: Z(s)=X(s)Y(s). . es la
función característica de X y es definida como la transformada de Laplace de fx(x) evaluada a x=-s.
E2. Demostrar que para la siguiente función de densidad de probabilidad Raleigh
x
2

e
x2
2 2
para x > 0
fx(x) =
0
Como dato se tiene E[X]= 

2
para otro


y VAR[X]=  2 
 2

2
E.3 Dadas las variables aleatorias X e Y con sus respectivas p.d.f.
 e  x
para x > 0
fx(x)=
0
para otro x
 e  x
para x > 0
0
para otro x
fY(y)=
donde y  son constantes positivas , encontrar la p.d.f. de X + Y y tratar el caso especial de = por
separado.
E.4 Dos variables aleatorias X e Y están distribuidas de la siguiente manera:
Ke  x  y
f X,Y (x,y)
para x 0 , y 0
=
0
para otro x e y
Encontrar:
1) El valor de la constante K
xii
2) Las funciones de densidad marginal de X e Y
3) Si X e Y son independientes
4) fX/Y(x/y)
5) E[X/Y=y]
6) COV[X,Y]
E.5 Dado un vector aleatorio X=(X1,X2,X3, ....Xn) con distribución conjunta Gaussiana , media m y matriz covarianza C .
t
Definir un nuevo vector aleatorio Y=AX + b ,dondeY es un vector aleatorio n-dimensional y A y b matrices constantes.
Usando el hecho de que funciones lineales de variables aleatorias conjuntamente Gaussianas son conjuntamente
Gaussianas encontrar la media y covarianza de Y.
E.6 Dos variables aleatorias X e Y son conjuntamente Gaussianas con:
media
covarianzaC=
m=[1 2]
 4  4
 4 9 


1)Encontrar los coeficientes de correlación entre X e Y
2)Si Z=2X +Y y W=X-2Y encontrar la COV(X,Y)
3)Encontrar la función densidad de probabilidad (p.d.f.) de Z
E.7 Dos variables aleatorias X e Y están distribuidas acorde a:
K

e

x2  y 2
2
six.y 0
fX,Y(x,y)=
0
si x.y< 0
Encontrar:
1)K
2)Demostrar que X e Y son variables aleatorias Gaussianas
3)Demostrar que X e Y no son conjuntamente Gaussianas
4)¿Son X e Y independientes ?
5)¿Están X e Y decorrelacionadas ?
6) fx/y(x/y) y determinar si es Gaussiana
E.8Cual de las siguientes funciones puede ser una función autocorrelación de un proceso aleatorio y
porque ?
1)f() = sin (2.f0.)
2
2)f() = 
1- ||
||  1
1+||
|| > 1
3)f()=
4)f() como la siguiente figura :
xiii
E.9.Un proceso aleatorio Z(t) toma valores 0,1. La transición de 0 a 1 y de 1 a 0 ocurre aleatoriamente
y la probabilidad de tener n transiciones en un intervalo de tiempo  , (>0 ) esta dada por la siguiente
ecuación
1
p N (n) 
1  
  


 1   
n
, para n=0,1,2,.....
donde> 0 es una constante. Se asume que en el tiempo t=0 , Z(0) es equiprobable la ocurrencia de
0 o 1.
1)EncontrarmZ(t)
2)Encontrar RZ(t +  , t ). Determinar si es estacionario. Determinar si es cicloestacionario.
3)Determinar la densidad de potencia espectral
E.10 Si un proceso aleatorio estacionario X(t) con función autocorrelación RX() es aplicado a un
sistema LTI con repuesta impulsiva h(t), la salida Y(t) es también un proceso aleatorio estacionario con
funciónautocorrelación
RY() =RX()
h()
h(-)
1)Si el proceso X(t) es un proceso aleatorio cicloestacionario y se aplica a un sistema LTI con respuesta
impulsiva h(t) demostrar que el proceso de salida también es cicloestacionario.
2
2)Verificar que la relación SY(f) =SX(f) |H(f)| se cumple para procesos estacionarios así como también
paracicloestacionarios
E.11 Encontrar la densidad de potencia espectral para los siguientes procesos:
1) X(t)=A.cos(2..fo.t + ), donde A es una constante y  es una variable aleatoria uniformemente
distribuida en [0 ,

4
].
2)X(t) = X + Y donde X e Y son independientes, X es uniforme en [-1, 1] e Y es uniforme en [ 0,1].
E.12 Dado Y(t) = X(t) + N(t) donde X(t) y N(t) son respectivamente los procesos señal y ruido. Se
asume que X(t) y N(t) son conjuntamente estacionarios con funciones auto correlación RX() y RN() y
función correlación cruzada RXN(). Se desea separar la señal del ruido pasando Y(t) a través de un
sistema LTI con respuesta impulsiva h(t) y función transferencia H(f) . El proceso de salida se indica
como X'(t) y se desea que su valor sea tan cercano a X(t) como sea posible
1) Encontrar la correlación cruzada entre X'(t) y X(t) en terminaos de h() , RX(), RN() y RXN() .
2
2)Demostrar que el sistema LTI que minimiza E[X(t)- X'(t)] tiene la siguiente función transferencia:
H( f ) 
S X ( f )  S XN ( f )
S X ( f )  S N ( f )  2 ReS XN ( f )
3) Ahora asuma que X(t) y N(t) son independientes y N(t) es un proceso gaussiano con media cero y
densidad de potencia espectral N0/2 .Encontrar la función transferencia H(f) optima para bajo esas
2
condiciones. Cual es el valor de E[X(t)- X'(t)] en este caso.
4)En el caso especial de SN(f) =1 , SX(f) =
1
1 f
2
y SXN(f)= 0 encontrar la función transferencia H(f)
optima.
E.13 Demostrar que el espectro de potencia cruzada (cross- powerspectrum) de la siguiente figura
xiv
esta dado por
SWU ( j )  H ( j ).G * ( j ).S XY ( j )
E.14 Para una cadena homogénea de Markov la relación de la evolución de la probabilidad de los
estados con respecto al tiempo esta determinada por
p k 1 ( j ) 
 p( j / i) p
i
k
probabilidad de estar en el estado i en el tiempo k.
Hacer la transformada Z en ambos lados de (1) y verificar que
Pj ( z )  p0 ( j ) 
(i )
,(1) , donde
 p( j / i) z
1
i
p k (i )
es la
Pi ( z ) (2)

donde Pj ( z )
  pk ( j ) z k
, si hay N estados la ecuación (2) da N ecuaciones con N incógnitas Pj(z).
k 0
E.15 Demostrar que la media del primer tiempo de transito (firstpassagetime ) en una cadena de
Markov es
fN  

QN ( z )
z
z 1
SimulacionesMatlab
S.1 Generar una secuencia de 1000 muestras de un proceso Gauss-Markov descrito por la siguiente
relación recursiva Xn= Xn-1 + Wn
para n =1,2,.....,1000
donde X0=0 , =0.9 y {Wn} es una secuencia con media cero y varianza unidad.
S.2 Generar una secuencia discreta de N=1000 muestras aleatorias uniformemente distribuidas con
media cero y varianza unidad en el intervalo -1/2 y 1/2 y computar la auto-correlación de la secuencia
{Xn} definida como:
R x (m) 
1 N m
 X n X nm ,
N  m n 1
para m=0,1,2,....M
y
Rx (m) 
N
1
 X n X n m ,
N  | m | n|m|
para m=-1,-2,....-M
También determine el espectro de potencia de la secuencia {Xn} computando la transformada discreta
de Fourier (DFT) de RX(m) la cual es eficientemente computada utilizando el algoritmo FFT (Fast
Fourier Transform ) definido como:
SX ( f ) 
M
R
m M
X
( m)e  j 2fm /( 2 M 1)
S.3 Generar una secuencia {Xn} de N=1000 valores aleatorios uniformemente distribuidos en el
intervalo [-1/2 , 1/2]. Pasar esta secuencia a través de un filtro con respuesta impulsiva:
xv
n
(0.95)
para n  0
0
para n  0
h(n)=
La ecuación recursiva que describe la salida de este filtro como una función de la entrada esta dada por:
para n  0 y-1= 0
yn=0.95.yn-1 + xn
Computar las funciones auto-correlación xn(m) y Ry(m) de las secuencias {xn} e {yn} y sus correspondientes espectros de
potencia Sx(f) y Sy(f) usando las siguientes ecuaciones :
1 N m
R x (m) 
 X n X nm ,
N  m n 1
SX ( f ) 
M
R
m M
X
( m)e  j 2fm /( 2 M 1)
S.4 Generar dos secuencias {CN} y {SN} de N=1000 valores aleatorios uniformemente distribuidos en el intervalo [-1/2,
1/2]. Cada una de las secuencias es pasada a través de un filtro lineal con respuesta impulsiva
n
(1/2)
para n  0
h(n)=
0
para n < 0
la relación entrada salida de este filtro esta determinada por la siguiente ecuación recursiva:
xn=1/2.xn-1 + N
para n1 y x0 = 0
Obtener dos secuencias {xCN} y {xSN} pasando las secuencias  a través del filtro. Con la secuencia de salida {xCN}
modular una portadora cos(/2)n y con la secuencia {xSN} modular una portadora en cuadratura sin(/2)n . Generar una
señal pasabanda combinando las componentes obtenidas.
Computar y graficar la auto-correlación de las secuencias {xSN} y {xCN} para |m| 10 . Computar la auto-correlación de la
señal pasabanda para |m|  10. Utilizar DFt o FFT para computar el espectro de potencia de SC(f) , SS(f) y SX(f) . Graficar
dichos espectros y comentar los resultados .
xvi
Descargar