Subido por Antoine El Jawiche

Problemas teoria de informacion

Anuncio
PROBLEMAS TEORIA DE INFORMACION Y CODIFICACIÓN ENTRÓPICA
PROBLEMA 1 (tomado del Taub & Schilling):
Una señal analógica, de ancho de banda B, es muestreada a frecuencia de Nyquist (2B) y
cuantificada con 4 niveles (M=4) independientes. Suponga que los 4 niveles ocurren con
las siguientes probabilidades P(N1)=P(N2)=1/8 y P(N3)=P(N4)=3/8. Determine la tasa de
información de esta fuente.
Primero se calcula H=p(N1)log(1/ p(N1))+ p(N2)log(1/ p(N2))+ p(N3)log(1/ p(N3))+
p(N4)log(1/ p(N4))=1.8 bits
Entonces la tasa de información será
R=2B*H=3.6 B bits/seg.
Observe que si los niveles de cuantificación fuesen igualmente probables entonces H=2 bit
y R=4B bits/segundo lo cual es mejor.
PROBLEMA 2:
Compare la información que se recibe si, en un alfabeto de 4 mensajes se recibe la
secuencia m1,m2,m3,m4 a) Si estos son equiprobables o b) si tienen las siguientes
probabilidades: m1; P(m1)=0.5; m2; P(m2)=0.3; m3; P(m3)=0.15; m4; P(m4)=0.05
Solución:
a) Si todos fuesen equiprobables P(m1)= P(m2)= P(m3)= P(m4)=1/4, la información
de uno de los mensajes sería 2 bits, número necesario para representarlo. Para 4
mensajes seguidos se obtendría 8 bits.
b) Si no son equiprobables
I(m1)=log2(1/P(m1))=3.32log10(1/P(m1))=0.99
I(m2)=log2(1/P(m2))=3.32log10(1/P(m2))=1.73
I(m3)=log2(1/P(m3))=3.32log10(1/P(m3))=2.73
I(m4)=log2(1/P(m4))=3.32log10(1/P(m4))=4.31
Si llegasen estos 4 mensajes uno tras otro(m1m2m3m4), asumiendo independencia, la
información total de este nuevo mensaje sería igual a 9.76 bits.
PROBLEMA 3: Tomado de un problema del Lathi y otro del Carlson
Compare la cantidad de información de una imagen de 8 niveles de grises de 500 x 500
pixels con la de 1000 palabras, asumiendo un vocabulario de 100000 palabras igualmente
probables.
Solución:
Para el caso de las imágenes existen (8)
500 x 500
= (8) 250000 imágenes diferentes
Suponiendo equiprobabilidad,cada imagen tiene una probabilidad de
p=
1
(8)
250000
Por lo tanto la Información
I = log 2 (8) 250000 = 750000 " bits
Para el caso de las palabras
Cada palabra del alfabeto tiene una probabilidad de 10-5.
La información de una sola palabra es entonces
3.32log10(1/P)=3.32 log10(105)=3.32x5=16,6 bits
Al transmitir 1000 palabras la información total será entonces de
16600 bits
Mucho menos que la de 1 imagen....
PROBLEMA 4: Una imagen tiene 300000 pixels y cada uno puede tener 10 niveles de
grises. Determine la tasa de información si se transmiten 30 imágenes por segundo.
Utilizando las mismas herramientas que en el problema anterior, la información de cada
imagen es de 996000 bits; por lo tanto
R=(30)(996000)= 29,9 Mbps
PROBLEMA 5: Qué velocidad se puede alcanzar en un canal telefónico de 3,4KHz de
ancho de banda si la relación señal a ruido es de 30 dB?
S⎤
⎡
C = B log ⎢1 + ⎥
⎣ N⎦
C=3400 log2 (1001)=3400(3,32)log(1001)=33864 bps
PROBLEMA 6: Propuesto en el Haykin. Determine el ancho de banda requerido para
transmitir una imagen como las del tipo definido en el problema 4 si se transmiten 30
imágenes por segundo cuando la relación señal a ruido es 30 dB
I= log2(10300000)=300000log2(10)=3,32x 300000=996000 bits
Si se transmiten 30 cuadros por segundo, determine la tasa de información
R=(30)(996000)= 29,9 Mbps=C
Para S/N= 30 dB, es decir S/N=1000, entonces B=C/log2(1001)=
29,9 x106/3,32(log(1001))= 3 MHz
El ancho de banda requerido es de 3 MHz
PROBLEMA 7: (tomado de un ejercicio propuesto del Carlson) Si tu profesor de
Comunicaciones II te dice que tu nota final no es 5, suponiendo que todas las notas del 1 al
5 son equiprobables, cuanta información te está transmitiendo?? Cuanta mas información
necesitas para conocer tu nota??
P( no 5)=4/5, por lo tanto I=log (5/4)=0.322 bits
En cambio para 1 nota especifica
P(nota especifica)=1/5 ;esto implica que I=log5=2.322 bits
De tal forma que se necesita
I= 2.322-0.322= 2 bits
PROBLEMA8: (tomado de un ejercicio propuesto del Carlson) Determine la entropía de
una fuente que tiene 6 símbolos con las siguientes probabilidades:
P(A)=0.5; P(B)=0.25;P(C)=0.125; P(D)=P(E)=1/20; P(F)=1/40
Encuentre la cantidad de información contenida en los siguientes mensajes: ABABBA y
FDDFDF
1
1
1
1
1
1
+ 2x + 3x +
(2x ln 20 +
ln 40) = 1.94bits
2
4
8 ln 2
20
40
= 6H(X) = 11.64
H(X) = 1x
L esperada
3
3
⎛1⎞ ⎛1⎞
⎛1⎞
P(ABABBA) = ⎜ ⎟ ⎜ ⎟ = ⎜ ⎟
⎝ 2⎠ ⎝ 4⎠
⎝ 2⎠
9
I = log 2 9 = 9bits < 11.64)
3
3
1
⎛ 1 ⎞ ⎛ 1 ⎞
P(FDDFDF) = ⎜ ⎟ ⎜ ⎟ =
⎝ 40 ⎠ ⎝ 20 ⎠
512 x10 6
I = 28.93 > 11.64
PROBLEMA 9: (tomado de un ejercicio propuesto del Carlson)
Una cierta fuente tiene 16 símbolos equiprobables cada uno dura 1 mseg. Los símbolos se
transmiten en bloques de 15 separados por espacios de 5 mseg. Encuentre la tasa de
información de esta fuente.
Existen 1615 bloques diferentes por lo tanto H(X)=log 1615 =60 bits/bloque a una velocidad
o tasa de1/(15+5) msegundos= 50 bloques/segundo
Por lo tanto R=60x 50= 3000 bits/segundos
PROBLEMA10: (tomado de un ejercicio propuesto del Carlson) Considere una fuente que
tiene 6 símbolos con las siguientes probabilidades:
P(A)=0.4; P(B)=0.2;P(C)=0.12; P(D)=P(E)=0.1; P(F)=0.08
Demuestre que existen dos posibles códigos Shannon-Fano y determine la eficiencia del
mejor.
Uno puede colocar el primer límite entre A y B o entre B y C
Poniéndolo entre A y B resulta el código I
Poniéndolo entre B y C el código II
La entropía de la fuente es:
La longitud promedio del código 1 es 2.38
La longitud promedio del código II es 2.4
η1=H/L1=2.32/2.38=0,9747
η2=H/L2=2.32/2.4=0,9666
El mejor es el código 1
PROBLEMA 11( tomado de los propuestos del Haykin)
Un proceso aleatorio gaussiano de media cero y varianza unitaria es pasado por un
cuantificador de 4 niveles que asigna salidas de -1.5 cuando la entrada es menor que -1,
asigna-0.5 si la entrada está entre -1 y 0 volt, asigna 0.5 si la entrada está entre 0 y 1 volt y
finalmente asigna 1.5 v si la entrada es mayor que 1. Determine la entropía de la salida.
Solución:
Como son 4 símbolos hay que calcular primero la probabilidad de que ocurran cada uno de
ellos P(-1.5)=P(1.5)=Q(1)=0.159
P(0.5)=P(-0.5)=0.5- Q(1)=0.341
H=2(0.159 log2 (1/0.159) +0.309 log2 (1/0.341))=
-2(0.159x 3.32 log10 (0.159) +0.341x3.32 log10 (0.341))= 1,9 bits
PROBLEMA12( tomado de los problemas propuestos del Haykin)
Determine cual de los siguientes códigos cumplen con la regla del prefijo. Para ellos
construya el árbol del decodificador. Verifique para cada uno si se cumple la desigualdad
de Kraft.
Símbolos
Código 1 Código 2
Código 3
Código 4
m0
0
0
0
00
m1
10
01
01
01
m2
110
001
011
10
m3
1110
0010
110
110
m4
1111
0011
111
111
Solución: Solo los códigos 1 y 4 cumplen la regla del prefijo
Por otra parte la desigualdad de Kraft establece que
N
∑2
− li
≤1
i =1
Para el código 1
0.5+0.25+0.125+0.125=1 CUMPLE
Para el código 2
0.5+0.25+0.125+0.125=1 CUMPLE
Para el código 3
0.5+0.25+0.125+0.125+0.125= 1.125 NO CUMPLE
Para el código 4
0.25+0.25+0.25+0.125+0.125=1 CUMPLE
De esto ya se podía desechar el código 3.
Los árboles serían
PROBLEMA13
Observe el siguiente alfabeto, las probabilidades de cada símbolo, la forma de agrupar los
niveles mas bajos y llevarlos a los mas altos, y la codificación Huffman que resulta
Escriba el código resultante para cada símbolo y determine la eficiencia de este código.
Explique los resultados.
m0
0.25
10
m1
0.25
11
m2
0.125
001
m3
m4
0.125
0.125
010
011
m5
m6
0.0625
0.0625
0000
0001
Si se determina la entropía y la longitud promedio resultarán iguales a 2.625. La eficiencia
será igual a 100%. Esto ocurre porque para cada símbolo la longitud es igual a log2 (1/p).
PROBLEMA14.- (tomado de los ejercicios propuestos del Carlson) La entropía conjunta de
una fuente discreta está definida como:
H ( X, Y ) =
1
∑ P( x i y j ) log P( x
x,y
iy j)
Demostrar que H(X,Y)=H(Y)+H(X/Y)
Solución:
Como:
P( x i y j ) = P( x i / y j )P( y j )
∑ P( x i y j ) =P( y j )
x
Por lo tanto:
H ( X, Y ) =
∑ P( x i y j ) log P( x
x,y
1
∑ P( x i y j ) log P( y
x,y
j)
+
i
1
=
/ y j ) P( y j )
∑ P( x i y j ) log P( x
x,y
1
= H (Y) + H(X / Y)
/
y
)
i
j
Descargar