Sistemas de comunicación Práctico 6 Teorı́a de la Información Cada ejercicio comienza con un sı́mbolo el cuál indica su dificultad de acuerdo a la siguiente escala: ✦ básica, ★ media, ✷ avanzada, y ✹ difı́cil. Además puede tener un número, como 3.1-4 que indica el número de ejercicio del libro del curso, Communication Systems, 3th. edition. Bruce A. Carlson. ✦ Ejercicio 1 Un teclado numérico tiene los números 0, 1, 2 . . . 9. Se asume que cada tecla es utilizada en forma equiprobable. Calcule con qué cadencia deben ser oprimidas las mismas para generar un flujo de información de 2 bit/s. ✦ Ejercicio 2 (15.1-2) De un mazo de 52 cartas se elige una al azar. (a) Hallar la información en bits que se tiene cuando se conoce que la carta es: de corazones una figura una figura de corazones (b) Cuánta información se necesita para identificar la carta si, se sabe que es roja. ✦ Ejercicio 3 (15.1-8) Calcular la tasa de información de una fuente telegráfica que utiliza dos sı́mbolos, el punto y la raya. El punto tiene una duración de 0.2s. La raya tiene el doble de duración pero es la mitad de probable. ✦ Ejercicio 4 Para una fuente binaria: (a) Mostrar que la entropı́a, H, es máxima cuando la probabilidad de enviar un 1 es igual a la probabilidad de enviar un 0. (b) Hallar el valor máximo de la entropı́a. 1 ★ Ejercicio 5 Se tiene una fuente S con sı́mbolos {s1 , s2 , . . . , s6 }, con probabilidades 0.4, 0.3, 0.1, 0.1, 0.06 y 0.04 respectivamente. (a) Hallar la entropı́a de la fuente. (b) Considerar una codificación binaria con largo de palabra fijo. Indicar el mı́nimo largo de palabra para que la codificación sea adecuada. (c) Considerar una codificación de Huffman. Calcular el largo medio del código obtenido. ✦ Ejercicio 6 Considerar un canal con la propiedad de que xi y yj son estadı́sticamente independientes para todo i, j. Mostrar que H(X|Y ) = H(X) y I(X, Y ) = 0 ★ Ejercicio 7 Canal Binario Simétrico. Considerar el modelo de un canal binario simétrico, representado en la figura: x1 1-alfa y1 alfa alfa x2 y2 1-alfa donde: P (x1 ) = p y P (y1 |x2 ) = P (y2 |x1 ) = α. (a) Calcular la información mutua en función de p y α (b) Discutir qué valores toma α cuando la potencia del ruido es muy pequeña o muy grande. ★ Ejercicio 8 Obtener analı́ticamente las caracterı́sticas de la figura siguiente, correspondiente a un canal analógico de ancho de banda B, contaminado con ruido blanco gaussiano aditivo, de densidad espectral de potencia G(f ) = η/2. 2 20 S/hR, dB 15 10 R=C 5 R>C 0 -1.6 dB 0.1 0.2 0.5 1 2 5 10 20 B/R ★ Ejercicio 9 (15.3-11) Un ingeniero dice haber diseñado un sistema de comunicación analógico que permite obtener: (S/N )D = 60dB cuando SR /(ηBT ) = 5dB y BT = 10W , donde BT es el ancho de banda del canal usado y W es el ancho de banda de la señal a transmitir. ¿Usted le creerı́a? ¿Por qué? ★ Ejercicio 10 Se pretende transmitir imágenes de televisión digital a partir de una fuente que genera una matriz de 480 × 500 elementos de imagen (pixels), donde cada pixel puede tomar 32 valores de intensidad. Suponga que se generan 30 imágenes por segundo. (Esta fuente de imágenes digitales es similar a los estándares adoptados para TV digital.) Todos los pixels se consideran independientes, y los niveles de intensidad equiprobables. (a) Hallar la velocidad de transferencia de información R(bit/s). (b) Suponer que la imagen de TV se transmitirá por un canal de 4, 5M Hz de ancho de banda con una relación señal a ruido de 35dB. Hallar la capacidad del canal (bit/s). (4, 5M Hz es el ancho de banda utilizado para transmitir una imagen de TV analógica.) (c) Discutir cómo pueden ser modificados los parámetros de la parte (a) para permitir la transmisión de TV color sin incrementar el valor requerido de R. (Nota: en TV cromática se debe enviar información de luminancia y cromas; la luminacia es una señal que lleva la información de brillo y las cromas son dos señales que llevan la información de color.) 3 Solución Ejercicio 1 La tasa de sı́mbolos r se relaciona con la entropı́a H y con la tasa de información R según la expresión: R = rH La probabilidad de cada una de las teclas es : P (T ecla) = entropı́a de la fuente S={0,1,2, ... 9} es: H(S) = X p(xi )log2 xi S 1 10 . Por lo que la X 1 1 = log2 10 = log2 10 bits/simb p(xi ) 10 xi S Despejando r se tiene: r= 2 bits/seg R = = 0, 6 simb/seg H log2 10 bits/simb Ejercicio 2 (a) de corazones La probabilidad de una carta de corazones es mación es I(corazones) = log2 4 = 2 bits. 13 52 = 1 4, entonces la infor- una figura La probabiidad de una figura es I(f igura) = log2 13 3 = 2, 1154 bits. 12 52 = 3 13 , entonces la información es una figura de corazones 3 La probabidad de una figura de corazones es 52 , entonces la información 52 es I(f igura de corazones) = log2 3 = 4, 1154 bits. (b) La información que se tiene al identificar la carta es log2 (52) bits. De esta informacion sólo se conoce que la carta es roja y como P (roja) = 21 , la información que se tiene es I = log2 2 = 1 bit. Por tanto, la información que resta para conocer la carta es I(carta)−I(roja) = log2 (52) − 1 = log2 (26) bits. Otra forma de resolver el problema es considerando la probabilidad de la carta 1 . De esta manera llegamos conociendo que es roja, es decir P (carta/roja) = 26 1 al mismo resultado I = log2 P (carta/roja) = log2 (26) bits Ejercicio 3 La cadencia media de sı́mbolos esta dada por: r= seg 2 0, 2 simb .3 1 30 simb seg 1 = 8 seg + 0, 4 simb . 3 4 La entropı́a es: H= 2 3 1 bits log2 + log2 3 = 0, 9183 3 2 3 simb Por tanto, R = r.H = 3, 44 bits seg Ejercicio 4 (a) Sea p la probabilidad de enviar un uno. La probabilidad de enviar un 0 será entonces 1 − p, y la entropı́a queda planteada de la siguiente forma: H(p) = p.log 1 1 + (1 − p).log p 1−p Para saber cuándo es máxima sólo falta derivar respecto a p: H ′ = log 1 p2 1 1−p 1−p − log = log − + (1 − p). p p2 1−p (1 − p)2 p En el máximo se debe cumplir H ′ = 0 log Tenemos que 1−p p 1−p =0 p = 1 y entonces: p= 1 2 Falta verificar que efectivamente es un máximo (H ′′ < 0): H ′′ (p) = p −p − (1 − p) −1 . = = −4 1−p p2 (1 − p)p (b) 1 1 bits bit H( ) = 2. .log2 = log2 2 =1 2 2 simb simb Ejercicio 5 (a) H(S) = P1 log2 s11 + P2 log2 P6 log2 s16 = 2.1435 bits/sı́mbolo. (b) 1 s2 + P3 log2 1 s3 + P4 log2 1 s4 + P5 log2 1 s5 + El mı́nimo largo de palabra de código para codificar 6 sı́mbolos es 3 bits. (c) Considerando la extensión que se muestra en el cuadro 1, el largo de código resulta: L = 1 × 0.4 + 2 × 0.3 + 3 × 0.1 + 4 × 0.1 + 5 × 0.06 + 5 × 0.04 = 2.2 bits/sı́mbolo. Nótese que con este código se llega muy cerca de la entropı́a de la fuente. Además, aunque la extensión no es única, el largo no depende de la extensión elegida. 5 Fuente original Sı́mbolos Prob. Código s1 0.4 1 s2 0.3 00 s3 0.1 011 s4 0.1 0100 s5 0.06 01010* s6 0.04 01011* 0.4 0.3 0.1 0.1 *0.1 S1 1 0 011 0100⋆ 0101⋆ Fuente reducida S2 S3 0.4 1 0.4 1 0.3 00 ⋄0.3 00◦ ⋆0.2 010⋄ 0.3 01◦ 0.1 011⋄ S4 ◦0.6 0 0.4 1 Cuadro 1: Sı́ntesis de un código de Huffman. Ejercicio 6 Aplicando la definición: H(X|Y ) = X P (xi , yj ).log2 X,Y 1 P (xi |yj ) Como xi y yj son independientesse cumple queP (xi , yj ) = P (xi ).P (yj ) y que P (xi |yj ) = P (xi ), por lo que: H(X|Y ) = XX Y P (xi )P (yj ).log2 X X X 1 1 = P (yj ) P (xi ).log2 P (xi ) P (xi ) Y H(X|Y ) = X P (xi ).log2 X X 1 = H(X) P (xi ) Para la segunda parte, aplicando la definición: I(X, Y ) = X P (xi , yj ).log2 X,Y I(X, Y ) = X P (xi )P (yj ).log2 P (xi |yj ) P (xi ) X X P (xi ) = P (xi )P (yj ).0 = 0=0 P (xi ) X,Y X,Y X,Y Ejercicio 7 (a) I(X, Y ) = X P (xi , yj ).log2 X P (yj /xi ) P (xi , yj ) = P (xi , yj ).log2 P (xi )P (yj ) P (yj ) X,Y X,Y P (y1 ) = P (x1 )P (y1 /x1 ) + P (x2 )P (y1 /x2 ) = p(1 − α) + (1 − p)α P (y2 ) = P (x1 )P (y2 /x1 ) + P (x2 )P (y2 /x2 ) = pα + (1 − p)(1 − α) I(X, Y ) = P (x1 )P (y1 /x1 ).log2 ...P (x1 )P (y2 /x1 ).log2 P (y1 /x1 ) P (y1 /x2 ) + P (x2 )P (y1 /x2 ).log2 + ... P (y1 ) P (y1 ) P (y2 /x1 ) P (y2 /x2 ) + P (x2 )P (y2 /x2 ).log2 P (y2 ) P (y2 ) 6 Sustituyendo queda: I(p, α) = p(1−α).log2 ...pα.log2 (1 − α) α +(1−p)α.log2 +... p(1 − α) + (1 − p)α p(1 − α) + (1 − p)α 1−α α + (1 − p)(1 − α).log2 pα + (1 − p)(1 − α) pα + (1 − p)(1 − α) (b) Si la potencia del ruido es muy grande, se tiene igual probabilidad de recibir y1 o y2 (el ruido hace que lo recibido sea aleatorio e independiente de la entrada). Por lo que en este caso α toma valores cercanos a 21 . Si la potencia del ruido es muy pequeña, entonces cuando se envı́a un sı́mbolo (por ej x1 ), siempre se recibe el mismo sı́mbolo en la recepción ya sea y1 o y2 . En este caso α toma un valor cercano a 0 o a 1. Ejercicio 8 La ley de Hartley-Shannon nos dice que: C = B log2 (SN RR + 1) donde C es la capacidad del canal, B es el ancho de banda del canal y SN RR es la relación señal a ruido en la recepción. Si consideramos que la tasa de transferencia de información es igual a la capacidad R = C, tenemos que: R = log2 (SN RR + 1) B S donde SN RR = ηB = SR Despejando ηR de : S R ηR B R S R = log2 ( + 1) B ηR B Llegamos a la expresión graficada: R S B = (2 B − 1) ηR R Ejercicio 9 Si el ancho de banda del mensaje es W y la relación señal a ruido en detección es SN RD = 106 , la tasa de transferencia de información es: R = W log10 (106 + 1) = W.6, 00 hartleys/seg Por otro lado, la capacidad del canal esta dada por: C = B log10 (SN R + 1) C = 10W log10 (100.5 + 1) = W 6, 19 hartleys/seg El sistema es factible. Podemos decir que cumple con las limitantes conocidas de las predicciones teóricas. 7 Ejercicio 10 (a) La velocidad de transferencia de información es: R=5 (b) pixel cuadro M bit bit × 480 × 500 × 30 = 36 pixel cuadro seg seg La capacidad de un canal analógico es: C = B log2 (SN RR + 1) = 4, 5 M Hz log2 (103,5 + 1) = 52, 32 M bit seg Por lo que este ancho de banda serı́a suficiente para enviar TV blanco y negro con 32 niveles por pixel. (c) Los sistemas de compresión de video digitales utilizan la propiedad del ojo de tener una cpacidad de resolución espacial del color mucho más baja que del nivel del brillo. Ası́, se manda información de color para bloques de pixeles, por ejemplo de 2x2. En nuestro caso, una forma razonable de enviar imágenes color serı́a enviar 4 bits/pixel en vez de 5 de información de brillo. Ası́ se gana 1 bit por pixel para el color, por lo que si se elige tomar bloques de 2x2, se dispone de 4 bits para mandar la informacion de color. Esto nos darı́a una gama 16 colores, que es muy poco, por lo que serı́a más razonable mandar información de color para cada bloque de 3x3, perdiendo mas resolución espacial en el color, pero disponiendo de 29 (512) colores diferentes. 8