Introducción a la Teorı́a de la Información Segundo Parcial 27 de abril de 2015 Problema 1 (4 puntos) Sea X una variable aleatoria que toma cinco posibles valores {x1 , x2 , x3 , x4 , x5 }. Considerar dos distribuciones p(x) y q(x) para X, p(x) q(x) x1 1/2 x2 1/4 x3 1/8 x4 1/16 x5 1/16 1/2 1/8 1/8 1/8 1/8 1. Calcular H(p), H(q), D(p||q) y D(q||p). 2. Hallar un código óptimo para cada una de las distribuciones, Cp (x) y Cq (x). 3. Asumir que se codifica con Cq cuando la distribución es p. ¿Cuál es el largo medio correspondiente Lp (Cq )? 4. ¿En cuánto excede a la entropı́a (Lp (Cq ) − H(p))? Relacionar la diferencia Lp (Cq ) − H(p) con los términos calculados en la parte 1. Solución: 1.1) H(p) = 15/8, H(q) = 2, D(p||q) = 1/8, D(qp) = 1/8 (Notar que en este caso la diferencia es simétrica, cosa que no siempre sucede) 1.2) Cnstruyendo el árbol de Huffman: x1 x2 x3 x4 x5 : 1/2 → : 1/4 → : 1/8 → : 1/16 → : 1/16 % 1/2 1/4 1/8 1/8 → 1/2 → 1/2 → 1 → 1/4 → 1/2 % → 1/4 % % 1 Un posible código se obtiene asignando el sı́mbolo 0 a las aristas de arriba y 1 a las de abajo: X x1 x2 x3 x4 x5 cp (X) 0 10 110 1110 1111 `p (X) 1 2 3 4 4 Haciendo lo mismo con q(·) se llega a X x1 x2 x3 x4 x5 cq (X) 0 110 111 100 101 `q (X) 1 3 3 3 3 1.3) P El largo medio según p, Lp (Cq ) = i pi `q (xi ) = 2. 1.4) La diferencia es 2 − 15/8 = 1/8. En este caso, por ser ambas distribuciones distribuciones diádicas, dicha diferncia coincide exactamente con D(p||q) (el desarrollo de abajo no era necesario, pero se incluye para hacer esto más ilustrativo): D(p||q) = i pi log(pi /qi ) = i pi [log pi − log qi ] P P = i pi log pi − pi log qi P P = − i pi `p (xi ) + pi `q (xi ) = −Lp (Cp ) + Lp (Cq ) = Lp (Cq ) − H(p) P P Problema 2 (4 puntos) Una variable aleatoria X que toma m posibles valores tiene entropı́a H2 (X) en bits. Se encuentra un código instantáneo ternario para X con largo medio L= H2 (X) = H3 (X). log2 3 1. Mostrar que cada sı́mbolo xi con i ∈ {1, . . . , m} tiene probabilidad de la forma p(xi ) = 3−k para un cierto k. 2. Mostrar que m es impar. 2 Solución: 2.1) Dado que se cumple la igualdad L = H3 , del teorema de Shannon se desprende que los largos de código ideales `∗i = log3 pi , i = 1, . . . , m son enteros ki , por lo cual pi = 3−ki , ki = `i . 2.2) P `máx −`i = 3`máx . De la desigualdad de Kraft tenemos que m i=1 3 ` Claramente 3 máx es impar para `máx > 0, por lo tanto el lado izquierdo de la igualdad también lo es. A su vez, éste es una suma de términos todos impares, que sólo puede ser impar si la cantidad de términos, es decir m es impar. Problema 3 (4 puntos) Sean X1 . . . Xn variables aleatorias i.i.d., Xi ∼ p(x), H = H(Xi ). Para el conjunto tı́pico de secuencias n o −n(H+) A(n) ≤ p(x1 . . . xn ) ≤ 2−n(H−) , = x 1 . . . xn : 2 probar que (n) 1. P {A } > 1 − , para n suficientemente grande, (n) 2. |A | ≤ 2n(H+) . Solución: 3.1) (n) n o P {A } = P x1 . . . xn : 2−n(H+) ≤ p(x1 . . . xn ) ≤ 2−n(H−) = P {−n(H + ) ≤ − log p(x1 , x2 , . . . , xn ) ≤ −n(H − )} P = P {−n(H + ) ≤ − ni=1 log p(xo i ) ≤ −n(H − )} n −1 Pn =P | n i=1 log p(xi ) − H| ≤ ≤1− donde la tercera igualdad es porque el proceso es i.i.d., y la quinta por la ley de los grandes números aplicada a E[− log p(X)]. 3 3.2) 1 ≥ xn ∈A(n) p(xn ) P ≥ xn ∈A(n) 2−n(H+e) P (n) = |A |2−n(H+e) (n) y la desigualdad sale multiplicando A a ambos lados. El segundo paso sale de la definición de tipicalidad de xn . Problema 4 (3 puntos) 1. Calcular la información mutua entre ambos lados de una moneda equilibrada. 2. Probar que I(X; f (Y )) ≤ I(X; Y ), para cualquier par de variables aleatorias X, Y y función f . Qué condición en f () garantiza la igualdad? Solución: 4.1) Sean X e Y las variables aleatorias que indican si sale cara (X = 1, Y = 0) o cruz (Y = 1 , X = 0). La entropı́a de ambas para una moneda equilibrada es h(1/2) = 1 bit. Dado que X e Y son determinadas una a la otra, H(Y |X) = H(X|Y ) = 0 y su información mutua es 1 bit. 4.2) El resultado sale de aplicar la desigualdad de la información a la cadena de Markov X → Y → f (Y ). Para garantizar la igualdad, f () debe ser una función biyectiva. 4