TEORÍA DE LA INFORMACIÓN Y CODIFICACIÓN – CÓDIGOS CANTIDAD DE INFORMACIÓN. ENTROPÍA. ENTROPÍA CONDICIONADA. CANTIDAD DE INFORMACIÓN ENTRE DOS VARIABLES. LÍMITE DE NYQUIST. LÍMITE DE SHANNON. CONSECUENCIAS DE LOS LÍMITES. TIPOS DE ERRORES. DETECCIÓN DE ERRORES. INTRODUCCIÓN A CÓDIGOS. CÓDIGOS DETECTORES DE ERRORES. DISTANCIA HAMMING Y DESCODIFICACIÓN POR DISTANCIA MÍNIMA. CÓDIGOS PERFECTOS. CÓDIGOS LINEALES. MATRICES GENERATRICES Y MATRICES DE CONTROL - CÓDIGOS CORRECTORES. CÓDIGO DE HAMMING. CÓDIGO DE GOLAY. CÓDIGO DE REED-MULLER. TEORÍA DE LA INFORMACIÓN - CÓDIGOS 1 CANTIDAD DE INFORMACIÓN TEORÍA DE LA INFORMACIÓN - CÓDIGOS 2 CANTIDAD DE INFORMACIÓN LA CANTIDAD DE INFORMACIÓN ES UNA MEDIDA DE LA DISMINUCIÓN DE INCERTIDUMBRE ACERCA DE UN SUCESO: EJ.: SI SE NOS DICE QUE EL NÚMERO QUE HA SALIDO EN UN DADO ES MENOR QUE DOS, SE NOS DA MÁS INFORMACIÓN QUE SI SE NOS DICE QUE EL NÚMERO QUE HA SALIDO ES PAR. LA CANTIDAD DE INFORMACIÓN QUE SE OBTIENE AL CONOCER UN HECHO ES DIRECTAMENTE PROPORCIONAL AL NÚMERO POSIBLE DE ESTADOS QUE ESTE TENÍA A PRIORI: SI INICIALMENTE SE TENÍAN DIEZ POSIBILIDADES, CONOCER EL HECHO PROPORCIONA MÁS INFORMACIÓN QUE SI INICIALMENTE SE TUVIERAN DOS. EJ.: SUPONE MAYOR INFORMACIÓN CONOCER LOS NÚMEROS GANADORES DEL PRÓXIMO SORTEO DE LA LOTERÍA, QUE SABER SI UNA MONEDA LANZADA AL AIRE VA A CAER CON LA CARA O LA CRUZ HACIA ARRIBA. TEORÍA DE LA INFORMACIÓN - CÓDIGOS 3 CANTIDAD DE INFORMACIÓN LA CANTIDAD DE INFORMACIÓN ES PROPORCIONAL A LA PROBABILIDAD DE UN SUCESO: SE CONSIDERA LA DISMINUCIÓN DE INCERTIDUMBRE PROPORCIONAL AL AUMENTO DE CERTEZA. SI LA PROBABILIDAD DE UN ESTADO FUERA 1 (MÁXIMA): LA CANTIDAD DE INFORMACIÓN QUE APORTA SERÍA 0. SI LA PROBABILIDAD SE ACERCARA A 0: LA CANTIDAD DE INFORMACIÓN TENDERÁ A INFINITO: UN SUCESO QUE NO PUEDE SUCEDER APORTARÁ UNA CANTIDAD INFITA DE INFORMACIÓN SI LLEGARA A OCURRIR. LA CANTIDAD I DE INFORMACIÓN CONTENIDA EN UN MENSAJE, ES UN VALOR MATEMÁTICO MEDIBLE REFERIDO A LA PROBABILIDAD p DE QUE UNA INFORMACIÓN EN EL MENSAJE SEA RECIBIDA, ENTENDIENDO QUE EL VALOR MÁS ALTO SE LE ASIGNA AL MENSAJE MENOS PROBABLE. SEGÚN SHANNON: TEORÍA DE LA INFORMACIÓN - CÓDIGOS 4 CANTIDAD DE INFORMACIÓN EJ.: SE ARROJA UNA MONEDA AL AIRE; SE DEBE CALCULAR LA CANTIDAD DE INFORMACIÓN CONTENIDA EN LOS MENSAJES CARA O CRUZ SEPARADAMENTE: I = log2 [(1/(1/2)] = log2 2 = 1. I MANIFIESTA LA CANTIDAD DE SÍMBOLOS POSIBLES QUE REPRESENTAN EL MENSAJE. SI SE LANZARA UNA MONEDA TRES VECES SEGUIDAS, LOS OCHO RESULTADOS (O MENSAJES) EQUIPROBABLES PUEDEN SER: 000, 001, 010, 011, 100, 101, 110, 111. LA p DE CADA MENSAJE ES DE 1/8, Y SU CANTIDAD DE INFORMACIÓN ES: I = log2 [1/(1/8)] = 3. TEORÍA DE LA INFORMACIÓN - CÓDIGOS 5 CANTIDAD DE INFORMACIÓN LA I DE LOS MENSAJES ES IGUAL A LA CANTIDAD DE BITS DE CADA MENSAJE. UNA NOTACIÓN SIMILAR ES LA SIGUIENTE. SE EMPLEA UNA VARIABLE ALEATORIA V PARA REPRESENTAR LOS POSIBLES SUCESOS QUE SE PUEDEN ENCONTRAR: EL SUCESO i-ÉSIMO SE DENOTA COMO xi. P(xi) SERÁ LA PROBABILIDAD ASOCIADA A DICHO SUCESO. n SERÁ EL NÚMERO DE SUCESOS POSIBLES. LA CANTIDAD DE INFORMACIÓN SERÁ: TEORÍA DE LA INFORMACIÓN - CÓDIGOS 6 ENTROPÍA TEORÍA DE LA INFORMACIÓN - CÓDIGOS 7 ENTROPÍA LA SUMA PONDERADA DE LAS CANTIDADES DE INFORMACIÓN DE TODOS LOS POSIBLES ESTADOS DE UNA VARIABLE ALEATORIA V ES: LA MAGNITUD H(V) SE CONOCE COMO LA ENTROPÍA DE LA VARIABLE ALEATORIA V . SUS PROPIEDADES SON LAS SIGUIENTES: TEORÍA DE LA INFORMACIÓN - CÓDIGOS 8 ENTROPÍA LA ENTROPÍA ES PROPORCIONAL A LA LONGITUD MEDIA DE LOS MENSAJES QUE SE NECESITARÁ PARA CODIFICAR UNA SERIE DE VALORES DE V: DE MANERA ÓPTIMA DADO UN ALFABETO CUALQUIERA. ESTO SIGNIFICA QUE CUANTO MÁS PROBABLE SEA UN VALOR INDIVIDUAL, APORTARÁ MENOS INFORMACIÓN CUANDO APAREZCA: SE PODRÁ CODIFICAR EMPLEANDO UN MENSAJE MÁS CORTO. SI P(xi) = 1 NO SE NECESITARÍA NINGÚN MENSAJE: SE SABE DE ANTEMANO QUE V VA A TOMAR EL VALOR xi. SI P(xi) = 0,9 PARECE MÁS LÓGICO EMPLEAR: MENSAJES CORTOS PARA REPRESENTAR EL SUCESO xi. MENSAJES LARGOS PARA LOS xj RESTANTES: EL VALOR QUE MÁS APARECERÁ EN UNA SECUENCIA DE SUCESOS ES PRECISAMENTE xi. TEORÍA DE LA INFORMACIÓN - CÓDIGOS 9 ENTROPÍA EJEMPLOS: ENTROPÍA DE LA VARIABLE ALEATORIA ASOCIADA A LANZAR UNA MONEDA AL AIRE: H(M) = -(0,5 log2 (0,5) + 0,5 log2 (0,5)) = 1. EL SUCESO APORTA EXACTAMENTE UNA UNIDAD DE INFORMACIÓN. SI LA MONEDA ESTÁ TRUCADA (60% DE PROBABILIDADES PARA CARA, 40% PARA CRUZ), SE TIENE: H(M) = -(0,6 log2 (0,6) + 0,4 log2 (0,4)) = 0,970. LA CANTIDAD DE INFORMACIÓN ASOCIADA AL SUCESO MÁS SIMPLE: CONSTA UNICAMENTE DE DOS POSIBILIDADES EQUIPROBABLES (CASO DE LA MONEDA SIN TRUCAR). SERÁ LA UNIDAD A LA HORA DE MEDIR ESTA MAGNITUD, Y SE DENOMINARÁ BIT. TEORÍA DE LA INFORMACIÓN - CÓDIGOS 10 ENTROPÍA SE EMPLEAN LOGARITMOS BASE 2 PARA QUE LA CANTIDAD DE INFORMACIÓN DEL SUCESO MÁS SIMPLE SEA IGUAL A 1. LA ENTROPÍA DE UNA VARIABLE ALEATORIA ES EL NÚMERO MEDIO DE BITS QUE SE NECESITARÁN PARA CODIFICAR C/U DE LOS ESTADOS DE LA VARIABLE: SE SUPONE QUE SE EXPRESA C/ SUCESO EMPLEANDO UN MENSAJE ESCRITO EN UN ALFABETO BINARIO. SI SE QUIERE REPRESENTAR LOS DIEZ DÍGITOS DECIMALES USANDO SECUENCIAS DE BITS: CON 3 BITS NO ES SUFICIENTE, SE NECESITA MÁS. SI SE USAN 4 BITS TAL VEZ SEA DEMASIADO. LA ENTROPÍA DE 10 SUCESOS EQUIPROBABLES ES: TEORÍA DE LA INFORMACIÓN - CÓDIGOS 11 ENTROPÍA EL VALOR CALCULADO ES EL LÍMITE TEÓRICO, QUE NORMALMENTE NO SE PUEDE ALCANZAR. SE PUEDE DECIR QUE NO EXISTE NINGUNA CODIFICACIÓN QUE EMPLEE LONGITUDES PROMEDIO DE MENSAJE INFERIORES AL NÚMERO CALCULADO. EL MÉTODO DE HUFFMAN PERMITE OBTENER CODIFICACIONES BINARIAS QUE SE APROXIMAN BASTANTE AL ÓPTIMO TEÓRICO DE UNA FORMA SENCILLA Y EFICIENTE. TEORÍA DE LA INFORMACIÓN - CÓDIGOS 12 ENTROPÍA LA ENTROPÍA H DE UN SISTEMA DE TRANSMISIÓN ES IGUAL A LA CANTIDAD DE INFORMACIÓN MEDIA DE SUS MENSAJES, ES DECIR: H = Imed. SI EN UN CONJUNTO DE MENSAJES SUS PROBABILIDADES SON IGUALES, LA ENTROPÍA TOTAL SERÁ: H = log2 N. N ES EL NÚMERO DE MENSAJES POSIBLES EN EL CONJUNTO. EJ.: SE TRANSMITEN MENSAJES BASADOS EN UN ABECEDARIO. ¿CUÁL SERÁ LA ENTROPÍA?: SE SUPONE QUE LAS COMBINACIONES SON ALEATORIAS Y LOS MENSAJES SON EQUIPROBABLES. LA CANTIDAD DE LETRAS ES 26. LA CANTIDAD DE SIGNOS DE PUNTUACIÓN ES 5. LA CANTIDAD DE SIGNOS ESPECIALES ES 1 (ESPACIO EN BLANCO). LA CANTIDAD TOTAL DE SÍMBOLOS ES ENTONCES 32. TEORÍA DE LA INFORMACIÓN - CÓDIGOS 13 ENTROPÍA LA ENTROPÍA SERÁ: H = log2 32 = 5. DESDE LA ÓPTICA BINARIA ESTO SIGNIFICA QUE SE NECESITAN 5 BITS PARA CODIFICAR CADA SÍMBOLO: 00000, 00001, 00010, 11111, ETC.: ESTE RESULTADO COINCIDE CON LA RECÍPROCA DE LA PROBABILIDAD p. LA ENTROPÍA: INDICA LA RECÍPROCA DE LA PROBABILIDAD DE OCURRENCIA. PERMITE VER LA CANTIDAD DE BITS NECESARIOS PARA REPRESENTAR EL MENSAJE QUE SE VA A TRANSMITIR. TEORÍA DE LA INFORMACIÓN - CÓDIGOS 14 ENTROPÍA CONDICIONADA TEORÍA DE LA INFORMACIÓN - CÓDIGOS 15 ENTROPÍA CONDICIONADA SE SUPONE QUE TENEMOS UNA VARIABLE ALEATORIA BIDIMENSIONAL (X,Y). LAS DISTRIBUCIONES DE PROBABILIDAD MÁS USUALES QUE SE PUEDEN DEFINIR SOBRE DICHA VARIABLE, TENIENDO n POSIBLES CASOS PARA X Y m PARA Y SON: DISTRIBUCIÓN CONJUNTA DE (X, Y): DISTRIBUCIONES MARGINALES DE X E Y: TEORÍA DE LA INFORMACIÓN - CÓDIGOS 16 ENTROPÍA CONDICIONADA DISTRIBUCIONES CONDICIONALES DE X SOBRE Y Y VICEVERSA: SE DEFINE LA ENTROPÍA DE LAS DISTRIBUCIONES COMO SIGUE: TEORÍA DE LA INFORMACIÓN - CÓDIGOS 17 ENTROPÍA CONDICIONADA HACIENDO LA SUMA PONDERADA DE LOS H(X/Y = yj) SE OBTIENE LA EXPRESIÓN DE LA ENTROPÍA CONDICIONADA DE X SOBRE Y: SE DEFINE LA LEY DE ENTROPÍAS TOTALES: SI X E Y SON VARIABLES INDEPENDIENTES: TEORÍA DE LA INFORMACIÓN - CÓDIGOS 18 CANTIDAD DE INFORMACIÓN ENTRE DOS VARIABLES TEORÍA DE LA INFORMACIÓN - CÓDIGOS 19 CANTIDAD DE INFORMACIÓN ENTRE DOS VARIABLES TEOREMA DE DISMINUCIÓN DE LA ENTROPÍA: LA ENTROPÍA DE UNA VARIABLE X CONDICIONADA POR OTRA Y ES MENOR O IGUAL A LA ENTROPÍA DE X: LA IGUALDAD SE DA SI Y SÓLO SI LAS VARIABLES X E Y SON INDEPENDIENTES. IDEA INTUITIVA: CONOCER ALGO ACERCA DE LA VARIABLE Y PUEDE QUE AYUDE A SABER MÁS SOBRE X (ES UNA REDUCCIÓN DE SU ENTROPÍA). EN NINGÚN CASO PODRÁ HACER QUE AUMENTE LA INCERTIDUMBRE. SHANNON PROPUSO UNA MEDIDA PARA LA CANTIDAD DE INFORMACIÓN QUE APORTA SOBRE UNA VARIABLE EL CONOCIMIENTO DE OTRA. TEORÍA DE LA INFORMACIÓN - CÓDIGOS 20 CANTIDAD DE INFORMACIÓN ENTRE DOS VARIABLES SE DEFINE LA CANTIDAD DE INFORMACIÓN DE SHANNON QUE LA VARIABLE X CONTIENE SOBRE Y COMO: SIGNIFICA QUE LA CANTIDAD DE INFORMACIÓN QUE APORTA EL HECHO DE CONOCER X AL MEDIR LA INCERTIDUMBRE SOBRE Y ES IGUAL A LA DISMINUCIÓN DE ENTROPÍA QUE ESTE CONOCIMIENTO CONLLEVA. SUS PROPIEDADES SON LAS SIGUIENTES: TEORÍA DE LA INFORMACIÓN - CÓDIGOS 21 LÍMITE DE NYQUIST TEORÍA DE LA INFORMACIÓN - CÓDIGOS 22 LÍMITE DE NYQUIST NYQUIST DEMOSTRÓ LA EXISTENCIA DE UNA FRECUENCIA DE MUESTREO LLAMADA FRECUENCIA DE NYQUIST, IGUAL CUANTO MÁS AL DOBLE DE LA FRECUENCIA NATURAL DE ENTRADA (LA FRECUENCIA DE LA SEÑAL QUE SE VA A MUESTREAR). NYQUIST SOSTIENE QUE SI SE HACE UN MUESTREO CON UNA FRECUENCIA SUPERIOR AL DOBLE: LA INFORMACIÓN RECUPERADA ES “REDUNDANTE”. ESTO SE DEBE INTERPRETAR COMO QUE LA CANTIDAD DE INFORMACIÓN OBTENIDA AL RECUPERAR UN MENSAJE QUE SE HA MUESTREADO A UNA FRECUENCIA MAYOR QUE EL DOBLE DE LA NATURAL: NO DIFIERE DE LA OBTENIDA CUANDO SE MUESTREA A UNA FRECUENCIA DEL DOBLE DE LA NATURAL. TEORÍA DE LA INFORMACIÓN - CÓDIGOS 23 LÍMITE DE NYQUIST FN ES LA FRECUENCIA DE NYQUIST: FN = 2 f. UTILIZANDO EL PASABANDA PARA LOS CANALES DE INFORMACIÓN: FN ≤ 2 ΔF. NYQUIST ESTABLECIÓ QUE: SI LOS CANALES SON SIN RUIDO. SI LAS SEÑALES SON BINARIAS CON UNA TRANSMISIÓN MONONIVEL. LA FN COINCIDE CON LA MÁXIMA VELOCIDAD BINARIA: BPS ≤ 2 ΔF. ESTO ES UN LÍMITE FÍSICO. TEORÍA DE LA INFORMACIÓN - CÓDIGOS 24 LÍMITE DE NYQUIST ES POSIBLE SUPERAR ESTE MÁXIMO SI LA TRANSMISIÓN ES MULTINIVEL: POR C/ INSTANTE DE MUESTREO SE TRANSMITIRÁ UN SÍMBOLO QUE CONTIENE MÁS DE DOS BITS Y POR LO TANTO I > 1: BPS ≤ 2 ΔF log2 m. m ES LA CANTIDAD DE NIVELES DE LA MODULACIÓN. ASÍ SE RELACIONA LA MÁXIMA VELOCIDAD BINARIA CON EL ANCHO DE BANDA, LA CANTIDAD DE NIVELES Y LA ENTROPÍA. A ESTA VELOCIDAD BINARIA SE LA DENOMINA LÍMITE DE NYQUIST: BPS = 2 ΔF H. TEORÍA DE LA INFORMACIÓN - CÓDIGOS 25 LÍMITE DE NYQUIST EJ.: EN UN CANAL DE TRANSMISIÓN SE USA UNA MODULACIÓN 64QAM Y ES DEL TIPO “CANAL DE VOZ”. ¿CUÁL SERÁ EL LÍMITE DE NYQUIST?: MODULACIÓN 64QAM: 64 NIVELES DE MODULACIÓN. CANAL DE VOZ: 4 KHZ DE PASABANDA. BPS = 2 ΔF H = 2 x 4 x log2 64 = 8 x 6 = 48 KBPS. NOTA: COMO LA FRECUENCIA ESTÁ EN KHZ, BPS ESTÁ EN KBPS. EL LÍMITE ES VÁLIDO EN CANALES SIN RUIDO. TEORÍA DE LA INFORMACIÓN - CÓDIGOS 26 LÍMITE DE SHANNON TEORÍA DE LA INFORMACIÓN - CÓDIGOS 27 LÍMITE DE SHANNON UN CANAL NO IDEAL ES CONSIDERADO POR SHANNON COMO RUIDOSO. EJ.: RUIDO BASE EQUIPARTIDO EXISTENTE EN LOS CANALES DE COBRE USADOS COMO CANALES DE VOZ: COINCIDE EN GENERAL CON EL VALOR DE RUIDO TÉRMICO O LO SUPERA. TEORÍA DE LA INFORMACIÓN - CÓDIGOS 28 LÍMITE DE SHANNON SEGÚN SHANNON EN ESTOS CANALES EXISTE UNA RELACIÓN ENTRE: LA CANTIDAD MÁXIMA DE NIVELES QUE EL CANAL PUEDE ADMITIR. LA RELACIÓN SEÑAL-A-RUIDO DEL MISMO, QUE ESTÁ DADO POR: mmax = (1 + S/N)½. m ES LA CANTIDAD DE NIVELES. S Y N SON LOS VALORES DE POTENCIA DE SEÑAL Y DE POTENCIA DEL RUIDO EXPRESADOS EN UNIDADES DE POTENCIA. S/N ES LA RELACIÓN SEÑAL A RUIDO ADIMENSIONAL: NO ES LA MEDIDA DECIBÉLICA DE LA GANANCIA O LA PÉRDIDA. TEORÍA DE LA INFORMACIÓN - CÓDIGOS 29 LÍMITE DE SHANNON EL CANAL DEBERÁ ESTAR SUJETO A RUIDO GAUSSIANO LIMITADO EN BANDA: NO SE CONSIDERA LA PRESENCIA DE RUIDO IMPULSIVO. SE BUSCA LA CAPACIDAD MÁXIMA DEL CANAL: SE DEBE MAXIMIZAR m EN EL LÍMITE DE NYQUIST: mmax = (1 + S/N) ½. BPS ≤ 2 ΔF log2 m. BPS = 2 ΔF log2 (1 + S/N)½. SIMPLIFICANDO LA ECUACIÓN ANTERIOR, SE OBTIENE LA MÁXIMA VELOCIDAD DE TRANSMISIÓN EN FUNCIÓN DEL ANCHO DE BANDA, LA POTENCIA DE LA SEÑAL Y LA DEL RUIDO GAUSSIANO: BPS = ΔF log2 (1 + S/N). ES EL LLAMAMOS LÍMITE DE SHANNON DADO POR LA LEY DE SHANNON-HARTLEY. TEORÍA DE LA INFORMACIÓN - CÓDIGOS 30 CONSECUENCIAS DE LOS LÍMITES TEORÍA DE LA INFORMACIÓN - CÓDIGOS 31 CONSECUENCIAS DE LOS LÍMITES SE DEBE TENER PRESENTE LO SIGUIENTE: EN EL CÁLCULO DEL LÍMITE INTERVIENE LA RELACIÓN DE LAS RESPECTIVAS POTENCIAS EN UNIDADES DE POTENCIA: S/N ES ADIMENSIONAL, ES DECIR EN VECES. NO ES LA GANANCIA DEL CIRCUITO NI LA PÉRDIDA DEL MEDIO. EN EL CANAL SE CONSIDERA EL RUIDO GAUSSIANO. LA SOLA APLICACIÓN DE LA LEY DE SHANNON: NO PERMITE DETERMINAR LA MÁXIMA VELOCIDAD DE UN MODULADOR CUALQUIERA EN UN CANAL REAL. SI PERMITE DETERMINAR LA MÁXIMA CAPACIDAD DEL CANAL. TEORÍA DE LA INFORMACIÓN - CÓDIGOS 32 CONSECUENCIAS DE LOS LÍMITES EJ.: SI UN CANAL TIENE UN ANCHO DE BANDA DE 2,7 KHZ Y LA RELACIÓN ENTRE SEÑAL Y RUIDO ES S/N = 1000: ¿CUÁL SERÁ EL LÍMITE DE SHANNON?. ¿CUÁNTOS ESTADOS DEBERÁ MANEJAR EL MODULADOR?. BPS = ΔF log2 (1 + S/N) = 2700 log2 (1001) = 26900. SEGÚN EL LÍMITE DE NYQUIST: BPS = 2 ΔF log2 m = 2 x 2700 x log2 m = 26900 BPS. SE REQUERIRÁ AL MENOS UN MODULADOR DE 32 ESTADOS PARA ALCANZAR ESA TASA DE BITS EN UN CANAL CON ESE ANCHO DE BANDA. EL LÍMITE DE SHANNON IMPACTA SOBRE LAS TÉCNICAS DE MODULACIÓN Y DE TRANSMISIÓN. TEORÍA DE LA INFORMACIÓN - CÓDIGOS 33 CONSECUENCIAS DE LOS LÍMITES ACTUALMENTE LAS REDES PÚBLICAS DE VOZ TIENEN UN VALOR TÍPICO S/N DE 35 dB: UNA IMPORTANTE DIFICULTAD PARA MEJORAR ESTE VALOR ES EL RUIDO DE CUANTIFICACIÓN. EFECTO DEL RUIDO DE CUANTIZACIÓN: TEORÍA DE LA INFORMACIÓN - CÓDIGOS 34 CONSECUENCIAS DE LOS LÍMITES EL RUIDO DE CUANTIZACIÓN Nq O ERROR DE CUANTIZACIÓN: SE PRODUCE EN EL CODEC, A LA ENTRADA DE LA RED DIGITAL DESDE LA RED ANALÓGICA. ES PROPORCIONAL A LA DIFERENCIA ENTRE EL VALOR DE LA AMPLITUD EN LA ENTRADA Y EL VALOR DE LA AMPLITUD A LA SALIDA DEL CUANTIFICADOR. ES PRODUCTO DE LA NECESIDAD DE ENCAMINAR LAS SEÑALES ANALÓGICAS DE ÚLTIMA MILLA HACIA LAS REDES CONMUTADAS DIGITALES. SE CONOCE EL VALOR EN dB INDICADO DE 35 Db: dB = 10 log10 (S/N). EXPRESANDO S/N EN MODO ADIMENSIONAL EN FUNCIÓN DE Db: S/N = 10dB/10. TEORÍA DE LA INFORMACIÓN - CÓDIGOS 35 CONSECUENCIAS DE LOS LÍMITES SUSTITUYENDO ESTE VALOR EN LA ECUACIÓN DEL LÍMITE DE SHANNON: bps = ΔF log2 (1 + 10dB/10). LA MÁXIMA VELOCIDAD EN BPS, SE LOGRA MULTIPLICANDO EL ANCHO DE BANDA DEL CANAL POR EL log2 DE UNO MÁS DIEZ A LA DÉCIMA PARTE DE LOS DECIBELES DE LA RED. PARA UNA RED CON UN ANCHO DE BANDA ESTÁNDAR DE 3 KHZ, SE OBSERVA QUE: SI LA RED TIENE UNA RELACIÓN DE 35 DB: BPS = 34.822 (34 KBPS). SI LA RED EN CAMBIO MEJORA A 40 DB: BPS = 39.839 (38,9 KBPS). TEORÍA DE LA INFORMACIÓN - CÓDIGOS 36 TIPOS DE ERRORES TEORÍA DE LA INFORMACIÓN - CÓDIGOS 37 TIPOS DE ERRORES EN LOS SISTEMAS DE TRANSMISIÓN DIGITAL SE DICE QUE HA HABIDO UN ERROR CUANDO SE ALTERA UN BIT. EXISTEN DOS TIPOS DE ERRORES: ERRORES AISLADOS: ALTERAN A UN SOLO BIT. ERRORES A RÁFAGAS. HA HABIDO UNA RÁFAGA DE LONGITUD B CUANDO SE RECIBE UNA SECUENCIA DE B BITS EN LA QUE SON ERRÓNEOS: • EL PRIMERO. • EL ÚLTIMO. • Y CUALQUIER NÚMERO DE BITS INTERMEDIOS. TEORÍA DE LA INFORMACIÓN - CÓDIGOS 38 TIPOS DE ERRORES LA NORMA IEEE 100 DEFINE UNA RÁFAGA DE ERRORES COMO: • GRUPO DE BITS EN EL QUE DOS BITS ERRÓNEOS CUALQUIERA ESTARÁN SIEMPRE SEPARADOS POR MENOS DE UN NÚMERO X DE BITS CORRECTOS. • EL ÚLTIMO BIT ERRÓNEO EN UNA RÁFAGA Y EL PRIMER BIT ERRÓNEO DE LA SIGUIENTE ESTARÁN SEPARADOS POR AL MENOS X BITS CORRECTOS. EN UNA RÁFAGA DE ERRORES HABRÁ UN CONJUNTO DE BITS CON UN NÚMERO DADO DE ERRORES: NO NECESARIAMENTE TODOS LOS BITS EN EL CONJUNTO SERÁN ERRÓNEOS. UN ERROR AISLADO SE PUEDE DAR EN PRESENCIA DE RUIDO BLANCO, CUANDO CUALQUIER DETERIORO ALEATORIO EN LA RELACIÓN SEÑAL-RUIDO CONFUNDA AL RECEPTOR EN UN ÚNICO BIT. TEORÍA DE LA INFORMACIÓN - CÓDIGOS 39 TIPOS DE ERRORES GENERALMENTE LAS RÁFAGAS SON MÁS FRECUENTES Y MÁS DIFÍCILES DE TRATAR: PUEDEN ESTAR CAUSADAS POR RUIDO IMPULSIVO. EN LA COMUNICACIÓN MÓVIL OTRA CAUSA PARA LAS RÁFAGAS SON LOS DESVANECIMIENTOS. LOS EFECTOS DE UNA RÁFAGA SERÁN SIEMPRE MAYORES CUANTO MAYOR SEA LA VELOCIDAD DE TRANSMISIÓN. EJ.: UN RUIDO IMPULSIVO O UN DESVANECIMIENTO DE 1 µs CAUSARÁ UNA RÁFAGA DE: 10 BITS A UNA VELOCIDAD DE TRANSMISIÓN DE 10 MBPS. 100 BITS A 100 MBPS. TEORÍA DE LA INFORMACIÓN - CÓDIGOS 40 DETECCIÓN DE ERRORES TEORÍA DE LA INFORMACIÓN - CÓDIGOS 41 DETECCIÓN DE ERRORES EN TODO SISTEMA DE TRANSMISIÓN HABRÁ RUIDO: DARÁ LUGAR A ERRORES QUE MODIFICARÁN UNO O VARIOS BITS DE LA TRAMA. SE CONSIDERA TRAMA A UNA O VARIAS SECUENCIAS CONTIGUAS DE BITS. SE CONSIDERAN LAS SIGUIENTES DEFINICIONES DE PROBABILIDADES PARA LOS POSIBLES ERRORES DE TRANSMISIÓN: Pb: PROBABILIDAD DE QUE UN BIT RECIBIDO SEA ERRÓNEO: TASA DE ERROR POR BIT: BER: BIT ERROR RATE. P1: PROBABILIDAD DE QUE UNA TRAMA LLEGUE SIN ERRORES. P2: PROBABILIDAD DE QUE UTILIZANDO UN ALGORITMO PARA LA DETECCIÓN DE ERRORES, UNA TRAMA LLEGUE CON UNO O MÁS ERRORES NO DETECTADOS. P3: PROBABILIDAD DE QUE UTILIZANDO UN ALGORITMO PARA LA DETECCIÓN DE ERRORES, UNA TRAMA LLEGUE CON UNO O MÁS ERRORES DETECTADOS Y SIN ERRORES INDETECTADOS. TEORÍA DE LA INFORMACIÓN - CÓDIGOS 42 DETECCIÓN DE ERRORES SI NO SE TOMAN MEDIDAS PARA DETECTAR ERRORES: LA PROBABILIDAD DE ERRORES DETECTADOS: P3 = 0. SE SUPONE QUE TODOS LOS BITS TIENEN UNA PROBABILIDAD DE ERROR (Pb) CONSTANTE E INDEPENDIENTE: P1 = (1 - Pb)F. P2 = (1 – P1). F: NÚMERO DE BITS POR TRAMA. LA PROBABILIDAD DE QUE UNA TRAMA LLEGUE SIN NINGÚN BIT ERRÓNEO DISMINUYE AL AUMENTAR LA PROBABILIDAD DE QUE UN BIT SEA ERRÓNEO. LA PROBABILIDAD DE QUE UNA TRAMA LLEGUE SIN ERRORES DISMINUYE AL AUMENTAR LA LONGITUD DE LA MISMA. TEORÍA DE LA INFORMACIÓN - CÓDIGOS 43 DETECCIÓN DE ERRORES EJ.: UN OBJETIVO EN LAS CONEXIONES RDSI ES QUE LA BER EN UN CANAL DE 64 KBPS DEBE SER MENOR QUE 10-6 PARA POR LO MENOS EL 90% DE LOS INTERVALOS OBSERVADOS DE 1 MINUTO DE DURACIÓN: SI LOS REQUISITOS SON MENOS EXIGENTES: EN EL MEJOR DE LOS CASOS, UNA TRAMA CON UN BIT ERRÓNEO NO DETECTADO OCURRE POR CADA DÍA DE FUNCIONAMIENTO CONTINUO EN UN CANAL DE 64 KBPS. SI LA LONGITUD DE LA TRAMA ES DE 1000 BITS. EL NÚMERO DE TRAMAS QUE SE PUEDEN TRANSMITIR POR DÍA ES 5,529 x 106: LA TASA DE TRAMAS ERRÓNEAS ES: P2 = 1/(5,529 x 106) = 0,18 x 10-6. SI Pb = 10-6: P1 = (0,999999)1000 = 0,999. P2 = 10-3: • ESTÁ TRES ÓRDENES DE MAGNITUD POR ENCIMA DE LO REQUERIDO. ESTO JUSTIFICA USAR TÉCNICAS PARA DETECCIÓN DE ERRORES. TEORÍA DE LA INFORMACIÓN - CÓDIGOS 44 DETECCIÓN DE ERRORES PROCEDIMIENTO PARA DETECTAR ERRORES: TEORÍA DE LA INFORMACIÓN - CÓDIGOS 45 DETECCIÓN DE ERRORES PRINCIPIO GRAL. PARA LAS TÉCNICAS DE DETECCIÓN DE ERRORES: DADA UNA TRAMA DE BITS, SE AÑADEN BITS ADICIONALES EN EL TRANSMISOR FORMANDO UN CÓDIGO DETECTOR DE ERRORES. EL CÓDIGO SE CALCULARÁ EN FUNCIÓN DE LOS OTROS BITS QUE SE VAYAN A TRANSMITIR. GENERALMENTE, PARA UN BLOQUE DE DATOS DE k BITS, EL ALGORITMO DE DETECCIÓN DE ERRORES UTILIZA UN CÓDIGO DE n - k BITS: (n – k) < k. EL CÓDIGO (CONJUNTO DE BITS) DE DETECCIÓN DE ERRORES, LLAMADO BITS DE COMPROBACIÓN, SE AÑADE AL BLOQUE DE DATOS PARA GENERAR LA TRAMA DE n BITS DE LONGITUD QUE SERÁ TRANSMITIDA. TEORÍA DE LA INFORMACIÓN - CÓDIGOS 46 DETECCIÓN DE ERRORES EL RECEPTOR SEPARARÁ LA TRAMA RECIBIDA: k BITS DE DATOS. (n - k) BITS DEL CÓDIGO DE DETECCIÓN DE ERRORES. EL RECEPTOR REPETIRÁ EL CÁLCULO SOBRE LOS BITS DE DATOS RECIBIDOS Y COMPARARÁ EL RESULTADO CON LOS BITS RECIBIDOS EN EL CÓDIGO DE DETECCIÓN DE ERRORES. SE DETECTARÁ UN ERROR SII LOS DOS RESULTADOS MENCIONADOS NO COINCIDEN. P3: PROBABILIDAD DE QUE LA TRAMA CONTENGA ERRORES Y EL SISTEMA LOS DETECTE. P2: ES LA TASA DE ERROR RESIDUAL: PROBABILIDAD DE QUE NO SE DETECTE UN ERROR AUNQUE SE ESTÉ USANDO UN ESQUEMA DE DETECCIÓN DE ERRORES. TEORÍA DE LA INFORMACIÓN - CÓDIGOS 47 DETECCIÓN DE ERRORES COMPROBACIÓN DE REDUNDANCIA CÍCLIDA (CRC) UNO DE LOS CÓDIGOS PARA DETECCIÓN DE ERRORES MÁS HABITUALES Y POTENTES SON LOS DE COMPROBACIÓN DE REDUNDANCIA CÍCLICA (CRC: CYCLIC REDUNDANCY CHECK). SE TIENE UN BLOQUE O MENSAJE DE k-BITS. EL TRANSMISOR GENERA UNA SECUENCIA DE (n - k) BITS: SECUENCIA DE COMPROBACIÓN DE LA TRAMA: FCS: FRAME CHECK SEQUENCE. LA TRAMA RESULTANTE CON n BITS SERÁ DIVISIBLE POR ALGÚN NÚMERO PREDETERMINADO. TEORÍA DE LA INFORMACIÓN - CÓDIGOS 48 DETECCIÓN DE ERRORES EL RECEPTOR DIVIDIRÁ LA TRAMA RECIBIDA POR ESE NÚMERO Y SI NO HAY RESTO EN LA DIVISIÓN SUPONDRÁ QUE NO HA HABIDO ERRORES. EL RECEPTOR TAMBIÉN PODRÍA DIVIDIR LOS DATOS DE ENTRADA (IGUAL QUE EL EMISOR) Y COMPARAR EL RESULTADO CON LOS BITS DE COMPROBACIÓN. ESTE PROCEDIMIENTO SE PUEDE EXPLICAR USANDO: ARITMÉTICA MÓDULO 2. POLINOMIOS. LÓGICA DIGITAL. TEORÍA DE LA INFORMACIÓN - CÓDIGOS 49 DETECCIÓN DE ERRORES ARITMÉTICA MÓDULO 2 USA SUMAS Y RESTAS BINARIAS SIN ACARREO: SON IGUALES A LA OPERACIÓN LÓGICA EXCLUSIVE-OR: 1111 1111 11001 +1010 -0101 x 11 0101 1010 11001 11001 101011 T: TRAMA DE n BITS A TRANSMITIR. M: MENSAJE CON k BITS DE DATOS, CORRESPONDIENTES CON LOS PRIMEROS k BITS DE T. F = (n – k) BITS DE FCS: LOS ÚLTIMOS (n – k) BITS DE T. P: PATRÓN DE n – k + 1 BITS: DIVISOR ELEGIDO. T / P = 0. T = 2n-kD + F. MULTIPLICAR 2n-kD EQUIVALE A DESPLAZAR HACIA LA IZQUIERDA n – k BITS AÑADIENDO CEROS AL RESULTADO. SUMAR F SIGNIFICA CONCATENAR D Y F. TEORÍA DE LA INFORMACIÓN - CÓDIGOS 50 DETECCIÓN DE ERRORES T DEBE SER DIVISIBLE POR P: (2n-kD) / P = Q + (R / P). HAY UN COCIENTE Y UN RESTO: EL RESTO SERÁ AL MENOS 1 BIT MÁS CORTO QUE EL DIVISOR PORQUE LA DIVISIÓN ES MÓDULO 2. LA SECUENCIA DE COMPROBACIÓN DE LA TRAMA (FCS) SERÁ EL RESTO DE LA DIVISIÓN: T = 2n-kD + R. R DEBE SATISFACER LA CONDICIÓN DE QUE EL RESTO DE T/P SEA CERO: • (T / P) = (2n-kD + R) / P = (2n-kD) / P + (R / P). • (2n-kD) / P = Q + (R / P). • (T / P) = Q + (R / P) + (R / P). CUALQUIER NÚMERO BINARIO SUMADO A MÓDULO 2 CONSIGO MISMO ES 0: • (T / P) = Q + ((R + R) / P) = Q: – NO HAY RESTO: T ES DIVISIBLE POR P. TEORÍA DE LA INFORMACIÓN - CÓDIGOS 51 DETECCIÓN DE ERRORES FCS SE GENERA FÁCILMENTE: SE DIVIDE (2n-kD) / P Y SE USAN LOS (n – k) BITS DEL RESTO COMO FCS. EN EL RECEPTOR SE DIVIDIRÁ (T / P) Y SI NO HA HABIDO ERRORES EL RESTO SERÁ 0. EJ.: MENSAJE D: 1010001101 (10 BITS). PATRÓN P: 110101 (6 BITS). FCS R: A CALCULAR (5 BITS). n: 15; k: 10; (n – k): 5. MENSAJE x 25: 101000110100000. TEORÍA DE LA INFORMACIÓN - CÓDIGOS 52 DETECCIÓN DE ERRORES EL RESULTADO ANTERIOR SE DIVIDE POR P: TEORÍA DE LA INFORMACIÓN - CÓDIGOS 53 DETECCIÓN DE ERRORES T = 2n-kD + R = 25D + R = 101000110101110: ESTO SE TRANSMITE. SI NO HAY ERRORES EL RECEPTOR RECIBE T: LA TRAMA RECIBIDA SE DIVIDE POR P Y SI EL RESTO R ES 0 SE SUPONE QUE NO HA HABIDO ERRORES: TEORÍA DE LA INFORMACIÓN - CÓDIGOS 54 DETECCIÓN DE ERRORES EL PATRÓN P: SE ELIGE CON UN BIT MÁS QUE LA LONGITUD DE LA FCS DESEADA. DEPENDERÁ DEL TIPO DE ERROR QUE SE ESPERA SUFRIR. DEBE TENER COMO MÍNIMO EL BIT MENOS SIGNIFICATIVO Y EL BIT MÁS SIGNIFICATIVO EN 1. POLINOMIOS OTRA POSIBILIDAD DE CRC ES EXPRESAR TODOS LOS VALORES COMO POLINOMIOS DE UNA VARIABLE MUDA X, CON COEFICIENTES BINARIOS: D = 110011; D(X) = X5 + X4 + X + 1. P = 11001; P(X) = X4 + X3 + 1. SE USA ARITMÉTICA MÓDULO 2. EL PROCEDIMIENTO DE CRC ES: TEORÍA DE LA INFORMACIÓN - CÓDIGOS 55 DETECCIÓN DE ERRORES EJEMPLO: SE USA EL EJ. ANTERIOR: D = 1010001101; D(X) = X9 + X7 + X3 + X2 + 1. P = 110101; P(X) = X5 + X4 + X2 + 1. R = 01110; R(X) = X3 + X2 + X. TEORÍA DE LA INFORMACIÓN - CÓDIGOS 56 DETECCIÓN DE ERRORES DIVISIÓN DE POLINOMIOS DEL EJEMPLO: TEORÍA DE LA INFORMACIÓN - CÓDIGOS 57 DETECCIÓN DE ERRORES UN ERROR E(X) NO SE DETECTARÁ SÓLO SI ES DIVISIBLE POR P(X): SE DETECTARÁN LOS ERRORES NO DIVISIBLES, SI SE ELIGE ADECUADAMENTE EL POLINOMIO P(X): TODOS LOS ERRORES DE UN ÚNICO BIT SI P(X) TIENE MÁS DE UN TÉRMINO DISTINTO DE CERO. TODOS LOS ERRORES DOBLES SI P(X) TIENE AL MENOS UN FACTOR CON TRES TÉRMINOS. CUALQUIER NÚMERO IMPAR DE ERRORES SI P(X) CONTIENE EL FACTOR (X + 1). CUALQUIER RÁFAGA DE ERRORES CON LONGITUD MENOR O IGUAL QUE n – k: MENOR O IGUAL QUE LA LONGITUD DE LA FCS. UNA FRACCIÓN DE LAS RÁFAGAS DE ERRORES CON LONGITUD IGUAL A n – k + 1: • LA FRACCIÓN ES 1 – 2-(n-k-1). UNA FRACCIÓN DE LAS RÁFAGAS DE ERRORES CON LONGITUDES MAYORES QUE n – k + 1: • LA FRACCIÓN ES 1 – 2-(n-k). TEORÍA DE LA INFORMACIÓN - CÓDIGOS 58 DETECCIÓN DE ERRORES SI TODOS LOS PATRONES DE ERROR SON EQUIPROBABLES: PARA UNA RÁFAGA DE ERRORES DE LONGITUD r + 1 LA PROBABILIDAD DE QUE NO SE DETECTE UN ERROR ES 1/2r-1. PARA RÁFAGAS MAYORES LA PROBABILIDAD ES 1/2r. r ES LA LONGITUD DE LA FCS. TEORÍA DE LA INFORMACIÓN - CÓDIGOS 59 DETECCIÓN DE ERRORES EJ. DE DEFINICIONES DE P(X) USADAS FRECUENTEMENTE: LA CRC-32 SE USA EN NORMAS IEEE 802 PARA LAN. LÓGICA DIGITAL CRC SE PUEDE REPRESENTAR E IMPLEMENTAR CON: UN CIRCUITO DIVISOR FORMADO POR PUERTAS EXCLUSIVE-OR. UN REGISTRO DE DESPLAZAMIENTO. TEORÍA DE LA INFORMACIÓN - CÓDIGOS 60 DETECCIÓN DE ERRORES EJEMPLO: CIRCUITO CON REGISTROS DE DESPLAZAMIENTO PARA DIVIDIR POR EL POLINOMIO X5 + X4 + X2 + 1: TEORÍA DE LA INFORMACIÓN - CÓDIGOS 61 DETECCIÓN DE ERRORES ARQUITECTURA GENÉRICA DE UNA CRC PARA IMPLEMENTAR LA DIVISIÓN POR (1 + A1X + A2X2 + … + An-1Xn-k-1 + Xn-k): TEORÍA DE LA INFORMACIÓN - CÓDIGOS 62 INTRODUCCIÓN A CÓDIGOS TEORÍA DE LA INFORMACIÓN - CÓDIGOS 63 INTRODUCCIÓN A CÓDIGOS DEFINICIÓN: SE CONSIDERA UN CONJUNTO FINITO A={a1, a2, ... aq}, AL QUE SE DENOMINA ALFABETO, A SUS ELEMENTOS, a1, a2, ... aq, SE LOS LLAMA LETRAS O SÍMBOLOS. LAS SUCESIONES FINITAS DE ELEMENTOS DE A SE LLAMAN PALABRAS. LA PALABRA ai1ai2...ain SE DICE QUE TIENE LONGITUD n O BIEN QUE ES UNA n-PALABRA. TEORÍA DE LA INFORMACIÓN - CÓDIGOS 64 INTRODUCCIÓN A CÓDIGOS EL CONJUNTO DE TODAS LAS PALABRAS SOBRE EL ALFABETO A SE DENOTARÁ COMO A* (CON INDEPENDENCIA DE LA LONGITUD DE LAS PALABRAS). DEFINICIÓN: UN CÓDIGO SOBRE EL ALFABETO A ES UN SUBCONJUNTO C DE A*, (CONJUNTO FORMADO POR PALABRAS DEL ALFABETO). TEORÍA DE LA INFORMACIÓN - CÓDIGOS 65 INTRODUCCIÓN A CÓDIGOS A LOS ELEMENTOS DEL CÓDIGO C SE LES LLAMA PALABRAS DE CÓDIGO. EL NÚMERO DE ELEMENTOS DEL CÓDIGO C, QUE NORMALMENTE SERÁ FINITO, SE DENOTA POR |C| Y SE DENOMINA TAMAÑO DEL CÓDIGO. SI C ES UN CÓDIGO SOBRE A Y A TIENE q ELEMENTOS (|A|=q) ENTONCES SE DICE QUE C ES UN CÓDIGO q-ARIO: EJEMPLO: A = Z2 = {0,1}: CÓDIGOS BINARIOS. EJEMPLO DE CÓDIGO BINARIO: C = {0100,0010,0111}. TEORÍA DE LA INFORMACIÓN - CÓDIGOS 66 INTRODUCCIÓN A CÓDIGOS DEFINICIÓN: SI C ES UN CÓDIGO CUYAS PALABRAS TIENEN TODAS LA MISMA LONGITUD n, SE DICE QUE C ES UN CÓDIGO DE LONGITUD FIJA O UN CÓDIGO DE BLOQUES Y A n SE LE LLAMA LONGITUD DEL CÓDIGO C. EL CÓDIGO C ANTERIOR ES UN CÓDIGO DE BLOQUES DE LONGITUD 4. C = {011, 1011, 10} NO ES UN CÓDIGO DE BLOQUES: NO SE PUEDE HABLAR DE LA LONGITUD DEL CÓDIGO. SI C ES UN CÓDIGO DE LONGITUD n Y TAMAÑO m SE DICE QUE C ES UN (n,m)-CÓDIGO: C = {0100,0010,0111} ES (4,3) CÓDIGO. TEORÍA DE LA INFORMACIÓN - CÓDIGOS 67 INTRODUCCIÓN A CÓDIGOS DADO UN ALFABETO S AL QUE DENOMINAREMOS ALFABETO FUENTE Y DADO UN CÓDIGO C SOBRE EL ALFABETO A, SE LLAMA FUNCIÓN DE CODIFICACIÓN A UNA APLICACIÓN BIYECTIVA f: S ES EL ALFABETO EN EL CUAL ESTÁ LA INFORMACIÓN QUE SE QUIERE CODIFICAR. UNA APLICACIÓN BIYECTIVA ENTRE 2 CONJUNTOS ES UNA APLICACIÓN: INYECTIVA: ELEMENTOS DIFERENTES TIENEN IMÁGENES DIFERENTES; Y. SOBREYECTIVA: LOS ELEMENTOS DEL CONJUNTO C SON IMÁGENES DE ALGÚN ELEMENTO DE S, EN ESTE CASO DE 1 YA QUE LA APLICACIÓN ES INYECTIVA. TEORÍA DE LA INFORMACIÓN - CÓDIGOS 68 INTRODUCCIÓN A CÓDIGOS A VECES f NO SERÁ UNA APLICACIÓN BIYECTIVA; SI f NO FUESE INYECTIVA HABRÍA VARIOS SÍMBOLOS DEL ALFABETO FUENTE QUE SE CODIFICARÍAN DE LA MISMA FORMA: HARÍA LA DECODIFICACIÓN MUY DIFÍCIL. CUANDO f ES BIYECTIVA HABLAMOS DE CÓDIGOS DESCIFRABLES. TEORÍA DE LA INFORMACIÓN - CÓDIGOS 69 INTRODUCCIÓN A CÓDIGOS EJEMPLO: TEORÍA DE LA INFORMACIÓN - CÓDIGOS 70 INTRODUCCIÓN A CÓDIGOS POLIVIO O CÓDIGO DE FUEGO GRIEGO (208 A.C.): TEORÍA DE LA INFORMACIÓN - CÓDIGOS 71 INTRODUCCIÓN A CÓDIGOS ESTE CÓDIGO NO PERMITE DETECTAR Y/O CORREGIR ERRORES. CÓDIGO MORSE: SE USA PARA TRANSMISIONES TELEGRÁFICAS, PARA CODIFICAR UN MENSAJE FUENTE EN LENGUAJE NATURAL. TEORÍA DE LA INFORMACIÓN - CÓDIGOS 72 INTRODUCCIÓN A CÓDIGOS ESTE CÓDIGO NO ES DE LONGITUD FIJA: LAS LETRAS MÁS FRECUENTES SE CODIFICAN CON PALABRAS CORTAS. LAS LETRAS MENOS USADAS SE CODIFICAN CON PALABRAS MÁS LARGAS. ESTO ES PARA CONSEGUIR MÁS EFICIENCIA. LOS ESPACIOS SE USAN PARA SEPARAR PALABRAS (6 ESPACIOS). ESTE CÓDIGO NO PERMITE CORREGIR Y/O DETECTAR ERRORES Y NO TIENE FINES CRIPTOGRÁFICOS. CÓDIGO ASCII (AMERICAN STANDARD CODE FOR INFORMATION INTERCHANGE). EL ASCII ESTÁNDAR USA PALABRAS DE 7 BITS: TEORÍA DE LA INFORMACIÓN - CÓDIGOS 73 INTRODUCCIÓN A CÓDIGOS EL CÓDIGO ASCII EXTENDIDO USA PALABRAS DE 8 BITS: AL CÓDIGO ASCII DE 7 BITS SE LE AÑADE UN BIT DE PARIDAD PARA QUE EL NÚMERO DE 1 DE LA PALABRA SEA PAR: ESTE ES EL CÓDIGO ASCII ESTÁNDAR CON CONTROL DE PARIDAD. EL CÓDIGO ASCII ESTÁNDAR: AL AÑADIR EL BIT DE PARIDAD SI SE CAMBIA UN BIT LA PALABRA QUE SE OBTIENE NO ES VÁLIDA: EL NÚMERO DE 1 PASA A SER IMPAR CON LO QUE SE DETECTA EL ERROR. ESTE CÓDIGO SÓLO DETECTA ERRORES, NO PUEDO SABER CUÁL FUE LA PALABRA QUE SE ENVIÓ. TEORÍA DE LA INFORMACIÓN - CÓDIGOS 74 INTRODUCCIÓN A CÓDIGOS EL ASCII CON CONTROL DE PARIDAD ES UN (8,128) CÓDIGO, MIENTRAS QUE EL ASCII ESTÁNDAR ES UN (7,128) CÓDIGO. EL CÓDIGO ASCII EXTENDIDO ES UN (8,256) CÓDIGO. EL CÓDIGO ASCII NO ES MUY EFICIENTE YA QUE ES DE LONGITUD FIJA Y USA EL MISMO NÚMERO DE BITS PARA CODIFICAR CARACTERES FRECUENTES Y POCO FRECUENTES. EN ESTE CÓDIGO NO HACE FALTA SEPARAR LAS PALABRAS YA QUE CADA PALABRA TIENE UN NÚMERO FIJO DE BITS. LA VENTAJA DEL ASCII CON BIT DE PARIDAD SOBRE EL ASCII ESTÁNDAR ES QUE PERMITE DETECTAR ERRORES Y SE PUEDE PEDIR REPETIR LA TRANSMISIÓN HASTA QUE ÉSTA SEA CORRECTA. EL INCONVENIENTE ES QUE ES MENOS EFICIENTE YA QUE PARA TRANSMITIR LA MISMA INFORMACIÓN USA PALABRAS DE 8 BITS EN LUGAR DE PALABRAS DE 7 BITS. PARA DETECTAR Y CORREGIR ERRORES A LOS CÓDIGOS SE LES AÑADE REDUNDANCIA CON LO QUE SE PIERDE EFICIENCIA. TEORÍA DE LA INFORMACIÓN - CÓDIGOS 75 CÓDIGOS DETECTORES DE ERRORES TEORÍA DE LA INFORMACIÓN - CÓDIGOS 76 CÓDIGOS DETECTORES DE ERRORES SE INTENTA BUSCAR UNA TRANSMISIÓN PRECISA ENTRE DOS PUNTOS. ESTOS CÓDIGOS SE USAN CUANDO SE REALIZA UNA TRANSMISIÓN POR UN CANAL RUIDOSO: UN CANAL ES EL MEDIO FÍSICO POR EL CUAL SE REALIZA LA TRANSMISIÓN. UN CANAL RUIDOSO ES UN CANAL QUE ESTÁ SUJETO A PERTURBACIONES Y QUE GENERA ALTERACIONES EN EL MENSAJE. LOS CÓDIGOS DETECTORES DE ERRORES SE USAN PARA RECUPERAR LA INFORMACIÓN QUE LLEGÓ INCORRECTAMENTE: SE USAN TAMBIÉN EN LOS CD, PARA QUE LA INFORMACIÓN SE RECUPERE A PESAR DE QUE EL CD ESTÉ RAYADO. TEORÍA DE LA INFORMACIÓN - CÓDIGOS 77 CÓDIGOS DETECTORES DE ERRORES TEORÍA DE LA INFORMACIÓN - CÓDIGOS 78 CÓDIGOS DETECTORES DE ERRORES LA CODIFICACIÓN Y DECODIFICACIÓN DEBEN SER FÁCILES Y RÁPIDAS. LA TRANSMISIÓN A TRAVÉS DEL CANAL DEBE SER RÁPIDA. SE DEBE: MAXIMIZAR LA CANTIDAD DE INFORMACIÓN TRANSMITIDA POR UNIDAD DE TIEMPO. DETECTAR Y CORREGIR ERRORES. ESTA ÚLTIMA CARACTERÍSTICA ENTRA EN CONFLICTO CON LAS ANTERIORES: HACE QUE AUMENTE EL TAMAÑO DE LO QUE SE TRANSMITE. EL CÓDIGO DEBE SER LO MÁS EFICIENTE POSIBLE Y DEBE PERMITIR DETECTAR Y CORREGIR ERRORES. TEORÍA DE LA INFORMACIÓN - CÓDIGOS 79 CÓDIGOS DETECTORES DE ERRORES EL CANAL ACEPTA SÍMBOLOS DE UN ALFABETO FINITO A={a1, a2, ... aq} QUE LLAMAREMOS ALFABETO DEL CANAL (EJEMPLO: A = {0, 1}). PARA SABER QUÉ TAN RUIDOSO ES UN CANAL SE DEBE CONOCER CUÁL ES LA PROBABILIDAD DE QUE SI SE EMITE UN SÍMBOLO SE RECIBA OTRO SÍMBOLO: P(aj RECIBIDO | ai ENVIADO): PROBABILIDAD DE QUE SI SE HA ENVIADO ai SE RECIBA aj. CUANDO ESTE CONJUNTO DE PROBABILIDADES SE CONOCE PARA TODOS LOS VALORES DE i Y j CONOCEMOS LAS CARACTERÍSTICAS DEL CANAL. EL CANAL PERFECTO SERÍA AQUÉL EN EL QUE: TEORÍA DE LA INFORMACIÓN - CÓDIGOS 80 CÓDIGOS DETECTORES DE ERRORES A ESTAS PROBABILIDADES SE LES LLAMA PROBABILIDADES DEL CANAL O PROBABILIDADES DE TRANSICIÓN. EL CANAL PERFECTO NO EXISTE EN LA PRÁCTICA. DEFINICIÓN: UN CANAL ES UN ALFABETO (DE CANAL) A={a1, a2, ... aq} Y UN CONJUNTO DE PROBABILIDADES DE TRANSICIÓN P(aj RECIBIDO | ai ENVIADO) QUE SATISFACEN: TEORÍA DE LA INFORMACIÓN - CÓDIGOS 81 CÓDIGOS DETECTORES DE ERRORES EL RUIDO SE DISTRIBUYE ALEATORIAMENTE: LA PROBABILIDAD DE QUE UN SÍMBOLO SEA CAMBIADO POR OTRO EN LA TRANSMISIÓN ES LA MISMA PARA TODOS LOS SÍMBOLOS. LA TRANSMISIÓN DE UN SÍMBOLO NO ESTÁ INFLUENCIADA POR LA TRANSMISIÓN DEL SÍMBOLO PRECEDENTE NI DE LOS ANTERIORES: EL CANAL ES UN CANAL SIN MEMORIA. EL ERROR EN LA TRANSMISIÓN DE UN SÍMBOLO NO AFECTA A LA TRANSMISIÓN DE LOS SIGUIENTES SÍMBOLOS. TEORÍA DE LA INFORMACIÓN - CÓDIGOS 82 CÓDIGOS DETECTORES DE ERRORES UN CANAL USADO FRECUENTEMENTE ES EL CANAL BINARIO SIMÉTRICO (BINARY SIMETRIC CHANNEL: BSC). EL ALFABETO DEL CANAL ES A={0,1}. TEORÍA DE LA INFORMACIÓN - CÓDIGOS 83 CÓDIGOS DETECTORES DE ERRORES 0 p 1. 1-p: PROBABILIDAD DEL CANAL. p: PROBABILIDAD DEL CRUCE. p: PROBABILIDAD DE QUE UN 0 SEA RECIBIDO COMO UN 1. 1-p: PROBABILIDAD DE QUE UN 0 SEA RECIBIDO COMO UN 0. p = 0: CANAL PERFECTO. p = 1: SIEMPRE SE COMETE ERROR. EN UN CANAL SIMÉTRICO: EXISTE LA MISMA PROBABILIDAD DE QUE UN SÍMBOLO SE RECIBA INCORRECTAMENTE. SI UN SÍMBOLO SE RECIBE INCORRECTAMENTE HAY LA MISMA PROBABILIDAD DE QUE SE RECIBA CUALQUIER OTRO SÍMBOLO. TEORÍA DE LA INFORMACIÓN - CÓDIGOS 84 CÓDIGOS DETECTORES DE ERRORES SI SE QUIERE DETECTAR ERRORES: SE DEBE DISEÑAR UN CÓDIGO DE TAL FORMA QUE SI A UNA PALABRA DEL CÓDIGO SE LE CAMBIA UN ÚNICO SÍMBOLO LA PALABRA RESULTANTE NO SEA UNA PALABRA DEL CÓDIGO PARA ASÍ PODER SABER QUE SE HA PRODUCIDO UN ERROR. SI ADEMÁS SE QUIERE CORREGIR ERRORES: HAY QUE SABER CUÁL ES LA PALABRA ENVIADA. LA IDEA BÁSICA ES COMPARAR LA PALABRA RECIBIDA CON TODAS LAS PALABRAS DEL CÓDIGO Y ASIGNARLE LA PALABRA QUE DIFIERA EN MENOS SÍMBOLOS. TEORÍA DE LA INFORMACIÓN - CÓDIGOS 85 CÓDIGOS DETECTORES DE ERRORES EJEMPLO: ESTE CÓDIGO NO SERVIRÍA PARA DETECTAR ERRORES: TEORÍA DE LA INFORMACIÓN - CÓDIGOS 86 CÓDIGOS DETECTORES DE ERRORES SI SE PRODUCEN ERRORES LAS PALABRAS QUE SE OBTIENEN SON PALABRAS DEL CÓDIGO. PARA DETECTAR ERRORES HAY QUE AÑADIR REDUNDANCIA: SE MODIFICA EL CÓDIGO PARA CONSEGUIR QUE LAS PALABRAS DEL CÓDIGO SE PAREZCAN MENOS ENTRE SÍ. TEORÍA DE LA INFORMACIÓN - CÓDIGOS 87 CÓDIGOS DETECTORES DE ERRORES SE CONSIDERA: SI SE RECIBE 111010: SE VE QUE NO ES UNA PALABRA VÁLIDA DEL CÓDIGO Y SE DETECTA QUE SE HA COMETIDO UN ERROR. SE COMPARA ESTA PALABRA CON LAS PALABRAS DEL CÓDIGO Y SE VE EN CUÁNTOS SÍMBOLOS SE DIFERENCIA DE LAS PALABRAS DEL CÓDIGO. SE VE QUE LA PALABRA MÁS PRÓXIMA ES LA 101010 YA QUE SÓLO CAMBIA UN SÍMBOLO, POR LO QUE SE PODRÍA ASIGNARLE ESTA PALABRA. TEORÍA DE LA INFORMACIÓN - CÓDIGOS 88 CÓDIGOS DETECTORES DE ERRORES ESTE CÓDIGO TIENE LA PROPIEDAD DE QUE SI AL TRANSMITIR UNA PALABRA SE COMETE UN ÚNICO ERROR SIEMPRE SE PUEDE RECUPERAR LA PALABRA ORIGINALMENTE TRANSMITIDA YA QUE DISTA UNO DE UNA PALABRA Y MÁS DE UNO DEL RESTO DE PALABRAS. SE DICE QUE ESTE CÓDIGO CORRIGE UN ERROR: ESTO SE LOGRA A COSTA DE AUMENTAR LA LONGITUD DEL CÓDIGO. SE NECESITA EL TRIPLE DE TIEMPO Y ESPACIO PARA TRANSMITIR LA MISMA INFORMACIÓN: DISMINUYE LA EFICIENCIA DEL CÓDIGO. ESTE CÓDIGO SE DENOMINA CÓDIGO DE REPETICIÓN. TEORÍA DE LA INFORMACIÓN - CÓDIGOS 89 CÓDIGOS DETECTORES DE ERRORES CLASES RESIDUALES MÓDULO n. DADO: SEA n Z, n 2. DADOS a, b Z SE DICE QUE a ES CONGRUENTE CON b MÓDULO n SI: TEORÍA DE LA INFORMACIÓN - CÓDIGOS 90 CÓDIGOS DETECTORES DE ERRORES LA RELACIÓN DE CONGRUENCIA MÓDULO n ES UNA RELACIÓN DE EQUIVALENCIA, YA QUE ES REFLEXIVA, SIMÉTRICA Y TRANSITIVA. LA RELACIÓN DE EQUIVALENCIA PERMITE DEFINIR LAS CLASES DE EQUIVALENCIA a Z. LA CLASE DE EQUIVALENCIA DE a SE DEFINE COMO AQUELLOS NÚMEROS RELACIONADOS CON a: TEORÍA DE LA INFORMACIÓN - CÓDIGOS 91 CÓDIGOS DETECTORES DE ERRORES EL CONJUNTO DE TODAS LAS CLASES DE EQUIVALENCIA FORMAN UNA PARTICIÓN DE Z. AL CONJUNTO DE TODAS LAS CLASES DE EQUIVALENCIA SE LE DENOMINA CONJUNTO COCIENTE (SUS ELEMENTOS SON CLASES). SEAN a,b Z: TEORÍA DE LA INFORMACIÓN - CÓDIGOS 92 CÓDIGOS DETECTORES DE ERRORES EN LA DIVISIÓN ENTERA EL RESTO O RESIDUO ES ÚNICO. CADA ELEMENTO ESTÁ EN LA MISMA CLASE DE EQUIVALENCIA QUE SU RESTO AL DIVIDIR POR n. EL NÚMERO DE CLASES ES EL NÚMERO DE POSIBLES RESTOS AL DIVIDIR POR n (n CLASES). TEORÍA DE LA INFORMACIÓN - CÓDIGOS 93 CÓDIGOS DETECTORES DE ERRORES DEFINICIÓN: SEA C UN (n,m)-CÓDIGO q-ARIO (|A| = q, SIENDO A EL ALFABETO). SE DEFINE LA TASA DE INFORMACIÓN (O DE TRANSMISIÓN) DE C COMO: EN EL CASO BINARIO SE TIENE: ESTA DEFINICIÓN EXPRESA LA RELACIÓN QUE HAY ENTRE: LOS SÍMBOLOS DEL CÓDIGO DEDICADOS A LA INFORMACIÓN. LOS SÍMBOLOS DEDICADOS A LA REDUNDANCIA (DETECTAR Y/O CORREGIR ERRORES). TEORÍA DE LA INFORMACIÓN - CÓDIGOS 94 CÓDIGOS DETECTORES DE ERRORES EJEMPLO: TEORÍA DE LA INFORMACIÓN - CÓDIGOS 95 CÓDIGOS DETECTORES DE ERRORES ESTE CÓDIGO NO CORRIGE NI DETECTA ERRORES: TODOS LOS SÍMBOLOS ESTÁN DEDICADOS A LA TRANSMISIÓN DE INFORMACIÓN. ESTE CÓDIGO TIENE LA MÁXIMA TASA DE TRANSMISIÓN. PARA CORREGIR UN ERROR SE AÑADE UN BIT DE PARIDAD. TEORÍA DE LA INFORMACIÓN - CÓDIGOS 96 CÓDIGOS DETECTORES DE ERRORES LA TASA DE INFORMACIÓN DISMINUYE: SE AÑADIÓ UN BIT PARA DETECTAR ERRORES PERO NO TRANSMITE INFORMACIÓN. SE PUEDE VER ESTO COMO EL COCIENTE ENTRE EL NÚMERO DE SÍMBOLOS DEDICADOS A LA INFORMACIÓN Y EL NÚMERO TOTAL DE SÍMBOLOS. DADO R NO PODEMOS DETERMINAR SI EL CÓDIGO PERMITE DETECTAR Y/O CORREGIR ERRORES. CONOCIENDO R SABEMOS LA EFICIENCIA DEL CÓDIGO: LOS CÓDIGOS MÁS EFICIENTES TIENEN R = 1. TEORÍA DE LA INFORMACIÓN - CÓDIGOS 97 DISTANCIA HAMMING Y DESCODIFICACIÓN POR DISTANCIA MÍNIMA TEORÍA DE LA INFORMACIÓN - CÓDIGOS 98 DISTANCIA HAMMING Y DESCODIFICACIÓN POR DISTANCIA MÍNIMA SE CONSIDERA: u ES LA PALABRA TRANSMITIDA Y w ES LA PALABRA RECIBIDA. PARA DESCODIFICAR SE USA UNA REGLA DE DECISIÓN QUE ES UNA APLICACIÓN DE An EN C: TEORÍA DE LA INFORMACIÓN - CÓDIGOS 99 DISTANCIA HAMMING Y DESCODIFICACIÓN POR DISTANCIA MÍNIMA SI f(w) = u DESCODIFICO w COMO u. SI w YA ES UNA PALABRA DEL CÓDIGO ENTONCES f(w) = w. SE TIENE UNA REGLA DE DECISIÓN f: An C QUE VERIFICA: ESTO SIGNIFICA QUE f(w) TIENE LA PROPIEDAD DE QUE NO HAY NINGUNA OTRA PALABRA DEL CÓDIGO CON MAYOR PROBABILIDAD DE HABER SIDO ENVIADA: SI ESTO SE CUMPLE SE DICE QUE f ES UNA REGLA DE DECISIÓN DE PROBABILIDAD MÁXIMA. TEORÍA DE LA INFORMACIÓN - CÓDIGOS 100 DISTANCIA HAMMING Y DESCODIFICACIÓN POR DISTANCIA MÍNIMA SI SE USA UN BSC: NO CONOCEMOS EL VALOR DE 1-p. NO SE CALCULAN PROBABILIDADES, SE VE CUÁL ES LA PALABRA DE CÓDIGO MÁS PRÓXIMA A LA PALABRA RECIBIDA: ESTO COINCIDE, PARA UN BSC, CON LA DESCODIFICACIÓN DE PROBABILIDAD MÁXIMA. TEORÍA DE LA INFORMACIÓN - CÓDIGOS 101 DISTANCIA HAMMING Y DESCODIFICACIÓN POR DISTANCIA MÍNIMA PROPOSICIÓN: DADO UN BSC CON 0 p ½ LA REGLA DE DECISIÓN DE PROBABILIDAD MÁXIMA CONSISTE EN ELEGIR LA PALABRA DE CÓDIGO QUE DIFIERA DE LA PALABRA RECIBIDA EN EL NÚMERO MÍNIMO DE SÍMBOLOS POSIBLES. LA PROBABILIDAD DE QUE UNA PALABRA TENGA k ERRORES EN k POSICIONES DADAS ES pk (1-p)k. SI SE ENVÍA v Y LA PALABRA RECIBIDA w DIFIERE DE v EN k LUGARES: LA PROBABILIDAD P(w RECIBIDO | v ENVIADO) = pk (1-p)k. PUEDE OCURRIR QUE HAYA VARIAS PALABRAS A DISTANCIA MÍNIMA (MLD). TEORÍA DE LA INFORMACIÓN - CÓDIGOS 102 DISTANCIA HAMMING Y DESCODIFICACIÓN POR DISTANCIA MÍNIMA SE DICE QUE LA DESCODIFICACIÓN ES COMPLETA SI SÓLO HAY UNA PALABRA POSIBLE CON DISTANCIA MÍNIMA. SE DICE QUE LA DESCODIFICACIÓN ES INCOMPLETA CUANDO HAY MÁS DE UNA POSIBLE PALABRA CON DISTANCIA MÍNIMA Y SE PRODUCE UN ERROR. DEFINICIÓN: SEA A UN ALFABETO Y u,w An; SE DEFINE LA DISTANCIA HAMMING d(u,w) COMO EL NÚMERO DE POSICIONES EN LAS QUE DIFIEREN u Y w. TEORÍA DE LA INFORMACIÓN - CÓDIGOS 103 DISTANCIA HAMMING Y DESCODIFICACIÓN POR DISTANCIA MÍNIMA ESTA APLICACIÓN ES UNA MÉTRICA: ES DEFINIDA POSITIVA: ES SIMÉTRICA: PRESENTA DESIGUALDAD TRIANGULAR: TEORÍA DE LA INFORMACIÓN - CÓDIGOS 104 DISTANCIA HAMMING Y DESCODIFICACIÓN POR DISTANCIA MÍNIMA DEFINICIÓN: SE LLAMA DISTANCIA MÍNIMA (O DISTANCIA) DE UN CÓDIGO C A: TEORÍA DE LA INFORMACIÓN - CÓDIGOS 105 DISTANCIA HAMMING Y DESCODIFICACIÓN POR DISTANCIA MÍNIMA DEFINICIÓN: UN CÓDIGO C ES t-DETECTOR (DE ERRORES), t Z+, SI EL NÚMERO DE ERRORES COMETIDOS AL TRANSMITIR UNA PALABRA ES: MAYOR O IGUAL QUE 1 Y. MENOR O IGUAL QUE t. ENTONCES LA PALABRA RESULTANTE NO ES UNA PALABRA DEL CÓDIGO. C SE DICE QUE ES EXACTAMENTE t-DETECTOR CUANDO ES tDETECTOR PERO NO ES (t+1)-DETECTOR. PROPOSICIÓN: UN CÓDIGO C ES EXACTAMENTE t-DETECTOR SI Y SÓLO SI d(C) = t+1. TEORÍA DE LA INFORMACIÓN - CÓDIGOS 106 DISTANCIA HAMMING Y DESCODIFICACIÓN POR DISTANCIA MÍNIMA DEFINICIÓN: UN CÓDIGO C ES t-CORRECTOR DE ERRORES SI: LA DESCODIFICACIÓN PERMITE CORREGIR TODOS LOS ERRORES DE TAMAÑO t O MENOR EN UNA PALABRA DEL CÓDIGO. SE SUPONE QUE CUANDO HAY VARIAS PALABRAS DEL CÓDIGO EQUIDISTANTES DE LA PALABRA RECIBIDA EL PROCESO DE DESCODIFICACIÓN DECLARA UN ERROR Y NO SE COMPLETA. UN CÓDIGO C SE DICE QUE ES EXACTAMENTE t-CORRECTOR CUANDO ES t-CORRECTOR PERO NO ES (t+1)-CORRECTOR. ERROR DE TAMAÑO t: ERROR EN EL CUAL EL N° DE ERRORES ES t. TEORÍA DE LA INFORMACIÓN - CÓDIGOS 107 DISTANCIA HAMMING Y DESCODIFICACIÓN POR DISTANCIA MÍNIMA PROPOSICIÓN: UN CÓDIGO C ES EXACTAMENTE t-CORRECTOR SI Y SÓLO SI d(C) = 2t + 1 O 2t + 2. EJEMPLO: TEORÍA DE LA INFORMACIÓN - CÓDIGOS 108 DISTANCIA HAMMING Y DESCODIFICACIÓN POR DISTANCIA MÍNIMA LA PALABRA RECIBIDA w DISTA t+1 DE u Y DISTA t DE v, LUEGO EL CÓDIGO NO CORRIGE t+1 ERRORES. DEFINICIÓN: UN CÓDIGO DE LONGITUD n, TAMAÑO m Y DISTANCIA d SE DICE QUE ES UN (n,m,d) – CÓDIGO. TEORÍA DE LA INFORMACIÓN - CÓDIGOS 109 DISTANCIA HAMMING Y DESCODIFICACIÓN POR DISTANCIA MÍNIMA EJEMPLOS: CÓDIGO DE REPETICIÓN BINARIA DE LONGITUD n: ESTE CÓDIGO CORRIGE (n-1) / 2 ERRORES. TEORÍA DE LA INFORMACIÓN - CÓDIGOS 110 DISTANCIA HAMMING Y DESCODIFICACIÓN POR DISTANCIA MÍNIMA EL MARINER 9 (1979) TOMÓ FOTOS EN BLANCO Y NEGRO DE MARTE: LAS IMÁGENES ERAN DE 600X600 Y CON 64 NIVELES DE GRIS. SE USÓ UN CÓDIGO BINARIO DE TAMAÑO 64; UN (32, 64, 16)CÓDIGO (CÓDIGO DE REED-MULLER): ESTE ERA UN CÓDIGO 7-CORRECTOR. TEORÍA DE LA INFORMACIÓN - CÓDIGOS 111 DISTANCIA HAMMING Y DESCODIFICACIÓN POR DISTANCIA MÍNIMA EL VOYAGER (1979-1981) TOMÓ FOTOS EN COLOR DE JÚPITER Y SATURNO DE 4096 COLORES: SE USÓ UN (24, 4096, 8)-CÓDIGO (CÓDIGO DE GOLAY): ESTE ERA UN CÓDIGO 3-CORRECTOR. TEORÍA DE LA INFORMACIÓN - CÓDIGOS 112 CÓDIGOS PERFECTOS TEORÍA DE LA INFORMACIÓN - CÓDIGOS 113 CÓDIGOS PERFECTOS DEFINICIÓN: SEA A UN ALFABETO, |A| = q, v An Y r R, r 0. LA ESFERA DE RADIO r Y CENTRO v ES: TEORÍA DE LA INFORMACIÓN - CÓDIGOS 114 CÓDIGOS PERFECTOS EL VOLUMEN DE Sq(v,r) ES |Sq(v,r)| Y ESTÁ DADO POR: TEORÍA DE LA INFORMACIÓN - CÓDIGOS 115 CÓDIGOS PERFECTOS EJEMPLO: SE TIENE: A = {0, 1}. n = 3. TEORÍA DE LA INFORMACIÓN - CÓDIGOS 116 CÓDIGOS PERFECTOS DEFINICIÓN: SEA C An. EL RADIO DE EMPAQUETAMIENTO DE C ES EL MAYOR ENTERO r TAL QUE TODAS LAS ESFERAS DE RADIO r (Sq (v,r), v C) SON DISJUNTAS. DEFINICIÓN: EL RADIO DE RECUBRIMIENTO ES EL MENOR ENTERO s TAL QUE LA UNIÓN DE TODAS LAS ESFERAS DE RADIO s ES An. r = pr(C); s = cr(C). TEORÍA DE LA INFORMACIÓN - CÓDIGOS 117 CÓDIGOS PERFECTOS PROPOSICIÓN: UN CÓDIGO C ES t-CORRECTOR SI Y SÓLO SI LAS ESFERAS DE RADIO t Sq (v,t), v C, SON DISJUNTOS. C ES EXACTAMENTE t-CORRECTOR SI Y SÓLO SI pr(c) = t. EL RADIO DE EMPAQUETAMIENTO DE UN (n,m,d)-CÓDIGO ES: DEFINICIÓN: UN CÓDIGO C An SE DICE PERFECTO CUANDO cr(C) = pr(C), ES DECIR, CUANDO EXISTE UN ENTERO r TAL QUE Sq (v,r), v C, SON DISJUNTAS Y RECUBREN An: EN ESTE CASO LAS ESFERAS DE RADIO r FORMAN UNA PARTICIÓN DE An. TEORÍA DE LA INFORMACIÓN - CÓDIGOS 118 CÓDIGOS PERFECTOS EJEMPLO: H2 (3) (HAMMING): ES UN (7,16,3)-CÓDIGO BINARIO. ESTE ES UN CÓDIGO 1-CORRECTOR. d = 3 ; t = 1 = pr(H2(3)); m = |H2 (3)| = 16. VERIFICACIÓN ACERCA DE SI ESTE CÓDIGO ES PERFECTO: |An| = |Z27| = 27 = 128. SE DEBE VERIFICAR QUE: LAS ESFERAS DE RADIO 1 RECUBREN Z27. LA UNIÓN DE TODAS LAS ESFERAS TIENE 128 ELEMENTOS. V2(7,1) = |S2(v,1)| = 1 + 7 = 8. HAY 16 ESFERAS: TIENEN 8·16 PALABRAS = 128. EL CÓDIGO ES PERFECTO. TEORÍA DE LA INFORMACIÓN - CÓDIGOS 119 CÓDIGOS PERFECTOS PROPOSICIÓN (CONDICIÓN DE EMPAQUETAMIENTO DE ESFERAS): SEA C UN (n,m,d)-CÓDIGO q-ARIO. C ES PERFECTO SI Y SÓLO SI d = 2t + 1 ES IMPAR Y ADEMÁS n·Vq(n,t) = qn, ES DECIR: (n,m,d)-CÓDIGO q-ARIO: TEORÍA DE LA INFORMACIÓN - CÓDIGOS 120 CÓDIGOS PERFECTOS LA EFICIENCIA Y LA CAPACIDAD DE CORREGIR ERRORES SON INCOMPATIBLES: PARA CORREGIR ERRORES LAS PALABRAS DEBEN SER LARGAS, CON LO QUE SE REDUCE LA EFICIENCIA. SE BUSCAN CÓDIGOS ÓPTIMOS QUE COMBINEN ESTAS DOS PROPIEDADES. DEFINICIÓN: LA TASA DE CORRECCIÓN DE ERRORES DE UN (n,m,d)-CÓDIGO C ES: ES EL NÚMERO DE ERRORES QUE SE CORRIGEN EN RELACIÓN A LA LONGITUD DE LAS PALABRAS. TEORÍA DE LA INFORMACIÓN - CÓDIGOS 121 CÓDIGOS PERFECTOS EJEMPLO: TEORÍA DE LA INFORMACIÓN - CÓDIGOS 122 CÓDIGOS PERFECTOS CUANTO MAYOR SEA LA LONGITUD DEL CÓDIGO MÁS AUMENTA LA TASA DE CORRECCIÓN DE ERRORES (HASTA EL LÍMITE DE 0.5). NO SE CORRIGEN ERRORES CUANDO TODAS LAS PALABRAS DE An SON PALABRAS DEL CÓDIGO. EL PROBLEMA DE CUÁLES SON LOS MEJORES CÓDIGO AÚN NO ESTÁ RESUELTO. LA TASA DE CORRECCIÓN DE ERRORES ESTÁ DADA POR d Y n: SE FIJAN d Y n Y SE TRATA DE OPTIMIZAR m PARA QUE EL CÓDIGO TENGA R LO MAYOR POSIBLE. TEORÍA DE LA INFORMACIÓN - CÓDIGOS 123 CÓDIGOS PERFECTOS SE DEFINE: Aq(n,d) := MAX {m / EXISTE (n,m,d)-CÓDIGO q-ARIO}. UN (n, Aq(n,d),d)-CÓDIGO SE DICE QUE ES UN CÓDIGO OPTIMABLE. PROBLEMA PRINCIPAL DE LA TEORÍA DE CÓDIGOS: DETERMINAR EL VALOR DE Aq(n,d). TEORÍA DE LA INFORMACIÓN - CÓDIGOS 124 CÓDIGOS PERFECTOS SEGÚN SHANNON EN “A MATHEMATICA THEORY OF COMMUNICATION”: TEOREMA DEL CANAL RUIDOSO: ESTE TEOREMA DEMUESTRA QUE EXISTEN BUENOS CÓDIGOS PERO NO DICE CÓMO OBTENERLOS. PARA UN BSC CON PROBABILIDAD DE PASO p LA CAPACIDAD ES: SE CONSIDERA UN BSC CON CAPACIDAD C(p): SI R(C) < C(p) ENTONCES PARA CADA > 0 EXISTE UN (n,m)CÓDIGO C CUYA TASA DE TRANSMISIÓN ES MAYOR O IGUAL QUE R Y PARA EL CUAL P(ERROR DE DESCODIFICACIÓN) < . TEORÍA DE LA INFORMACIÓN - CÓDIGOS 125 CÓDIGOS PERFECTOS EJEMPLO: BSC CON p = 0.01; C(p) = 0.919 (CASI 92%). PODEMOS ENCONTRAR UN CÓDIGO CON R = 0.919 Y CON PROBABILIDAD DE ERROR ARBITRARIAMENTE BAJA. TEORÍA DE LA INFORMACIÓN - CÓDIGOS 126 CÓDIGOS LINEALES TEORÍA DE LA INFORMACIÓN - CÓDIGOS 127 CÓDIGOS LINEALES LOS CÓDIGOS LINEALES SON ESPACIOS VECTORIALES SOBRE UN CUERPO FINITO. LOS ALFABETOS QUE USAREMOS SON CUERPOS FINITOS (K). Zp = {0,1....p-1}. q = pr: p PRIMO. Fq: CUERPO FINITO CON q ELEMENTOS. EN PARTICULAR, SI q = p (PRIMO), ENTONCES Fq = Fp = Zp. F2 = Z2 = {0,1}. F3 = {0,1,2}. F5 = {0,1,2,3,4}. DEFINICIÓN: UN CÓDIGO LINEAL DE LONGITUD n SOBRE K ES UN K-SUBESPACIO VECTORIAL C DE Kn. TEORÍA DE LA INFORMACIÓN - CÓDIGOS 128 CÓDIGOS LINEALES K = Z2. EN EL CASO BINARIO LA SUMA DE DOS PALABRAS DEBE SER UNA PALABRA DEL CÓDIGO. C = {010}: NO ES UN CÓDIGO LINEAL, YA QUE NO CONTIENE A 000. C = {000,010,110}: NO ES UN CÓDIGO LINEAL YA QUE 110 + 010 = 100 C. TEORÍA DE LA INFORMACIÓN - CÓDIGOS 129 CÓDIGOS LINEALES UN CÓDIGO LINEAL BINARIO TIENE UN NÚMERO DE PALABRAS QUE ES POTENCIA DE 2. UN CÓDIGO LINEAL C SOBRE K DE LONGITUD n Y DIMENSIÓN k SE DICE QUE ES UN [n,k]-CÓDIGO (LINEAL): SI LA DISTANCIA ES d, SE DICE QUE ES UN [n,k,d]-CÓDIGO. TEORÍA DE LA INFORMACIÓN - CÓDIGOS 130 CÓDIGOS LINEALES DEFINICIÓN: SEA C UN CÓDIGO (NO NECESARIAMENTE LINEAL) Y v C UNA PALABRA DEL CÓDIGO. SE DEFINE EL PESO DE v COMO EL NÚMERO w(v) DE SÍMBOLOS NO NULOS DE v: v = 10010: w(v) = 2. PROPOSICIÓN: SEA C UN CÓDIGO LINEAL Y u,v C. ENTONCES SE VERIFICA: d(u,v) = w(u-v). w(u) = d(u,0). DEFINICIÓN: SEA C UN CÓDIGO. SE LLAMA PESO DE C (O PESO MÍNIMO DE C) A: PROPOSICIÓN: SI C ES UN CÓDIGO LINEAL ENTONCES d(C) = w(C). TEORÍA DE LA INFORMACIÓN - CÓDIGOS 131 MATRICES GENERATRICES Y MATRICES DE CONTROL – CÓDIGOS CORRECTORES TEORÍA DE LA INFORMACIÓN - CÓDIGOS 132 MATRICES GENERATRICES Y MATRICES DE CONTROL – CÓDIGOS CORRECTORES DEFINICIÓN: SEA C UN [n,k]-CÓDIGO LINEAL SOBRE UN CUERPO K (C Kn). UNA MATRIZ GENERATRIZ DE C ES UNA MATRIZ DE Mkxn(K) CUYAS FILAS FORMAN UNA BASE DE C. C = <101101, 011000, 110101, 001010> ES UN [6,3]-CÓDIGO. TEORÍA DE LA INFORMACIÓN - CÓDIGOS 133 MATRICES GENERATRICES Y MATRICES DE CONTROL – CÓDIGOS CORRECTORES PARA QUE UNA MATRIZ SEA GENERATRIZ SUS FILAS DEBEN SER UNA BASE DEL CÓDIGO, DEBEN SER UN CONJUNTO LI (LINEALMENTE INDEPENDIENTE). LA MATRIZ DEBE TENER RANGO k (= NÚMERO DE FILAS). PROPOSICIÓN: SI G Mkxn(K) CON k n, G ES MATRIZ GENERATRIZ DE UN CÓDIGO LINEAL SOBRE K ([n,k]-CÓDIGO) SI Y SÓLO SI rg(G) = (G) = k. TEORÍA DE LA INFORMACIÓN - CÓDIGOS 134 MATRICES GENERATRICES Y MATRICES DE CONTROL – CÓDIGOS CORRECTORES PROPOSICIÓN: SEA C UN [n,k]-CÓDIGO LINEAL SOBRE K Y G UNA MATRIZ GENERATRIZ DE C: ENTONCES: LA SIGUIENTE APLICACIÓN ES UN ISOMORFISMO DE kESPACIOS VECTORIALES. INTERESA ENCONTRAR MATRICES GENERATRICES LO MÁS SENCILLAS POSIBLES PARA QUE LA DESCODIFICACIÓN SEA SENCILLA. TEORÍA DE LA INFORMACIÓN - CÓDIGOS 135 MATRICES GENERATRICES Y MATRICES DE CONTROL – CÓDIGOS CORRECTORES DEFINICIÓN: SEA C UN (n,m,d)-CÓDIGO q-ARIO SOBRE UN ALFABETO A. SE CONSIDERAN LOS DOS TIPOS DE OPERACIONES SIGUIENTES: 1) SEA UNA PERMUTACIÓN DEL CONJUNTO DE ÍNDICES {1, 2, .... N}. ES UNA APLICACIÓN BIYECTIVA DE UN CONJUNTO EN SI MISMO. EJEMPLO: PARA CADA PALABRA DEL CÓDIGO u = u1u2 ...un, ui A, SE SUSTITUYE u POR LA PALABRA u(1) u(2) ... u(n) (PERMUTACIÓN POSICIONAL). TEORÍA DE LA INFORMACIÓN - CÓDIGOS 136 MATRICES GENERATRICES Y MATRICES DE CONTROL – CÓDIGOS CORRECTORES 2) SEA PARA CADA ÍNDIDE i {1, 2, ....n}, i: A A UNA PERMUTACIÓN. SE SUSTITUYE CADA PALABRA DEL CÓDIGO u = u1u2 ...un POR u1u2 ... i (ui)... un (PERMUTACIÓN DE SÍMBOLOS). EJEMPLO: i = 3. TEORÍA DE LA INFORMACIÓN - CÓDIGOS 137 MATRICES GENERATRICES Y MATRICES DE CONTROL – CÓDIGOS CORRECTORES DEFINICIÓN: EL CÓDIGO C´ ES EQUIVALENTE AL CÓDIGO C CUANDO C´ SE OBTIENE A PARTIR DE C MEDIANTE UNA SUCESIÓN FINITA DE OPERACIONES DE LOS 2 TIPOS ANTERIORES. EJEMPLO: C’ = {11120, 10221, 21020, 10120, 22011} TEORÍA DE LA INFORMACIÓN - CÓDIGOS 138 MATRICES GENERATRICES Y MATRICES DE CONTROL – CÓDIGOS CORRECTORES AHORA SE APLICA: SE APLICA 1: SE APLICA 4: TEORÍA DE LA INFORMACIÓN - CÓDIGOS 139 MATRICES GENERATRICES Y MATRICES DE CONTROL – CÓDIGOS CORRECTORES ESTA RELACIÓN ES UNA RELACIÓN DE EQUIVALENCIA, ES DECIR, CUMPLE LAS PROPIEDADES REFLEXIVA, SIMÉTRICA Y TRANSITIVA. ESTAS OPERACIONES CONSERVAN TODOS LOS PARÁMETROS DEL CÓDIGO (LONGITUD, TAMAÑO Y DISTANCIA ENTRE PALABRAS): DOS CÓDIGOS EQUIVALENTES TIENEN LOS MISMOS PARÁMETROS Y LA MISMA DISTANCIA MÍNIMA, CON LO QUE TIENEN LA MISMA CAPACIDAD DE CORREGIR ERRORES. PROPOSICIÓN: SEA C UN CÓDIGO DE LONGITUD n SOBRE EL ALFABETO A Y u An. ENTONCES EXISTE UN CÓDIGO C´ EQUIVALENTE A C Y TAL QUE u C´. TEORÍA DE LA INFORMACIÓN - CÓDIGOS 140 MATRICES GENERATRICES Y MATRICES DE CONTROL – CÓDIGOS CORRECTORES DEFINICIÓN: UNA MATRIZ GENERATRIZ G DE UN [n,k]-CÓDIGO SE DICE NORMALIZADA O ESTÁNDAR CUANDO ES DE LA FORMA SIGUIENTE: Ik ES LA MATRIZ IDENTIDAD DE Mk(K) (MATRICES CUADRADAS k X k). SI UN CÓDIGO C TIENE UNA MATRIZ GENERATRIZ ESTÁNDAR SE DICE QUE C ES UN CÓDIGO SISTEMÁTICO. TEORÍA DE LA INFORMACIÓN - CÓDIGOS 141 MATRICES GENERATRICES Y MATRICES DE CONTROL – CÓDIGOS CORRECTORES EJEMPLO: [5,3]-CÓDIGO. A: k FILAS Y n-k COLUMNAS. A Mkx(n-k)(K). n = k, Kn = C. TEORÍA DE LA INFORMACIÓN - CÓDIGOS 142 MATRICES GENERATRICES Y MATRICES DE CONTROL – CÓDIGOS CORRECTORES [n,n]-CÓDIGO. UN CÓDIGO DE ESTE TIPO ES EL CÓDIGO ASCII ESTÁNDAR. TEORÍA DE LA INFORMACIÓN - CÓDIGOS 143 MATRICES GENERATRICES Y MATRICES DE CONTROL – CÓDIGOS CORRECTORES EL CÓDIGO ASCII CON BIT DE PARIDAD: ES UN (8,128,2)-CÓDIGO. ES UN CÓDIGO LINEAL YA QUE SI SUMAMOS 2 PALABRAS CON UN NÚMERO PAR DE UNOS OBTENEMOS UNA PALABRA CON UN NÚMERO PAR DE UNOS. ES UN [8,7]-CÓDIGO. TEORÍA DE LA INFORMACIÓN - CÓDIGOS 144 MATRICES GENERATRICES Y MATRICES DE CONTROL – CÓDIGOS CORRECTORES PROPOSICIÓN: SE VERIFICAN LAS SIGUIENTE PROPIEDADES: I) TODO CÓDIGO LINEAL ES EQUIVALENTE A UN CÓDIGO SISTEMÁTICO. II) UN CÓDIGO SISTEMÁTICO POSEE UNA ÚNICA MATRIZ GENERATRIZ ESTÁNDAR. III) SI C ES UN [n,k]-CÓDIGO SISTEMÁTICO ENTONCES PARA CADA u = u1u2 ...un Kk EXISTE UNA ÚNICA PALABRA DE CÓDIGO Cu C DE LA FORMA Cu = u1u2 ...uk xk+1...xn. TOMAMOS TODO Kk Y LE AÑADIMOS n-k SÍMBOLOS DE TAL FORMA QUE EL CÓDIGO SIGA SIENDO UN EV. LAS k PRIMERAS COMPONENTES SE LLAMAN SÍMBOLOS DE INFORMACIÓN Y LAS n-k SIGUIENTES SE LLAMAN SÍMBOLOS DE CONTROL O SÍMBOLOS DE REDUNDANCIA. TEORÍA DE LA INFORMACIÓN - CÓDIGOS 145 MATRICES GENERATRICES Y MATRICES DE CONTROL – CÓDIGOS CORRECTORES CÓDIGO ASCII CON BIT DE PARIDAD: LAS 7 PRIMERAS POSICIONES NO CORRIGEN ERRORES, FORMAN TODO Z72. SE AÑADE UN SÍMBOLO DE CONTROL PARA PERMITIR LA DETECCIÓN DE ERRORES. TEORÍA DE LA INFORMACIÓN - CÓDIGOS 146 MATRICES GENERATRICES Y MATRICES DE CONTROL – CÓDIGOS CORRECTORES DIFERENCIA ENTRE LA DESCODIFICACIÓN DE FUENTE Y LA DESCODIFICACIÓN DE CANAL: LA DESCODIFICACIÓN DE CANAL CONSISTE EN: USAR UN CÓDIGO DETECTOR DE ERRORES. RECIBIR LAS PALABRAS TRANSMITIDAS. SI ÉSTAS NO SON PALABRAS DEL CÓDIGO: POR ALGÚN MÉTODO SUSTITUIR LA PALABRA RECIBIDA POR UNA PALABRA DEL CÓDIGO. LA DESCODIFICACIÓN DE LA FUENTE CONSISTE EN: TOMAR LA INFORMACIÓN Y PASARLA A SU FORMATO ORIGINAL. EN EL CASO DE LOS CÓDIGOS LINEALES LA CODIFICACIÓN Y DESCODIFICACIÓN DE FUENTE ES BASTANTE EFICIENTE. TEORÍA DE LA INFORMACIÓN - CÓDIGOS 147 MATRICES GENERATRICES Y MATRICES DE CONTROL – CÓDIGOS CORRECTORES SEA G LA MATRIZ GENERATRIZ DE UN [n,k]-CÓDIGO C SOBRE K. ESTA APLICACIÓN ES UN ISOMORFISMO DE EV. PARA CODIFICAR SE CODIFICA POR BLOQUES: SE CONSTRUYE LA FUENTE COMO ELEMENTOS DE Kk. SE APLICA EL ISOMORFISMO PASAMOS AL CÓDIGO C. TEORÍA DE LA INFORMACIÓN - CÓDIGOS 148 MATRICES GENERATRICES Y MATRICES DE CONTROL – CÓDIGOS CORRECTORES LA DESCODIFICACIÓN DE FUENTE CONSISTE EN: UNA VEZ QUE SE HA RECIBIDO xG RECUPERAR x. ESTO SE HACE RESOLVIENDO UN SISTEMA DE ECUACIONES LINEALES. TEORÍA DE LA INFORMACIÓN - CÓDIGOS 149 MATRICES GENERATRICES Y MATRICES DE CONTROL – CÓDIGOS CORRECTORES ESTE SISTEMA TIENE RANGO k: TIENE SOLUCIÓN ÚNICA. HAY k ECUACIONES LI (LINEALMENTE INDEPENDIENTES): PODEMOS ELIMINAR n-k ECUACIONES. EL NÚMERO DE INCÓGNITAS ES IGUAL AL RANGO DEL SISTEMA. LA SOLUCIÓN ES ÚNICA. TEORÍA DE LA INFORMACIÓN - CÓDIGOS 150 MATRICES GENERATRICES Y MATRICES DE CONTROL – CÓDIGOS CORRECTORES DEFINICIÓN: SEA C UN [n,k]. EL CÓDIGO DUAL (CÓDIGO ORTOGONAL) DE C ES EL ESPACIO VECTORIAL ORTOGONAL DE C CON RESPECTO AL PRODUCTO ESCALAR ORDINARIO DE Kn, ES DECIR: PROPOSICIÓN: SI C ES UN [n,k]-CÓDIGO ENTONCES C ES UN [n,nk]-CÓDIGO. TEORÍA DE LA INFORMACIÓN - CÓDIGOS 151 MATRICES GENERATRICES Y MATRICES DE CONTROL – CÓDIGOS CORRECTORES EJEMPLO: TEORÍA DE LA INFORMACIÓN - CÓDIGOS 152 MATRICES GENERATRICES Y MATRICES DE CONTROL – CÓDIGOS CORRECTORES DEFINICIÓN: SE LLAMA MATRIZ DE CONTROL (PARITY-CHECK MATRIX) DE C A CUALQUIER MATRIZ GENERATRIZ DE C. SI H ES UNA MATRIZ DE CONTROL DE C ENTONCES: SI C ES UN [n,k]-CÓDIGO Y H ES UNA MATRIZ DE CONTROL DE C, H M(n-k)xn(K). TEORÍA DE LA INFORMACIÓN - CÓDIGOS 153 MATRICES GENERATRICES Y MATRICES DE CONTROL – CÓDIGOS CORRECTORES DEFINICIÓN: UN CÓDIGO LINEAL C SE DICE AUTODUAL CUANDO COINCIDE CON SU DUAL: C = C . PROPOSICIÓN: SEA C UN CÓDIGO LINEAL SISTEMÁTICO QUE TIENE UNA MATRIZ GENERATRIZ ESTÁNDAR G = (Ik | A). ENTONCES P = (At | -In-k) ES UNA MATRIZ DE CONTROL DE C. DEFINICIÓN: SE DICE QUE LA MATRIZ DE CONTROL P DEL CÓDIGO C ES UNA MATRIZ DE CONTROL ESTÁNDAR CUANDO ES DE LA FORMA P = (B | In-k). SEA C EL CÓDIGO BINARIO DE MATRIZ GENERATRIZ: TEORÍA DE LA INFORMACIÓN - CÓDIGOS 154 MATRICES GENERATRICES Y MATRICES DE CONTROL – CÓDIGOS CORRECTORES SE TIENE C = H2 (3) (CÓDIGO DE HAMMING); HALLAR UNA MATRIZ DE CONTROL DE C. TEORÍA DE LA INFORMACIÓN - CÓDIGOS 155 MATRICES GENERATRICES Y MATRICES DE CONTROL – CÓDIGOS CORRECTORES CARACTERÍSTICAS DE LAS MATRICES GENERATRICES Y LAS MATRICES DE CONTROL: LA VENTAJA DE LA MATRIZ GENERATRIZ ES QUE A PARTIR DE ELLA ES MÁS FÁCIL OBTENER LAS PALABRAS DEL CÓDIGO (CL (COMBINACIÓN LINEAL) DE SUS FILAS). PARA EL CÁLCULO DE LA DISTANCIA MÍNIMA ES MEJOR TENER LA MATRIZ DE CONTROL: A PARTIR DE LA MATRIZ GENERATRIZ NO SE CONOCE NINGÚN MÉTODO DIRECTO PARA OBTENER w(C). A PARTIR DE LA MATRIZ DE CONTROL SÍ. PROPOSICIÓN: SEA P UNA MATRIZ DE CONTROL DE UN [n,k,d]CÓDIGO LINEAL: ENTONCES LA DISTANCIA MÍNIMA d ES EL MENOR ENTERO POSITIVO r PARA EL CUAL EXISTEN r COLUMNAS LINEALMENTE DEPENDIENTES EN LA MATRIZ P. TEORÍA DE LA INFORMACIÓN - CÓDIGOS 156 MATRICES GENERATRICES Y MATRICES DE CONTROL – CÓDIGOS CORRECTORES LOS CÓDIGOS LINEALES TIENEN UN MÉTODO DE DESCODIFICACIÓN (DE CANAL) MUY BUENO. SEA C UN [n,k]-CÓDIGO LINEAL Y H UNA MATRIZ DE CONTROL DE C, H M(n-k)xn(K). LA MATRIZ H DEFINE UNA APLICACIÓN LINEAL: DEFINICIÓN: SUPONGAMOS QUE SE TRANSMITE LA PALABRA x C Kn Y QUE LA PALABRA RECIBIDA ES y Kn. ENTONCES A LA DIFERENCIA = y – x Kn SE LE LLAMA PALABRA DE ERROR. SE PUEDE DEMOSTRAR QUE: TEORÍA DE LA INFORMACIÓN - CÓDIGOS 157 MATRICES GENERATRICES Y MATRICES DE CONTROL – CÓDIGOS CORRECTORES DEFINICIÓN: SEA C UN [n,k]-CÓDIGO CON MATRIZ DE CONTROL H: DADO x Kn SE LLAMA SÍNDROME DE x A LA PALABRA h(x) = xHt Kn-k. x C SI Y SÓLO SI EL SÍNDROME DE x ES 0. PROPOSICIÓN: SEA C UN [n,k]-CÓDIGO LINEAL CON MATRIZ DE CONTROL H: SI x,y Kn, x E y TIENEN EL MISMO SÍNDROME SI Y SÓLO SI PERTENECEN A LA MISMA CLASE DEL ESPACIO COCIENTE Kn/C. LA DESCODIFICACIÓN POR DISTANCIA MÍNIMA CONSISTE EN: BUSCAR “LA PALABRA DE PESO MÍNIMO ENTRE TODAS LAS QUE TIENEN EL MISMO SÍNDROME QUE LA PALABRA RECIBIDA y”. CALCULAR x = y - . TEORÍA DE LA INFORMACIÓN - CÓDIGOS 158 MATRICES GENERATRICES Y MATRICES DE CONTROL – CÓDIGOS CORRECTORES ESQUEMA: SE CALCULA EL SÍNDROME DE LA PALABRA RECIBIDA y, h(y) = yHt. SE DETERMINA LA CLASE LATERAL ASOCIADA A ESTE SÍNDROME, y+C. SE BUSCA EN ESTA CLASE LA PALABRA DE PESO MÍNIMO . SE CALCULA x = y - . SI C ES UN CÓDIGO t-CORRECTOR Y EN LA TRANSMISIÓN SE HAN COMETIDO t O MENOS ERRORES: EN LA CLASE y+C HAY UNA ÚNICA PALABRA DE PESO MENOR O IGUAL QUE y QUE ES LA PALABRA DE ERROR . TEORÍA DE LA INFORMACIÓN - CÓDIGOS 159 MATRICES GENERATRICES Y MATRICES DE CONTROL – CÓDIGOS CORRECTORES DESCODIFICACIÓN POR SÍNDROME: SE CONSTRUYE LA TABLA ESTÁNDAR: SEA C UN [n,k]-CÓDIGO DE TAMAÑO m(=qk), C Kn. TEORÍA DE LA INFORMACIÓN - CÓDIGOS 160 MATRICES GENERATRICES Y MATRICES DE CONTROL – CÓDIGOS CORRECTORES SEA u2 UNA PALABRA DE Kn-C DE PESO MINIMAL. LA 2ª FILA ESTÁ FORMADA POR LAS PALABRAS DE u2+C. SEA u3 UNA PALABRA DE Kn-C QUE NO PERTENECE A u2+C DE PESO MINIMAL. SE REPITE ESTO qn-k VECES. Kn ES LA UNIÓN DISJUNTA DE LAS CLASE u+C. LAS PALABRAS DE LA 1ª COLUMNA DE LA TABLA ESTÁNDAR SE LLAMAN LÍDERES DE CLASE Y TIENEN PESO MINIMAL DENTRO DE LA CLASE. SI C ES t-CORRECTOR, CUALQUIER PALABRA DE Kn DE PESO MENOR O IGUAL QUE t ES LÍDER DE CLASE. TEORÍA DE LA INFORMACIÓN - CÓDIGOS 161 MATRICES GENERATRICES Y MATRICES DE CONTROL – CÓDIGOS CORRECTORES EN EL CASO BINARIO EL CÁLCULO DEL SÍNDROME SE REALIZA TOMANDO LA MATRIZ DE CONTROL: SE CONSIDERAN LAS COMPONENTES NO NULAS DE LA PALABRA RECIBIDA. SE SUMAN LAS COLUMNAS DE LA MATRIZ DE CONTROL QUE OCUPAN LAS POSICIONES NO NULAS DE LA PALABRA RECIBIDA. EJEMPLO: SEA C EL CÓDIGO CON MATRIZ DE CONTROL: TEORÍA DE LA INFORMACIÓN - CÓDIGOS 162 MATRICES GENERATRICES Y MATRICES DE CONTROL – CÓDIGOS CORRECTORES CONSTRUIR LA TABLA ESTÁNDAR Y DESCODIFICAR LAS PALABRAS RECIBIDAS: 11101, 00110 Y 01101. EN PRIMER LUGAR SE DETERMINA UNA MATRIZ GENERATRIZ PARA HALLAR LAS PALABRAS DEL CÓDIGO. C ES UN [5,2]-CÓDIGO. SI SE CALCULA LA MATRIZ DE CONTROL DEL CÓDIGO DUAL SE OBTIENE UNA MATRIZ GENERATRIZ DEL DUAL DEL DUAL, QUE ES EL CÓDIGO C. H ES UNA MATRIZ DE CONTROL ESTÁNDAR ASÍ EL CÓDIGO ES SISTEMÁTICO. TEORÍA DE LA INFORMACIÓN - CÓDIGOS 163 MATRICES GENERATRICES Y MATRICES DE CONTROL – CÓDIGOS CORRECTORES LA DISTANCIA MÍNIMA ES EL NÚMERO MÍNIMO DE COLUMNAS LD (LINEALMENTE DEPENDIENTES) DE LA MATRIZ DE CONTROL. rg(H) = 3 4 COLUMNAS SERÁN LD. NO HAY NINGUNA COLUMNA QUE SEA 0, ASÍ d > 1. DOS COLUMNAS LD, EN EL CASO BINARIO, SERÍAN IGUALES, COMO NO HAY DOS COLUMNAS IGUALES d > 2. HAY 3 COLUMNAS LD (1ª = 4ª + 5ª), ASÍ d = 3. EL CÓDIGO ES 1-CORRECTOR. TEORÍA DE LA INFORMACIÓN - CÓDIGOS 164 MATRICES GENERATRICES Y MATRICES DE CONTROL – CÓDIGOS CORRECTORES LA TABLA ESTÁNDAR SE CONSTRUYE COMO SIGUE: LAS PALABRAS LÍDERES INDICAN CON 1 DÓNDE SE PRODUCE EL ERROR. LA SEGUNDA Y LA TERCERA COLUMNA SON LAS PALABRAS DEL CÓDIGO MÁS EL LÍDER CORRESPONDIENTE: ESTO SIGNIFICA QUE ALLÍ ESTARÁN LAS PALABRAS ERRÓNEAS QUE SE PUEDEN ASOCIAR A UNA VÁLIDA, QUE SERÁ LA PRIMERA DE LA COLUMNA. LOS SÍNDROMES SE CALCULAN MULTIPLICANDO EL LÍDER POR H TRASPUESTA. LA CUARTA COLUMNA ES LA SUMA DEL LÍDER MÁS LAS PALABRAS DE LAS COLUMNAS SEGUNDA Y TERCERA. SE PARTE DE LAS PALABRAS 10011 Y 01101 QUE PROVIENEN DE G. TEORÍA DE LA INFORMACIÓN - CÓDIGOS 165 MATRICES GENERATRICES Y MATRICES DE CONTROL – CÓDIGOS CORRECTORES TEORÍA DE LA INFORMACIÓN - CÓDIGOS 166 MATRICES GENERATRICES Y MATRICES DE CONTROL – CÓDIGOS CORRECTORES EN UN CÓDIGO t-CORRECTOR TODAS LAS PALABRAS DE PESO MENOR O IGUAL QUE t VAN A SER LÍDERES DE CLASE. AHORA SE DEBE TOMAR LA PALABRA DE PESO 2 QUE NO SE HAYA PUESTO (HASTA LA 6ª FILA). SE PONE UNA PALABRA DE PESO 2 Y SE OBTIENE SU SÍNDROME: SI ÉSTE YA HA SALIDO ES QUE LA PALABRA YA HA SALIDO Y SE DEBE TOMAR OTRA PALABRA. NO PUEDE HABER OCURRIDO UN ERROR YA QUE SE HA RECIBIDO UNA PALABRA DEL CÓDIGO. TAMPOCO SE PUEDEN HABER COMETIDO 2 ERRORES, PERO SÍ SE PUDIERON COMETER 3 ERRORES. TEORÍA DE LA INFORMACIÓN - CÓDIGOS 167 MATRICES GENERATRICES Y MATRICES DE CONTROL – CÓDIGOS CORRECTORES h(y) = 011 SE BUSCA EL LÍDER DE CLASE DE ESTE SÍNDROME. ESTA ES LA ÚNICA PALABRA QUE SE PUEDE OBTENER SI SE HA PRODUCIDO UN ÚNICO ERROR. SI HUBIESEN OCURRIDO 2 ERRORES LA PALABRA REAL PODRÍA SER OTRA PERO ESTE CÓDIGO SÓLO CORRIGE UN ERROR. TEORÍA DE LA INFORMACIÓN - CÓDIGOS 168 MATRICES GENERATRICES Y MATRICES DE CONTROL – CÓDIGOS CORRECTORES ESTA PALABRA ES LA PALABRA DE CÓDIGO QUE APARECE EN LA COLUMNA DE LA PALABRA EN LA TABLA. EL LÍDER DE CLASE ES 11000, QUE TIENE PESO 2: SI SE HAN COMETIDO AL MENOS 2 ERRORES, COMO EL CÓDIGO ES 1-CORRECTOR NO SE TENDRÁ LA SEGURIDAD DE HACER LA DESCODIFICACIÓN CORRECTA. SE DESCODIFICARÍA COMO: TEORÍA DE LA INFORMACIÓN - CÓDIGOS 169 MATRICES GENERATRICES Y MATRICES DE CONTROL – CÓDIGOS CORRECTORES SI SE HAN COMETIDO 2 ERRORES LA PALABRA RECIBIDA PODRÍA HABER SIDO 00000. SI SE HAN COMETIDO 2 ERRORES CUALQUIERA DE ESTAS DOS PALABRAS PODRÍA HABER SIDO TRANSMITIDA. ESTE MÉTODO TIENE UN INCONVENIENTE YA QUE LA TABLA ESTÁNDAR PUEDE SER GRANDE: EN UN CÓDIGO BINARIO DE LONGITUD 100 EN LA TABLA HABRÍA QUE PONER 2100 PALABRAS (SIN CONTAR SÍNDROMES). ESTO HACE QUE PARA CÓDIGOS DE ESTOS TAMAÑOS LA TABLA SEA INABORDABLE. EN ESTOS CASOS SE UTILIZARÍA UNA TABLA REDUCIDA CON 2 COLUMNAS, LA COLUMNA DE LOS LÍDERES DE CLASE Y LA DE LOS SÍNDROMES. SE TENDRÍA LO SIGUIENTE: TEORÍA DE LA INFORMACIÓN - CÓDIGOS 170 MATRICES GENERATRICES Y MATRICES DE CONTROL – CÓDIGOS CORRECTORES EN PRIMER LUGAR SE COLOCAN LAS PALABRAS DE PESO UNO Y SU SÍNDROME; LUEGO LAS DE PESO 2. PROPOSICIÓN: SI C ES UN [n,k,d]-CÓDIGO LINEAL ENTONCES d n-k+1. DEFINICIÓN: UN [n,k,d]-CÓDIGO LINEAL C SE DICE QUE ES UN CÓDIGO MDS (MAXIMUN DISTANCE SEPARABLE CODE) CUANDO d = n-k+1. TEORÍA DE LA INFORMACIÓN - CÓDIGOS 171 CÓDIGO DE HAMMING TEORÍA DE LA INFORMACIÓN - CÓDIGOS 172 CÓDIGO DE HAMMING LOS LLAMADOS CÓDIGOS ESPECIALES SON LOS CÓDIGOS DE: HAMMING. GOLAY. REED-MULLER. ESTOS CÓDIGOS TIENEN UN PROCEDIMIENTO DE DESCODIFICACIÓN ESPECIAL. SE TIENE UN [n,k]-CÓDIGO LINEAL; SU DISTANCIA MÍNIMA ES EL MÍNIMO NÚMERO DE COLUMNAS LD (LINEALMENTE DEPENDIENTES) DE UNA MATRIZ DE CONTROL. SEA d LA DISTANCIA MÍNIMA: SI SE TOMAN d-1 COLUMNAS CUALESQUIERA DE CUALQUIER MATRIZ DE CONTROL SERÁN LI (LINEALMENTE INDEPENDIENTES). HAY UN GRUPO DE d COLUMNAS LD (LINEALMENTE DEPENDIENTES). TEORÍA DE LA INFORMACIÓN - CÓDIGOS 173 CÓDIGO DE HAMMING SE CONSTRUIRÁ UN [n,k,3]-CÓDIGO LINEAL DE TAL FORMA QUE SU MATRIZ DE CONTROL TENGA: DOS COLUMNAS CUALESQUIERA LI. TRES COLUMNAS LD. EL CÓDIGO DE HAMMING q-ARIO DE ORDEN r (r Z, r 2) SERÁ UN CÓDIGO q-ARIO Hq(r) QUE TIENE UNA MATRIZ DE CONTROL Hq(r) CON: r = n – k FILAS. EL MÁXIMO NÚMERO POSIBLE DE COLUMNAS (SIENDO d = 3). LAS COLUMNAS DE Hq(r) SON VECTORES DE Frq. LA MATRIZ DE CONTROL DE Hq(r) ES UNA MATRIZ QUE TIENE r FILAS Y n = (qr-1)/(q-1) COLUMNAS: EL CÓDIGO Hq(r) ES UN [n,k,3]-CÓDIGO DONDE k = n – r. ESTA MATRIZ SE LLAMA MATRIZ DE HAMMING Y NO ES ÚNICA. TEORÍA DE LA INFORMACIÓN - CÓDIGOS 174 CÓDIGO DE HAMMING TEORÍA DE LA INFORMACIÓN - CÓDIGOS 175 CÓDIGO DE HAMMING TEORÍA DE LA INFORMACIÓN - CÓDIGOS 176 CÓDIGO DE HAMMING ESTOS FUERON LOS PRIMEROS CÓDIGOS CORRECTORES DE ERRORES. PROPOSICIÓN: LOS CÓDIGOS DE HAMMING SON CÓDIGOS PERFECTOS. PARA LA DESCODIFICACIÓN DE LOS CÓDIGOS DE HAMMING SE PARTE DE LA SIGUIENTE PROPOSICIÓN. PROPOSICIÓN: SI UNA PALABRA x H2(r) SUFRE UN ÚNICO ERROR RESULTANDO LA PALABRA y, ENTONCES EL SÍNDROME DE y, h(y), ES LA REPRESENTACIÓN BINARIA DE LA POSICIÓN DEL ERROR DE LA PALABRA RECIBIDA. TEORÍA DE LA INFORMACIÓN - CÓDIGOS 177 CÓDIGO DE HAMMING SE SUPONE QUE EL ERROR SE HA COMETIDO EN LA POSICIÓN i: y = x + i, i = 0 ... 0 1 0 ... 00 ES LA PALABRA DE ERROR. i SE CORRESPONDE CON EL 1. ENTONCES: LA COLUMNA i-ÉSIMA ES LA REPRESENTACIÓN BINARIA DEL NÚMERO i, i ES LA POSICIÓN DEL ERROR. CONOCIDO u SE CORRIGE EL ERROR CALCULANDO x = y - i, CAMBIANDO EL i-ÉSIMO BIT DE y. [7,4,3]-CÓDIGO. SE SUPONE QUE SE RECIBE LA PALABRA y = 1101110. TEORÍA DE LA INFORMACIÓN - CÓDIGOS 178 CÓDIGO DE HAMMING TEORÍA DE LA INFORMACIÓN - CÓDIGOS 179 CÓDIGO DE HAMMING 100 = 4 EL ERROR SE HA COMETIDO EN LA POSICIÓN 4. LA PALABRA DE ERROR ES e4 = (0001000). LA PALABRA EMITIDA ES x = y – e4 = 1100110. A ESTE MÉTODO DE DESCODIFICACIÓN SE LE LLAMA DESCODIFICACIÓN DE HAMMING. PROPOSICIÓN: SE SUPONE QUE UNA PALABRA x Hq(r) SUFRE UN ÚNICO ERROR, RESULTANDO LA PALABRA RECIBIDA y: SEA h(y) Kr EL SÍNDROME DE LA PALABRA RECIBIDA Y K EL SÍMBOLO MÁS SIGNIFICATIVO DE h(y). SI LA COLUMNA DE Hq(r) QUE CONTIENE A -1h(y) ES LA COLUMNA i-ÉSIMA ENTONCES LA PALABRA DE ERROR ES ei = (00 .... 00 .... 0), CON EN LA POSICIÓN i. SE VERIFICA QUE x = y – ei. TEORÍA DE LA INFORMACIÓN - CÓDIGOS 180 CÓDIGO DE HAMMING EJEMPLO: SE SUPONE QUE SE TIENE UN H3(3) Y QUE SE RECIBE LA PALABRA y = 1101112211201. SE DEBE DESCODIFICAR ESTA PALABRA. TEORÍA DE LA INFORMACIÓN - CÓDIGOS 181 CÓDIGO DE HAMMING h(y) NO ES UNA COLUMNA DE H3(3). (201) = 2 · (102). (102) ES LA 7ª COLUMNA DE H3(3): LA PALABRA DE ERROR ES e7 = 2·(0000001000000). LA PALABRA EMITIDA ES x = y – 2 e7 = 1101110211201. TEORÍA DE LA INFORMACIÓN - CÓDIGOS 182 CÓDIGO DE GOLAY TEORÍA DE LA INFORMACIÓN - CÓDIGOS 183 CÓDIGO DE GOLAY SE CONSIDERA EL CÓDIGO DE GOLAY BINARIO g24. EL CÓDIGO g24 ES EL CÓDIGO LINEAL BINARIO DE MATRIZ GENERATRIZ G: TEORÍA DE LA INFORMACIÓN - CÓDIGOS 184 CÓDIGO DE GOLAY A PARTIR DE LA 3ª FILA LAS FILAS SE OBTIENEN DESPLAZANDO LA FILA ANTERIOR UNA POSICIÓN A LA IZQUIERDA. SE CALCULARÁ LA DISTANCIA MÍNIMA DE ESTE CÓDIGO. PROPOSICIÓN: g24 ES UN CÓDIGO AUTODUAL: PROPOSICIÓN: LA MATRIZ (A|I12) ES UNA MATRIZ GENERATRIZ DE g24. CUANDO UN CÓDIGO ES AUTODUAL LA MATRIZ GENERATRIZ Y LA MATRIZ DE CONTROL SON IGUALES. TEORÍA DE LA INFORMACIÓN - CÓDIGOS 185 CÓDIGO DE GOLAY PROPOSICIÓN: SI C ES UN CÓDIGO BINARIO Y u,v C, ENTONCES: TEORÍA DE LA INFORMACIÓN - CÓDIGOS 186 CÓDIGO DE GOLAY PROPOSICIÓN: EL PESO DE CADA PALABRA DE g24 ES DIVISIBLE POR 4. PROPOSICIÓN: g24 NO TIENE PALABRAS DE PESO 4. g24 ES UN [24,12,8]-CÓDIGO. ESTE CÓDIGO SE USÓ PARA TRANSMITIR IMÁGENES DE JÚPITER Y SATURNO (VOYAGER 19791981). m = 212 = 4096. SEGÚN VERA PRESS (1968) CUALQUIER [24,12,8]-CÓDIGO LINEAL BINARIO ES EQUIVALENTE POR MÚLTIPLOS ESCALARES (EN LA MATRIZ GENERATRIZ SE PUEDEN MULTIPLICAR LAS COLUMNAS POR UN ESCALAR) AL CÓDIGO g24. SEGÚN DELSORTE-GOETHOLS (1975) LOS CÓDIGOS DE GOLAY SON LOS ÚNICOS CÓDIGOS LINEALES CON ESTOS PARÁMETROS. CUALQUIER (24,212,8)-CÓDIGO BINARIO ES EQUIVALENTE POR MÚLTIPLOS ESCALARES A g24. TEORÍA DE LA INFORMACIÓN - CÓDIGOS 187 CÓDIGO DE GOLAY EL CÓDIGO DE GOLAY BINARIO g23: SE OBTIENE A PARTIR DE g24 “PINCHANDO” UNA COMPONENTE: USUALMENTE SE ELIMINA EL ÚLTIMO SÍMBOLO DE TODAS LAS PALABRAS. n = 23, m = 212. LA DISTANCIA MÍNIMA O ES LA MISMA O DISMINUYE UNA UNIDAD: EN ESTE CASO AL ELIMINAR LA ÚLTIMA COLUMNA DE LA MATRIZ DE CONTROL DE g24 LA ÚLTIMA FILA TIENEN PESO 7, ASÍ d = 7. g23 ES UN [23,12,7]-CÓDIGO. g23 ES PERFECTO. g24 SE OBTIENE A PARTIR DE g23 AÑADIÉNDOLE UN BIT DE PARIDAD. TEORÍA DE LA INFORMACIÓN - CÓDIGOS 188 CÓDIGO DE GOLAY LOS CÓDIGOS DE GOLAY TERNARIOS: g12 TIENE POR MATRIZ GENERATRIZ G = (I6|B) DONDE A PARTIR DE LA 3ª FILA UNA FILA SE OBTIENE A PARTIR DE LA ANTERIOR DESPLAZÁNDOLA UNA POSICIÓN HACIA LA DERECHA. TEORÍA DE LA INFORMACIÓN - CÓDIGOS 189 CÓDIGO DE GOLAY PROPIEDADES: g12 ES AUTODUAL. B ES SIMÉTRICA. g12 ES UN [12,6,6]-CÓDIGO. EL CÓDIGO TERNARIO g11 OBTENIDO PINCHANDO g12 ES UN [11,6,5]-CÓDIGO PERFECTO. TEORÍA DE LA INFORMACIÓN - CÓDIGOS 190 CÓDIGO DE REED MULLER TEORÍA DE LA INFORMACIÓN - CÓDIGOS 191 CÓDIGO DE REED MULLER ESTOS CÓDIGOS SON FÁCILES DE DESCODIFICAR. DEFINICIÓN: UNA FUNCIÓN DE BOOLE DE m VARIABLES ES UNA APLICACIÓN: LAS FUNCIONES DE BOOLE SE SUELEN REPRESENTAR DANDO SU TABLA DE VERDAD. m = 3. TEORÍA DE LA INFORMACIÓN - CÓDIGOS 192 CÓDIGO DE REED MULLER PARA DAR LA FUNCIÓN BOOLEANA BASTA CON QUEDARSE CON LA ÚLTIMA FILA YA QUE DESCRIBE COMPLETAMENTE LA FUNCIÓN: SI SE ASUME QUE SIEMPRE SE TIENE EL MISMO ORDEN. EXISTE UNA CORRESPONDENCIA BIUNÍVOCA ENTRE FUNCIONES DE BOOLE DE m VARIABLES Y PALABRAS BINARIAS DE LONGITUD 2m. TEORÍA DE LA INFORMACIÓN - CÓDIGOS 193 CÓDIGO DE REED MULLER EN Bm SE DEFINE UNA SUMA: TEORÍA DE LA INFORMACIÓN - CÓDIGOS 194 CÓDIGO DE REED MULLER SE DEFINE UNA MULTIPLICACIÓN ESCALAR: SE DEFINEN LOS POLINOMIOS DE BOOLE COMO LOS ELEMENTOS DEL SIGUIENTE CONJUNTO: TEORÍA DE LA INFORMACIÓN - CÓDIGOS 195 CÓDIGO DE REED MULLER HAY mk MONOMIOS DE GRADO k EN m VARIABLES. TODOS LOS POSIBLES MONOMIOS DE m VARIABLES SON: PROPOSICIÓN: LA APLICACIÓN SIGUIENTE ES UN ISOMORFISMO DE Z2-ESPACIOS VECTORIALES Y A CADA POLINOMIO DE BOOLE F(x1,....xm) LE HACE CORRESPONDER LA FUNCIÓN DE BOOLE f(x1,....xm) DADA POR f(x1,....xm) = F(x1,....xm). TEORÍA DE LA INFORMACIÓN - CÓDIGOS 196 CÓDIGO DE REED MULLER DEFINICIÓN: SEA m UN ENTERO POSITIVO 0 r m. SE DEFINE EL CÓDIGO DE REED-MULLER R(r,m), DE LONGITUD 2m Y ORDEN r COMO EL CONJUNTO DE LAS PALABRAS BINARIAS DE Z2m2 ASOCIADAS A POLINOMIOS DE BOOLE DE Bm QUE TIENEN GRADO MENOR O IGUAL QUE r. TEORÍA DE LA INFORMACIÓN - CÓDIGOS 197 CÓDIGO DE REED MULLER EJEMPLOS: TEORÍA DE LA INFORMACIÓN - CÓDIGOS 198 CÓDIGO DE REED MULLER R(1,3). LOS POLINOMIOS DE BOOLE DE 3 VARIABLES Y GRADO MENOR O IGUAL QUE 1 SON DE LA FORMA: LOS 4 MONOMIOS FORMAN UNA BASE DEL ESPACIO DE LOS POLINOMIOS. LA PALABRA DE R(1,3) CORRESPONDIENTE A ESTE POLINOMIO SERÁ: LAS PALABRAS ENTRE PARÉNTESIS SON LOS POLINOMIOS QUE CORRESPONDEN A LOS POLINOMIOS DE BOOLE DE 4 VARIABLES. TEORÍA DE LA INFORMACIÓN - CÓDIGOS 199 CÓDIGO DE REED MULLER TEORÍA DE LA INFORMACIÓN - CÓDIGOS 200 CÓDIGO DE REED MULLER EXCEPTO LA PALABRA 1 Y LA 0 TODAS LAS PALABRAS TIENEN 4 UNOS Y 4 CEROS. EL PESO MÍNIMO ES 4, ASÍ ESTE CÓDIGO TIENE DISTANCIA MÍNIMA 4. PROPOSICIÓN: SEA F(x1...xm) = xm + p(x1...xm-1) DONDE p(x1...xm-1) ES UN POLINOMIO DE BOOLE: ENTONCES LA FUNCIÓN DE BOOLE INDUCIDA POR F TOMA LOS VALORES 0 Y 1 EL MISMO NÚMERO DE VECES, ES DECIR, 2m-1 VECES. PROPOSICIÓN: TODAS LAS PALABRAS DE R(1,m) TIENEN PESO MÍNIMO 2m-1, EXCEPTO LA PALABRA 00...0 Y LA PALABRA 11...1: EN CONSECUENCIA LA DISTANCIA MÍNIMA DE R(1,m) ES 2m-1. TEORÍA DE LA INFORMACIÓN - CÓDIGOS 201 CÓDIGO DE REED MULLER EN LOS CÓDIGOS DE REED-MULLER m NO ES EL TAMAÑO DEL CÓDIGO SI NO EL NÚMERO DE VARIABLES DEL POLINOMIO DE BOOLE QUE LE CORRESPONDE. PROPOSICIÓN: EL CÓDIGO DE REED-MULLER R(r,m) TIENE LONGITUD 2m Y DIMENSIÓN: LA TASA DE CÓDIGO ES: TEORÍA DE LA INFORMACIÓN - CÓDIGOS 202 CÓDIGO DE REED MULLER EJEMPLO: DETERMINAR CUÁLES DE LAS SIGUIENTES PALABRAS PERTENECEN AL CÓDIGO R(2,4): a) 1101 1110 0001 1001. b) 0011 0101 0011 1010. ESTE CÓDIGO TIENE LONGITUD 16; SE DEBE VER QUE LOS POLINOMIOS DE BOOLE QUE INDUCEN ESTAS PALABRAS TIENEN GRADO MENOR O IGUAL QUE 2. TEORÍA DE LA INFORMACIÓN - CÓDIGOS 203 CÓDIGO DE REED MULLER ESTE POLINOMIO DE BOOLE TIENE GRADO 4. LA PALABRA NO PERTENECE A R(2,4). ESTA PALABRA PERTENECE A R(2,4). DEFINICIÓN: SEA C1 UN (n,m1,d1)-CÓDIGO LINEAL Y C2 UN (n,m2,d2)-CÓDIGO LINEAL SOBRE UN CUERPO K. SE DEFINE UN CÓDIGO LINEAL SOBRE K: u(u+v) ES LA YUXTAPOSICIÓN DE LAS PALABRAS u Y u+v. TEORÍA DE LA INFORMACIÓN - CÓDIGOS 204 CÓDIGO DE REED MULLER PROPOSICIÓN: C1 C2 ES UN (2n,m1m2,d´)-CÓDIGO CON d´= min{2d1,d2}. PROPOSICIÓN: SEA 0 < r < m; SE VERIFICA QUE R(r,m) = R(r,m-1) R(r-1,m-1). TEORÍA DE LA INFORMACIÓN - CÓDIGOS 205 CÓDIGO DE REED MULLER COROLARIO: EL CÓDIGO DE REED-MULLER R(m-1,m) ESTÁ FORMADO POR TODAS LAS PALABRAS BINARIAS DE LONGITUD 2m Y PESO PAR: POR TANTO SI r < m R(r,m) SÓLO CONTIENE PALABRAS DE PESO PAR. EJEMPLO: R(2,3) ESTÁ FORMADO POR LAS PALABRAS BINARIAS DE LONGITUD 8 Y PESO PAR; UNA MATRIZ GENERATRIZ ES: TEORÍA DE LA INFORMACIÓN - CÓDIGOS 206 CÓDIGO DE REED MULLER ESTA ES LA MATRIZ GENERATRIZ DEL CÓDIGO ASCII CON PARIDAD. PROPOSICIÓN: R(r,m) TIENE DISTANCIA MÍNIMA 2m-r POR TANTO TIENE LOS SIGUIENTES PARÁMETROS: EJEMPLO: MARINER 4 (1965): 22 FOTOS DE MARTE DE 200 X 200 DE 64 NIVELES. 26 NIVELES 6 Z62 ={000000,...,111111}. 8 · 1/3 BITS/S, 1 FOTO 8 HORAS. TEORÍA DE LA INFORMACIÓN - CÓDIGOS 207 CÓDIGO DE REED MULLER EJEMPLO: MARINER 9 (1969-1971): 700 X 832 = 582480 PIXELS, 64 NIVELES. p = 0.05 , 1-p = 0.95, (0.95)6 0.74. APROXIMADAMENTE EL 26% DE LA IMAGEN SERÍA ERRÓNEA. SE INTRODUCEN APROXIMADAMENTE 30 BITS DE REDUNDANCIA. SI TOMAMOS UN CÓDIGO DE REPETICIÓN TENEMOS d = 5 Y EL CÓDIGO CORREGIRÍA 2 ERRORES. PROBABILIDAD DE ERROR = 1%. SIN CORRECCIÓN DE ERRORES HABRÍA UNOS 150000 PIXELS ERRÓNEOS POR FOTO: CON EL CÓDIGO DE REPETICIÓN HABRÍA 5800 PIXELS ERRÓNEOS POR FOTO. SE USÓ R(1,5), QUE ES UN [32,6,16]-CÓDIGO, EN ESTE CASO p = 0.01; CON ESTE CÓDIGO HABRÍA UNOS 58 PIXELS ERRÓNEOS POR FOTO. 16200 BITS/S. 700 X 832 X 32 BITS/PIXEL = 18636800 BITS. 1 IMAGEN 115000 S 32 HORAS. TEORÍA DE LA INFORMACIÓN - CÓDIGOS 208