Representación binaria de caracteres

Anuncio
Representación binaria de caracteres
Códigos EBCDIC, ASCII y Unicode
Código EBCDIC (Extended Binary Coded Decimal Inter Change Code)
Este código, adaptado del que se utilizaba en tarjetas perforadas, usa n = 8 bits para representar un
character, de forma que se puede codificar hasta 28 = 256 símbolos diferentes. Éste fue el primer código
utilizado para computadoras, en principio por las fabricadas por la empresa pionera IBM.
Código ASCII (American Standard Code for Information Interchange)
El código ASCII básico utilizaba inicialmente 7 bits y permitía representar 27 = 128 caracteres (letras
mayúsculas y minúsculas del alfabeto inglés, símbolos de puntuación, dígitos 0 a 9 y ciertos controles de
información tales como retorno de carro, salto de línea, tabulaciones, etc.).
Este código es el más utilizado en computadoras, aunque ya ampliado con 8 bits, que permite llegar a
28 = 256 caracteres distintos, entre ellos símbolos y caracteres especiales de otros idiomas como en el
español la ñ y las vocales acentuadas
1 Código Unicode
Unicode es un set de caracteres universal, es decir, un estándar en el que se definen todos los caracteres
necesarios para la escritura de la mayoría de los idiomas hablados en la actualidad que se usan en la
computadora. Su objetivo es ser, y, en gran medida, ya lo ha logrado, un superconjunto de todos los sets
de caracteres que se hayan codificado.
El texto que aparece en la computadora o en la Web se compone de caracteres. Los caracteres
representan letras del abecedario, signos de puntuación y otros símbolos.
En el pasado, distintas organizaciones han recopilado diferentes sets de caracteres y han creado
codificaciones específicas para ellos. Un set puede abarcar tan sólo los idiomas de Europa occidental con
base en el latín (sin incluir países de la UE como Bulgaria o Grecia), otro set puede contemplar un idioma
específico del Lejano Oriente (como el japonés), y otros pueden ser parte de distintos sets diseñados
especialmente para representar otro idioma de algún lugar del mundo.
Lamentablemente, no es posible garantizar que su aplicación particular pueda soportar todas las
codificaciones, ni que una determinada codificación pueda soportar todos sus requerimientos para la
representación de un cierto idioma. Además, generalmente resulta imposible combinar distintas
codificaciones en la misma página web o en una base de datos, por lo que siempre es muy difícil soportar
páginas plurilingües si se aplican enfoques "antiguos" cuando se trata de tareas de codificación.
El Consorcio Unicode proporciona un único y extenso set de caracteres que pretende incluir todos los
caracteres necesarios para cualquier sistema de escritura del mundo, incluyendo sistemas ancestrales
(como el cuneiforme, el gótico y los jeroglíficos egipcios). Hoy resulta fundamental para la arquitectura
de la Web y de los sistemas operativos, y las principales aplicaciones y navegadores web incluyen soporte
para este elemento. En el Estándar Unicode también se describen las propiedades y algoritmos
necesarios para trabajar con caracteres.
Este enfoque facilita mucho el trabajo con sistemas o páginas plurilingües y responde mucho mejor a las
necesidades del usuario que la mayoría de los sistemas de codificación tradicionales.
Este código utiliza un patrón único de 16 bits para representar cada símbolo, que permite 216 bits o sea
hasta 65.536 patrones de bits (símbolos) diferentes.
2 A continuación se muestran bloques de script Unicode, según la versión 5.2 de Unicode:
3 
Descargar