Introduccion ala Computacion - Grupo Idat - Ica

Anuncio
Introducción a la computación
Computación
Procesamiento de datos por medios mecánicos y/o eléctricos. Dispositivos computacionales
pueden abarcar tareas tan simples de cálculo del tipo de costos/beneficios o tan complejas como jugar
al ajedrez con buen éxito.
Informática
Es una palabra de origen francés formada por la contracción de dos vocablos INFORmación y
autoMÁTICA. La Real Academia de la Lengua define Informática como el conjunto de conocimientos
científicos y técnicas que hacen posible el tratamiento automático de la información por medio de
computadoras electrónicas. La palabra informática suele utilizarse como sinónimo de Ciencia e
Ingeniería de las Computadoras (Computer Science).
Sistema Informático
Un sistema informático es la síntesis de hardware y software. Un sistema informático típico
emplea un ordenador que usa dispositivos programables para almacenar, recuperar y procesar datos. El
ordenador personal o PC resulta de por sí un ejemplo de un sistema informático.
Incluso el ordenador más sencillo se clasifica como un sistema informático, porque al menos
dos componentes (hardware y software) tienen que trabajar unidos. Pero el genuino significado de
"sistema informático" viene mediante la interconexión. Muchos sistemas informáticos pueden
interconectarse, esto es, unirse para convertirse un sistema mayor. El interconexionado de sistemas
informáticos puede tornarse dificultoso debido a las incompatibilidades. A veces estas dificultades
ocurren entre hardware incompatible, mientras que en otras ocasiones se dan entre programas
informáticos que no se entienden entre sí.
Procesamiento de Datos
Por procesamiento de datos se entienden habitualmente las técnicas eléctricas o mecánicas
usadas para manipular datos para el empleo humano o de máquinas.
Programas
Secuencia de instrucciones que describe cómo se deben procesar los datos. Los programas
presentan una amplia variedad, dependiendo del tipo de información a la que deben acceder o que
deben generar. Por ejemplo, las instrucciones que permiten balancear una chequera son muy diferentes
a las necesarias para simular un mundo de realidad virtual en la Internet.
Hay dos tipos de software: sistemas operativos y aplicaciones.
El software de aplicaciones acepta entradas del usuario y luego las manipula para
obtener un resultado, conocido como salida. Las aplicaciones son programas diseñados
para ejecutar una función específica directamente para el usuario o para otro programa
de aplicación. Los ejemplos de aplicaciones incluyen procesadores de texto, programas
de bases de datos, planillas de cálculo, navegadores web, herramientas de desarrollo
web, y herramientas de diseño gráfico.
Un Sistema Operativo es un programa que administra a todos los otros programas en una
computadora. También proporciona el entorno operativo con las aplicaciones que son usadas para
acceder a los recursos en la computadora. Los sistemas operativos ejecutan tareas básicas como
reconocimiento de entradas desde el teclado o mouse, envío de salidas a la pantalla de video o
periféricos, seguimiento de los archivos en los discos, y control de
los periféricos como impresoras y módems. Windows 98,
Windows 2000, Windows NT, Linux, Mac OS X, DEC VMS, y el
OS/400 de IBM son todos ejemplos de sistemas operativos.
Base de Datos
Desde el punto de vista informático una base de datos es una colección de ficheros
interrelacionados. Se puede definir más formalmente como un conjunto de datos operativos a los que
acceden los programas de aplicación o los usuarios. Una base de datos es un almacén de información en
forma de datos de diferentes tipos.
Lic. Hugo Santander Jhong
1
Introducción a la computación
Información
En sentido general, la información es un conjunto organizado de datos, que
constituyen un mensaje sobre un determinado ente o fenómeno.
Según otro punto de vista, la información es un fenómeno que proporciona
significado o sentido a las cosas, e indica mediante códigos y conjuntos de datos, los
modelos del pensamiento humano. La información por tanto, procesa y genera el
conocimiento humano.
Hardware
Es el equipo físico como el gabinete, las disqueteras, el teclado, el monitor, los cables, los
parlantes y las impresoras.
Software
También llamado programas, le da instrucciones a la computadora sobre cómo operar. Estas
operaciones pueden incluir identificar, acceder y procesar información.
El Computador
Máquina que almacena y procesa datos que representan información. La importancia de estas
máquinas reside en su capacidad para realizar cálculos a gran velocidad y de forma ordenada.
Evolución por generaciones
Primera generación
En esta generación había un gran desconocimiento de las capacidades de las
computadoras, puesto que se realizó un estudio en esta época que determinó que con veinte
computadoras se saturaría el mercado de los Estados Unidos en el campo de procesamiento de
datos.
Esta generación abarcó la década de los cincuenta. Y se conoce como la Primera
Generación. Estas máquinas tenían las siguientes características:
 Estaban construidas por medio de tubos de vacío.
 Eran programadas en lenguaje de máquina.
 En esta generación las máquinas son grandes y costosas (de un costo aproximado
de ciento de miles de dólares).
En 1951 aparece la UNIVAC (UNIVERSAL Computer), que fue la primera computadora
comercial, disponía de mil palabras de memoria central y podía leer cintas magnéticas. Se
utilizó para procesar el censo de 1950 en los Estados Unidos.
En las dos primeras generaciones, las unidades de entrada utilizaban tarjetas
perforadas, retomadas por Herman Hollerith (1860-1929), quien además fundó una compañía
que con el paso del tiempo se conocería como IBM (International Bussines Machines).
Después se desarrolló por IBM la IBM 701 de la cual se entregaron 18 unidades entre
1953 y 1957.
Posteriormente, la compañía Remington Rand fabricó el modelo 1103, que competía
con la 701 en el campo científico, por lo que la IBM desarrolló la 702, la cual presentó
problemas en memoria, debido a esto no duró en el mercado.
Lic. Hugo Santander Jhong
2
Introducción a la computación
La computadora más exitosa de la primera generación fue la IBM 650, de la cual se
produjeron varios cientos. Esta computadora usaba un esquema de memoria secundaria
llamado tambor magnético, que es el antecesor de los discos actuales.
Otros modelos de computadora que se pueden situar en los inicios de la segunda
generación son: la UNIVAC 80 y 90, las IBM 704 y 709, Burroughs 220 y UNIVAC 1105.
Segunda generación
Cerca de la década de 1960, las computadoras seguían evolucionando, se reducía su
tamaño y crecía su capacidad de procesamiento. También en esta época se empezó a definir la
forma de comunicarse con las computadoras, que recibía el nombre de programación de
sistemas.
Las características de las computadoras de la segunda generación son las siguientes:
 Están construidas con circuitos de transistores.
 Se programan en nuevos lenguajes llamados lenguajes de alto nivel.
En esta generación las computadoras se reducen de tamaño y son de menor costo.
Aparecen muchas compañías y las computadoras son bastante avanzadas para su época como
la serie 5000 de Burroughs y la ATLAS de la Universidad de Manchester.
Las computadoras de esta generación fueron: la Philco 212 (esta compañía se retiró
del mercado en 1964) y la UNIVAC M460, la Control Data Corporation modelo 1604, seguida
por la serie 3000, la IBM mejoró la 709 y sacó al mercado la 7090, la National Cash Register
empezó a producir máquinas para proceso de datos de tipo comercial, introdujo el modelo ncr
315.
La Radio Corporation of America introdujo el modelo 501, que manejaba el lenguaje
COBOL, para procesos administrativos y comerciales. Después salió al mercado la RCA 601.
Tercera generación
Con los progresos de la electrónica y los avances de comunicación con las
computadoras en la década de los 60, surge la Tercera Generación de las computadoras. Se
inaugura con la IBM 360 en abril de 1964.
Las características de las computadoras de esta generación fueron las siguientes:
 Su fabricación electrónica está basada en circuitos integrados.
 Su manejo es por medio de los lenguajes de control de los sistemas operativos.
La IBM produce la serie 360 con los modelos 20, 22, 30, 40, 50, 65, 67, 75, 85, 90, 195
que utilizaban técnicas especiales del procesador, unidades de cinta de nueve canales,
paquetes de discos magnéticos y otras características que ahora son estándares (no todos los
modelos usaban estas técnicas, sino que estaban divididos por aplicaciones).
El sistema operativo de la serie 360, se llamó OS y contaba con varias configuraciones,
incluía un conjunto de técnicas de manejo de memoria y del procesador que pronto se
convirtieron en estándar.
En 1964 CDC introdujo la serie 370 y produce los modelos 115, 125, 135, 145,158, 168.
UNIVAC compite con los modelos 1108 y 1110, máquinas de gran escala; mientras que CDC
produce su serie 7000 con el modelo 7600. Estas computadoras se caracterizan por ser muy
potentes y veloces.
A finales de esta década la IBM produce su serie 370 los modelos 3031, 3033, 4341.
Burroughs con su serie 6000 produce los modelos 6500 y 6700 de avanzado diseño, que se
reemplazaron por su serie 7000. Honey – Well participa con su computadora DPS con varios
modelos.
A mediados de la década de 1970, aparecen en el mercado las computadoras de
tamaño mediano, o minicomputadoras que no son tan costosas como las grandes (llamadas
también mainframes, que significa también, gran sistema), pero disponen de gran capacidad de
procesamiento. Algunas minicomputadoras fueron las siguientes: la PDP – 8 y la PDP -11 de
Digital Equipment Corporation, la VAX (Virtual Ardes extended) de la misma compañía, los
modelos NOVA y ECLIPSE de Data General, la serie 3000 y 9000 de Hewlett – Packard con varios
modelos el 36 y el 34, la Wang y Honey – Well – Bull, Siemens de origen alemán, la ICL fabricada
en Inglaterra. En la Unión Soviética se utilizó la US (Sistema Unificado, Ryan) que ha pasado por
varias generaciones.
Lic. Hugo Santander Jhong
3
Introducción a la computación
Cuarta generación
Aquí aparecen los microprocesadores que es un gran adelanto de la microelectrónica,
son circuitos integrados de alta densidad y con una velocidad impresionante. Las
microcomputadoras con base en estos circuitos son extremadamente pequeñas y baratas, por
lo que su uso se extiende al mercado industrial. Aquí nacen las computadoras personales, cuyo
uso ha adquirido proporciones enormes y que han influido en la sociedad en general sobre la
llamada “Revolución Informática”.
En 1976 Steve Wozniak y Steve Jobs inventan la primera microcomputadora de uso
masivo y más tarde forman la compañía conocida como la Apple que fue la segunda compañía
más grande del mundo, antecedida tan sólo por IBM; y ésta por su parte es aún de las cinco
compañías más grandes del mundo.
En 1981 se vendieron 800 000 computadoras personales, al siguiente subió a 1 400
000. Entre 1984 y 1987 se vendieron alrededor de 60 millones de computadoras personales,
por lo que no queda duda que su impacto y penetración han sido enormes.
Con el surgimiento de las computadoras personales, el software y los sistemas que con
ellas se manejan han tenido un considerable avance, porque han hecho más interactiva la
comunicación con el usuario. Surgen otras aplicaciones como los procesadores de palabra, las
hojas electrónicas de cálculo, paquetes gráficos, etc. También las industrias del Software de las
computadoras personales crecen con gran rapidez, Gary Kildall y William Gates se dedicaron
durante años a la creación de sistemas operativos y métodos para lograr una utilización sencilla
de las microcomputadoras (son los creadores de CP/M y de los productos de Microsoft).
No todo son microcomputadoras, por supuesto, las minicomputadoras y los grandes
sistemas continúan en desarrollo. De hecho las máquinas pequeñas rebasaban por mucho la
capacidad de los grandes sistemas de 10 o 15 años antes, que requerían de instalaciones
costosas y especiales, pero sería equivocado suponer que las grandes computadoras han
desaparecido; por el contrario, su presencia era ya ineludible en prácticamente todas las
esferas de control gubernamental, militar y de la gran industria. Las enormes computadoras de
la serie CDC, CRAY, Hitachi o IBM por ejemplo, eran capaces de atender a varios cientos de
millones de operaciones por segundo.
Quinta generación
En vista de la acelerada marcha de la microelectrónica, la sociedad industrial se ha
dado a la tarea de poner también a esa altura el desarrollo del software y los sistemas con que
se manejan las computadoras. Surge la competencia internacional por el dominio del mercado
de la computación, en la que se perfilan dos líderes que, sin embargo, no han podido alcanzar
el nivel que se desea: la capacidad de comunicarse con la computadora en el lenguaje más
cotidiano y no a través de códigos o lenguajes de control especializados.
Japón lanzó en 1983 el llamado “programa de la quinta generación de computadoras”,
con los objetivos explícitos de producir máquinas con innovaciones reales en los criterios
mencionados. Y en los Estados Unidos ya está en actividad un programa en desarrollo que
persigue objetivos semejantes, que pueden resumirse de la siguiente manera:
Procesamiento en paralelo mediante arquitecturas y diseños especiales y circuitos de
gran velocidad.
Manejo de lenguaje natural y sistemas de inteligencia artificial.
El futuro previsible de la computación es muy interesante, y se puede esperar que esta
ciencia siga siendo objeto de atención prioritaria de gobiernos y de la sociedad en conjunto.
Clases de Computadoras
Supercomputadoras
Una supercomputadora es el tipo de computadora más potente y más rápida que
existe en un momento dado. Estas máquinas están diseñadas para procesar enormes
cantidades de información en poco tiempo y son dedicadas a una tarea específica.
Así mismo son las más caras, sus precios alcanzan los 30 MILLONES de dólares y más; y
cuentan con un control de temperatura especial, esto para disipar el calor que algunos
componentes alcanzan a tener.
Lic. Hugo Santander Jhong
4
Introducción a la computación
Unos ejemplos de tareas a las que son expuestas las supercomputadoras son los
siguientes:
 Búsqueda y estudio de la energía y armas nucleares.
 Búsqueda de yacimientos petrolíferos con grandes bases de datos sísmicos.
 El estudio y predicción de tornados.
 El estudio y predicción del clima de cualquier parte del mundo.
 La elaboración de maquetas y proyectos de la creación de aviones, simuladores de vuelo,
Etc.
Debido a su precio, son muy pocas las supercomputadoras que se construyen en un
año.
Macrocomputadoras o mainframes
Las macro computadoras son también conocidas como Mainframes. Los mainframes
son grandes, rápidos y caros sistemas que son capaces de controlar cientos de usuarios
simultáneamente, así como cientos de dispositivos de entrada y salida.
Los mainframes tienen un costo que va desde 350,000 dólares hasta varios millones de
dólares. De alguna forma los mainframes son más poderosos que las supercomputadoras
porque soportan más programas simultáneamente. Pero las supercomputadoras pueden
ejecutar un sólo programa más rápido que un mainframe.
En el pasado, los Mainframes ocupaban cuartos completos o hasta pisos enteros de
algún edificio, hoy en día, un Mainframe es parecido a una hilera de archiveros en algún cuarto
con piso falso, esto para ocultar los cientos de cables d e los periféricos, y su temperatura tiene
que estar controlada.
Minicomputadoras
En 1960 surgió la minicomputadora, una versión más pequeña de la Macro
computadora. Al ser orientada a tareas específicas, no necesitaba de todos los periféricos que
necesita un Mainframe, y esto ayudo a reducir el precio y costos de mantenimiento.
Las minicomputadoras, en tamaño y poder de procesamiento, se encuentran entre los
mainframes y las estaciones de trabajo.
En general, una minicomputadora, es un sistema multiproceso (varios procesos en
paralelo) capaz de soportar de 10 hasta 200 usuarios simultáneamente. Actualmente se usan
para almacenar grandes bases de datos, automatización industrial y aplicaciones multiusuario.
Microcomputadoras o PC´s
Las
microcomputadoras
o
Computadoras Personales (PC´s) tuvieron
su origen con la creación de los
microprocesadores. Un microprocesador
es "una computadora en un chip", o sea un
circuito integrado independiente. Las PC´s
son computadoras para uso personal y
relativamente son baratas y actualmente
se encuentran en las oficinas, escuelas y
hogares.
El término PC se deriva de que
para el año de 1981, IBM®, sacó a la venta su modelo "IBM PC", la cual se convirtió en un tipo
de computadora ideal para uso "personal", de ahí que el término "PC" se estandarizó y los
clones que sacaron posteriormente otras empresas fueron llamados "PC y compatibles",
usando procesadores del mismo tipo que las IBM, pero a un costo menor y pudiendo ejecutar el
mismo tipo de programas.
Existen otros tipos de microcomputadoras, como la Macintosh®, que no son
compatibles con la IBM, pero que en muchos de los casos se les llaman también "PC´s", por ser
de uso personal.
En la actualidad existen variados tipos en el diseño de PC´s:

Computadoras personales, con el gabinete tipo minitorre, separado del monitor.
Lic. Hugo Santander Jhong
5
Introducción a la computación


Computadoras personales portátiles "Laptop" o "Notebook".
Computadoras personales más comunes, con el gabinete horizontal, separado del
monitor.
 Computadoras personales que están en una sola unidad compacta el monitor y el
CPU.
Las computadoras "laptops" son aquellas computadoras que están diseñadas para
poder ser transportadas de un lugar a otro. Se alimentan por medio de baterías recargables,
pesan entre 2 y 3 kilos y la mayoría trae integrado una pantalla de LCD (Liquid Crys tal Display).
Estaciones de trabajo o Workstations
Las estaciones de trabajo se encuentran entre las minicomputadoras y las macro
computadoras (por el procesamiento). Las estaciones de trabajo son un tipo de computadoras
que se utilizan para aplicaciones que requieran de poder de procesamiento moderado y
relativamente capacidades de gráficos de alta calidad. Son usadas para:
 Aplicaciones de ingeniería
 CAD (Diseño asistido por computadora)
 CAM (manufactura asistida por computadora)
 Publicidad
 Creación de Software
En redes, la palabra "workstation" o "estación de trabajo" se utiliza para referirse a
cualquier computadora que está conectada a una red de área local.
BIT
Dígito simple de número binario ( 0 ó 1). En el computador, un bit físicamente es un transistor
en una celda de memoria, un punto magnético en un disco o una cinta, o una pulsación de alto o bajo
voltaje a través de un circuito.
Los grupos de bits forman unidades de almacenamiento en el computador, llamados bytes y
palabras, que son tratados como grupos. Los bytes siempre contienen ocho bits y almacenan un carácter
alfanumérico. Las palabras se refieren a registros internos y capacidad de procesamiento del
computador (8, 16, 32 y 64 bits); cuanto mayor sea el número, mayor será la cantidad de datos que
procesa el computador a la vez.
Byte
Voz inglesa, se pronuncia báit, que si bien la Real Academia Española ha aceptado como
equivalente a octeto, es decir a ocho bits, para fines correctos, un byte debe ser considerado como una
secuencia de bits contiguos, cuyo tamaño depende del código de información o código de carácteres en
que sea definido.
Se usa comúnmente como unidad básica de almacenamiento de información en combinación
con los prefijos de cantidad. Originalmente el byte fue elegido para ser un submúltiplo del tamaño de
palabra de un ordenador, desde seis a nueve bits (un caracter codificado estaría adaptado a esta
unidad). La popularidad de la arquitectura IBM S/360 que empezó en los años 1960 y la explosión de los
microprocesadores basados en microprocesadores de 8 bits en los años 1980 ha hecho obsoleta la
utilización de otra cantidad que no sean 8 bits.
Múltiplos del Byte
La capacidad de almacenamiento de un ordenador se mide en bytes. Como el byte es una
unidad relativamente pequeña, se suelen utilizar múltiplos de éste:
Kilobyte
: 1 KB = 210 bytes = 1.024 bytes
Megabyte
: 1 MB = 210 KB
= 220 bytes = 1.048.576 bytes
10
Gigabyte
: 1 GB = 2 MB
= 230 bytes = 1.073.741.824 bytes
10
Terabyte
: 1 TB = 2 GB
= 240 bytes
Los múltiplos anteriores no solo se utilizan con bytes, sino que también se pueden utilizar con
otras unidades. Así 1 Gb (Gigabit) son 230 bits. De ahora en adelante utilizaremos una b para indicar bit y
una B para byte.
Lic. Hugo Santander Jhong
6
Introducción a la computación
Códigos de representación
7
EBCDIC (Extended Binary Coded Decimal Interchange Code)
EBCDIC es un código binario que representa caracteres alfanuméricos, controles y
signos de puntuación.
Cada carácter está compuesto por 8 bits = 1 byte, por eso EBCDIC define un total de
256 caracteres.
Existan muchas versiones ("codepages") de EBCDIC con caracteres diferentes,
respectivamente sucesiones diferentes de los mismos caracteres.
Por ejemplo al menos hay 9 versiones nacionales de EBCDIC con Latín 1 caracteres con
sucesiones diferentes.
EBCDIC es un producto de IBM para ordenadores centrales.
El siguiente es el código CCSID 500, una variante de EBCDIC. Los caracteres 0x00–0x3F
y 0xFF son de control, 0x40 es un espacio, 0x41 es no-saltar página y 0xCA es un guión suave.
ASCII
El código ASCII (acrónimo inglés de American Standard Code for Information
Interchange — Código Estadounidense Estándar para el Intercambio de Información),
pronunciado generalmente [áski], es un código de caracteres basado en el alfabeto latino tal
como se usa en inglés moderno y en otras lenguas occidentales.
UNICODE
Estándar industrial cuyo objetivo es proporcionar le medio por el cual un texto en
cualquier forma e idioma pueda ser codificado por un sistema informático.
El establecimiento de Unicode ha involucrado un ambicioso proyecto para reemplazar
los esquemas de codificación de caracteres existentes, muchos de los cuales están muy
limitados en tamaño y son incompatibles con entornos multilingües. Unicode se ha vuelto el
más extenso y completo esquema de codificación de caracteres siendo el mas dominante en la
internacionalización y adaptación local del software informático. El estándar ha sido
implementado en un número considerable de tecnologías recientes, que incluyen XML, Java y
sistema operativos modernos.
Ciclo de procesamiento de datos: Proceso, Entrada, Salida
El Sistema Operativo (OS) es el software que controla la funcionalidad y que proporciona
rutinas de bajo nivel para los programas de aplicación. La mayoría de los sistemas operativos
proporcionan funciones para leer y escribir datos en archivos. Un sistema operativo traduce los
Lic. Hugo Santander Jhong
Introducción a la computación
pedidos de operaciones sobre archivos en operaciones que la controladora de disco puede ejecutar.
El sistema operativo ayuda a la computadora a ejecutar cuatro operaciones básicas que incluyen
entrada-procesamiento-salida-almacenamiento.
DISPOSITIVO
DE ENTRADA


COMPUTADORA
(CPU)
DISPOSITIVO
DE SALIDA


Teclado
Mouse
Monitor
Impresora
DISPOSITIVO DE
ALMACENAMIENTO

Disco duro




La operación de entrada reconoce la entrada desde el teclado o el mouse.
La operación de procesamiento manipula los datos de acuerdo con las instrucciones del usuario.
La operación de salida envía la salida a la pantalla de video o impresora.
La operación de almacenamiento registra los archivos para su uso posterior. Ejemplos de
dispositivos de almacenamiento son diskettes y discos rígidos.
La forma más común para ingresar datos en una computadora es mediante el teclado. La
apertura de una página web, de un archivo de e-mail o de un archivo que vino desde un servidor de
red también son formas de ingresar datos. Después de que los datos han sido ingresados, la
computadora puede procesar o "triturar" los datos. Cuando un archivo está abierto y el texto es
reformateado, la computadora está procesando datos.
El procesamiento de datos usualmente da como resultado algún tipo de salida, como un
archivo de procesador de texto o una planilla de cálculo. La forma más común de salida de datos es
el envío al monitor de la computadora, o a una impresora. Hoy, la mayoría de las computadoras
tienen una conexión a la Internet, por lo que es común la salida de datos hacia Internet por medio de
e-mail o como una página web.
El almacenamiento de datos es probablemente la más importante de las cuatro
funciones básicas de la computadora. La forma más común de almacenar un archivo es grabarlo en
un disco rígido. Los discos rígidos pueden imaginarse como enormes archiveros. Un sistema
operativo encontrará un lugar en el disco rígido, grabará el archivo y recordará su ubicación.
Sistemas de Numeración usados en las computadoras
Los computadores manipulan y almacenan los datos usando interruptores electrónicos que
están ENCENDIDOS o APAGADOS. Los computadores sólo pueden entender y usar datos que están en
este formato binario, o sea, de dos estados. Los unos y los ceros se usan para representar los dos
estados posibles de un componente electrónico de un computador. Se denominan dígitos binarios o
bits. Los 1 representan el estado ENCENDIDO, y los 0 representan el estado APAGADO.
El Código americano normalizado para el intercambio de información (ASCII) es el código que se
usa más a menudo para representar los datos alfanuméricos de un computador. ASCII usa dígitos
binarios para representar los símbolos que se escriben con el teclado. Cuando los computadores envían
estados de ENCENDIDO/APAGADO a través de una red, se usan ondas eléctricas, de luz o de radio para
representar los unos y los ceros. Los computadores reconocen y procesan datos utilizando el sistema
numérico binario, o de Base 2.
Lic. Hugo Santander Jhong
8
Introducción a la computación
El sistema numérico hexadecimal (hex) se usa frecuentemente cuando se trabaja con
computadores porque se puede usar para representar números binarios de manera más legible. El
computador ejecuta cálculos en números binarios, pero hay varios casos en los que el resultado del
computador en números binarios se expresa en números hexadecimales para facilitar su lectura.
Clasificación del Software
Un ordenador, como máquina programable que es, posee unos elementos fijos (máquina base)
y otros modificables (programa). En forma simplificada podemos asociar los elementos fijos a los
dispositivos físicos del ordenador, que constituyen el hardware, y los elementos modificables a los
programas en sentido amplio, que constituyen el software.
La palabra Hardware se refiere al soporte físico del ordenador. Es la máquina en sí: el conjunto
de cables, circuitos, dispositivos y otros elementos que forman el ordenador.
El soporte lógico o Software del ordenador, es el conjunto de programas (Sistema Operativo,
Compiladores, programas de usuario,...) ejecutables por el ordenador.
Para que un ordenador funcione es necesario utilizar programas, o sea el software es tan
importante como el hardware.
En principio, cualquier función de un sistema de cómputo puede proporcionarse mediante
software o hardware. Es decir, un procedimiento que describa como realizar la función, puede
expresarse como un programa o puede construirse con componentes físicos. En la práctica la elección
entre hardware y software es un compromiso entre velocidad y coste. Las funciones complejas son
realizadas por software, mientras que las simples (o que son requeridas frecuentemente) son realizadas
por hardware para ganar en rapidez. En resumen, la frontera entre software y hardware es muy flexible
y probablemente cambiará con los avances de la tecnología.
Podemos establecer una jerarquía, en forma de capas concéntricas, para clasificar el software
presente en un ordenador. En un nivel más interno se encuentra el hardware de la máquina.
El siguiente nivel lo ocupa el sistema operativo. Éste no es más que un programa especial que
se encarga de manejar el directamente el hardware del sistema (controlar el teclado y la pantalla, hacer
que una unidad de disco empiece a rotar y leer datos de ésta, etc.). Por lo general cada constructor de
ordenadores, tiene su sistema operativo, aunque últimamente se tiende a una normalización siendo los
más comunes UNIX, MS-DOS, OS/2 y Microsoft-WINDOWS.
El próximo nivel más externo está constituido por las herramientas de programación. Se trata
de programas compiladores e intérpretes que el programador usa para construir los programas de
aplicación o de usuario. Estos últimos forman el nivel exterior de la jerarquía, y son los programas que
usuarios de un ordenador (personas que no tienen que entender de programación) podrán usar para
realizar labores concretas. Algunos de los más comunes son procesadores de textos, hojas de cálculo,
diseño gráfico, etc.
Programas de
usuarios
Herramientas de
programación
Sistemas
Operativos
Hardware
Sistemas Operativos
Un Sistema Operativo es un programa que administra a todos los otros
programas en una computadora. También proporciona el entorno operativo con
las aplicaciones que son usadas para acceder a los recursos en la computadora.
Los sistemas operativos ejecutan tareas básicas como reconocimiento de
entradas desde el teclado o mouse, envío de salidas a la pantalla de video o
Lic. Hugo Santander Jhong
9
Introducción a la computación
periféricos, seguimiento de los archivos en los discos, y control de los periféricos como impresoras y
módems. Windows 98, Windows 2000, Windows NT, Linux, Mac OS X, DEC VMS, y el OS/400 de IBM son
todos ejemplos de sistemas operativos.
Software de aplicación
Software de aplicación, que permite a los usuarios llevar a cabo una o varias tareas más
específicas, en cualquier campo de actividad susceptible de ser automatizado o asistido, con especial
énfasis en los negocios. Incluye entre otros: Aplicaciones de automatización industrial, Aplicaciones
ofimáticas (procesadores), Software educativo, Software médico, Bases de datos, Videojuegos.
Procesadores de textos
Software que provee funciones de creación y administración de documentos de
texto mediante un computador.
Hojas de Cálculo
Software que simula una hoja de cálculo, o planilla, en la
que las columnas de números se suman para presupuestos y
planes. Aparece en pantalla como una matriz de filas y columnas,
cuyas intersecciones se identifican como celdas. La magia de las
hojas de cálculo está en su capacidad para re calcular rápidamente las filas y columnas cada vez que se
realiza un cambio en los datos numéricos en una de las celdas.
Graficadores
Software gráfico que permite al usuario diseñar e ilustrar productos y objetos. Los programas
de dibujo mantienen una imagen en formato de graficas vectoriales, esto permite que todos los
elementos del objeto gráfico puedan aislarse y manipularse en forma individual.
Los programas de dibujo y CAD son similares, sin embargo, los de dibujo habitualmente
proveen una mayor cantidad de efectos especiales para ilustraciones de fantasía, mientras que los
programas CAD suministran un dimensionamiento y posicionamiento preciso de cada elemento gráfico,
con el fin de poder transferir los objetos a otros sistemas para análisis de ingeniería y manufactura.
Manejadores de Base de Datos



Software que permite a un usuario manejar múltiples archivos de datos.
Software que provee la capacidad de gestión de bases de datos para
lenguajes de programación tradicionales, como COBOL, BASIC y C.
Parte del DBMS (Sistema de administración o gestión de bases de datos)
que almacena y recupera los datos
Ejemplo: Oracle, DB2, Informix, Sysbase, Ms Sql-Server, MySQL, PostgradeSQL)
Clasificación de los Lenguajes de Programación
Un ordenador, como máquina programable que es, posee unos elementos fijos (la máquina) y
otros modificables (el programa).

Programa de bajo nivel: es un conjunto ordenado de instrucciones que se dan al
ordenador para indicarle las operaciones o tareas a realizar. Un ordenador funciona bajo
control de un programa que ha de estar almacenado en la memoria del ordenador. El
programa contiene, en forma codificada, una descripción del comportamiento deseado del
ordenador.
El ordenador solo puede ejecutar directamente instrucciones de un lenguaje muy
simple llamado lenguaje máquina. Las instrucciones de este lenguaje están formadas por
grupos de unos y ceros. El lenguaje máquina tiene serios inconvenientes: el repertorio de
instrucciones es muy reducido, y las operaciones que puede realizar son muy simples, por
lo que los programas resultan largos y laboriosos. Además el lenguaje máquina es distinto
para cada tipo de ordenador, por lo que un programa escrito para un ordenador no vale
para otro distinto.
Lic. Hugo Santander Jhong
10
Introducción a la computación
Para facilitar la tarea de programación resulta muy deseable disponer de formas
de representación de los programas que sean adecuadas para ser leídas o escritas por
personas, y que al mismo tiempo resulten independientes del ordenador utilizado.

Los lenguajes de programación de
alto nivel, sirven precisamente para
representar programas de forma
simbólica, en forma de texto, que
puede ser leído con relativa facilidad
por una persona. Además un lenguaje
de alto nivel es independiente del
ordenador utilizado.
Ejemplos de lenguajes de
programación son Modula-2, Pascal, C
y Basic. La siguiente figura muestra un
programa en Modula-2 que lee dos
números enteros de teclado, calcula su
suma y la imprime:
Lenguajes Orientados a objetos
En la programación orientada a objetos (POO u OOP según sus siglas en inglés) se definen los
programas en términos de “clases de objetos”, objetos que son entidades que combinan estado (es
decir, datos) comportamiento (esto es, procedimientos o métodos) e identidad (propiedad del objeto
que lo diferencia del resto). La programación orientada a objetos expresa un programa como un
conjunto de estos objetos, que colaboran entre ellos para realizar tareas. Esto permite hacer los
programas módulos más fáciles de escribir, mantener y reutilizar.
Compiladores
Es un lenguaje que traduce un programa escrito en un lenguaje de alto nivel, por ejemplo C++,
en un programa en lenguaje máquina que la computadora es capaz de entender y ejecutar
directamente. Un compilador es un tipo esencial de programa, en cuanto a que sus entradas o datos son
algún programa y su salida es otro programa, para evitar confusiones, solemos llamar un programa
fuente o código fuente al programa de entrada, y programa de objeto o código objeto a la versión
traducida (que el compilador produce). Código que usa frecuentemente para referirse a un programa o
a una parte de él, sobre todo cuando se habla de programas objetos. Ejemplo: Pascal, Cobol, Fortran,
Ada, etc.
Código
Traducción
Código
Fuente
(Compilador)
Objeto
Traducción: Ensamblador, intérprete, compilador
Código objeto: Código ensamblador
Interpretes
Toman la primera instrucción del programa en lenguaje de alto nivel, la traducen a lenguaje
máquina y la ejecutan. Continúan así instrucción por instrucción. En este caso el programa se ejecuta en
una sola fase. El principal inconveniente de los intérpretes es su velocidad: el mismo programa se
ejecuta más rápido compilado que interpretado.
Lic. Hugo Santander Jhong
11
Introducción a la computación
LA UNIDAD CENTRAL DE PROCESO (CPU)
12
El microprocesador, o simplemente el micro, es el cerebro del ordenador. Es un chip, un tipo de
componente electrónico en cuyo interior existen miles (o millones) de elementos llamados transistores,
cuya combinación permite realizar el trabajo que tenga encomendado el chip.
Los micros, como los llamaremos en adelante, suelen tener forma de cuadrado o rectángulo negro, y
van o bien sobre un elemento llamado zócalo (socket en inglés) o soldados en la placa o, en el caso del
Pentium II, metidos dentro de una especie de cartucho que se conecta a la placa base (aunque el chip en
sí está soldado en el interior de dicho cartucho).
A veces al micro se le denomina "la CPU" (Central Process Unit, Unidad Central de Proceso), aunque este
término tiene cierta ambigüedad, pues también puede referirse a toda la caja que contiene la placa
base, el micro, las tarjetas y el resto de la circuitería principal del ordenador.
La velocidad de un micro se mide en megahertzios (MHz) o gigahertzios (1 GHz = 1.000 MHz), aunque
esto es sólo una medida de la fuerza bruta del micro; un micro simple y anticuado a 500 MHz puede ser
mucho más lento que uno más complejo y moderno (con más transistores, mejor organizado...) que
vaya a "sólo" 400 MHz. Es lo mismo que ocurre con los motores de coche: un motor americano de los
años 60 puede tener 5.000 cm3, pero no tiene nada que hacer contra un multiválvula actual de "sólo"
2.000 cm3.
Debido a la extrema dificultad de fabricar componentes electrónicos que funcionen a las inmensas
velocidades de MHz habituales hoy en día, todos los micros modernos tienen 2 velocidades:
 Velocidad interna: la velocidad a la que funciona el micro internamente (200, 333, 450... MHz).
 Velocidad externa o del bus: o también "velocidad del FSB"; la velocidad a la que se comunican
el micro y la placa base, para poder abaratar el precio de ésta. Típicamente, 33, 60, 66, 100 ó 133
MHz.
La cifra por la que se multiplica la velocidad externa o de la placa para dar la interna o del micro es el
multiplicador; por ejemplo, un Pentium III a 450 MHz utiliza una velocidad de bus de 100 MHz y un
multiplicador 4,5x.
Partes de un microprocesador
En un micro podemos diferenciar diversas partes:
 El encapsulado: es lo que rodea a la oblea de silicio en sí, para darle consistencia, impedir su
deterioro (por ejemplo por oxidación con el aire) y permitir el enlace con los conectores externos
que lo acoplarán a su zócalo o a la placa base.
 La memoria caché: una memoria ultrarrápida que emplea el micro para tener a mano ciertos
datos que previsiblemente serán utilizados en las siguientes operaciones sin tener que acudir a la
memoria RAM, reduciendo el tiempo de espera.
Todos los micros "compatibles PC" desde el 486 poseen al menos la llamada caché interna de
primer nivel o L1; es decir, la que está más cerca del micro, tanto que está encapsulada junto a él.
Los micros más modernos (Pentium III Coppermine, Athlon Thunderbird, etc.) incluyen también en
su interior otro nivel de caché, más grande aunque algo menos rápida, la caché de segundo nivel o
L2.
 El coprocesador matemático: o, más correctamente, la FPU (Floating Point Unit, Unidad de coma
Flotante). Parte del micro especializada en esa clase de cálculos matemáticos; antiguamente estaba
en el exterior del micro, en otro chip.
LA MEMORIA RAM
La memoria principal o RAM (acrónimo de
Random Access Memory, Memoria de
Acceso Aleatorio) es donde el ordenador
guarda los datos que está utilizando en el
momento presente; son los "megas"
famosos en número de 32, 64 ó 128 que
aparecen en los anuncios de ordenadores.
Físicamente, los chips de memoria son rectángulos negros que suelen ir soldados en grupos a unas
plaquitas con "pines" o contactos, algo así:
Lic. Hugo Santander Jhong
Introducción a la computación
La diferencia entre la RAM y otros tipos de memoria de almacenamiento, como los disquetes o los
discos duros, es que la RAM es mucho (mucho) más rápida, y que se borra al apagar el ordenador, no
como éstos.
DRAM
Dinamic-RAM, o RAM a secas, ya que es "la original", y por tanto la más lenta (aunque recuerde:
siempre es mejor tener la suficiente memoria que tener la más rápida, pero andar escasos).
Usada hasta la época del 386, su velocidad de refresco típica es de 80 ó 70 nanosegundos (ns), tiempo
éste que tarda en vaciarse para poder dar entrada a la siguiente serie de datos. Por ello, es más rápida la
de 70 ns que la de 80 ns.
Físicamente, aparece en forma de DIMMs o de SIMMs, siendo estos últimos de 30 contactos.
SDRAM
Sincronic-RAM. Funciona de manera sincronizada con la velocidad de la placa (de 50 a 66 MHz), para lo
que debe ser rapidísima, de unos 25 a 10 ns. Sólo se presenta en forma de DIMMs de 168 contactos; es
usada en los Pentium II de menos de 350 MHz y en los Celeron.
Memoria Cache
La memoria caché de segundo nivel (L2) es una memoria muy rápida llamada SRAM (RAM estática) que
se coloca entre la memoria principal y la CPU y que almacena los últimos datos transferidos.
El procesador, como en los casos de caché de disco, primero consulta a dicha memoria intermedia para
ver si la información que busca está allí, en caso afirmativo podemos trabajar con ella sin tener que
esperar a la más lenta memoria principal.
Dicha memoria solo se usa como caché debido a que su fabricación es muy cara y se emplea en módulos
de poca capacidad como 256 ó 512 Kb.
No hay que confundir nunca la memoria de segundo nivel con la de primer nivel (L1) ya que esta suele ir
integrada dentro del procesador, y suele ser de menor capacidad, aunque evidentemente dispone de un
acceso mucho más rápido por parte de la CPU.
Su implementación en la placa base puede ser o bien colocar los chips directamente en ella, mediante
zócalos o con soldadura directa, o en unos módulos parecidos a los SIMM's llamados COAST, de más
fácil actualización.
Memoria ROM
Una alternativa son los chips de memoria de solo lectura programables, o PROM (Programmable ReadOnly Memory). Este tipo de circuitos consiste en una matriz de elementos que actúan como fusibles.
Normalmente conducen la electricidad. Sin embargo, al igual que los fusibles, estos elementos pueden
fundirse, lo que detiene el flujo de la corriente.
Los chips PROM están fabricados y desarrollados con todos sus fusibles intactos. Se emplea una
máquina especial llamada programador de PROM o quemador de PROM, para fundir los fusibles uno
por uno según las necesidades del software que se va a codificar en el chip. Este proceso se conoce
normalmente como el “quemado“ de la PROM.
Como la mayoría de los incendios, los efectos de quemar la PROM son permanentes. El chip no puede
modificar, ni actualizar, ni revisar el programa que lleva dentro. Definitivamente, las PROM no están
pensadas para la gente que cambia rápidamente de ideas, ni para la industria de cambios rápidos.
Por fortuna, la tecnología nos ha traído otra alternativa: los chips de memoria programables y borrables
de solo lectura, las EPROM. (Erasable Programmable Read-Only Memory). Las EPROM son internamente
semiconductores auto-reparables porque los datos de su interior pueden borrarse y el chip puede ser
reutilizado por otros datos o programas.
Las EPROM son fáciles de distinguir de los otros chips porque tienen una pequeña ventana transparente
en el centro de la cápsula. Invariablemente, esta ventana esta cubierta con una etiqueta de cualquier
clase, y con una buena razón: el chips se puede borrar por la luz ultravioleta de alta intensidad que entra
por la ventana.
Si la luz del sol llega directamente al chip a través de una ventana, el chip podría borrarse sin que nadie
se diera cuenta. A causa de su versatilidad con la memoria permanente, y por su facilidad de
reprogramación, basta borrarla con luz y programarla de nuevo, las EPROM se encuentran en el interior
de muchos ordenadores.
Lic. Hugo Santander Jhong
13
Introducción a la computación
UNIDADES DE ALMACENAMIENTO
14
Las Unidades de almacenamiento son aquellos dispositivos, ya sea interno o externo, donde se
guardan físicamente los archivos de un sistema de envergadura computo.
Disco Duro
El disco duro almacena casi toda la
información que manejamos al trabajar con una
computadora. En él se aloja, por ejemplo, el sistema
operativo que permite arrancar la máquina, los
programas, los archivos de texto, imagen...
Un disco duro está formado por varios
discos apilados sobre los que se mueve una pequeña
cabeza magnética que graba y lee la información.
Este componente, al contrario que el micro
o los módulos de memoria, no se pincha
directamente en la placa, sino que se conecta a ella
mediante un cable. También va conectado a la
fuente de alimentación, pues, como cualquier otro componente, necesita energía para funcionar.
Además, una sola placa puede tener varios discos duros conectados.
Las características principales de un disco duro son:
La capacidad. Se mide en gigabytes (GB). Es el espacio disponible para almacenar secuencias de
1 byte. La capacidad aumenta constantemente cientos de MB, decenas de GB, cientos de GB.
La velocidad de giro. Se mide en revoluciones por minuto (rpm). Cuanto más rápido gire el
disco, más rápido podrá acceder a la información la cabeza lectora. Los discos actuales giran desde las
4.200 a 15.000 rpm, dependiendo del tipo de ordenador al que estén destinadas.
La capacidad de transmisión de datos. De poco servirá un disco duro de gran capacidad si
transmite los datos lentamente. Los discos actuales pueden alcanzar transferencias de datos de más de
100 Mb por segundo.
También existen discos duros externos que permiten almacenar grandes cantidades de
información. Son muy útiles para intercambiar información entre dos equipos. Normalmente se
conectan al PC mediante un conector USB.
Cuando el disco duro está leyendo, se enciende en la carcasa un diodo LED (de color rojo,
verde). Esto es útil para saber, por ejemplo, si la máquina ha acabado de realizar una tarea o si aún está
procesando datos.
Unidades externas
Los discos duros tienen una gran capacidad, pero al estar alojados normalmente dentro de la
carcasa, no son transportables. Para intercambiar información con otros equipos (si no están
conectados en red) necesitamos utilizar unidades de disco, como los populares disquetes, los CD-ROM o
DVD-ROM, los discos magneto-ópticos, etc.
Disquete (Unidad de 3,5 pulgadas)
La unidad de 3,5 pulgadas permite intercambiar información
utilizando disquetes magnéticos de 1,44 Mb de capacidad. Aunque la
capacidad de soporte es muy limitada si tenemos en cuenta las
necesidades de las aplicaciones actuales se siguen utilizando para
intercambiar archivos pequeños, pues pueden borrarse y reescribirse
cuantas veces se desee de una manera muy cómoda, aunque la
transferencia de información es bastante lenta si la comparamos con otros
soportes, como el disco duro o un CD-ROM.
Para usar el disquete basta con introducirlo en la ranura de la
Lic. Hugo Santander Jhong
Introducción a la computación
disquetera. Para expulsarlo se pulsa el botón situado junto a la ranura, o bien se ejecuta alguna acción
en el entorno gráfico con el que trabajamos (por ejemplo, se arrastra el símbolo del disquete hasta un
icono representado por una papelera).
La unidad de disco se alimenta mediante cables a partir de la fuente de alimentación del
sistema. Y también va conectada mediante un cable a la placa base. Un diodo LED se ilumina junto a la
ranura cuando la unidad está leyendo el disco, como ocurre en el caso del disco duro.
En los disquetes solo se puede escribir cuando la pestaña esta cerrada.
ATENCION: Los Disquetes son muy inseguros e inestables, por lo tanto están en extinción.
Unidad de CD-ROM
La unidad de CD-ROM permite utilizar discos ópticos de una mayor
capacidad que los disquetes de 3,5 pulgadas hasta 700 Mb. Esta es su
principal ventaja, pues los CD-ROM se han convertido en el estándar para
distribuir sistemas operativos, aplicaciones, etc.
El uso de estas unidades está muy extendido, ya que también
permiten leer los discos compactos de audio.
Para introducir un disco, en la mayoría de las unidades hay que
pulsar un botón para que salga una especie de bandeja donde se deposita el
CD-ROM. Pulsando nuevamente el botón, la bandeja se introduce.
En estas unidades, además, existe una toma para auriculares, y
también puede estar presentes los controles de navegación y de volumen típicos de los equipos de
audio para saltar de una pista a otra, por ejemplo.
Una característica básica de las unidades de CD-ROM es la velocidad de lectura que
normalmente se expresa como un número seguido de una «x» (40x, 52x,..). Este número indica la
velocidad de lectura en múltiplos de 128 Kb/s. Así, una unidad de 52x lee información de 128 Kb/s × 52 =
6,656 Kb/s, es decir, a 6,5 Mb/s.
Unidad de CD-RW (Regrabadora)
Las unidades de CD-ROM son sólo de lectura. Es decir, pueden leer la información en un disco,
pero no pueden escribir datos en él.
Una regrabadora (CD-RW) puede grabar y regrabar discos compactos. Las características
básicas de estas unidades son la velocidad de lectura, de grabación y de regrabación. En discos
regrabables es normalmente menor que en los discos grabables una sola vez. Las regrabadoras que
trabajan a 8X, 16X, 20X, 24X, etc., permiten grabar los 650, 700 Mb o más tamaño (hasta 900 Mb) de un
disco compacto en unos pocos minutos. Es habitual observar tres datos de velocidad, según la expresión
ax bx cx (a:velocidad de lectura; b: velocidad de grabación; c: velocidad de regrabación).
Unidad de DVD-ROM
Las unidades de DVD-ROM son aparentemente iguales que las de CD-ROM, pueden leer tanto
discos DVD-ROM como CD-ROM. Se diferencian de las unidades lectoras de CD-ROM en que el soporte
empleado tiene hasta 17 Gb de capacidad, y en la velocidad de lectura de los datos. La velocidad se
expresa con otro número de la «x»: 12x, 16x... Pero ahora la x hace referencia a 1,32 Mb/s. Así: 16x =
21,12 Mb/s.
Las conexiones de una unidad de DVD-ROM son similares a las de la unidad de CD-ROM: placa
base, fuente de alimentación y tarjeta de sonido. La diferencia más destacable es que las unidades
lectoras de discos DVD-ROM también pueden disponer de una salida de audio digital. Gracias a esta
conexión es posible leer películas en formato DVD y escuchar seis canales de audio separados si
disponemos de una buena tarjeta de sonido y un juego de altavoces apropiado (subwoofer más cinco
satélites).
Unidad de DVD-RW
Puede leer y grabar imágenes, sonido y datos en discos de varios gigabytes de capacidad.
Unidades magneto-ópticas
Estas unidades son menos usadas en entornos domésticos que las unidades de CD-ROM, pero
tienen varias ventajas:
Lic. Hugo Santander Jhong
15
Introducción a la computación
Por una parte; admiten discos de gran capacidad: 230 Mb, 640 Mb o 1,3 Gb.
Además; son discos reescribibles, por lo que es interesante emplearlos, por ejemplo, para
realizar copias de seguridad.
Otros dispositivos de almacenamiento
Otros dispositivos de almacenamiento son las memorias flash o los dispositivos de
almacenamiento magnético de gran capacidad.
La memoria flash. Es un tipo de memoria que se comercializa para el uso de aparatos portátiles,
como cámaras digitales o agendas electrónicas. El aparato correspondiente o bien un lector de tarjetas,
se conecta a la computadora a través del puerto USB o Firewire.
Los discos duros o memorias portátiles. Son memorias externas que se conectan directamente
al puerto USB.
Discos y cintas magnéticas de gran capacidad. Son unidades especiales que se utilizan para
realizar copias de seguridad o respaldo en empresas y centros de investigación. Su capacidad de
almacenamiento puede ser de cientos de gigabytes.
DISPOSITIVOS DE MÁS DE 2 GB DE CAPACIDAD
En general podemos decir que en el mundo PC sólo se utilizan de manera común dos tipos de
dispositivos de almacenamiento que alcancen esta capacidad: las cintas de datos y los magneto-ópticos
de 5,25". Las cintas son dispositivos orientados específicamente a realizar copias de seguridad masivas a
bajo coste, mientras que los magneto-ópticos de 5,25" son mucho más versátiles... y muchísimo más
caros.
Cintas magnéticas de datos - hasta más de 4 GB
Pros: precios asequibles, muy extendidas, enormes capacidades
Contras: extrema lentitud, útiles sólo para backups
Seguro que ha visto más de una vez en una película antigua o
en la televisión esa especie de enormes armarios acristalados en los
que unos círculos oscuros de más de 30 cm de diámetro giran como
locos mientras Sean Connery, encarnando al inefable 007, se enfrenta
al científico loco de turno; bueno, pues esos círculos son cintas de
datos de ordenador. Afortunadamente los tiempos han cambiado
mucho: hoy en día las cintas de datos vienen con funda y no son
mayores que las de música o las cintas de vídeo de 8 mm, lo que es un
avance evidente; en cambio, sobre si Pierce Brosnan es tan buen 007
como Connery habría opiniones, aunque tampoco lo hace mal.
Las cintas magnéticas de datos o streamers presentan muchos problemas como dispositivo de
almacenaje de datos: casi todos los tipos son tremendamente lentas (típicamente menos de 250 Kb/s,
una velocidad casi ridícula); lo que es peor, los datos se almacenan secuencialmente, por lo que si quiere
recuperar un archivo que se encuentra a la mitad de la cinta deberá esperar varias decenas de segundos
hasta que la cinta llegue a esa zona; y además, los datos no están en exceso seguros, ya que como
dispositivos magnéticos les afectan los campos magnéticos, el calor, etc, además del propio desgaste de
las cintas.
Entonces, ¿por qué se fabrican? Porque son baratas, muy baratas. Existen unidades lectorasgrabadoras por menos de 15.000 pts, y las cintas pueden costar unas 3.000 pts una de 2 GB. Pero el ser
baratas no elimina el resto de problemas, por lo que sólo son prácticas para realizar backups masivos del
disco duro (o selectivos, según), aunque teniendo en cuenta que el proceso para un disco duro de
tamaño medio puede llegar a durar fácilmente un par de horas usando cintas normales.
Uno de los motivos que hace tan lentas a las cintas de datos es el tipo de interfaz que se utiliza.
Generalmente se usa el conector para disquetera, el cual es muy lento, los comentados 250 Kb/s
máximo (que rara vez se alcanzan); lo que es más, debe poder configurarse la BIOS como si hubiéramos
conectado una disquetera de 2,88 MB, lo que no es posible si la BIOS es antigua, como la de algunos 486
Lic. Hugo Santander Jhong
16
Introducción a la computación
y las anteriores. En el caso de que la BIOS admita como máximo disqueteras de 1,44 MB, la velocidad se
reducirá a la mitad.
En otras cintas se utiliza el puerto paralelo (con mayor ancho de banda, pero apenas
aprovechado) y en cintas de datos más caras y rápidas se utilizan interfaces EIDE o SCSI, lo que aumenta
el rendimiento pero nunca de forma espectacular, ya que el elemento más limitante es la propia
maquinaria mecánica de la unidad. Además, el modo de acceso secuencial hace totalmente imposible
usarlas de forma eficaz "a lo disco duro", salvo que entendamos por esto esperar y esperar cada vez que
queremos un fichero...
Los tipos principales de unidades de cinta son las QIC,
Travan y DAT. Las Travan son una subclase que deriva de las QIC,
con las que suelen guardar un cierto grado de compatibilidad;
ambas forman el segmento económico del almacenaje en cinta,
por ejemplo 20.000 pts una unidad de 1 GB de capacidad y 2.000
pts cada una de las cintas correspondientes.
Las cintas DAT (Digital Audio Tape) son otra historia,
desde luego, tanto en velocidad como en precio. El acceso sigue
siendo secuencial, pero la transferencia de datos continua (lectura
o escritura) puede llegar a superar 1 MB/s, lo que justifica que la
práctica totalidad utilicen interfaz SCSI. Sin embargo, el precio
resulta prohibitivo para un uso no profesional: más de 100.000 pts una unidad de 4 GB de capacidad,
aunque las cintas son baratas: unas 4.000 pts para una de 4 GB, por cierto realmente pequeña.
Marcas y modelos existen infinidad, ya que es un mercado muy maduro y basado en su mayoría
en estándares, lo que redunda en unos precios más bajos y una mayor facilidad para encontrar las cintas
apropiadas. Ejemplos destacados son los modelos Ditto de Iomega, los Colorado de Hewlett Packard, los
TapeStor de Seagate y los modelos DAT de Sony o Hewlett Packard.
Para terminar, una curiosidad muy importante: la capacidad física real de las cintas de datos
suele ser la mitad de la nominal indicada en el exterior de la caja de la unidad o de la cinta, ya que al
sólo utilizarse para hacer backups, generalmente comprimiendo los datos, suponen que se va a alcanzar
una compresión de 2:1. En realidad la compresión depende del tipo de datos a comprimir (los
programas se comprimen poco y los archivos de texto mucho, por ejemplo), por lo que le recomiendo
que piense más bien en una compresión 1,5:1. Resumiendo, que si la unidad se anuncia como de 2 GB,
seguro que es de 1 GB (lo que vendrá en alguna parte pero en letras más pequeñas) y casi seguro que
podrá almacenar más o menos 1,5 GB de datos comprimidos; en este texto no se ha usado este truco
publicitario.
Magneto-ópticos de 5,25" - hasta 4,6 GB
Pros: versatilidad, velocidad, fiabilidad, enormes capacidades
Contras: precios elevados
Los magneto-ópticos de 5,25" se basan en
la misma tecnología que sus hermanos pequeños
de 3,5", por lo que atesoran sus mismas ventajas:
gran fiabilidad y durabilidad de los datos a la vez
que una velocidad razonablemente elevada.
En este caso, además, la velocidad llega a
ser incluso superior: más de 3 MB/s en lectura y
más de 1,5 MB/s en escritura usando discos
normales. Si el dispositivo soporta discos
LIMDOW, la velocidad de escritura casi se duplica,
con lo que llegaríamos a una velocidad más de 5
veces superior a la grabadora de CD-ROMs más
rápida y comparable a la de los discos duros, lo
que determina la utilización del interfaz SCSI
exclusivamente y el apelativo de discos duros ópticos que se les aplica en ocasiones.
Además, el cambio de tamaño de 3,5" a 5,25" implica un gran aumento de capacidad; los discos
van desde los 650 MB hasta los 5,2 GB, o lo que es lo mismo: desde la capacidad de un solo CD-ROM
Lic. Hugo Santander Jhong
17
Introducción a la computación
hasta la de 8, pasando por los discos más comunes, los de 1,3 y 2,6 GB. Con estas cifras y esta velocidad,
hacer un backup de un disco duro de 2,5 GB no lleva más de un cuarto de hora y el cartucho resultado
es sólo un poco más grande que la funda de un CD, ya que a eso se parecen los discos: a CDs con una
funda tipo disquete.
En la actualidad los modelos más extendidos son los de 2,6 GB de capacidad máxima, en los que
está implantándose rápidamente el sistema LIMDOW. Puesto que se trata de dispositivos basados en
estándares, existen varias empresas que los fabrican, por ejemplo Hewlett Packard, Sony o Pinnacle
Micro.
Esta última empresa, Pinnacle, que se dedica casi en
exclusiva a estos dispositivos, tiene uno de los productos más
interesantes de este mercado: el Apex. Se trata de un dispositivo
que admite discos normales de 2,6 GB, pero que además tiene
unos discos especiales, de diseño propietario (no compatibles con
otros aparatos), que llegan hasta los 4,6 GB, todo ello con una gran
velocidad y a un precio incluso inferior al de muchos dispositivos
normales de sólo 2,6 GB.
Pero ése, el precio, es el inconveniente (terrible
inconveniente) de este tipo de periféricos. Las unidades de 2,6 GB
se venden por unas 175.000 pts, mientras que las de 5,2 GB
superan holgadamente este precio. Los discos, sin embargo, son bastante económicos para su gran
capacidad, enorme resistencia y durabilidad: unas 10.000 pts uno de 2,6 GB. Aunque si piensa comprar
un dispositivo de almacenamiento realmente masivo y dispone del suficiente dinero, no lo dude: no
existe mejor opción, sobre todo si quiere la seguridad absoluta de que dentro de 30 años aún podrá
recuperar sus datos sin problemas.
Copias de seguridad (backups)
En las anteriores páginas se ha comentado numerosas veces la mayor o menor idoneidad de los
aparatos para su utilización como dispositivos de copia de seguridad o, como dicen los ingleses, backup.
A continuación voy a intentar dar unas ideas generales sobre este tema, que tiene mucha mayor
importancia de lo que parece.
Si algún día llego a publicar un manual de informática, probablemente comenzará diciendo:
"ANTE TODO, MANTENGA BACKUPS RECIENTES DE SUS FICHEROS DE DATOS", en letras mayúsculas y en
el centro de la primera página. A continuación tendría que explicar qué es un fichero, un backup y sobre
todo un ordenador, pero me temo que si dejara el consejo para más adelante ya no tendría la fuerza
que se merece.
No olvide que un ordenador no es más que un amasijo de cables, plástico y metal, por mucho
que me cueste reconocerlo; es una máquina, y como tal no es especialmente interesante en sí misma,
sino que lo es sobre todo por los datos que contiene: las cartas a la novia, los informes del trabajo, las
fotos de astronomía, los juegos, las facturas del último trimestre... Eso es lo importante, pero parece
que nos olvidamos de ello muy a menudo; confiamos en que como nunca se ha roto, nunca se romperá,
olvidando la única ley de la informática, la Ley de Murphy:
Si un archivo puede borrarse, se borrará.
Si dos archivos pueden borrarse, se borrará el más importante.
Si tenemos una copia de seguridad, no estará lo suficientemente actualizada.
Y así hasta el infinito. Los discos duros fallan poco, pero más de lo deseable; incluso si no fallan,
pueden verse afectados por múltiples causas, desde una subida de tensión eléctrica hasta un tropezón
con un cable que nos haga tirar el ordenador al suelo. La única solución es tener copias de seguridad,
actualizarlas a menudo y esperar que nunca nos haga falta usarlas; a continuación le presento Los Diez
Mandamientos de los Backups:
1. Haga copias de seguridad de todos los datos importantes.
2. Haga una copia de seguridad de los discos de instalación de los programas.
3. Actualice las copias de seguridad tan a menudo como pueda.
4. Revise el estado de sus copias de seguridad de vez en cuando.
5. Si le da pereza copiar todo el disco, al menos copie sus archivos de datos.
6. Si le da pereza copiar todos sus archivos de datos, al menos copie los más recientes o
importantes.
7. No confíe en los disquetes como dispositivo de backup, su fiabilidad es ínfima.
Lic. Hugo Santander Jhong
18
Introducción a la computación
8.
9.
Si no dispone de otra cosa, al menos haga copias en disquete.
Sobre todo si utiliza disquetes o cintas magnéticas, tenga más de un juego de copias,
intercámbielos de forma rotatoria y renuévelos de vez en cuando.
10. Guarde las copias en lugar seguro, si no serán copias de seguridad inseguras.
Lic. Hugo Santander Jhong
19
Introducción a la computación
MAINBOARD O TARJETA PRINCIPAL
20
Se denomina Placa Base o Madre (MotherBoard en inglés) a la placa de circuito impreso que
integra los siguientes elementos:
 Microprocesador: consiste en un circuito integrado que contiene la Unidad Aritmético/Lógica y la
Unidad de Control. En la familia PC corresponde a los micros 8088, 8086, 80286,…hasta los actuales
procesadores Pentium MMX, II y III . En esta familia a partir del 80486 también se incorpora el
coprocesador matemático encargado de las operaciones de punto flotante.
 Banco de memoria: está formado por uno o varios "chips" que forman la RAM, ésta es una de las
dos partes que componen la memoria principal. Los PC actuales contienen una serie de zócalos
donde se insertan los denominados módulos SIMM (Single Inline Memory Module) formados estos
a su vez por varios "chips"; esta construcción modular permite añadir más módulos, y por tanto más
memoria, cuando resulta necesario de una forma muy sencilla; eso si, respetando unas reglas de
colocación en cuanto a su número y tamaño. Se han introducido otros módulos de memoria
conocidos como DIMM los cuales son más rápidos y con mayor memoria, por consecuencia con un
número mayor de pines (168 vs. 72).
 ROM: formada a su vez por uno o varios circuitos integrados, aunque de características distintas a
los que forman la RAM, que contienen información de modo permanente.
 Ranuras o Slots de expansión: se trata de conexiones para las tarjetas de ampliación de la placa
base; las más habituales suelen ser la tarjeta gráfica, la controladora de discos, la tarjeta de los
puertos serie y paralelo. Las placas base - también se denominan placas madre - más modernas
suelen incorporar tanto la controladora de discos, como la serie-paralelo y algunas también la
tarjeta gráfica e incluso otros periféricos.
 Resto: los cristales de cuarzo que suministran la frecuencia o frecuencias para el funcionamiento del
sistema, el controlador programable de interrupciones que controla las interrupciones - las
interrupciones, IRQ, son señales generadas por los componentes de la computadora, indicando que
se requiere la atención de la CPU - y las presenta a la CPU, el controlador DMA - el propósito de este
controlador es escribir o leer datos directamente de memoria prescindiendo del microprocesador -,
el conector a la fuente de alimentación y otros como la memoria caché o el coprocesador
matemático que no se encuentran en todos los ordenadores o incluso pueden estar integrados en
el propio microprocesador.
Componentes
Chipset
El Chipset es el conjunto (Set) de chips que se encargan de controlar algunas funciones de la
computadora, como por ejemplo la forma en que interacciona el microprocesador, con la memoria
DRAM y la memoria caché. También en el control de puertos y Slots de diferentes arquitecturas y
tecnologías.
Característica
 Obtener o no el máximo rendimiento del microprocesador.
 Las posibilidades de actualización del computador.
 El uso de ciertas tecnologías avanzadas de memoria y periféricos
 Es importante tener presente la siguiente premisa “El uso de un buen Chipset no implica
que la Placa Base sea de Calidad”.
 En la práctica los Chipset más utilizados son: INTEL (Triton), VIA, ALI, SIS, TXPRO, XCELL,
etc.
BIOS


Es un conjunto de programas desarrollado en firmware.
Es utilizado como programas de control de hardware.
¿Que significa?
BIOS viene de “Basic Input Output System” (Sistema Básico de Entrada Salida) pero
también podría haber significado “Basic Initial Operating System” (Sistema Operativo Inicial
Básico)" y hubiera sido verdad porque el BIOS es lo que primero se carga cuando se prende la
computadora.
Lic. Hugo Santander Jhong
Introducción a la computación
De hecho el BIOS es donde se mantiene toda la información básica sobre el hardware
de su computadora, que es la primera información leída y requerida cuando se enciende su
computadora.
¿Cómo se mantiene la información del BIOS?
La información del BIOS es almacenada en un chip CMOS el cual es mantenido bajo un
flujo constante de voltaje por la batería de respaldo de la computadora. De esta forma la
información contenida en el chip CMOS se mantiene siempre viva, aún si se apaga la
computadora.
Sistema de Buses
Son medios de comunicación que permiten transmitir datos e instrucciones,
direcciones y pulsos de control en forma de líneas paralelas, dentro del microprocesador y en la
parte exterior del mismo.
Clasificación de buses
 Por la información que transporta:
 Bus de Datos, es de 8, 16, 32 y 64 bits
 Bus de Dirección, son de 16, 20, 24, 32
bits.
 Bus de Control, es de 9, 11, y 13 pulsos.
Buses Internos.- Son aquellos BUSES que se encuentra
formando la arquitectura del chip de la CPU.
Buses Externos.- Son los BUSES que están instalados fuera del chip de la CPU, que permiten la
comunicación entre los periféricos, las interfaces, en dirección a la CPU, o viceversa.
En la práctica se presentan de la siguiente forma:
 Buses de Expansión.- Son buses tipo ranuras, en las que se instalan las tarjetas
controladoras. (interfaces), como por ejemplo las tarjetas SuperIde.
 Buses Locales.- Son los BUSES que permiten la comunicación entre la CPU y la
Memoria Principal, administrados por el controlador de buses.
Arquitectura de Bus
Arquitectura ISA



Arquitectura ISA, denominado Arquitectura Estándar de las Industrias.
Diseñada por IBM para 8 y 16bits de datos.
La velocidad del bus es de 8.33MHz y transfiere señales a 8MBps
Lic. Hugo Santander Jhong
21
Introducción a la computación
PCI (Interface Controlador de Periférico)

Desarrollado por INTEL, consta de 188 pines, administra 32 y 64bits de datos, la velocidad de
transferencia de datos es de 264MBps para una frecuencia de 66MHz. Utiliza las técnicas de
multiplexado de datos y el método por ráfagas lineales.
AGP (Puerto Acelerador Gráfico)

Es el mejoramiento de PCI para el proceso en diseño gráfico en el sistema 3D. La velocidad de
transferencia de datos es de 800MBps, mientras que la frecuencia de 100MHz.,para 64bits.
Puertos seriales
Es un puerto diseñado para transmitir datos por
un solo cable en forma sucesiva. Es del tipo asincrónica,
es decir que no obedece a ningún pulso de reloj durante
el envió de datos.
 Los puertos seriales se caracterizan por transmitir la
información BIT x BIT uno tras otro.
 Son de dos tipos el puerto serial 1 y el puerto serial
2; cada uno de ellos utilizan dos puntos de conexión denominado.
 El puerto serial 1 se utiliza el COM1 y COM3, los cuales utilizan siempre el puerto de tipo “D”
pequeña de 9 pines.
 Para el puerto serial 2 se utilizan los puntos de conexión COM2 y COM4 los cuales utilizan siempre
el puerto tipo “D” grande de 25 pines.
Puerto paralelo




Los puertos paralelos son los LPT que son 1,2 y 3.
En la práctica el puerto serial 1 en el COM1, se instala el MOUSE,
el cual utiliza el interruptor IRQ4.
Para la instalación de un Fax/MODEM, se instala en el puerto
serial 2 en el COM2, utilizando el IRQ3.
Las impresoras se instalan en los puertos paralelos, por ejemplo
para el LPT1, que utiliza el IRQ7.
USB
Bus Universal Serial (USB). Es el bus serial universal
que permite conectar cualquier periférico a la
computadora, por ejemplo el Mouse, teclado, joystick,
impresora, MODEM, cámara de video, webcam, escáner,
etc.
Tiene la particularidad de conectar hasta 126
dispositivos, los cuales pueden ser conectados en serie (uno
de tras de otro) o utilizando otros dispositivos de múltiples
salidas colocados en los diversos periféricos, como por
ejemplo el monitor.
Monitores
La mejor forma de adquirir la información es a través de la vista, lo que hace que el monitor sea
uno de los periféricos de salida más usual.
Qué es un Píxel
Es la mínima unidad representable en un monitor. Cada píxel en la pantalla se pinta, o mejor
dicho se enciende, con un determinado color para formar la imagen. De esta forma, cuanto más
cantidad de píxeles puedan ser representados en una pantalla, mayor resolución habrá. Es decir, cada
uno de los puntos será más pequeño y habrá más al mismo tiempo en la pantalla para conformar la
imagen. Cada píxel se representa en la memoria de video con un número. Dicho número es la
Lic. Hugo Santander Jhong
22
Introducción a la computación
representación numérica de un color especifico, que puede ser de 8, 16 o más bits. Cuanto más grande
sea la cantidad de bits necesarios para representar un píxel, más variedad de colores podrán unirse en la
misma imagen. De esta manera se puede determinar la cantidad de memoria de video necesaria para
una cierta definición y con una cierta cantidad de colores.
Tipos de Monitores
Monitores color: Las pantallas de estos monitores están formadas internamente por tres capas
de material de fósforo, una por cada color básico (rojo, verde y azul). También consta de tres cañones
de electrones, e, igual que las capas de fósforo, hay uno por cada color.
Para formar un color en pantalla que no sea ninguno de los colores básicos, se combinan las
intensidades de los haces de electrones de los tres colores básicos.
Monitores monocromáticos: Muestra por pantalla un solo color: negro sobre blanco o ámbar, o
verde sobre negro. Uno de estos monitores con una resolución equivalente a la de un monitor color, si
es de buena calidad, generalmente es más nítido y más legible.
Monitores de Cristal Líquido
Funcionamiento:
Los cristales líquidos son sustancias transparentes con
cualidades propias de líquidos y de sólidos. Al igual que los sólidos, una
luz que atraviesa un cristal líquido sigue el alineamiento de las
moléculas, pero al igual que los líquidos, aplicando una carga eléctrica
a estos cristales, se produce un cambio en la alineación de las
moléculas, y por tanto en el modo en que la luz pasa a través de ellas.
Una pantalla LCD está formada por dos filtros polarizantes con filas de
cristales líquidos alineados perpendicularmente entre sí, de modo que
al aplicar o dejar de aplicar una corriente eléctrica a los filtros, se
consigue que la luz pase o no pase a través de ellos, según el segundo
filtro bloquee o no el paso de la luz que ha atravesado el primero.
El color se consigue añadiendo 3 filtros adicionales de color (uno rojo, uno verde, uno azul). Sin
embargo, para la reproducción de varias tonalidades de color, se deben aplicar diferentes niveles de
brillo intermedios entre luz y no-luz, lo cual se consigue con variaciones en el voltaje que se aplica a los
filtros. En esto último, hay un parecido con los monitores CRT, que más adelante veremos.
Características
Resolución:
La resolución máxima de una pantalla LCD viene dada por el número de celdas de cristal
líquido.
Tamaño:
A diferencia de los monitores CRT, se debe tener en cuenta que la medida diagonal de una
pantalla LCD equivale al área de visión. Es decir, el tamaño diagonal de la pantalla LCD equivale
a un monitor CRT de tamaño superior.
Lic. Hugo Santander Jhong
23
Introducción a la computación
Monitores con Tubos de Rayos Catódicos
Las señales digitales del entorno son recibidas por
el adaptador de VGA, que a veces esta incluido en el mother
de la PC. El adaptador lleva las señales a través de un
circuito llamado convertidor analógico digital (DAC).
Generalmente, el circuito de DAC está contenido dentro de
un chip especial que realmente contiene tres DAC, uno para
cada uno de los colores básicos utilizados en la
visualización: rojo, azul y verde. Los circuitos DAC comparan
los valores digitales enviados por la PC en una tabla que
contiene los niveles de voltaje coincidentes con los tres
colores básicos necesarios para crear el color de un único pixel. El adaptador envía señales a los tres
cañones de electrones localizados detrás del tubo de rayos catódicos del monitor (CRT). Cada cañón de
electrones expulsa una corriente de electrones, una cantidad por cada uno de los tres colores básicos.
Como ya mencionamos, la intensidad de cada corriente es controlada por las señales del adaptador.
El adaptador también envía señales a
un mecanismo en el cuello del CRT que enfoca
y dirige los rayos de electrones. Parte del
mecanismo es un componente, formado por
material magnético y bobinas, que abraza el
cuello del tubo de rayos catódicos, que sirve
para mandar la desviación de los haces de
electrones, llamado yugo de desvío magnético.
Las señales enviadas al yugo de ayuda
determinan la resolución del monitor (la
cantidad de píxeles horizontal y verticalmente)
y la frecuencia de refresco del monitor, que es
la frecuencia con que la imagen de la pantalla
será redibujada.
La imagen esta formada por una multitud de puntos de pantalla, uno o varios puntos de
pantalla forman un punto de imagen (píxel), una imagen se constituye en la pantalla del monitor por la
activación selectiva de una multitud de puntos de imagen.
Los rayos pasan a través de los agujeros en una placa de metal llamada máscara de sombra o
mascara perforada.
El propósito de la máscara es mantener los rayos de electrones alineados con sus blancos en el
interior de la pantalla de CRT. El punto de CRT es la medición de como cierran los agujeros unos a otros;
cuanto más cerca estén los agujeros, más pequeño es el punto. Los agujeros de la mencionada máscara
miden menos de 0,4 milímetros de diámetro.
El electrón golpea el revestimiento de fósforo dentro de la pantalla. (El fósforo es un material
que se ilumina cuando es golpeado por electrones). Son utilizados tres materiales de fósforo diferentes,
uno para cada color básico. El fósforo se ilumina más cuanto mayor sea el número de electrones
emitido. Si cada punto verde, rojo o azul es golpeado por haces de electrones igualmente intensos, el
resultado es un punto de luz blanca. Para lograr diferentes colores, la intensidad de cada uno de los
haces es variada. Después de que cada haz deje un punto de fósforo, este continúa iluminado
brevemente, a causa de una condición llamada persistencia. Para que una imagen permanezca estable,
el fósforo debe de ser reactivado repitiendo la localización de los haces de electrones.
Después de que los haces hagan un barrido horizontal de la pantalla, las corrientes de
electrones son apagadas cuando el cañón de electrones enfoca las trayectorias de los haces en el borde
inferior izquierdo de la pantalla en un punto exactamente debajo de la línea de barrido anterior, este
proceso es llamado refresco de pantalla.
Los barridos a través de la superficie de la pantalla se realizan desde la esquina superior
izquierda de la pantalla a la esquina inferior derecha. Un barrido completo de la pantalla es llamado
campo. La pantalla es normalmente redibujada, o refrescada, cerca de unas 60 veces por segundo,
haciéndolo imperceptible para el ojo humano.
El Refresco de Pantalla
Lic. Hugo Santander Jhong
24
Introducción a la computación
El refresco es el número de veces que se dibuja la pantalla por segundo. Evidentemente, cuanto
mayor sea la cantidad de veces que se refresque, menos se nos cansará la vista y trabajaremos más
cómodos y con menos problemas visuales. La velocidad de refresco se mide en hertzios (Hz. 1/segundo),
así que 70 Hz significan que la pantalla se dibuja cada 1/70 de segundo, o 70 veces por segundo. Para
trabajar cómodamente necesitaremos esos 70 Hz. Para trabajar ergonómicamente, o sea, con el mínimo
de fatiga visual, 80 Hz o más. El mínimo son 60 Hz; por debajo de esta cifra los ojos sufren demasiado, y
unos minutos bastan para empezar a sentir escozor o incluso un pequeño dolor de cabeza.
Antiguamente se usaba una técnica denominada entrelazado, que consiste en que la pantalla se dibuja
en dos pasadas, primero las líneas impares y luego las pares, por lo que 70 Hz. entrelazados equivale a
poco más de 35 sin entrelazar, lo que cansa la vista increíblemente.
La frecuencia máxima de refresco del monitor se ve limitada por la resolución del monitor. Esta
última decide el número de líneas o filas de la máscara de la pantalla y el resultado que se obtiene del
número de filas de un monitor y de su frecuencia de exploración vertical (o barrido, o refresco) es la
frecuencia de exploración horizontal; esto es el número de veces por segundo que el haz de electrones
debe desplazarse de izquierda a derecha de la pantalla. Por consiguiente, un monitor con una resolución
de 480 líneas y una frecuencia de exploración vertical de 70Hz presenta una frecuencia de exploración
horizontal de 480 x 70, o 33,6 kHz. En este caso, el haz de electrones debe explorar 33600 líneas por
segundo.
Quien proporciona estos refrescos es la tarjeta gráfica, pero quien debe presentarlos es el
monitor. Si ponemos un refresco de pantalla que el monitor no soporta podríamos dañarlo, por lo que
debemos conocer sus capacidades a fondo. También hay que tener claro que la tarjeta de video debe
ser capaz de proporcionar una cierta cantidad de refrescos por segundo, ya que de no ser así, de nada
nos servirá que el monitor los soporte.
Resolución
Se denomina resolución de pantalla a la cantidad de píxeles que se pueden ubicar en un
determinado modo de pantalla. Estos píxeles están a su vez distribuidos entre el total de horizontales y
el de verticales. Todos los monitores pueden trabajar con múltiples modos, pero dependiendo del
tamaño del monitor, unos nos serán más útiles que otros. Un monitor cuya resolución máxima sea de
1024x768 píxeles puede representar hasta 768 líneas horizontales de 1024 píxeles cada una,
probablemente además de otras resoluciones inferiores, como 640x480 u 800x600. Cuanto mayor sea la
resolución de un monitor, mejor será la calidad de la imagen en pantalla, y mayor será la calidad (y por
consiguiente el precio) del monitor. La resolución debe ser apropiada además al tamaño del monitor; es
normal que un monitor de 14" ó 15" no ofrezca 1280x1024 píxeles, mientras que es el mínimo exigible a
uno de 17" o superior. Hay que decir que aunque se disponga de un monitor que trabaje a una
resolución de 1024x768 píxeles, si la tarjeta gráfica instalada es VGA (640x480) la resolución de nuestro
sistema será esta última.
Tamaño
El tamaño de los monitores CRT se mide en pulgadas, al igual que los televisores. Hay que tener
en cuenta que lo que se mide es la longitud de la diagonal, y que además estamos hablando de tamaño
de tubo, ya que el tamaño aprovechable siempre es menor.
Radiación
El monitor es un dispositivo que pone en riesgo la visión del usuario. Los monitores producen
radiación electromagnética no ionizante (EMR). Hay un ancho de banda de frecuencia que oscila entre la
baja frecuencia extrema (ELF) y la muy baja frecuencia, que ha producido un debate a escala mundial de
los altos tiempos de exposición a dichas emisiones por parte de los usuarios. Los monitores que
ostentan las siglas MPRII cumplen con las normas de radiación toleradas fuera de los ámbitos de
discusión.
Foco y Convergencia
De ellos depende la fatiga visual y la calidad del texto y de las imágenes. El foco se refiere
especialmente a la definición que hay entre lo claro y lo oscuro. La convergencia es lo mismo que el
foco, pero se refiere a la definición de los colores del tubo. La convergencia deberá ser ajustada cuando
los haces de electrones disparados por los cañones no estén alineados correctamente.
Lic. Hugo Santander Jhong
25
Introducción a la computación
El modo Entrelazado
Cualquier monitor VGA a color del modelo estándar puede operar con la resolución más baja
(480 líneas) de un adaptador VGA a una frecuencia de refresco de pantalla de 70 Hz. Sin embargo, tal
operación resulta del todo imposible con una mayor resolución. Por este motivo, la mayoría de las
tarjetas VGA utilizan frecuencias de exploración vertical más bajas con resoluciones más elevadas, con lo
cuál el monitor dispone de más tiempo para construir dichas líneas de más. El inconveniente de este
método es que a menudo provoca un notable parpadeo, sobre todo en aquellas imágenes con grandes
zonas de brillo intenso. El modo Interlaced (entrelazado) es un método para que el adaptador de
gráficos reduzca dicho parpadeo hasta el punto de conseguir una calidad de imagen mínimamente
aceptable. En este modo, en lugar de transmitir todos los pixeles en serie, el controlador de video se
saltea las líneas pares de la pantalla. De esta forma, el monitor solo tiene que explorar la mitad de los
pixeles de la pantalla en cada pasada vertical. La recomposición de pantalla siguiente se limitará por
consiguiente a la otra mitad de los pixeles de la pantalla. Por así decirlo, el controlado de video alterna la
transmisión de dos imágenes al monitor, y cada una de estas imágenes contiene tan sólo la mitad de la
información de pantalla. El monitor puede operar fácilmente con las medias pantallas, incluso a 70 Hz.
porque tan sólo se exploran la mitad de líneas cada vez, y esto es así también cuándo toda la pantalla
dispone de más líneas.
Tamaño de Punto (dot pitch)
Es un parámetro que mide la nitidez de la imagen, midiendo la distancia entre dos puntos del
mismo color; resulta fundamental a grandes resoluciones. En ocasiones es diferente en vertical que en
horizontal, o se trata de un valor medio, dependiendo de la disposición particular de los puntos de color
en la pantalla, así como del tipo de rejilla empleada para dirigir los haces de electrones.
Lo mínimo exigible en este momento es que sea de 0,28 mm, no debiéndose admitir nada
superior como no sea en monitores de gran formato para presentaciones, donde la resolución no es tan
importante como el tamaño de la imagen.
Para CAD o en general usos a alta resolución debe ser menor de 0,28 mm, idealmente de 0,25
mm (o menos). De todas formas, el mero hecho de ser inferior a 0,28 mm ya indica una gran
preocupación del fabricante por la calidad del monitor. Como ejemplo cabe destacar los monitores
Sony, los afamados Triniton, que pasan por ser lo mejor del mercado (y probablemente lo sean, con
perdón de Nokia y Eizo) y tienen todos un dot pitch máximo de 0,25 mm.
Multimedia
Algunos monitores llevan acoplados altavoces, e incluso micrófono y/o cámaras de vídeo. Esto
resulta interesante cuando se trata de un monitor de 15" ó 17" cuyo uso vaya a ser doméstico, para
juegos o videoconferencia.
Sin embargo, no nos engañemos: un monitor es para ver, no para oír. Ni la calidad de sonido de
dichos altavoces es la mejor posible, ni su disposición la más adecuada, ni es mayor la calidad de un
monitor con dichos aditamentos. Si lo que quiere (y debería quererlo) es un buen monitor, primero mire
la calidad de imagen y luego estos extras; tenga en cuenta que unos altavoces de calidad media y
potencia apabullante no valen más de 10.000 pts, y podrá colocarlos donde quiera.
Impresora
Las impresoras son una parte vital de los modernos sistemas de PC. La necesidad de copias en
papel de los documentos de la computadora y en línea no es menos importante hoy que cuando la
revolución del sin papel comenzó hace varios años. Los técnicos de computadoras de hoy deben
conocer el funcionamiento de los distintos tipos de impresoras para poder instalarlas, mantenerlas y
solucionar problemas de impresión.
Los tipos de impresoras más populares en uso hoy son las
impresoras laser del tipo electrofotográficas y las impresoras a chorro de
tinta . Las viejas impresoras de matriz de punto del tipo de impacto aun se
utilizan en muchas oficinas y hogares pero es difícil encontrar repuestos
cuando estas unidades se rompen.
Las impresoras están conectadas a las computadoras personales por medio de conexiones de
cable USB, firewall, serial, paralelo y de red. Las conexiones del tipo inalámbrico incluyen las tecnologías
de infrarrojo y de onda de radio.
Lic. Hugo Santander Jhong
26
Introducción a la computación
Los drivers de impresora son software que debe ser instalado en la PC para que la impresora
pueda comunicarse y coordinar el proceso de impresión. Los drivers de impresora difieren de acuerdo al
tipo de impresora, fabricante, modelo y sistema operativo de PC.
Impresora de matriz de puntos
La impresora de matriz de puntos pertenece a una clase de
impresoras llamadas impresoras de impacto. En este tipo, la parte que
realmente imprime impacta una cinta de impresora o cinta entintada
para hacer que los caracteres se formen en el papel.
En la impresora de matriz de puntos, este impacto se realiza
cuando el cabezal de impresión dispara agujas (o pins de impresión)
contra una cinta entintada, la que hace contacto con el papel y deja una
marca. El cabezal de impresión, el montaje que contiene las agujas, se
mueve de izquierda a derecha a través del papel, una línea por vez, creando letras con puntos circulares
de tinta que impactan el papel. Muchas impresoras de matriz de puntos también imprimen en forma bidireccional, de izquierda a derecha y de derecha a izquierda, lo que aumenta la velocidad. Las bobinas
de cables forman electromagnetos que son llamados solenoides y, cuando éstos son energizados,
causan que las agujas golpeen hacia adelante y afecten a la cinta.
La cantidad de agujas, como en las impresoras de 9 agujas, 24 agujas, o 48 agujas, indican la
calidad de la impresión. Esta es la cantidad real de agujas que están ubicadas en el cabezal de impresión.
La calidad de impresión más alta que es producida por la impresora de matriz de puntos se llama Calidad
Cercana a la Carta. La velocidad a la que puede funcionar la impresora de matriz de puntos se mide en
cps, caracteres por segundo.
El tipo de papel que se usa más a menudo con la impresora de matriz de puntos es el papel
continuo. Este papel tiene perforaciones entre cada hoja y bandas perforadas a los costados. Se utilizan
para alimentar el papel y para evitar que se arrugue o se mueva. Los alimentadores de hojas que
imprimen una página por vez fueron agregados a algunas de las impresoras de más alta calidad usadas
en las oficinas. Un cilindro largo, llamado platen, aplica presión para evitar que el papel se mueva. Si se
usa un papel carbónico, se puede ajustar el espacio del platen al grosor del papel.
En un tiempo la impresora más barata, hoy las impresoras de matriz de puntos son raras y en
cierta forma caras para adquirir porque sirven a un pequeño mercado que requiere papeles con copias
múltiples.
Impresora de inyección de tinta
Las impresoras de inyección de tinta son el tipo de impresora
más popular de uso hogareño de hoy. Esto es a causa de su bajo costo y
moderada calidad de impresión. La impresora de inyección de tinta usa
cartuchos llenos de tinta líquida que fuerzan la salida y esparcen
partículas de tinta en la página a través de pequeños agujeros llamados
boquillas. Las impresoras de inyección de tinta normalmente imprimen
una línea por vez, están orientadas a página, y son más rápidas que las
impresoras de matriz de puntos.
La impresora de inyección de tinta esparce pequeñas gotas de tinta en la página por medio de
la aplicación de presión causada por electricidad o por una carga eléctrica. La presión dentro del
reservorio de tinta del cartucho es menor que la presión del exterior hasta que se aplica la electricidad,
entonces la presión sube. Esta presión interna causa que pequeñas gotas de tinta sean forzadas a salir a
través de las boquillas.
Las impresoras de inyección de tinta tienen dos tipos de cabezales de impresión. Una marca
popular de impresoras de inyección de tinta tiene un tipo de cabezal llamado cabeza de impresión de
choque térmico. Posee un elemento calorífico que rodea a cada boquilla y cuando se calienta por medio
de una corriente eléctrica, causa que la tinta se expanda. Cuando la tinta se expande, es eyectada a
través de la boquilla.
Otra marca popular de impresoras de inyección de tinta funciona en base a cargas
electrostáticas. Cuando las placas de desviación están cargadas eléctricamente, el tamaño y forma de la
boquilla cambia, causando que actúe como una bomba. Esta acción de bombeo fuerza a la tinta a través
de la boquilla hacia el papel. Estos cabezales de impresión son llamados piezoeléctricos.
Lic. Hugo Santander Jhong
27
Introducción a la computación
Las impresoras de inyección de tinta están diseñadas para usar papel común, pero también
pueden ser usadas con papeles específicos para inyección de tinta cuando se necesita una impresión de
alta calidad o de fotografías.
Cuando la impresión de inyección de tinta está terminada y el papel sale de la impresora, a
menudo la tinta aun está húmeda. El tocarla de inmediato puede correr la tinta y manchar la impresión.
La mayor parte de las tintas se secan de 10 a 15 segundos.
La calidad de impresión de una impresora de inyección de tinta se mide en dpi, puntos por
pulgada, y la velocidad de impresión se mide en ppm, páginas por minuto.
Impresora laser
En estos días, la impresora laser es la impresora de preferencia a causa
de su alta resolución, funcionamiento superior, y velocidad. Sin embargo, su
funcionamiento interno es más complejo que el de los otros tipos de
impresoras.
Como en las fotocopiadoras, la electricidad estática es el principio
principal que se utiliza en el funcionamiento de una impresora laser. Esta es la
misma electricidad estática que causa los relámpagos o que partículas con cargas opuestas se atraigan
entre sí. Esta atracción se usa para mantener temporalmente a pequeñas partículas de tinta seca
llamadas toner en una imagen cargada estáticamente sobre un tambor electrofotográfico. Para dibujar
esta imagen se usa un rayo laser.
Consejo: Conozca los componentes de una impresora laser y los pasos necesarios para imprimir
una página.
La parte central de la impresora laser es su tambor electrofotográfico. El tambor es un cilindro
metálico que está recubierto con un material aislante sensible a la luz. Cuando un rayo de luz laser
golpea el tambor, se convierte en conductor en el punto donde la luz lo golpeó. A medida que el tambor
gira, el rayo laser dibuja una imagen electrostática sobre el tambor llamada la imagen. La imagen
latente, que es la imagen no desarrollada, es pasada por un suministro de tinta seca o toner que es
atraído a ella. El tambor gira y lleva a esta imagen a tomar contacto con el papel, que atrae el toner del
tambor. El papel es pasado a través de un fundidor que está hecho de rodillos calientes que funden el
toner en el papel.
¿Qué es... un escáner?
Ateniéndonos a los criterios de la Real Academia de la Lengua,
famosa por la genial introducción del término cederrón para denominar al
CD-ROM, probablemente nada; para el resto de comunes mortales,
digamos que es la palabra que se utiliza en informática para designar a un
aparato digitalizador de imagen.
Por digitalizar se entiende la operación de transformar algo
analógico (algo físico, real, de precisión infinita) en algo digital (un
conjunto finito y de precisión determinada de unidades lógicas denominadas bits). En fin, que
dejándonos de tanto formalismo sintáctico, en el caso que nos ocupa se trata de coger una imagen
(fotografía, dibujo o texto) y convertirla a un formato que podamos almacenar y modificar con el
ordenador. Realmente un escáner no es ni más ni menos que los ojos del ordenador.
Cómo funciona
El proceso de captación de una imagen resulta casi idéntico para cualquier escáner: se ilumina
la imagen con un foco de luz, se conduce mediante espejos la luz reflejada hacia un dispositivo
denominado CCD que transforma la luz en señales eléctricas, se transforma dichas señales eléctricas a
formato digital en un DAC (conversor analógico-digital) y se transmite el caudal de bits resultante al
ordenador.
El CCD (Charge Coupled Device, dispositivo acoplado por carga -eléctrica-) es el elemento
fundamental de todo escáner, independientemente de su forma, tamaño o mecánica. Consiste en un
elemento electrónico que reacciona ante la luz, transmitiendo más o menos electricidad según sea la
intensidad y el color de la luz que recibe; es un auténtico ojo electrónico. Hoy en día es bastante común,
puede que usted posea uno sin saberlo: en su cámara de vídeo, en su fax, en su cámara de fotos digital...
Lic. Hugo Santander Jhong
28
Introducción a la computación
La calidad final del escaneado dependerá fundamentalmente de la calidad del CCD; los demás
elementos podrán hacer un trabajo mejor o peor, pero si la imagen no es captada con fidelidad
cualquier operación posterior no podrá arreglar el problema. Teniendo en cuenta lo anterior, también
debemos tener en cuenta la calidad del DAC, puesto que de nada sirve captar la luz con enorme
precisión si perdemos mucha de esa información al transformar el caudal eléctrico a bits.
Por este motivo se suele decir que son preferibles los escáners de marcas de prestigio como
Nikon o Kodak a otros con una mayor resolución teórica, pero con CCDs que no captan con fidelidad los
colores o DACs que no aprovechan bien la señal eléctrica, dando resultados más pobres, más planos.
La resolución
No podemos continuar la explicación sin definir este término, uno de los parámetros más
utilizados (a veces incluso demasiado) a la hora de determinar la calidad de un escáner. La resolución
(medida en ppp, puntos por pulgada) puede definirse como el número de puntos individuales de una
imagen que es capaz de captar un escáner... aunque en realidad no es algo tan sencillo.
La resolución así definida sería la resolución óptica o real del escáner. Así, cuando hablamos de
un escáner con resolución de "300x600 ppp" nos estamos refiriendo a que en cada línea horizontal de
una pulgada de largo (2,54 cm) puede captar 300 puntos individuales, mientras que en vertical llega
hasta los 600 puntos; como en este caso, generalmente la resolución horizontal y la vertical no
coinciden, siendo mayor (típicamente el doble) la vertical.
Esta resolución óptica viene dada por el CCD y es la más importante, ya que implica los límites
físicos de calidad que podemos conseguir con el escáner. Por ello, es un método comercial muy típico
comentar sólo el mayor de los dos valores, describiendo como "un escáner de 600 ppp" a un aparato de
300x600 ppp o "un escáner de 1.200 ppp" a un aparato de 600x1.200 ppp; téngalo en cuenta, la
diferencia es obtener o no el cuádruple de puntos.
Tenemos también la resolución interpolada; consiste en superar los límites que impone la
resolución óptica (300x600 ppp, por ejemplo) mediante la estimación matemática de cuáles podrían ser
los valores de los puntos que añadimos por software a la imagen. Por ejemplo, si el escáner capta
físicamente dos puntos contiguos, uno blanco y otro negro, supondrá que de haber podido captar un
punto extra entre ambos sería de algún tono de gris. De esta forma podemos llegar a resoluciones
absurdamente altas, de hasta 9.600x9.600 ppp, aunque en realidad no obtenemos más información real
que la que proporciona la resolución óptica máxima del aparato. Evidentemente este valor es el que
más gusta a los anunciantes de escáners...
Por último está la propia resolución de escaneado, aquella que seleccionamos para captar una
imagen concreta. Su valor irá desde un cierto mínimo (típicamente unos 75 ppp) hasta el máximo de la
resolución interpolada. En este caso el valor es siempre idéntico para la resolución horizontal y la
vertical, ya que si no la imagen tendría las dimensiones deformadas.
Los colores y los bits
Al hablar de imágenes, digitales o no, a nadie se le escapa la importancia que tiene el color. Una
fotografía en color resulta mucho más agradable de ver que otra en tonos grises; un gráfico
acertadamente coloreado resulta mucho más interesante que otro en blanco y negro; incluso un texto
en el que los epígrafes o las conclusiones tengan un color destacado resulta menos monótono e invita a
su lectura.
Sin embargo, digitalizar los infinitos matices que puede haber en una foto cualquiera no es un
proceso sencillo. Hasta no hace mucho, los escáners captaban las imágenes únicamente en blanco y
negro o, como mucho, con un número muy limitado de matices de gris, entre 16 y 256. Posteriormente
aparecieron escáners que podían captar color, aunque el proceso requería tres pasadas por encima de la
imagen, una para cada color primario (rojo, azul y verde). Hoy en día la práctica totalidad de los escáners
captan hasta 16,7 millones de colores distintos en una única pasada, e incluso algunos llegan hasta los
68.719 millones de colores.
Para entender cómo se llega a estas apabullantes cifras debemos explicar cómo asignan los
ordenadores los colores a las imágenes. En todos los ordenadores se utiliza lo que se denomina sistema
binario, que es un sistema matemático en el cual la unidad superior no es el 10 como en el sistema
decimal al que estamos acostumbrados, sino el 2. Un bit cualquiera puede por tanto tomar 2 valores,
que pueden representar colores (blanco y negro, por ejemplo); si en vez de un bit tenemos 8, los
posibles valores son 2 elevado a 8 = 256 colores; si son 16 bits, 2 elevado a 16 = 65.536 colores; si son 24
bits, 2 elevado a 24 = 16.777216 colores; etc, etc.
Lic. Hugo Santander Jhong
29
Introducción a la computación
Por tanto, "una imagen a 24 bits de color" es una imagen en la cual cada punto puede tener
hasta 16,7 millones de colores distintos; esta cantidad de colores se considera suficiente para casi todos
los usos normales de una imagen, por lo que se le suele denominar color real. La casi totalidad de los
escáners actuales capturan las imágenes con 24 bits, pero la tendencia actual consiste en escanear
incluso con más bits, 30 ó incluso 36, de tal forma que se capte un espectro de colores absolutamente
fiel al real; sin embargo, casi siempre se reduce posteriormente esta profundidad de color a 24 bits para
mantener un tamaño de memoria razonable, pero la calidad final sigue siendo muy alta ya que sólo se
eliminan los datos de color más redundantes.
¿Cuánto ocupa una imagen?
Depende de la imagen. Para saber exactamente cuál va a ser el tamaño de una imagen,
deberemos usar la siguiente fórmula:
Tamaño imagen (KB) = L x A x RH x RV x bits / 8.192
Donde L y A son las dimensiones de la imagen en pulgadas (una pulgada = 2,54 cm) y RH y RV
las resoluciones horizontal y vertical respectivamente. Hagamos un ejemplo rápido: una imagen DIN-A4
(aproximadamente 11,7x8,3 pulgadas) escaneada a 300 ppp (300x300) con 24 bits de color (color real)
ocupa ¡25.490 KB!! (unos 25 MB, 25 megas!!). La cifra resulta impactante, pero no se preocupe; existen
muchos métodos para reducir el tamaño de las imágenes, tanto a la hora de manejarlas en memoria
como a la de almacenarlas en el disco duro.
El primer método consiste en escanear a menor resolución; la calidad es menor, pero el tamaño
del fichero resultante también. Si la imagen va a tener como destino la pantalla de un ordenador, 75 ppp
serán casi siempre suficientes, lo que reduciría el tamaño de la imagen anterior a apenas 1.593 KB, poco
más de 1,5 MB.
Como segundo método tenemos reducir la profundidad de color. Si la imagen anterior es un
dibujo a tinta china, con escanear a 1 bit (en blanco y negro) puede que tengamos suficiente. Esto
reduciría el tamaño a tan sólo 1.062 KB, casi exactamente 1 MB.
Por último podemos archivar la imagen en formato comprimido. En este caso el tamaño de la
imagen en memoria permanece invariable (25 MB), pero el tamaño en disco puede quedar en menos de
una quinta parte sin pérdida de calidad, o incluso menos si la compresión se realiza eliminando
información redundante. Como ejemplo de formatos de archivo de imagen con compresión tenemos los
JPEG (o JPG), GIF o TIFF, frente al clásico BMP que carece de compresión alguna.
Lo más importante es que podemos combinar los factores anteriores para conseguir resultados
realmente optimizados; así, escaneando la imagen del ejemplo a 75 ppp, con 1 bit de color y
guardándola en formato GIF, el resultado puede ocupar tan sólo 66 KB en memoria y menos de 15 KB en
disco.
Para terminar con este tema vamos a poner una tabla resumen en la que se ilustra la cantidad
de memoria RAM que ocupan algunos ejemplos típicos de original a diferentes resoluciones y colores:
 Tipo de original-Destino-Método escaneado-Tamaño en RAM
 Fotografía 10x15 cm-Pantalla-75 ppp / 24 bits-0,4 MB
 Impresora B/N-300 ppp / 8 bits-2 MB
 Impresora color-300 ppp / 24 bits-6 MB
 Texto o dibujo en blanco y negro tamaño DIN-A4-Pantalla-75 ppp / 1 bit-66 KB
 Impresora-300 ppp / 8 bit-8 MB
 OCR-300 ppp / 1 bit-1 MB
 Foto DIN-A4 en color-Pantalla-75 ppp / 24 bits-1,6 MB
 Impresora-300 ppp / 24 bits-25 MB
Cabe destacar que en muchos casos se utilizan escalas de 256 grises (8 bits) para representar
más fielmente originales en blanco y negro con bordes muy definidos o pequeños tamaños de letra.
Multimedia
Multimedia es un sistema que utiliza más de un medio de comunicación al mismo tiempo en la
presentación de la información, como el texto, la imagen, la animación, el vídeo y el sonido. Este
concepto es tan antiguo como la comunicación humana ya que al expresarnos en una charla normal
hablamos (sonido), escribimos (texto), observamos a nuestro interlocutor (video) y accionamos con
Lic. Hugo Santander Jhong
30
Introducción a la computación
gestos y movimientos de las manos (animación). Con el auge de las aplicaciones multimedia para
computador este vocablo entró a formar parte del lenguaje habitual
Cuando un programa de computador, un documento o una presentación combina
adecuadamente los medios, se mejora notablemente la atención, la compresión y el aprendizaje, ya que
se acercará algo más a la manera habitual en que los seres humanos nos comunicamos, cuando
empleamos varios sentidos para comprender un mismo objeto o concepto.
La utilización de técnicas multimedia permitió el desarrollo del hipertexto, una manera de ligar
temas mediante palabras en los textos permitiendo el acceso a temas de interés específico en uno o
varios documentos sin tener que leerlos completamente haciendo clic con el ratón en las palabras
remarcadas (subrayadas o de un color diferente) que estén relacionadas con lo que buscas. El programa
muestra inmediatamente en la pantalla otros documentos que contienen el texto relacionado con dicha
palabra. Incluso, se pueden poner marcas de posición (bookmarks). Así se controla el orden de lectura y
la aparición de los datos en la pantalla, de una manera más parecida a nuestro modo de relacionar
pensamientos, en el que el cerebro va respondiendo por libre asociación de ideas, y no siguiendo un hilo
único y lineal.
Pero la vinculación interactiva no se limitó a textos solamente. También se puede interactuar
con sonidos, animaciones y servicios de Internet relacionados con el tema que se está tratando, lo cual
ha dado origen a un nuevo concepto: Hipermedia, resultado de la fusión de los conceptos hipertexto y
multimedia. A los sistemas de hipermedios podemos entenderlos como organización de información
textual, gráfica y sonora a través de vínculos que crean asociaciones entre información relacionada
dentro del sistema.
Actualmente estos términos se confunden e identifican entre sí, de tal forma que al nombrar
uno de los conceptos anteriores (hipermedia, hipertexto o multimedia) de forma instintiva y casi
automática se piensa en los otros dos. Fruto de esta interrelación de ideas y apoyadas por nuevas
necesidades de trabajo aparecen una serie de herramientas ofimáticas orientadas, ya no como
procesadores de textos, sino como procesadores hipermedia. Estas aplicaciones combinan ciertas
características del hipertexto dentro de documentos con elementos informativos muy diversos.
La hipermedia, y muy especialmente el hipertexto, es la base funcional y estructural de la Web
(World Wide Web), la red mundial de información más utilizada en Internet:)
La multimedia es el uso de diversos medios (e.g. texto, audio, gráficos, animación, vídeo, e
interactividad) de transporte de la información. La multimedia también se refiere al uso de la
informática de crear, almacenar y contenido de la experiencia multimedia. Mientras que la información
se presenta en varios formatos, la multimedia realza la experiencia del usuario y la hace más fácil y más
rápida para tomar la información. La presentación de la información en varios formatos no es nada
nuevo, pero los multimedia implican generalmente la presentación de la información en varios formatos
digitales. En 1965 el término multi-media fue utilizado para describir “el estallar inevitable del Plástico”,
un funcionamiento que combinó música de rock, el cine y el arte del funcionamiento.
Uso
La multimedia encuentra su uso en varias áreas incluyendo pero no limitado a: arte, educación,
entretenimiento, ingeniería, medicina, matemáticas, negocio, y la investigación científica. En la
educación, la multimedia se utiliza para producir los cursos de aprendizaje computarizado
(popularmente llamados CBTs) y los libros de consulta como enciclopedia y almanaques. Un CBT deja al
usuario pasar con una serie de presentaciones, de texto sobre un asunto particular, y de ilustraciones
asociadas en varios formatos de información. El sistema de la mensajería de la multimedia, o MMS, es
un uso que permite que uno envíe y que reciba los mensajes que contienen la multimedia - contenido
relacionado. MMS es una característica común de la mayoría de los teléfonos celulares. Una
enciclopedia electrónica multimedia puede presentar la información de maneras mejores que la
enciclopedia tradicional, así que el usuario tiene más diversión y aprende más rápidamente. Por
ejemplo, un artículo sobre la segunda guerra mundial puede incluir hyperlinks (hiperligas o
hiperenlaces) a los artículos sobre los países implicados en la guerra. Cuando los usuarios hayan
encendido un hyperlink, los vuelven a dirigir a un artículo detallado acerca de ese país. Además, puede
incluir un vídeo de la campaña pacífica. Puede también presentar los mapas pertinentes a los hyperlinks
de la segunda guerra mundial. Esto puede acelerar la comprensión y mejorar la experiencia del usuario,
cuando está agregada a los elementos múltiples tales como cuadros, fotografías, audio y vídeo.
(También se dice que alguna gente aprende mejor viendo que leyendo, y algunos otras escuchando).
Lic. Hugo Santander Jhong
31
Introducción a la computación
La multimedia es muy usada en la industria del entretenimiento, para desarrollar
especialmente efectos especiales en películas y la animación para los personajes de caricaturas. Los
juegos de la multimedia son un pasatiempo popular y son programas del software como CD-ROMs o
disponibles en línea. Algunos juegos de vídeo también utilizan características de la multimedia. Los usos
de la multimedia permiten que los usuarios participen activamente en vez de estar sentados llamados
recipientes pasivos de la información, la multimedia es interactiva.
Tipos de información multimedia:
 Texto: sin formatear, formateado, lineal e hipertexto.
 Gráficos: utilizados para representar esquemas, planos, dibujos lineales...
 Imágenes: son documentos formados por pixeles. Pueden generarse por copia del entorno
(escaneado, fotografía digital) y tienden a ser ficheros muy voluminosos.
 Animación: presentación de un número de gráficos por segundo que genera en el observador la
sensación de movimiento.
 Vídeo: Presentación de un número de imágenes por segundo, que crean en el observador la
sensación de movimiento. Pueden ser sintetizadas o captadas.
 Sonido: puede ser habla, música u otros sonidos.
El trabajo multimedia está actualmente a la orden del día y un buen profesional debe seguir
unos determinados pasos para elaborar el producto.
 Definir el mensaje clave. Saber qué se quiere decir. Para eso es necesario conocer al cliente y
pensar en su mensaje comunicacional. Es el propio cliente el primer agente de esta fase
comunicacional.
 Conocer al público. Buscar qué le puede gustar al público para que interactúe con el mensaje. Aquí
hay que formular una estrategia de ataque fuerte. Se trabaja con el cliente, pero es la agencia de
comunicación la que tiene el protagonismo. En esta fase se crea un documento que los
profesionales del multimedia denominan "ficha técnica", "concepto" o "ficha de producto". Este
documento se basa en 5 ítems: necesidad, objetivo de la comunicación, público, concepto y
tratamiento.
 Desarrollo o guión. Es el momento de la definición de la Game-play: funcionalidades, herramientas
para llegar a ese concepto. En esta etapa sólo interviene la agencia que es la especialista.
 Creación de un prototipo. En multimedia es muy importante la creación de un prototipo que no es
sino una pequeña parte o una selección para testear la aplicación. De esta manera el cliente ve,
ojea, interactúa... Tiene que contener las principales opciones de navegación.
Ahora ya se está trabajando con digital, un desarrollo que permite la interactividad. Es en este
momento cuando el cliente, si está conforme, da a la empresa el dinero para continuar con el proyecto.
En relación al funcionamiento de la propia empresa, está puede presuponer el presupuesto que va a ser
necesario, la gente que va a trabajar en el proyecto (lista de colaboradores). En definitiva, estructura la
empresa. El prototipo es un elemento muy importante en la creación y siempre va a ser testeado
(público objetivo y encargados de comprobar que todo funciona)
 Creación del producto. En función de los resultados del resteo del prototipo, se hace una
redefinición y se crea el producto definitivo, el esquema del multimedia.
Hipermedia
Un documento Hipermedial contiene informacion a
través de la cual usted puede navegar. Por lo general, existen
múltiples rutas que se pueden tomar en búsqueda de la
información requerida. La información puede aparecer en
muchos formatos: texto, gráficos, sonido, películas, etc.
Ventajas de la Hipermedia
Los textos Hipermediales no son lineales. Los lectores
pueden explorar la información como lo deseen. Esto significa, a
su vez, que un mismo documento puede servir a públicos
diferentes.
Lic. Hugo Santander Jhong
32
Introducción a la computación
33
Ejemplos de Hipermedia



Aquí hay algunos ejemplos de como puede ser usada la hipermedia:
Herramientas de referencia Los documentos con referencias cruzadas hacen de la hipermedia una
útil fuente de material de referencia.
Información educativa Los lectores pueden explorar los documentos en la forma que mejor les
acomode. Además, una imágen vale por mil palabras, y la hipermedia incluye imagenes, sonido,
video...
Información de un producto La hipermedia es un medio útil de ofrecer información de cualquier
tipo. En particular, referencias acerca de un producto o servicio, permitiendo abarcar un amplio
rango de público. Esto significa, que los potenciales clientes pueden explorar las características del
producto que les interesen.
Hipermedia global
En vez de que la información exista solamente en los discos locales, o en una pequeña red de
computadores, los documentos pueden ser distribuidos a lo largo del mundo y enlazados entre sí. Así,
toda esta red de información forma una poderosa base de datos, llamada WWW (World Wide Web),
que integra a muchos computadores que tienen información hipermedial.
Estos computadores distribuyen documentos en HTML.
¿Qué es el WWW?
Un conjunto de servicios hipermediales, ofrecidos en todo el mundo a través de INTERNET,
constituyen lo que se llama WWW (World Wide Web - Telaraña de cobertura mundial).
No existe un centro que administre esta red de información, sino más bien está constituída por
muchos servicios distintos que se conectan entre sí a través de referencias en los distintos documentos,
por ejemplo, un documento contenido en un computador en Canadá, puede tener referencias a otro
documento en Japón, o a un archivo en Inglaterra, o a una imagen en Suecia.
Para acceder a WWW, basta con un computador, una conección a InterNet, y algún programa
que sirva para conectarse a los distintos servidores WWW, como NetScape, NCSA-Mosaic, MS Internet
Explorer, Lynx, etc.
¿Cómo localizar información en WWW?
A pesar de que no existe un computador ´central´ WWW, existen computadores donde uno
puede anotar su servicio de información en una lista, o consultar dicha lista. De estos computadores, los
más comunmente usados son (sólo por dar algunos ejemplos): Yahoo y All The Web. Existen muchas
otras herramientas de búsqueda.
¿Cómo funciona el WWW?
El WWW está basado en un modelo cliente-servidor, utilizando el protocolo HTTP: hypertext
transfer protocol. Un computador actúa como servidor, ofreciendo la información hipermedial, y otro
como cliente, recibiéndola. El computador que actúa como servidor, debe estar corriendo un programa
especial, llamado httpd (hyper-text transfer protocol daemon), que es capaz de recibir los
requerimientos de información y atenderlos. El computador que actúa como cliente, no necesita ningún
aditamento especial, basta con el programa (NetScape, Mosaic, etc.)
El cliente al indicársele que se conecte a algún servicio en el Web, envía una señal al
computador indicado solicitando la información. El servidor la recibe y contesta este requerimiento,
enviando el documento solicitado.
¿En que formato esta la información?
En WWW, se pueden encontrar sonidos, imágenes, animaciones, etcétera. Sin embargo, el
propósito principal es ofrecer servicios hipermediales, que contengan un poco de todos los anteriores.
Estos servicios hipermediales son documentos que contienen imágenes, sonidos, etc., junto con enlaces
a otros documentos hipermediales.
Estos documentos hipermediales son archivos de texto simples, que están escritos en un
lenguaje llamado HTML (hyper-text markup language , o lenguaje de hypertextos). Este documento, por
ejemplo, está escrito en HTML.
Lic. Hugo Santander Jhong
Introducción a la computación
Red de computadoras
Una red de computadoras (también llamada red de ordenadores o red informática) es un conjunto de
computadoras y/o dispositivos conectados por enlaces de un medio físico (medios guiados) ó
inalámbricos (medios no guiados) y que comparten información (archivos), recursos (CD-ROM,
impresoras, etc.) y servicios (e-mail, chat, juegos), etc.
Redes según la direccionalidad de los datos (tipos de transmisión)
simplex unidireccionales, un ETD transmite y otro recibe
half-duplex bidireccionales, pero sólo uno transmite por vez. También se llama ´´semi-duplex´´.
full-duplex ambos pueden transmitir y recibir a la vez una misma información
Protocolos de redes
Categorías
Por localización:
 Red de área personal (PAN)
 Red de área local (LAN)
 Red de área metropolitana (MAN)
 Red de área amplia (WAN)
Por relación funcional:
 Cliente-servidor
 Igual-a-Igual (p2p)
Por estructura:
 Red OSI o Modelo OSI
 Red TCP/IP
Por Topología de red:
 Red de bus
 Red de estrella
 Red de anillo
 Red alambrada
 Red de bus-estrella
 red mesh
Topología de red
La arquitectura o topología de red es la
disposición física en la que se conectan los nodos de una
red de ordenadores o servidores, mediante la combinación
de estándares y protocolos.
Define las reglas de una red y cómo interactúan
sus componentes. Estos equipos de red pueden
conectarse de muchas y muy variadas maneras. La
conexión más simple es un enlace unidireccional entre dos
nodos. Se puede añadir un enlace de retorno para la
comunicación en ambos sentidos. Los cables de
comunicación modernos normalmente incluyen más de un
cable para facilitar esto, aunque redes muy simples
basadas en buses tienen comunicación bidireccional en un
solo cable.
En casos mixtos se puede usar la palabra
arquitectura en un sentido relajado para hablar a la vez de
la disposición física del cableado y de como el protocolo
considera dicho cableado. Así, en un anillo con una MAU podemos decir que tenemos una topología en
anillo, o de que se trata de un anillo con topología en estrella.
Lic. Hugo Santander Jhong
34
Introducción a la computación
La topología de red la determina únicamente la configuración de las conexiones entre nodos. La
distancia entre los nodos, las interconexiones físicas, las tasas de transmisión y/o los tipos de señales no
pertenecen a la topología de la red, aunque pueden verse afectados por la misma.
Componentes
Describe los componentes de una red, así como la forma en que se relacionan y coordinan para
alcanzar el objetivo final de la red.
Hay que tener en cuenta:
 Hardware.
 Software.
 Operatividad.
 Escenarios.
 Interconexión.
 Compatibilidad.
 Análisis y diseño.
Al principio, la transmisión de datos era un gran problema, que fue resuelto dividiéndolo los
procesos en capas, ordenadas de forma piramidal. Mientras más inferior sea una capa, se tratará de un
proceso más físico, y mientras más se ascienda, se tratará de un proceso más lógico. La principal
arquitectura de capas es el Modelo OSI.
En una arquitectura de capas, cada capa realiza unas funciones y ofrece unos servicios.
a) Una capa N ofrece sus servicios a la capa superior N+1. Una capa N+1 solo "ve" los servicios de la
capa N.
b) Las capas de un componente se comunican entre si usando interfaces (que no pertenecen a la
arquitectura).
c) Una capa de un componente se comunica con su homóloga de otro componente mediante un
protocolo.
d) En cada capa existen entidades (generalmente procesos) que realizan las funciones de esa capa.
Janun predeterminada
Tipos de arquitecturas
Redes centralizadas
La topología en estrella reduce la posibilidad de fallo de red conectando todos los nodos a un
nodo central. Cuando se aplica a una red basada en bus, este concentrador central reenvía todas las
transmisiones recibidas de cualquier nodo periférico a todos los nodos periféricos de la red, algunas
veces incluso al nodo que lo envió. Todos los nodos periféricos se pueden comunicar con los demás
transmitiendo o recibiendo del nodo central solamente. Un fallo en la línea de conexión de cualquier
nodo con el nodo central provocaría el aislamiento de ese nodo respecto a los demás, pero el resto de
sistemas permanecería intacto. El tipo de concentrador hub se utiliza en esta topología.
Si el nodo central es pasivo, el nodo origen debe ser capaz de tolerar un eco de su transmisión.
Una red en estrella activa tiene un nodo central activo que normalmente tiene los medios para prevenir
problemas relacionados con el eco.
Una topología en árbol (también conocida como topología jerárquica) puede ser vista como una
colección de redes en estrella ordenadas en una jerarquía. Éste árbol tiene nodos periféricos
individuales (por ejemplo hojas) que requieren transmitir a y recibir de otro nodo solamente y no
necesitan actuar como repetidores o regeneradores. Al contrario que en las redes en estrella, la función
del nodo central se puede distribuir.
Como en las redes en estrella convencionales, los nodos individuales pueden quedar aislados
de la red por un fallo puntual en la ruta de conexión del nodo. Si falla un enlace que conecta con un
nodo hoja, ese nodo hoja queda aislado; si falla un enlace con un nodo que no sea hoja, la sección
entera queda aislada del resto.
Para aliviar la cantidad de tráfico de red que se necesita para retransmitir todo a todos los
nodos, se desarrollaron nodos centrales más avanzados que permiten mantener un listado de las
identidades de los diferentes sistemas conectados a la red. Éstos switches de red “aprenderían” cómo es
la estructura de la red transmitiendo paquetes de datos a todos los nodos y luego observando de dónde
vienen los paquetes respuesta.
Lic. Hugo Santander Jhong
35
Introducción a la computación
Descentralización
En una topología en malla, hay al menos dos nodos con dos o más caminos entre ellos. Un tipo
especial de malla en la que se limite el número de saltos entre dos nodos, es un hipercubo. El número
de caminos arbitrarios en las redes en malla las hace más difíciles de diseñar e implementar, pero su
naturaleza descentralizada las hace muy útiles.
Una red totalmente conectada o completa, es una topología de red en la que
hay un enlace directo entre cada pareja de nodos. En una red totalmente conexa con n
nodos, hay enlaces directos. Las redes diseñadas con esta topología, normalmente son
caras de instalar, pero son muy fiables gracias a los múltiples caminos por los que los
datos pueden viajar. Se ve principalmente en aplicaciones militares.
Híbridas
Las redes híbridas usan una combinación de dos o más topologías distintas de tal manera que la
red resultante no tiene forma estándar. Por ejemplo, una red en árbol conectada a una red en árbol
sigue siendo una red en árbol, pero dos redes en estrella conectadas entre sí (lo que se conoce como
estrella extendida) muestran una topología de red híbrida. Una topología híbrida, siempre se produce
cuando se conectan dos topologías de red básicas. Dos ejemplos comunes son:
 Red de estrella en anillo, consta de dos o más topologías en estrella conectadas mediante una
unidad de acceso multiestación (MAU) como hub centralizado.
 Una red de estrella en bus, consta de dos o más topologías en estrella conectadas mediante un bus
troncal (el bus troncal funciona como la espina dorsal de la red).
 Mientras que las redes en rejilla han encontrado su sitio en aplicaciones de computación de alto
rendimiento, algunos sistemas han utilizado algoritmos genéticos para diseñar redes personalizadas
que tienen el menor número posible de saltos entre nodos distintos. Algunas de las estructuras de
redes resultantes son casi incomprensibles, aunque funcionan bastante bien.
Red en bus
Topología de red en la que todas las estaciones están conectadas a
un único canal de comunicaciones por medio de unidades interfaz y
derivadores. Las estaciones utilizan este canal para comunicarse
con el resto. Es la más sencilla por el momento.
Red en topología de bus
La topología de bus tiene todos sus nodos conectados
directamente a un enlace y no tiene ninguna otra conexión entre
nodos. Físicamente cada host está conectado a un cable común,
por lo que se pueden comunicar directamente, aunque la ruptura
del cable hace que los hosts queden desconectados.
La topología de bus permite que todos los dispositivos de la red puedan ver todas las señales de todos
los demás dispositivos, lo que puede ser ventajoso si desea que todos los dispositivos obtengan esta
información. Sin embargo, puede representar una desventaja, ya que es común que se produzcan
problemas de tráfico y colisiones, que se pueden paliar segmentando la red en varias partes. Es la
topología más común en pequeñas LAN, con hub o switch final en uno de los extremos. También
representa una desventaja ya que si el cable se rompe, ninguno de los servidores siguientes tendrá
acceso a la red
Red en estrella
Una red en estrella es una red en la cual las estaciones están
conectadas directamente a un punto central y todas las
comunicaciones se han de hacer necesariamente a través de
este. Todas las estaciones están conectadas por separado a un
centro de comunicaciones, concentrador o nodo central, pero
no están conectadas entre sí. Esta red crea una mayor facilidad
de supervisión y control de información ya que para pasar los
mensajes deben pasar por el hub o concentrador, el cual
gestiona la redistribución de la información a los demás nodos.
La fiabilidad de este tipo de red es que el malfuncionamiento de
un ordenador no afecta en nada a la red entera, puesto que
Lic. Hugo Santander Jhong
36
Introducción a la computación
cada ordenador se conecta independientemente del hub, el costo del cableado puede llegar a ser muy
alto. Su punto fuerte consta en el hub, ya que es el que sostiene la red en uno, y es el elemento que
parte.
Cabe destacar que cuando se utiliza un hub o concentrador como punto central en una topología de
estrella, se dice que la red funciona con una topología de bus lógico, ya que el hub enviará la
información a través de todos sus puertos haciendo que todos los hosts conectados reciban la
información (incluso cuando no está destinada a ellos). Actualmente se han sustituido los hubs o
concentradores, por switches o conmutadores. Creando así una topología en estrella tanto física como
lógica debido a las propiedades de segmentación y acceso al medio que nos ofrecen estos dispositivos
capa 2. En su mayoría, las LAN actuales funcionan en topologías de estrella o de estrella extendida.
Red en anillo
Topología de red en la que las estaciones se conectan formando un
anillo. Cada estación está conectada a la siguiente y la última está
conectada a la primera. Cada estación tiene un receptor y un
transmisor que hace la función de repetidor, pasando la señal a la
siguiente estación del anillo.
En este tipo de red la comunicación se da por el paso de un token o
testigo, que se puede conceptualizar como un cartero que pasa
recogiendo y entregando paquetes de información, de esta manera
se evitan eventuales pérdidas de información debidas a colisiones.
Cabe mencionar que si algún nodo de la red se cae (término
informático para decir que esta en mal funcionamiento o no
funciona para nada) la comunicación en todo el anillo se pierde.
En un anillo doble, dos anillos permiten que los datos se envíen en ambas direcciones. Esta
configuración crea redundancia (tolerancia a fallos), lo que significa que si uno de los anillos falla, los
datos pueden transmitirse por el otro.
Red en árbol
Topología de red en la que los nodos están colocados en forma de árbol. Desde una visión topológica, la
conexión en árbol es parecida a una serie de redes en estrella interconectadas salvo en que no tiene un
nodo central. En cambio, tiene un nodo de enlace troncal, generalmente ocupado por un hub o switch,
desde el que se ramifican los demás nodos. Es una variación de la red en bus, la falla de un nodo no
implica interrupción en las comunicaciones. Se comparte el mismo canal de comunicaciones.
El enlace troncal es un cable con varias capas de ramificaciones, y el flujo de información es jerárquico.
Conectado en el otro extremo al enlace troncal generalmente se encuentra un host servidor.
La topología en árbol puede verse como una combinación de varias topologías en estrella. Tanto la de
árbol como la de estrella son similares a la de bus cuando el nodo de interconexión trabaja en modo
difusión, pues la información se propaga hacia todas las estaciones, solo que en esta topología las
ramificaciones se extienden a partir de un punto raíz (estrella), a tantas ramificaciones como sean
posibles, según las características del árbol.
Los problemas asociados a las topologías anteriores radican en que los datos son recibidos por todas las
estaciones sin importar para quien vayan dirigidos. Es entonces necesario dotar a la red de un
mecanismo que permita identificar al destinatario de los mensajes, para que estos puedan recogerlos a
su arribo. Además, debido a la presencia de un medio de transmisión compartido entre muchas
estaciones, pueden producirse interferencia entre las
señales cuando dos o más estaciones transmiten al
mismo tiempo.
La solución al primero de estos problemas aparece
con la introducción de un identificador de estación
destino. Cada estación de la LAN está unívocamente
identificada. Para darle solución al segundo problema
(superposición de señales provenientes de varias
estaciones), hay que mantener una cooperación
entre todas las estaciones, y para eso se utiliza cierta
información de control en las tramas que controla
quien transmite en cada momento (control de acceso
Lic. Hugo Santander Jhong
37
Introducción a la computación
al medio) se pierde por completo la información si no la utilizas
38
Topología en malla
La topología en malla es una topología de red
en la que cada nodo está conectado a uno o
más de los otros nodos. De esta manera es
posible llevar los mensajes de un nodo a otro
por diferentes caminos. Si la red de malla está
completamente conectada no puede existir
absolutamente ninguna interrupción en las
comunicaciones. Cada servidor tiene sus propias
conexiones con todos los demás servidores.
Funcionamiento
El establecimiento de una red de malla es una
manera de encaminar datos, voz e instrucciones
entre los nodos. Las redes de malla se
diferencian de otras redes en que las piezas de
la red (nodo) están conectadas unas con otras
por uno u otro camino, mediante cables
separados. Esta configuración ofrece caminos
redundantes por toda la red, de modo que si
falla un cable, otro se hará cargo del tráfico.
Esta topología, a diferencia de otras (como topología en árbol y topología en estrella), no requiere de un
servidor o nodo central, con lo que se reduce el mantenimiento (un error en un nodo, sea importante o
no, no implica la caída de toda la red).
Las redes de malla son autoregenerables: la red puede funcionar incluso cuando un nodo desaparece o
la conexión falla, ya que el resto de nodos evitan el paso por ese punto. Consecuentemente, se forma
una red muy confiable, es una opción aplicable a las redes sin hilos (Wireless), a las redes con cable
(Wired), y a la interacción del software.
Una red con topología en malla ofrece una redundancia y fiabilidad superiores. En una topología en
malla, cada equipo está conectado a todos los demás equipos. Aunque la facilidad de solución de
problemas y el aumento de la fiabilidad son ventajas muy interesantes, estas redes resultan caras de
instalar, ya que utilizan mucho cableado. Por ello cobran mayor importancia el uso de Wireless, ya que
no hay necesidad de cableado(a pesar de los inconvenientes del (Wireless). En muchas ocasiones, la
topología en malla se utiliza junto con otras topologías para formar una topología híbrida.
Una red de malla extiende con eficacia una red compartiendo el acceso a una infraestructura de red con
mayor coste.
Comparación de la topología en malla
Ventajas
Fiabilidad 1
Seguridad 5
Estabilidad 10
Menor costo de mantenimiento 2
Autoregenerable 1
Alguna aplicación práctica
Un proyecto del MIT que desarrolla "one hundred dollar laptops" para las escuelas desvalidas en países
en desarrollo planea utilizar establecimiento de una red de malla para crear una infraestructura robusta
y barata para los estudiantes que recibirán los ordenadores portátiles. Las conexiones instantáneas
hechas por las computadoras portátiles reducirían la necesidad de una infraestructura externa tal como
Internet para alcanzar todas las áreas, porque un nodo conectado podría compartir la conexión con los
nodos próximos.
Lic. Hugo Santander Jhong
Introducción a la computación
Dirección IP
Una dirección IP es un número que identifica de manera lógica y jerárquica a una interfaz de un
dispositivo (habitualmente una computadora) dentro de una red que utilice el protocolo IP (Internet
Protocol), que corresponde al nivel de red o nivel 3 del modelo de referencia OSI. Dicho número no se
ha de confundir con la dirección MAC que es un número hexadecimal fijo que es asignado a la tarjeta o
dispositivo de red por el fabricante, mientras que la dirección IP se puede cambiar.
Es habitual que un usuario que se conecta desde su hogar a Internet utilice una dirección IP. Esta
dirección puede cambiar al reconectar; y a esta forma de asignación de dirección IP se denomina una
dirección IP dinámica (normalmente se abrevia como IP dinámica).
Los sitios de Internet que por su naturaleza necesitan estar permanentemente conectados,
generalmente tienen una dirección IP fija (se aplica la misma reducción por IP fija o IP estática), es decir,
no cambia con el tiempo. Los servidores de correo, DNS, FTP públicos, y servidores de páginas web
necesariamente deben contar con una dirección IP fija o estática, ya que de esta forma se permite su
localización en la red.
A través de Internet, los ordenadores se conectan entre sí mediante sus respectivas direcciones IP. Sin
embargo, a los seres humanos nos es más cómodo utilizar otra notación más fácil de recordar y utilizar,
como los nombres de dominio; la traducción entre unos y otros se resuelve mediante los servidores de
nombres de dominio DNS.
Existe un protocolo para asignar direcciones IP dinámicas llamado DHCP (Dynamic Host Configuration
Protocol).
Direcciones IPv4
En su versión 4, una dirección IP se representa mediante un número binario de 32 bits (IPv4). Las
direcciones IP se pueden expresar como números de notación decimal: se dividen los 32 bits de la
dirección en cuatro octetos. El valor decimal de cada octeto puede ser entre 0 y 255 (el número binario
de 8 bits más alto es 11111111 y esos bits, de derecha a izquierda, tienen valores decimales de 1, 2, 4, 8,
16, 32, 64 y 128, lo que suma 255 en total).
En la expresión de direcciones IPv4 en decimal se separa cada octeto por un carácter ".". Cada uno de
estos octetos puede estar comprendido entre 0 y 255, salvo algunas excepciones. Los ceros iniciales, si
los hubiera, se pueden obviar.
Ejemplo de representación de dirección IPv4: 164.12.123.65
Hay tres clases de direcciones IP que una organización puede recibir de parte de la Internet Corporation
for Assigned Names and Numbers (ICANN): clase A, clase B y clase C. En la actualidad, ICANN reserva las
direcciones de clase A para los gobiernos de todo el mundo (aunque en el pasado se le hayan otorgado a
empresas de gran envergadura como, por ejemplo, Hewlett Packard) y las direcciones de clase B para las
medianas empresas. Se otorgan direcciones de clase C para todos los demás solicitantes. Cada clase de
red permite una cantidad fija de equipos (hosts).
En una red de clase A, se asigna el primer octeto para identificar la red, reservando los tres últimos
octetos (24 bits) para que sean asignados a los hosts, de modo que la cantidad máxima de hosts es 224
(menos dos: las direcciones reservadas de broadcast [tres últimos octetos a 255] y de red [tres últimos
octetos a 0]), es decir, 16 777 214 hosts.
En una red de clase B, se asignan los dos primeros octetos para identificar la red, reservando los dos
octetos finales (16 bits) para que sean asignados a los hosts, de modo que la cantidad máxima de hosts
es 216 (menos dos), o 65 534 hosts.
En una red de clase C, se asignan los tres primeros octetos para identificar la red, reservando el octeto
final (8 bits) para que sea asignado a los hosts, de modo que la cantidad máxima de hosts es 28 (menos
dos), o 254 hosts.
Clase Dirección IP (R=Red - H=Host)
Rango
Red Broadcast
A
0RRRRRRR.HHHHHHHH.HHHHHHHH.HHHHHHHH
16.777.214 255.0.0.0
x.255.255.255
N°de Redes
N°de Host
1.0.0.0 - 127.255.255.255
Mascara de
126
Lic. Hugo Santander Jhong
39
Introducción a la computación
B
10RRRRRR.RRRRRRRR.HHHHHHHH.HHHHHHHH 128.0.0.0 - 191.255.255.255
16.382
65.534 255.255.0.0 x.x.255.255
C
110RRRRR.RRRRRRRR.RRRRRRRR.HHHHHHHH 192.0.0.0 - 223.255.255.255 2.097.150
254 255.255.255.0 x.x.x.255
D
1110[ Dirección de multicast ]
224.0.0.0 - 239.255.255.255
E
1111[Reservado para uso futuro ]
240.0.0.0 - 255.255.255.255
La dirección 0.0.0.0 es utilizada por las máquinas cuando están arrancando o no se les ha asignado
dirección.
La dirección que tiene su parte de host a cero sirve para definir la red en la que se ubica. Se denomina
dirección de red.
La dirección que tiene su parte de host a unos sirve para comunicar con todos los hosts de la red en la
que se ubica. Se denomina dirección de broadcast.
Las direcciones 127.x.x.x se reservan para pruebas de retroalimentación. Se denomina dirección de
bucle local o loopback.
Hay ciertas direcciones en cada clase de dirección IP que no están asignadas y que se denominan
direcciones privadas. Las direcciones privadas pueden ser utilizadas por los hosts que usan traducción de
dirección de red (NAT) para conectarse a una red pública o por los hosts que no se conectan a Internet.
En una misma red no pueden existir dos direcciones iguales, pero sí se pueden repetir en dos redes
privadas que no tengan conexión entre sí o que se sea a través de NAT. Las direcciones privadas son:
Clase A:
Clase B:
Clase C:
10.0.0.0 a 10.255.255.255
172.16.0.0 a 172.31.255.255
192.168.0.0 a 192.168.255.255
(8 bits red, 24 bits hosts)
(16 bits red, 16 bits hosts)
(24 bits red, 8 bits hosts)
A partir de 1993, ante la previsible futura escasez de direcciones IPv4 debido al crecimiento exponencial
de hosts en Internet, se empezó a introducir el sistema CIDR, que pretende en líneas generales
establecer una distribución de direcciones más fina y granulada, calculando las direcciones necesarias y
"desperdiciando" las mínimas posibles, para rodear el problema que las distribución por clases había
estado gestando. Este sistema es, de hecho, el empleado actualmente para la delegación de direcciones.
Muchas aplicaciones requieren conectividad dentro de una sola red, y no necesitan conectividad
externa. En las redes de gran tamaño a menudo se usa TCP/IP. Por ejemplo, los bancos pueden utilizar
TCP/IP para conectar los cajeros automáticos que no se conectan a la red pública, de manera que las
direcciones privadas son ideales para ellas. Las direcciones privadas también se pueden utilizar en una
red en la que no hay suficientes direcciones públicas disponibles.
Las direcciones privadas se pueden utilizar junto con un servidor de traducción de direcciones de red
(NAT) para suministrar conectividad a todos los hosts de una red que tiene relativamente pocas
direcciones públicas disponibles. Según lo acordado, cualquier tráfico que posea una dirección destino
dentro de uno de los intervalos de direcciones privadas no se enrutará a través de Internet.
IP dinámica
Una dirección IP dinámica es una IP la cual es asignada mediante un servidor DHCP (Dynamic Host
Configuration Protocol) al usuario. La IP que se obtiene tiene una duración máxima determinada. El
servidor DHCP provee parámetros de configuración específicos para cada cliente que desee participar en
la red IP. Entre estos parámetros se encuentra la dirección IP del cliente.
DHCP apareció como protocolo estándar en octubre de 1993. El estándar RFC 2131 especifica la última
definición de DHCP (marzo de 1997). DHCP sustituye al protocolo, que es más antiguo. Debido a la
compatibilidad retroactiva de DHCP, muy pocas redes continúan usando BOOTP puro.
Las IPs dinámicas son las que actualmente ofrecen la mayoría de operadores. Éstas suelen cambiar cada
vez que el usuario reconecta por cualquier causa.
Ventajas
Reduce los costos de operación a los proveedores de servicios internet (ISP).
Lic. Hugo Santander Jhong
40
Introducción a la computación
Desventajas
41
Obliga a depender de servicios que redirigen un host a una IP.
Es ilocalizable; en unas horas pueden haber varios cambios de IP.
Asignación de direcciones IP
Dependiendo de la implementación concreta, el servidor DHCP tiene tres métodos para asignar las
direcciones IP:
manualmente, cuando el servidor tiene a su disposición una tabla que empareja direcciones
MAC con direcciones IP, creada manualmente por el administrador de la red. Sólo clientes con
una dirección MAC válida recibirán una dirección IP del servidor.
automáticamente, donde el servidor DHCP asigna permanentemente una dirección IP libre,
tomada de un rango prefijado por el administrador, a cualquier cliente que solicite una.
dinámicamente, el único método que permite la reutilización de direcciones IP. El
administrador de la red asigna un rango de direcciones IP para el DHCP y cada ordenador
cliente de la LAN tiene su software de comunicación TCP/IP configurado para solicitar una
dirección IP del servidor DHCP cuando su tarjeta de interfaz de red se inicie. El proceso es
transparente para el usuario y tiene un periodo de validez limitado.
IP fija
Una dirección IP fija es una IP la cual es asignada por el usuario, o bien dada por el proveedor ISP en la
primera conexión.
Las IPs fijas actualmente en el mercado de acceso a Internet tienen un coste adicional mensual. Estas IPs
son asignadas por el usuario después de haber recibido la información del proveedor o bien asignadas
por el proveedor en el momento de la primera conexión.
Esto permite al usuario montar servidores web, correo, FTP, etc. y dirigir un nombre de dominio a esta
IP sin tener que mantener actualizado el servidor DNS cada vez que cambie la IP como ocurre con las IPs
dinámicas.
Ventajas
Permite tener servicios dirigidos directamente a la IP.
Desventajas
Son más vulnerables al ataque, puesto que el usuario no puede conseguir otra IP.
Es más caro para los ISPs puesto que esa IP puede no estar usándose las 24 horas del día.
Direcciones IPv6
La función de la dirección IPv6 es exactamente la misma a su predecesor IPv4, pero dentro del protocolo
IPv6. Está compuesta por 8 segmentos de 2 bytes cada uno, que suman un total de 128 bits, el
equivalente a unos 3.4x1038 hosts direccionables. La ventaja con respecto a la dirección IPv4 es obvia
en cuanto a su capacidad de direccionamiento.
Su representación suele ser hexadecimal y para la separación de cada par de octetos se emplea el
símbolo ":". Un bloque abarca desde 0000 hasta FFFF. Algunas reglas acerca de la representación de
direcciones IPv6 son:
Los ceros iniciales, como en IPv4, se pueden obviar.
Ejemplo: 2001:0123:0004:00ab:0cde:3403:0001:0063 -> 2001:123:4:ab:cde:3403:1:63
Los bloques contiguos de ceros se pueden comprimir empleando "::". Esta operación sólo se
puede hacer una vez.
Ejemplo: 2001:0:0:0:0:0:0:4 -> 2001::4.
Ejemplo no válido: 2001:0:0:0:2:0:0:1 -> 2001::2::1 (debería ser 2001::2:0:0:1 ó 2001:0:0:0:2::1).
Lic. Hugo Santander Jhong
Introducción a la computación
Familia de protocolos de Internet
La familia de protocolos de Internet es un
conjunto de protocolos de red que
implementa la pila de protocolos en la que
se basa Internet y que permiten la
transmisión de datos entre redes de
computadoras. En ocasiones se la
denomina conjunto de protocolos TCP/IP,
en referencia a los dos protocolos más
importantes que la componen: Protocolo
de Control de Transmisión (TCP) y
Protocolo de Internet (IP), que fueron los
dos primeros en definirse, y que son los
más utilizados de la familia. Existen tantos
protocolos en este conjunto que llegan a
ser más de 100 diferentes, entre ellos se
encuentra el popular HTTP (HyperText
Transfer Protocol), que es el que se utiliza
para acceder a las páginas web, además de
otros como el ARP (Address Resolution
Protocol) para la resolución de direcciones,
el FTP (File Transfer Protocol) para
transferencia de archivos, y el SMTP
(Simple Mail Transfer Protocol) y el POP
(Post Office Protocol) para correo
electrónico, TELNET para acceder a equipos
remotos, entre otros.
El TCP/IP es la base de Internet, y sirve para enlazar computadoras que utilizan diferentes sistemas
operativos, incluyendo PC, minicomputadoras y computadoras centrales sobre redes de área local (LAN)
y área extensa (WAN). TCP/IP fue desarrollado y demostrado por primera vez en 1972 por el
departamento de defensa de los Estados Unidos, ejecutándolo en ARPANET, una red de área extensa del
departamento de defensa.
La familia de protocolos de internet puede describirse por analogía con el modelo OSI, que describe los
niveles o capas de la pila de protocolos, aunque en la práctica no corresponde exactamente con el
modelo en Internet. En una pila de protocolos, cada nivel soluciona una serie de problemas relacionados
con la transmisión de datos, y proporciona un servicio bien definido a los niveles más altos. Los niveles
superiores son los más cercanos al usuario y tratan con datos más abstractos, dejando a los niveles más
bajos la labor de traducir los datos de forma que sean físicamente manipulables.
El modelo de Internet fue diseñado como la solución a un problema práctico de ingeniería. El modelo
OSI, en cambio, fue propuesto como una aproximación teórica y también como una primera fase en la
evolución de las redes de ordenadores. Por lo tanto, el modelo OSI es más fácil de entender, pero el
modelo TCP/IP es el que realmente se usa. Sirve de ayuda entender el modelo OSI antes de conocer
TCP/IP, ya que se aplican los mismos principios, pero son más fáciles de entender en el modelo OSI.
Niveles en la pila TCP/IP
Hay algunas discusiones sobre como encaja el modelo TCP/IP dentro del modelo OSI. Como TCP/IP y
modelo OSI no están delimitados con precisión no hay una respuesta que sea la correcta.
El modelo OSI no está lo suficientemente dotado en los niveles inferiores como para detallar la
auténtica estratificación en niveles: necesitaría tener una capa extra (el nivel de Interred) entre los
niveles de transporte y red. Protocolos específicos de un tipo concreto de red, que se sitúan por encima
del marco de hardware básico, pertenecen al nivel de red, pero sin serlo. Ejemplos de estos protocolos
son el ARP (Protocolo de resolución de direcciones) y el STP (Spanning Tree Protocol). De todas formas,
estos son protocolos locales, y trabajan por debajo de las capas de Interred. Cierto es que situar ambos
grupos (sin mencionar los protocolos que forman parte del nivel de Interred pero se sitúan por encima
de los protocolos de Interred, como ICMP) todos en la misma capa puede producir confusión, pero el
modelo OSI no llega a ese nivel de complejidad para ser más útil como modelo de referencia.
Lic. Hugo Santander Jhong
42
Introducción a la computación
El siguiente diagrama intenta mostrar la pila TCP/IP y otros protocolos relacionados con el modelo OSI
original:
7 Aplicación
ej. HTTP, DNS, SMTP, SNMP, FTP, Telnet, SSH y SCP, NFS, RTSP, Feed, Webcal
6 Presentación
ej. XDR, ASN.1, SMB, AFP
5 Sesión
ej. TLS, SSH, ISO 8327 / CCITT X.225, RPC, NetBIOS
4 Transporte
ej. TCP, UDP, RTP, SCTP, SPX
3 Red
ej. IP, ICMP, IGMP, X.25, CLNP, ARP, RARP, BGP, OSPF, RIP, IGRP, EIGRP, IPX, DDP
2 Enlace de datos ej. Ethernet, Token Ring, PPP, HDLC, Frame Relay, RDSI, ATM, IEEE 802.11, FDDI
1 Físico
ej. cable, radio, fibra óptica
Normalmente, los tres niveles superiores del modelo OSI (Aplicación, Presentación y Sesión) son
considerados simplemente como el nivel de aplicación en el conjunto TCP/IP. Como TCP/IP no tiene un
nivel de sesión unificado sobre el que los niveles superiores se sostengan, estas funciones son
típicamente desempeñadas (o ignoradas) por las aplicaciones de usuario. La diferencia más notable
entre los modelos de TCP/IP y OSI es el nivel de Aplicación, en TCP/IP se integran algunos niveles del
modelo OSI en su nivel de Aplicación. Una interpretación simplificada de la pila se muestra debajo:
5
Aplicación
ej. HTTP, FTP, DNS
(protocolos de enrutamiento como BGP y RIP, que por varias razones funcionen
sobre TCP y UDP respectivamente, son considerados parte del nivel de red)
4
Transporte
ej. TCP, UDP, RTP, SCTP
(protocolos de enrutamiento como OSPF, que funcionen sobre IP, son
considerados parte del nivel de red)
3
Interred
2
Enlace
ej. Ethernet, Token Ring, etc.
1
Físico
ej. medio físico, y técnicas de codificación, T1, E1
Para TCP/IP este es el Protocolo de Internet (IP)
(protocolos requeridos como ICMP e IGMP funcionan sobre IP, pero todavía se
pueden considerar parte del nivel de red; ARP no funciona sobre IP
El nivel Físico
El nivel físico describe las características físicas de la comunicación, como las convenciones sobre la
naturaleza del medio usado para la comunicación (como las comunicaciones por cable, fibra óptica o
radio), y todo lo relativo a los detalles como los conectores, código de canales y modulación, potencias
de señal, longitudes de onda, sincronización y temporización y distancias máximas. La familia de
protocolos de Internet no cubre el nivel físico de ninguna red; véanse los artículos de tecnologías
específicas de red para los detalles del nivel físico de cada tecnología particular.
El nivel de Enlace de datos
El nivel de enlace de datos especifica como son transportados los paquetes sobre el nivel físico, incluido
los delimitadores (patrones de bits concretos que marcan el comienzo y el fin de cada trama). Ethernet,
por ejemplo, incluye campos en la cabecera de la trama que especifican que máquina o máquinas de la
red son las destinatarias de la trama. Ejemplos de protocolos de nivel de enlace de datos son Ethernet,
Wireless Ethernet, SLIP, Token Ring y ATM.
PPP es un poco más complejo y originalmente fue diseñado como un protocolo separado que
funcionaba sobre otro nivel de enlace, HDLC/SDLC.
Este nivel es a veces subdividido en Control de enlace lógico (Logical Link Control) y Control de acceso al
medio (Media Access Control).
Lic. Hugo Santander Jhong
43
Introducción a la computación
44
El nivel de Interred
Como fue definido originalmente, el nivel de red soluciona el problema de conseguir transportar
paquetes a través de una red sencilla. Ejemplos de protocolos son X.25 y Host/IMP Protocol de
ARPANET.
Con la llegada del concepto de Interred, nuevas funcionalidades fueron añadidas a este nivel, basadas
en el intercambio de datos entre una red origen y una red destino. Generalmente esto incluye un
enrutamiento de paquetes a través de una red de redes, conocidada como Internet.
En la familia de protocolos de Internet, IP realiza las tareas básicas para conseguir transportar datos
desde un origen a un destino. IP puede pasar los datos a una serie de protocolos superiores; cada uno
de esos protocolos es identificado con un único "Número de protocolo IP". ICMP y IGMP son los
protocolos 1 y 2, respectivamente.
Algunos de los protocolos por encima de IP como ICMP (usado para transmitir información de
diagnóstico sobre transmisiones IP) e IGMP (usado para dirigir tráfico multicast) van en niveles
superiores a IP pero realizan funciones del nivel de red e ilustran una incompatibilidad entre los modelos
de Internet y OSI. Todos los protocolos de enrutamiento, como BGP, OSPF, y RIP son realmente también
parte del nivel de red, aunque ellos parecen pertenecer a niveles más altos en la pila.
El nivel de Transporte
Los protocolos del nivel de transporte pueden solucionar problemas como la fiabilidad ("¿alcanzan los
datos su destino?") y la seguridad de que los datos llegan en el orden correcto. En el conjunto de
protocolos TCP/IP, los protocolos de transporte también determinan a que aplicación van destinados los
datos.
Los protocolos de enrutamiento dinámico que técnicamente encajan en el conjunto de protocolos
TCP/IP (ya que funcionan sobre IP) son generalmente considerados parte del nivel de red; un ejemplo es
OSPF (protocolo IP número 89).
TCP (protocolo IP número 6) es un mecanismo de transporte fiable y orientado a conexión, que
proporciona un flujo fiable de bytes, que asegura que los datos llegan completos, sin daños y en orden.
TCP realiza continuamente medidas sobre el estado de la red para evitar sobrecargarla con demasiado
tráfico. Además, TCP trata de enviar todos los datos correctamente en la secuencia especificada. Esta es
una de las principales diferencias con UDP, y puede convertirse en una desventaja en flujos en tiempo
real (muy sensibles a la variación del retardo) o aplicaciones de enrutamiento con porcentajes altos de
pérdida en el nivel de interred.
Más reciente es SCTP, también un mecanismo fiable y orientado a conexión. Está relacionado con la
orientación a byte, y proporciona múltiples sub-flujos multiplexados sobre la misma conexión. También
proporciona soporte de multihoming, donde una conexión puede ser representada por múltiples
direcciones IP (representando múltiples interfaces físicas), así si hay una falla la conexión no se
interrumpe. Fue desarrollado inicialmente para aplicaciones telefónicas (para transportar SS7 sobre IP),
pero también fue usado para otras aplicaciones.
UDP (protocolo IP número 17) es un protocolo de datagramas sin conexión. Es un protocolo no fiable
(best effort al igual que IP) - no porque sea particularmente malo, sino porque no verifica que los
paquetes lleguen a su destino, y no da garantías de que lleguen en orden. Si una aplicación requiere
estas características, debe llevarlas a cabo por sí misma o usar TCP.
UDP es usado normalmente para aplicaciones de streaming (audio, video, etc) donde la llegada a tiempo
de los paquetes es más importante que la fiabilidad, o para aplicaciones simples de tipo
petición/respuesta como el servicio DNS, donde la sobrecarga de las cabeceras que aportan la fiabilidad
es desproporcionada para el tamaño de los paquetes.
DCCP está actualmente bajo desarrollo por el IETF. Proporciona semántica de control para flujos TCP,
mientras de cara al usuario se da un servicio de datagramas UDP..
TCP y UDP son usados para dar servicio a una serie de aplicaciones de alto nivel. Las aplicaciones con
una dirección de red dada son distinguibles entre sí por su número de puerto TCP o UDP. Por
convención, los puertos bien conocidos (well-known ports) son asociados con aplicaciones específicas.
RTP es un protocolo de datagramas que ha sido diseñado para datos en tiempo real como el streaming
de audio y video que se monta sobre UDP.
Lic. Hugo Santander Jhong
Introducción a la computación
El nivel de Aplicación
El nivel de aplicación es el nivel que los programas más comunes utilizan para comunicarse a través de
una red con otros programas. Los procesos que acontecen en este nivel son aplicaciones específicas que
pasan los datos al nivel de aplicación en el formato que internamente use el programa y es codificado de
acuerdo con un protocolo estándar.
Algunos programas específicos se considera que se ejecutan en este nivel. Proporcionan servicios que
directamente trabajan con las aplicaciones de usuario. Estos programas y sus correspondientes
protocolos incluyen a HTTP (HyperText Transfer Protocol), FTP (Transferencia de archivos), SMTP (correo
electrónico), SSH (login remoto seguro), DNS (Resolución de nombres de dominio) y a muchos otros.
Una vez que los datos de la aplicación han sido codificados en un protocolo estándar del nivel de
aplicación son pasados hacia abajo al siguiente nivel de la pila de protocolos TCP/IP.
En el nivel de transporte, las aplicaciones normalmente hacen uso de TCP y UDP, y son habitualmente
asociados a un número de puerto bien conocido (well-known port). Los puertos fueron asignados
originalmente por la IANA.
Ventajas e inconvenientes [editar]
El conjunto TCP/IP está diseñado para enrutar y tiene un grado muy elevado de fiabilidad, es adecuado
para redes grandes y medianas, así como en redes empresariales. Se utiliza a nivel mundial para
conectarse a Internet y a los servidores web. Es compatible con las herramientas estándar para analizar
el funcionamiento de la red.
Un inconveniente de TCP/IP es que es más difícil de configurar y de mantener que NetBEUI o IPX/SPX;
además es algo más lento en redes con un volumen de tráfico medio bajo. Sin embargo, puede ser más
rápido en redes con un volumen de tráfico grande donde haya que enrutar un gran número de tramas.
El conjunto TCP/IP se utiliza tanto en redes empresariales como por ejemplo en campus universitarios o
en complejos empresariales, en donde utilizan muchos enrutadores y conexiones a mainframe o a
ordenadores UNIX, como así también en redes pequeñas o domésticas, y hasta en teléfonos móviles y
en domótica.
INTERNET
'Internet' es un método de interconexión de redes de computadoras implementado en un conjunto de
protocolos denominado TCP/IP y garantiza que redes físicas heterogéneas funcionen como una red
(lógica) única. De ahí que Internet se conozca comúnmente con el nombre de "red de redes", pero es
importante destacar que Internet no es un nuevo tipo de red física, sino un método de interconexión.
Aparece por primera vez en 1969, cuando ARPAnet establece su primera conexión entre tres
universidades en California y una en Utah. También se usa el término Internet como sustantivo común y
por tanto en minúsculas para designar a cualquier red de redes que use las mismas tecnologías que
Internet, independientemente de su extensión o de que sea pública o privada.
Cuando se dice red de redes se hace referencia a que es una red formada por la interconexión de otras
redes menores.
Al contrario de lo que se piensa comúnmente, Internet no es sinónimo de World Wide Web (WWW).
Ésta es parte de Internet, siendo la World Wide Web uno de los muchos servicios ofertados en la red
Internet. La Web es un sistema de información mucho más reciente, desarrollado inicialmente por Tim
Berners Lee en 1989. El WWW utiliza Internet como medio de transmisión.
Algunos de los servicios disponibles en Internet aparte de la Web son el acceso remoto a otras máquinas
(SSH y telnet), transferencia de archivos (FTP), correo electrónico (SMTP), boletines electrónicos (news o
grupos de noticias), conversaciones en línea (IRC y chats), mensajería instantánea, transmisión de
archivos (P2P, P2M, Descarga Directa), etc.
El género de la palabra Internet es ambiguo según el Diccionario de la Real Academia Española. Sin
embargo, al ser "Internet" un nombre propio, la Real Academia Española recomienda no usar artículo
alguno. En caso de usar artículo, se prefieren las formas femeninas, pues Internet es una red y el género
de la palabra es femenino. A pesar de esto, es común escuchar hablar de "el Internet" o "la Internet",
utilizando el artículo por calco del inglés the Internet.
Historia
1969, DARPA comienza a planificar la creación de una red que conecte computadores en caso de una
eventual guerra atómica que incomunique a los humanos sobre la tierra, con fines principalmente de
defensa.
Lic. Hugo Santander Jhong
45
Introducción a la computación
1972, se realizó la Primera demostración pública de ARPANET, una nueva Red de comunicaciones
financiada por la DARPA que funcionaba de forma distribuida sobre la red telefónica conmutada. El éxito
de ésta nueva arquitectura sirvió para que, en 1973, la DARPA iniciara un programa de investigación
sobre posibles técnicas para interconectar redes (orientadas al tráfico de paquetes) de distintas clases.
Para este fin, desarrollaron nuevos protocolos de comunicaciones que permitiesen este intercambio de
información de forma "transparente" para las computadoras conectadas. De la filosofía del proyecto
surgió el nombre de "Internet", que se aplicó al sistema de redes interconectadas mediante los
protocolos TCP e IP.
1983, el 1 de enero, ARPANET cambió el protocolo NCP por TCP/IP. Ese mismo año, se creó el IAB con el
fin de estandarizar el protocolo TCP/IP y de proporcionar recursos de investigación a Internet. Por otra
parte, se centró la función de asignación de identificadores en la IANA que, más tarde, delegó parte de
sus funciones en el Internet registry que, a su vez, proporciona servicios a los DNS.
1986, la NSF comenzó el desarrollo de NSFNET que se convirtió en la principal Red en árbol de Internet,
complementada después con las redes NSINET y ESNET, todas ellas en Estados Unidos. Paralelamente,
otras redes troncales en Europa, tanto públicas como comerciales, junto con las americanas formaban el
esqueleto básico ("backbone") de Internet.
1989, con la integración de los protocolos OSI en la arquitectura de Internet, se inició la tendencia actual
de permitir no sólo la interconexión de redes de estructuras dispares, sino también la de facilitar el uso
de distintos protocolos de comunicaciones.
En el CERN de Ginebra, un grupo de Físicos encabezado por Tim Berners-Lee, crearon el lenguaje HTML,
basado en el SGML. En 1990 el mismo equipo construyó el primer cliente Web, llamado WorldWideWeb
(WWW), y el primer servidor web.
2006, el 3 de enero, Internet alcanzó los mil cien millones de usuarios. Se prevé que en diez años, la
cantidad de navegantes de la Red aumentará a 2.000 millones.
En julio de 1961 Leonard Kleinrock publicó desde el MIT el primer documento sobre la teoría de
conmutación de paquetes. Kleinrock convenció a Lawrence Roberts de la factibilidad teórica de las
comunicaciones vía paquetes en lugar de circuitos, lo cual resultó ser un gran avance en el camino hacia
el trabajo informático en red. El otro paso fundamental fue hacer dialogar a los ordenadores entre sí.
Para explorar este terreno, en 1965, Roberts conectó una computadora TX2 en Massachusetts con un Q32 en California a través de una línea telefónica conmutada de baja velocidad, creando así la primera
(aunque reducida) red de computadoras de área amplia jamás construida. En los EE.UU. se estaba
buscando una forma de mantener las comunicaciones vitales del país en el posible caso de una Guerra
Nuclear. Este hecho marcó profundamente su evolución, ya que aún ahora los rasgos fundamentales del
proyecto se hallan presentes en lo que hoy conocemos como Internet.
Internet y sociedad
Internet tiene un impacto profundo en el trabajo, el ocio y el conocimiento. Gracias a la web, millones
de personas tienen acceso fácil e inmediato a una cantidad extensa y diversa de información en línea.
Un ejemplo de esto es el desarrollo y la distribución de colaboración del software de Free/Libre/OpenSource (SEDA) por ejemplo GNU, Linux, Mozilla y OpenOffice.org.
Comparado a las enciclopedias y a las bibliotecas tradicionales, la web ha permitido una
descentralización repentina y extrema de la información y de los datos. Algunas compañías e individuos
han adoptado el uso de los weblogs, que se utilizan en gran parte como diarios actualizables. Algunas
organizaciones comerciales animan a su personal para incorporar sus áreas de especialización en sus
sitios, con la esperanza de que impresionen a los visitantes con conocimiento experto e información
libre.
Internet ha llegado a gran parte de los hogares y de las empresas de los países ricos, en este aspecto se
ha abierto una brecha digital con los países pobres, en los cuales la penetración de Internet y las nuevas
tecnologías es muy limitada para las personas.
Desde una perspectiva cultural del conocimiento, internet ha sido una ventaja y una responsabilidad.
Para la gente que está interesada en otras culturas proporciona una cantidad significativa de
información y de una interactividad que sería inasequible de otra manera.
Ocio
La pornografía y la industria de los videojuegos representan buena parte del ocio en la WWW y
proporcionan a menudo una fuente significativa del rédito de publicidad para otros sitios de la red.
Lic. Hugo Santander Jhong
46
Introducción a la computación
Muchos gobiernos han procurado sin éxito poner
restricciones en el uso de ambas industrias en Internet.
Un área principal del ocio en el Internet es el sistema
Multijugador.
Muchos utilizan el Internet para descargar música,
películas y otros trabajos. Hay fuentes pagadas y
gratuitas para todo esto, usando los servidores
centralizados y distribuidos, las tecnologías de P2P.
Otros utilizan la red para tener acceso a las noticias y el
estado del tiempo.
La mensajería instantánea o chat y el E-mail son algunos de los servicios de uso más extendido.
Internet y su evolución
Antes Internet nos servía para un objetivo claro. Navegábamos en Internet para algo muy concreto.
Ahora quizás también pero sin duda alguna hoy nos podemos perder por el inmenso abanico de
posibilidades que nos brinda la Red. Hoy en día, la sensación que nos produce Internet es un ruido
interferencias un explosivo cúmulo de ideas distintas de personas diferentes de pensamientos distintos
de tantas y tantas posibilidades que para una mente exceda in extremis.
El crecimiento o más bien la incorporación de tantas personas a la Red hace que las calles de lo que en
principio era una pequeña ciudad llamada Internet se conviertan en todo un planeta extremadamente
conectado entre sí entre todos sus miembros.
El hecho de que Internet haya aumentado tanto implica una mayor cantidad de relaciones entre
personas pero unas relaciones virtuales. Así ahora sabemos que nos relacionamos más virtualmente y
menos personalmente sabiendo este hecho y relacionándolo con la felicidad originada por las relaciones
personales podemos concluir que cuando una persona tenga una necesidad de conocimiento popular
conocimiento no escrito en libros recurrirá a la fuente más fiable más acorde a su necesidad y más
accesible que le sea posible. Como ahora esta fuente es posible en Internet dicha persona preferirá
prescindir del obligado protocolo que hay que cumplir a la hora de acercarse a alguien personalmente
para obtener dicha información y por ello por elegir no establecer una relación personal sino virtual sólo
por ese motivo disminuirán las relaciones personales con respecto al pasado más inmediato. Este hecho
lejos de ser perjudicial para la especie humana, para la supervivencia que es para lo que estamos hechos
lejos de obstruir, implica la existencia de un medio capaz de albergar soluciones para problemas que
antes eran mucho más difíciles de resolver.
Como toda gran revolución Internet augura una nueva era de diferentes métodos de resolución de
problemas creados a partir de soluciones anteriores. Internet produce la sensación que todos hemos
sentido alguna vez produce la esperanza que necesitamos cuando queremos conseguir algo. Produce un
despertar de intenciones que jamás antes la tecnología había logrado en la población mundial. Genera
una sensación de cercanía de empatía de comprensión, y a la vez de confusión de discusión de lucha y
de guerras que no queda otra que afirmar que Internet es Humana Internet es como la vida misma.
Trabajo
Con la aparición de Internet y de las conexiones de alta velocidad disponibles al público, Internet ha
alterado de manera significativa la manera de trabajar de millones de personas. Internet ha permitido
mayor flexibilidad en términos de horarios y de localización, contrariamente a la jornada laboral
tradicional de 9 a 5 en la cual los empleados se desplazan al lugar de trabajo.
Un experto contable que se sienta en un país puede revisar los libros de otra compañía en otro país, en
un servidor situado en un tercer país que sea mantenido remotamente por los especialistas en un
cuarto.
Internet y sobre todo los blogs han dado a los trabajadores un foro en el cual expresar sus opiniones
sobre sus empleos, jefes y compañeros, creando una cantidad masiva de información y de datos sobre el
trabajo que está siendo recogido actualmente por el proyecto de Worklifewizard.org, por el colegio de
abogados de Harvard y el programa de Worklife.
Internet ha impulsado el fenómeno de la Globalización y junto con la llamada desmaterialización de la
economía ha dado lugar al nacimiento de una Nueva Economía caracterizada por la utilización de la red
en todos los procesos de incremento de valor de la empresa.
Lic. Hugo Santander Jhong
47
Introducción a la computación
Publicidad en Internet
Internet, se ha convertido en el medio más medible y de más alto crecimiento en la historia.
Actualmente existen muchas empresas que obtienen dinero de la publicidad en Internet. Además,
existen muchos valores que la publicidad interactiva ofrece tanto para el usuario como para los
anunciantes.
Censura
Una de sus mayores ventajas, o inconvenientes, es la dificultad de su control de forma global.
Algunos gobiernos, de naciones tales como Irán, Cuba, Corea del Norte y la República Popular de China,
restringen el que personas de sus países puedan ver ciertos contenidos de Internet, políticos y
religiosos, considerados contrarios a sus criterios. La censura se hace, a veces, mediante filtros
controlados por el gobierno, apoyados en leyes o motivos culturales, castigando la propagación de estos
contenidos. Sin embargo, muchos usuarios de Internet pueden burlar estos filtros, pues la mayoría del
contenido de Internet está disponible en todo el mundo, sin importar donde se esté, siempre y cuando
se tengan la habilidad y los medios técnicos de conectar y editar.
Tecnología de Internet
Acceso a Internet
Internet incluye aproximadamente 5000 redes en todo el mundo y más de 100 protocolos distintos
basados en TCP/IP, que se configura como el protocolo de la red. Los servicios disponibles en la red
mundial de PC, han avanzado mucho gracias a las nuevas tecnologías de transmisión de alta velocidad,
como DSL y Wireless, se ha logrado unir a las personas con videoconferencia, ver imágenes por satélite
(ver tu casa desde el cielo), observar el mundo por webcams, hacer llamadas telefónicas gratuitas, o
disfrutar de un juego multijugador en 3D, un buen libro PDF, o álbumes y películas para descargar.
El método de acceso a internet vigente hace algunos años, la telefonía básica, ha venido siendo
sustituida gradualmente por conexiones más veloces y estables, entre ellas el ADSL, Cable Módems, o el
RDSI. También han aparecido formas de acceso a través de la red eléctrica, e incluso por satélite
(generalmente, sólo para descarga, aunque existe la posibilidad de doble vía, utilizando el protocolo
DVB-RS).
Internet también está disponible en muchos lugares públicos tales como bibliotecas, hoteles o
cibercafés. Una nueva forma de acceder sin necesidad de un puesto fijo son las redes inalámbricas, hoy
presentes en aeropuertos, universidades o poblaciones enteras.
Nombres de dominio
La Corporación de Internet para los Nombres y los Números Asignados (ICANN) es la autoridad que
coordina la asignación de identificadores únicos en Internet, incluyendo nombres de dominio,
direcciones de Protocolos de Internet, números del puerto del protocolo y de parámetros. Un nombre
global unificado (es decir, un sistema de nombres exclusivos para sostener cada dominio) es esencial
para que Internet funcione.
El ICANN tiene su sede en California, supervisado por una Junta Directiva Internacional con
comunidades técnicas, comerciales, académicas y ONG. El gobierno de los Estados Unidos continúa
teniendo un papel privilegiado en cambios aprobados en el Domain Name System. Como Internet es una
red distribuida que abarca muchas redes voluntariamente interconectadas, Internet, como tal, no tiene
ningún cuerpo que lo gobierne.
Servidor
Una aplicación informática o programa que realiza algunas tareas en
beneficio de otras aplicaciones llamadas clientes. Algunos servicios
habituales son los servicios de archivos, que permiten a los usuarios
almacenar y acceder a los archivos de un ordenador y los servicios de
aplicaciones, que realizan tareas en beneficio directo del usuario final.
Este es el significado original del término. Es posible que un ordenador
cumpla simultáneamente las funciones de cliente y de servidor.
El ordenador en el que se ejecuta un programa que realiza alguna tarea
en beneficio de otras aplicación llamada clientes, tanto si se trata de un
ordenador central (mainframe), un miniordenador, un ordenador
personal, un PDA o un sistema integrado; sin embargo, hay ordenadores
Lic. Hugo Santander Jhong
48
Introducción a la computación
destinados únicamente a proveer los servicios de estos programas: estos son los servidores por
antonomasia.
Un servidor no es necesariamente una máquina de última generación grande y monstruosa, no es
necesariamente un superordenador; un servidor puede ser desde una computadora vieja, hasta una
máquina sumamente potente (ej.: servidores web, bases de datos grandes, etc. Procesadores especiales
y hasta varios gigas de memoria). Todo esto depende del uso que se le dé al servidor. Si usted lo desea,
puede convertir al equipo desde el cual usted está leyendo esto en un servidor instalando un programa
que trabaje por la red y a la que los usuarios de su red ingresen a través de un programa de servidor
web como Apache.
Un servidor también puede ser un proceso que entrega información o sirve a otro proceso, el modelo
cliente/servidor no necesariamente implica tener dos ordenadores, ya que un proceso cliente puede
solicitar algo como una impresión a un proceso servidor en un mismo ordenador
Alojamiento web
El alojamiento web (en inglés web hosting) es el servicio que provee a los usuarios de Internet un
sistema para poder almacenar información, imágenes, vídeo, o cualquier contenido accesible vía Web.
Los Web Host son compañías que proporcionan espacio de un servidor a sus clientes.
Tipos de Alojamiento Web
El alojamiento web se divide en seis tipos: gratuitos, compartidos, revendedores, servidores virtuales,
servidores dedicados y de colocación.
Alojamiento gratuito: El alojamiento gratuito es extremadamente limitado cuando se lo compara
con el alojamiento de pago. Estos servicios generalmente agregan publicidad en los sitios y tienen
un espacio y tráfico limitado.
Alojamiento compartido (shared hosting): En este tipo de servicio se alojan clientes de varios sitios
en un mismo servidor, gracias a la configuración del programa servidor web. Resulta una
alternativa muy buena para pequeños y medianos clientes, es un servicio económico y tiene buen
rendimiento.
Alojamiento de Imágenes: Este tipo de hospedaje se ofrece para guardar tus imágenes en internet,
la mayoría de estos servicios son gratuitos y las páginas se valen de la publicidad colocadas en su
página al subir la imagen.
Alojamiento revendedor (reseller): Este servicio de alojamiento está diseñado para grandes
usuarios o personas que venden el servicio de Hosting a otras personas. Estos paquetes cuentan
con gran cantidad de espacio y de dominios disponibles para cada cuenta.
Servidores virtuales (VPS, Virtual Private Server): mediante el uso de una máquina virtual, la
empresa ofrece el control de un ordenador aparentemente no compartido. Así se pueden
administrar varios dominios de forma fácil y económica, además de elegir los programas que se
ejecutan en el servidor. Por ello, es el tipo de producto recomendado para empresas de diseño y
programación web.
Servidores dedicados: El término servidor dedicado se refiere a una forma avanzada de
alojamiento web en la cual el cliente alquila o compra un ordenador completo, y por tanto tiene el
control completo y la responsabilidad de administrarlo. El cuidado físico de la máquina y de la
conectividad a Internet es tarea de la empresa de alojamiento, que suele tenerlo en un centro de
datos.
Colocación (o housing): Este servicio consiste básicamente en vender o alquilar un espacio físico de
un centro de datos para que el cliente coloque ahí su propio ordenador. La empresa le da la
corriente y la conexión a Internet, pero el ordenador servidor lo elige completamente el usuario
(hasta el hardware).
Formas de obtener
Por lo general, se distingue entre servicios pagados y servicios gratuitos.
Servicios Pagados
Este tipo de obtención, por lo general viene dado por el contrato de un proveedor de internet, el
cual junto con dar conexión, entre la posibilidad de almacenamiento mediante disco virtual o
espacio web o combinación de ambos.
Lic. Hugo Santander Jhong
49
Introducción a la computación
Otro medio de obtención es contratando algún servicio de una empresa no dependiente de la
conexión a internet, las cuales ofrecen según las capacidades de sus servidores o de su espacio. Casi
siempre a la par, entregan servicios añadidos, como la ejecución de tareas automáticas o cuentas
de correo electrónico gratuitas.
Normalmente las transacciones son electrónicas, por tarjeta de crédito o por sistemas de pagos
como PayPal.
Servicios Gratuitos
Este tipo de servicio viene dado por la base de ser gratuito, y sin costo alguno al suscriptor. Sin
embargo, quienes usan este servicio, por lo general son páginas de bajos recursos de mantención o
aquellas que los dueños no poseen suficiente dinero para ser mantenida.
Como medio de financiamiento, el servidor coloca avisos de publicidad de Adsense u otras
empresas, haciendo que la página se llene de publicidad en algún punto.
Otra limitación de estas ofertas es que tiene un espacio limitado y no se puede usar como almacén
de datos, ni pueden alojar páginas subversivas o de contenido adulto o no permitido.
De todas maneras, existe una amplia oferta de alojamientos gratuitos con características muy
diferentes y que pueden satisfacer las necesidades de programadores que desean un lugar donde
hacer pruebas o que mantienen una web con un número no muy elevado de visitas.
Servidores y Servicios
Un alojamiento web se puede diferenciar de otro por el tipo de sistema operativo, uso de bases de
datos y motor de generación de páginas webs exista en él. La combinación más conocida y extendida es
la del tipo LAMP (Linux, Apache, MySQL y PHP), aunque se está comenzando a usar una combinación
con Java.
Algunos de los servicios más comunes que se pueden entregar son lo de FTP, manejo por página web y
múltiples clientes en las bases de datos.
Si su web va a estar alojada en un sistema operativo Linux, este sistema es sensible a mayúsculas y
minúsculas, por ejemplo "archivo.php" no es lo mismo que "ARCHIVO.php". Es aconsejable no usar
caracteres tales como ! " · $ % & / ( ) = * @ : ' para prevenir errores, no se pueden utilizar eñes (ñ) ni
acentos en las carpetas, así mismo se aconseja el uso de minúsculas para nombrar ficheros y directorios.
Dominios
Algunos planes de alojamiento (pero no los gratuitos) incluyen un nombre de dominio para que sea más
fácil acceder a la página. Si no viene incluido, es el usuario quien tiene que registrar un dominio
mediante un registrador o bien usar un subdominio de la misma compañía.
Dominio de Internet
Un dominio de Internet es un nombre base que agrupa a un conjunto de equipos o dispositivos y que
permite proporcionar nombres de equipo más fácilmente recordados en lugar de la IP numérica.
Permiten a cualquier servicio moverse a otro lugar diferente en la topología de Internet, que tendrá una
dirección IP diferente.
Dominios de nivel superior
Cada nombre de dominio termina en un Dominio de nivel superior (TLD por Top Level Domain), que es
siempre o bien uno de una pequeña lista de nombres genéricos (tres o más caracteres), o un código
territorial de dos caracteres basado en la ISO-3166 (hay pequeñas excepciones y los nuevos código se
integran caso por caso).
Para las extensiones de los Dominios de nivel superior geográfico (ccTLD) véase la Lista de dominios de
nivel superior geográfico
Dominio de nivel superior geográfico
Un Dominio de nivel superior geográfico o Dominio de nivel superior de código de país (en inglés ccTLD,
country code Top-Level Domain) es un dominio de Internet usado y reservado para un país o territorio
dependiente.
Existen unos 243 ccTLDs (véase la lista del IANA), tienen una longitud de dos letras, y la mayoría
corresponden al estándar de códigos de países ISO 3166-1 (las diferencias se explican más adelante).
Cada país designa gestores para su ccTLD y establece las reglas para conceder dominios. Algunos países
Lic. Hugo Santander Jhong
50
Introducción a la computación
permiten que cualquier persona o empresa del mundo adquiera un dominio dentro de sus ccTLDs, por
ejemplo Austria (.at) y España (.es). Otros países y territorios dependientes sólo permiten a sus
residentes adquirir un dominio de su ccTLD, por ejemplo Australia (.au), Andorra (.ad) y Canadá (.ca).
Códigos ISO 3166-1 no utilizados como ccTLDs
Los códigos EH y KP, aunque teóricamente disponibles como ccTLDs para Sahara Occidental y Corea del
Norte respectivamente, nunca han sido asignados ni existen en el DNS. Igualmente, el nuevo código CS
(Serbia y Montenegro) no está aún asignado como ccTLD (.cs estaba previamente asignado a
Checoslovaquia). TL (Timor Oriental tras la independencia) está siendo introducido para reemplazar TP.
Todos los demás códigos ISO 3166-1 actuales han sido asignado y existen en el DNS. Sin embargo,
algunos de ellos en realidad no se usan. En particular, los ccTLDs de los territorios noruegos de Isla
Bouvet (.bv) y Svalbard (.sj) existen en el DNS, pero no se ha asignado ningún subdominio, y Norid (el
administrador de ccTLDs noruego) tiene actualmente la política de no asignarlos.
Sólo un dominio (dra.hmg.gb, para la Defence Evaluation and Research Agency) está aún registrado en
.gb (Reino Unido, aunque las letras en realidad representan a Gran Bretaña, una parte del mismo) y no
se aceptan nuevos registros para él. Los dominios de Inglaterra, Escocia, Gales e Irlanda del Norte usan
.uk (véase más abajo).
ccTLDs que no están en ISO 3166-1
Actualmente se usan nueve ccTLDs a pesar de no ser códigos de dos letras ISO 3166-1:
.uk (Reino Unido, United Kingdom)
El código ISO 3166-1 para el Reino Unido es GB, sin embargo JANET ya había seleccionado uk como un
identificador de nivel superior para un esquema de nombres preexistente, y así fue incorporados a los
ccTLDs. .gb fue asignado con la intención de realizar una transición, pero ésta nunca se hizo y el uso de
.uk se ha afianzado.
.su (código ISO 3166-1 obsoleto para la Unión Soviética): Los gestores de .su declararon en 2001 que
comenzaban a aceptar nuevos registros para este dominio, pero no está claro si esto es compatible con
las políticas del ICANN.
.ac (Isla Ascensión), .gg (Guernesey), .im (Isla de Man) y .je (Isla de Jersey)
Estos códigos surgieron de la decisión de 1996 del IANA de permitir el uso de códigos reservados en la
lista de reserva ISO 3166-1 alpha-2 para uso de la Unión Postal Universal. La decisión se revocó más
tarde y sólo estos cuatro ccTLDs habían sido asignados hasta ese momento.
.eu (Unión Europea)
El 25 de septiembre de 2000 la ICANN decidió permitir el uso de cualquier código de dos letras de la lista
de reserva de la ISO 3166-1 reservado para todos los fines. Actualmente sólo la UE cumple este criterio.
Tras una decisión del Consejo de Ministros de Telecomunicaciones de la UE en marzo de 2002, el
progreso ha sido lento, pero un registro (llamado EURid) ha sido elegido por la Comisión Europea) y se
han establecido criterios para la reserva: ICANN aprobó el .eu como ccTLD y abrió los registros el 7 de
diciembre de 2005 para los poseedores de derechos prioritarios. El 7 de abril de 2006 se abrió el registro
al público general.
.tp (anterior código ISO 3166-1 para Timor Oriental)
Se retirará en favor del .tl durante 2005.
.yu (anterior código ISO 3166-1 para Serbia y Montenegro, cuando aún era conocido como Yugoslavia).
Usos no convencionales de ccTLDs
Las laxas restricciones de registro para ciertos ccTLDs ha originado nombres de dominio como
pagina.de, I.am (‘yo soy’ en inglés) y go.to (‘ir a’ en inglés). Otras variaciones en el uso de ccTLDs se han
denominado domain hacks, usándose juntos el dominio de segundo nivel y el ccTLD para formar una
palabra o título. Esto ha originado dominios como blo.gs de las Islas Georgias del Sur y Sandwich del Sur
(.gs), del.icio.us de los Estados Unidos de América (.us) y cr.yp.to de Tonga (.to). (Con este fin también se
han usado TLDs no nacionales, como inter.net que usa el TLD genérico .net, probablemente el primero
de cuantos se han hecho.)
Lic. Hugo Santander Jhong
51
Introducción a la computación
ccTLDs con cambio de significado
El caso más famoso es el de .tv que originalmente pertenecía a Tuvalu y fue vendido a VeriSign por
US$45 millones.[1] y actualmente se utiliza para canales de televisión.
El dominio .ws perteneciente a Samoa Occidental (West Samoa) se comercializa como web site.
La Federación Micronesia vende su dominio para radios FM.
Las Islas Cocos también vendieron su dominio, .cc, a Verisign. Se sugiere que los compradores le pueden
dar cualquier significado, como por ejemplo, cámara de comercio, circuito cerrado, centro de
conferencias, centro comunitario o country club.
El dominio de Yibuti o Djibuti es .dj lo que ha sido utilizado en algunos casos para páginas de disc
jockeys.
El dominio de Turkmenistán, .tm, se usa conjuntamente para sitios web de dicho país y como
abreviatura de trade mark, marca registrada.
ccTLDs históricos
Hay dos ccTLDs que han sido eliminados tras ser retirados los correspondientes códigos de 2 letras de la
ISO 3166-1, concretamente .cs (para Checoslovaquia) y .zr (para Zaire). Puede haber un retraso
importante entre la retirada de la ISO 3166-1 y el borrado del DNS: por ejemplo, ZR dejó de ser un
código ISO 3166-1 en 1997, pero el ccTLD .zr no fue borrado hasta 2001. Otros ccTLDs correspondientes
a códigos ISO 3166-1 obsoletos no han sido borrados aún, y en algunos casos puede que nunca se
borren debido a la cantidad de problemas que causaría por su gran uso. En concreto, el ccTLD .su de la
Unión Soviética sigue en uso más de una década después de que el código SU fuese retirado de la ISO
3166-1. El primer país de Latinoamerica en obtener un dominio en internet fue Nicaragua con su .ni en
1988.
Ethernet
Ethernet es el nombre de una tecnología
de redes de computadoras de área local (LANs)
basada en tramas de datos. El nombre viene del
concepto físico de ether. Ethernet define las
características de cableado y señalización de nivel
Conectores BNC (Coaxial) y
físico y los formatos de trama del nivel de enlace
RJ45 de una tarjeta de Red
de datos del modelo OSI. Ethernet se refiere a las
redes de área local y dispositivos bajo el estándar IEEE 802.3 que define el protocolo CSMA/CD, aunque
actualmente se llama Ethernet a todas las redes cableadas que usen el formato de trama descrito más
abajo, aunque no tenga CSMA/CD como método de acceso al medio.
Historia
Ethernet es la capa física más popular de
la tecnología LAN usada actualmente y fue
desarrollada principalmente por las empresas
XEROX, Intel y Digital Equipment Company (DIX).
Otros tipos de LAN incluyen Token Ring 802.5,
Fast Ethernet, FDDI, ATM y LocalTalk. Ethernet es
popular porque permite un buen equilibrio entre
velocidad, costo y facilidad de instalación. Estos
puntos fuertes, combinados con la amplia
aceptación en el mercado y la habilidad de
soportar virtualmente todos los protocolos de
red populares, hacen a Ethernet la tecnología
Tarjeta de Red ISA de 10 Mbps
ideal para la red de la mayoría de usuarios de la
informática actual.
El estándar original IEEE 802.3 se basó en la especificación Ethernet 1.0 y era muy similar. El
documento preliminar se aprobó en 1983 y se publicó oficialmente en 1985 (ANSI/IEEE Std. 802.3-1985).
Desde entonces se han publicado un gran número de suplementos para aprovechar los avances
tecnológicos y para poder usar distintos medios de transmisión, velocidades de transferencia más altas y
controles adicionales de acceso a la red.
Lic. Hugo Santander Jhong
52
Introducción a la computación
53
Tecnología y velocidad de Ethernet
Hace ya mucho tiempo que Ethernet consiguió situarse como el principal protocolo del nivel de
enlace. Ethernet 10Base2 consiguió, ya en la década de los 90s, una gran aceptación en el sector. Hoy
por hoy, 10Base2 se considera como una "tecnología de legado" respecto a 100BaseT. Hoy los
fabricantes ya desarrollaron adaptadores capaces de trabajar tanto con la tecnología 10baseT como la
100BaseT y esto ayuda a una mejor adaptación y transición.
Las tecnologías Ethernet que existen se diferencian en estos conceptos:
Velocidad de transmisión
-
Velocidad a la que transmite la tecnología.
Tipo de cable
-
Tecnología del nivel físico que usa la tecnología.
Longitud máxima
-
Distancia máxima que puede haber entre dos nodos adyacentes (sin estaciones repetidoras).
Tipología
-
Determina la forma de actuar de los puntos de enlace centrales. Éstos pueden ser Conectores T
(hoy sólo usados con las tecnologías más antiguas), hubs (con la tipología de estrella de difusión) o
switches (con la tipología de estrella conmutada).
A continuación se especifican los anteriores conceptos en las tecnologías más importantes:
Tecnologías Ethernet
Tecnología
Velocidad de
transmisión
Tipo de cable
Distancia
máxima
Topología
10Base2
10 Mbps
Coaxial
185 m
Conector T
10BaseT
10 Mbps
Par Trenzado
100 m
Hub o Switch
10BaseF
10 Mbps
Fibra óptica
2000 m
Hub o Switch
100BaseT4
100Mbps
Par Trenzado
(categoría 3UTP)
100 m
Half Duplex(hub) y Full Duplex(switch)
100BaseTX
100Mbps
Par Trenzado
(categoría 5UTP)
100 m
Half Duplex(hub) y Full Duplex(switch)
100BaseFX
100Mbps
Fibra óptica
2000 m
No permite el uso de hubs
1000BaseT
1000Mbps
4 pares trenzado
(categoría 5UTP)
100 m
Full Duplex (switch)
1000BaseSX
1000Mbps
Fibra óptica (multimodo)
550 m
Full Duplex (switch)
1000BaseLX
1000Mbps
Fibra óptica (monomodo)
5000 m
Full Duplex (switch)
Hardware comúnmente usado en una red Ethernet
Los elementos de una red Ethernet son: los nodos de red y el medio de interconexión. Los
nodos de red pueden clasificarse en dos grandes grupos: Equipo Terminal de Datos (DTE) y Equipo de
Comunicación de Datos (DCE). Los DTE son dispositivos de red que generan o que son el destino de los
Lic. Hugo Santander Jhong
Introducción a la computación
datos: como las PCs, las estaciones de trabajo, los servidores de archivos, los servidores de impresión;
todos son parte del grupo de las estaciones finales. Los DCE son los dispositivos de red intermediarios
que reciben y retransmiten las tramas dentro de la red; pueden ser: ruteadores, conmutadores (switch),
concentradores (hub), repetidores o interfaces de comunicación, ejemplo: un módem o una tarjeta de
interface.
NIC, o Tarjeta de Interfaz de Red | Adaptador
Permite que una computadora acceda a una red local. Cada tarjeta tiene una única dirección MAC
que la identifica en la red. Una computadora conectada a una red se denomina nodo.
Repetidor o repeater
Aumenta el alcance de una conexión física, recibiendo las señales y retransmitiéndolas, para evitar
su degradación, a través del medio de transmisión, lográndose un alcance mayor. Usualmente se usa
para unir dos áreas locales de igual tecnología y sólo tiene dos puertos. Opera en la capa física del
modelo OSI.
Concentrador o hub
Funciona como un repetidor pero permite la interconexión de múltiples nodos. Su funcionamiento
es relativamente simple pues recibe una trama de ethernet, por uno de sus puertos, y la repite por
todos sus puertos restantes sin ejecutar ningún proceso sobre las mismas. Opera en la capa física del
modelo OSI.
Puente o bridge
Interconecta segmentos de red haciendo el cambio de frames (tramas) entre las redes de acuerdo
con una tabla de direcciones que le dice en qué segmento está ubicada una dirección MAC dada.
Conmutador o Switch
Funciona como el bridge, pero permite la
interconexión de múltiples segmentos de red, funciona
en velocidades más rápidas y es más sofisticado. Los
switches pueden tener otras funcionalidades, como
redes virtuales, y permiten su configuración a través de
la propia red. Funciona básicamente en la capa física y
sirve como enlace de datos del modelo OSI. Por esto son
capaces de procesar información de las tramas; su
funcionalidad más importante es en las tablas de
dirección. Por ej.: una computadora conectada al puerto
Conexiones en un switch Ethernet
1 del conmutador envía una trama a otra computadora
conectada al puerto 2; el switch recibe la trama y la transmite a todos sus puertos, excepto aquel por
donde la recibió; la computadora 2 recibirá el mensaje y eventualmente lo responderá, generando
tráfico en el sentido contrario; ahora el switch conocerá las direcciones MAC de las computadoras en el
puerto 1 y 2; cuando reciba otra trama con dirección de destino de alguna de ellas, sólo transmitirá la
trama a dicho puerto disminuyendo así el tráfico de la red y contribuyendo al buen funcionamiento de la
misma.
Presente y futuro de Ethernet
Ethernet se planteó en un principio como un protocolo destinado a cubrir las necesidades de las
redes LAN. A partir de 2001 Ethernet alcanzó los 10 Gbps lo que dio mucha más popularidad a la
tecnología. Dentro del sector se planteaba a ATM como la total encargada de los niveles superiores de la
red, pero el estándar 802.3ae (Ethernet Gigabit 10) se ha situado en una buena posición para
extenderse al nivel WAN.
Lic. Hugo Santander Jhong
54
Introducción a la computación
HTML
Historia del estándar
En 1989 existían dos técnicas que permitían vincular documentos electrónicos, por un lado los
hipervínculos (links) y por otro lado un poderoso lenguaje de etiquetas denominado SGML. Por entonces
un usuario conocedor de ambas opciones, Tim Berners-Lee físico nuclear del Centro Europeo para la
Investigación Nuclear da a conocer a la prensa que estaba trabajando en un sistema que permitirá
acceder a ficheros en línea, funcionando sobre redes de computadoras o máquinas electrónicas basadas
en el protocolo TCP/IP.
Principios de 1990, Tim Berners-Lee define por fin el HTML como un subconjunto del conocido SGML y
crea algo más valioso aun, el World Wide Web. En 1991, Tim Berners-Lee crea el primer navegador de
HTML que funcionaría en modo texto y para UNIX.
Los trabajos para crear un sucesor del HTML, denominado HTML +, comenzaron a finales de
1993.HTML+ se diseñó originalmente para ser un superconjunto del HTML que permitiera evolucionar
gradualmente desde el formato HTML anterior. A la primera especificación formal de HTML+ se le dio,
por lo tanto, el número de versión 2 para distinguirla de las propuestas no oficiales previas. Los trabajos
sobre HTML+ continuaron, pero nunca se convirtió en un estándar, a pesar de ser la base formalmente
más parecida al aspecto compositivo de las especificaciones actuales.
El borrador del estándar HTML 3.0 fue propuesto por el recién formado W3C en marzo de 1995. Con él
se introdujeron muchas nuevas capacidades, tales como facilidades para crear tablas, hacer que el texto
fluyese alrededor de las figuras y mostrar elementos matemáticos complejos. Aunque se diseñó para ser
compatible con HTML 2.0, era demasiado complejo para ser implementado con la tecnología de la
época y, cuando el borrador del estándar expiró en septiembre de 1995, se abandonó debido a la
carencia de apoyos de los fabricantes de navegadores web. El HTML 3.1 nunca llegó a ser propuesto
oficialmente, y el estándar siguiente fue el HTML 3.2, que abandonaba la mayoría de las nuevas
características del HTML 3.0 y, a cambio, adoptaba muchos elementos desarrollados inicialmente por los
navegadores web Netscape y Mosaic. La posibilidad de trabajar con fórmulas matemáticas que se había
propuesto en el HTML 3.0 pasó a quedar integrada en un estándar distinto llamado MathML.
El HTML 4.0 también adoptó muchos elementos específicos desarrollados inicialmente para un
navegador web concreto, pero al mismo tiempo comenzó a limpiar el HTML señalando algunos de ellos
como 'desaprobados'.
Lic. Hugo Santander Jhong
55
Descargar