hardware - Amazon Web Services

Anuncio
HARDWARE
INTRODUCCION
De entre todas las máquinas que ha inventado el hombre para servirse de ellas, hay una que se ha
destacado muy por encima del resto: la computadora electrónica. Durante muchos años se le ha otorgado el
título de cerebro electrónico, y se han empleado numerosas horas en discutir apasionadamente sobre si
estas máquinas "piensan" realmente o no. Sin lugar a dudas, el cerebro humano es mucho más perfecto y
eficiente que cualquier máquina desarrollada hasta el momento, por muy sofisticada que ésta sea. En lo
único que se ve superado el cerebro humano por la máquina es en la velocidad de cálculo, probablemente de
ahí provenga su mitificación. La búsqueda de aparatos de apoyo para mejorar dicha velocidad data de
tiempos inmemoriales. Respecto a su capacidad de almacenamiento, la máquina aventaja al hombre con
relación al orden y precisión, pero el cerebro humano permite almacenar un volumen mucho mayor de
información; de hecho es imposible, por el momento, que una máquina pueda almacenar toda la información
que existe en la memoria de un hombre, por simple que éste sea.
Al encarar el estudio de un curso sobre informática es importante definir claramente el significado de
este término, ya que al ser relativamente nuevo, puede no estar totalmente aclarado. Una primera
aproximación nos dice que es una contracción de "información automática", pero se puede llegar a
definiciones mucho mas ampulosas como: "Es la disciplina que se ocupa del tratamiento de la información a
través de la aplicación de la inteligencia sobre la misma, en forma recurrente y teniendo como fin último la
creación y transmisión de conocimiento"; para los alcances de este curso basta una definición tal como: "Es
la ciencia que trata la concepción, realización y utilización de los sistemas que procesan información".
Otro punto importante al comienzo del estudio sobre el tema es analizar la evolución que han sufrido
los distintos medios de cálculo hasta desembocar en las modernas computadoras. Esto se hace para que a
través de una visión del pasado de estos equipos, podamos hacer previsiones con respecto al futuro, de una
manera más confiable, sin entrar en especulaciones de ciencia-ficción. Comenzaremos pues, con una breve
perspectiva histórica.
A.- PERSPECTIVA HISTORICA E INFLUENCIA ACTUAL
??
Perspectiva histórica
Si no somos demasiado rigurosos en cuanto a las características exigidas para considerar máquinas
de calcular a los primeros elementos utilizados por el hombre para auxiliarse en las actividades intelectuales
relacionadas con el cálculo, podemos afirmar que el más elemental de estos utensilios es el ábaco. Su origen
tuvo lugar en Asia, hace varios miles de años y aún sigue brindando servicios en esos lugares. Con un poco
de paciencia y algo de práctica, se pueden realizar con él adiciones y sustracciones de números grandes, a
velocidades bastante elevadas.
A lo largo de la historia se han inventado otras muchas máquinas que, por su sencillez, no vamos a
considerarlas prototipos de las modernas computadoras, hasta que en el siglo XVIII, aproximadamente en
1642, el filósofo y científico francés Blaise Pascal, de tan sólo dieciocho años de edad, inventó una máquina
que sumaba y restaba denominada "pascalina" y que utilizaba ruedas dentadas como mecanismo; estos
engranajes estaban formados por diez dientes numerados del 0 al 9. Cuando una rueda pasaba del 9 al 0
después de una vuelta completa, producía un arrastre de un décimo de vuelta en la rueda situada a su
izquierda, incrementando en una unidad el número de lectura. Este proceso de "arrastre automático"
constituye el principal aporte de la máquina de Pascal, que éste fabricara especialmente para complacer a su
padre, que era recaudador de impuestos. La "pascalina" no tuvo éxito comercial.
Posteriormente, en 1671, el filósofo y matemático alemán Gottfried Leibniz, que inventó el cálculo
infitesimal en forma independiente de Newton, utilizando el principio de la máquina de Pascal, desarrolló un
proyecto que además de sumar y restar, multiplicaba y dividía por sumas y restas sucesivas respectivamente,
utilizando por primera vez el principio cíclico.
Sin embargo no puede hablarse de auténtico adelanto, en cuanto a los conceptos del cálculo y su
representación, hasta las investigaciones del británico Charles Babbage quien, aproximadamente en 1823
comenzó a trabajar en un proyecto denominado "máquina de diferencias", que servía para el cálculo de
tablas. Babbage abandonó, sin acabar, este proyecto por una máquina más potente y ambiciosa que él
denominó "máquina analítica" y que concibió en 1831. Su finalidad era ejecutar cualquier operación
matemática sin la intervención humana en el proceso de cálculo. Uno de los principales adelantos consistió
en la idea que tenía Babbage, con respecto a que a su máquina se la podía "enseñar" o "programar" para
efectuar cualquier tarea matemática. Desafortunadamente, las máquinas de Babbage, no pudieron ser
construídas pues necesitaban una tecnología mecánica imposible de lograr en esa época. El proyecto de
Unidad temática: Hardware - Página 1
Area COMPUTACION - Dpto. Cs. Básicas - FICES - UNSL - 2002
Babbage utilizaba un sistema de tarjetas perforadas (que había descubierto en 1801 el francés Joseph
Jacquard y empleado en un telar automático), con las cuales se suministraban los datos y se controlaba la
máquina. En 1835, la condesa Ada Lovelace, compañera de Babbage, llegó a desarrollar programas para la
máquina analítica, convirtiéndose de esa manera en la primera persona que programó ordenadores. A pesar
de que la máquina analítica no se llegó a construir jamás, su proyecto mantiene grandes analogías con las
actuales computadoras.
Otro hito en el desarrollo informático es la máquina tabuladora del norteamericano Hermann Hollerith
quien, en 1890, la utilizó para evaluar el Censo Norteamericano, ingresando los datos por medio de tarjetas
perforadas de 80 columnas, del tamaño de un billete de un dólar. Estas tarjetas de cartón son prácticamente
idénticas a las utilizadas actualmente. Hollerith fundó una compañía que posteriormente se convertiría en la
empresa de informática mas grande e importante del mundo: IBM (International Business Machines).
En 1937, Howard Aiken, propuso el diseño de una calculadora electromecánica que se comenzó a
construir en 1939, gracias a un acuerdo con IBM. En 1944 ve la luz el trabajo de Aiken: el Mark I, considerado
el primer ordenador electromecánico del mundo con programa almacenado. Este se programaba mediante
tarjetas perforadas.
El primer ordenador electromecánico del mundo, de aplicación especial, fue el Colossus, desarrollado
por el inglés Alan Turing en 1943; fue el invento más secreto de la Segunda Guerra Mundial, fabricado para
descifrar el código secreto alemán Enigma.
En 1943, en los momentos más críticos de la II Guerra mundial, un coronel del Ejército de los
Estados Unidos, solicitó una calculadora para la artillería. El reto fue aceptado por J.P. Eckert y J.M. Mauchly,
que más tarde fundarían la empresa UNIVAC. El desarrollo tuvo lugar en la Universidad de Pensilvania y en
1946 nace el ENIAC (Electronic Numerical Integrator and Calculator), el primer ordenador electrónico del
mundo. El ENIAC utilizaba 18.000 válvulas de vacío y 1.500 relés; emitía el calor equivalente a 200.000
Watts y estaba instalado en una sala de 9x30m. Su capacidad de almacenamiento era de 20 números de 10
dígitos. A pesar del gran adelanto, con respecto a la velocidad, que significaba sustituir la inercia de las partes mecánicas por conmutaciones electrónicas, su concepción dió un paso atrás con respecto a
programación ya que todo el programa debía hacerse reordenando las conexiones; luego de terminada la
guerra se le hicieron modificaciones para permitir la programación mediante tarjetas perforadas, pero sus
características no permitieron que prosperara comercialmente. Fue retirado de funcionamiento en 1952.
Aproximadamente en la misma época en que nace el ENIAC, John Von Newman -quien propusiera el
sistema binario para la representación numérica en las computadoras- desarrolló el EDVAC (Electronic
Discrete Variable Automatic Computer), la primera computadora electrónica de programa internamente
almacenado. El EDVAC fue una computadora mucho mas pequeña y simple que el ENIAC, pero mucho más
poderosa.
El ENIAC y el EDVAC dan comienzo a lo que se denomina la Primera Generación de Ordenadores,
cuyo componente fundamental en la unidad de proceso eran los tubos de alto vacío o válvulas electrónicas,
su velocidad de proceso se medía en milésimas de segundo, pero su tiempo medio entre fallos era muy bajo;
en el ENIAC, por ejemplo, a los dos minutos de funcionamiento las válvulas comenzaban a fundirse. Los
computadores más representativos de esta época fueron: UNIVAC I, IBM 650 e IBM 700.
Con la aparición del transistor en 1956, comienza lo que se denomina Segunda Generación de
Computadoras. El transistor permitió reducir el tamaño de las máquinas y aumentar su potencia y velocidad,
que se medía en millonésimas de segundo. Las computadoras de esta generación ya eran alfanuméricas y
su tiempo medio entre fallos aumentó en forma sustancial. Los representantes más importantes fueron las series 1400 y 1700 de IBM, el 1107 de UNIVAC REMINGTON RAND, el BURROUGHS B-500, el HONEYWELL
800 y el CONTROL DATA 1604.
Pese a que no es muy exacta la fecha, hacia 1964, nace la Tercera Generación de Computadoras
que utiliza los circuitos integrados, disminuyendo aún más los tamaños, mejorando potencia y velocidad y aumentando el tiempo medio entre fallas. La velocidad de proceso orilla el nanosegundo (una mil millonésima
de segundo). Representantes de esta generación son las series 360 y 370 de IBM, UNIVAC 1108 y 1110,
HONEYWELL 600 y la serie 5700 de BURROUGHS.
Los circuitos integrados LSI y VLSI (Large Scale Integration y Very Large Scale Integration) nos
introducen en la Cuarta Generación de Computadoras en la que los tamaños y costos han descendido tanto
que las ponen al alcance de casi todo el mundo.
En Japón se están construyendo máquinas de quinta generación, de procesamiento en paralelo y
flujo de datos y ya se habla de nuevas generaciones con la sustitución del electrón por el fotón y utilización
de biointeligencia.
Unidad temática: Hardware - Página 2
Área COMPUTACIÓN - Dpto. Cs. Básicas - FICES - UNSL – 2002
??
Influencia actual de la informática
La computadora es una herramienta de cálculo capaz de procesar cualquier clase de información y
realizarlo a velocidades realmente muy elevadas, por consiguiente es aplicable a la solución de problemas en
cualquier rama del conocimiento humano. De esta manera, actualmente forman parte indispensable de gran
número de industrias, centros de educación, de investigación, bancos, centros administrativos, etc. A pesar
de ser un invento relativamente reciente, ha penetrado en nuestras vidas hasta tal punto, que pocas cosas
existen en este momento que, en mayor o menor grado, no necesitan tras de sí una computadora.
Cuando preguntamos cuáles son las aplicaciones de las computadoras?, su respuesta implica
elaborar una clasificación que estrictamente hablando no existe. Sin embargo, las aplicaciones en base a su
objetivo y sus funciones se pueden dividir en dos: Técnicas (o Científicas) y Administrativas, aunque entre
ellas siempre hay una interacción mutua. Ninguna de las dos categorías agota todas las áreas posibles
relacionadas con el manejo de la información, el que siempre será una función del ingenio y habilidad del
hombre que la utiliza.
Las aplicaciones técnicas, fundamentalmente, comprenden la solución de problemas matemáticos, la
solución de problemas de ingeniería, la simulación de sistemas y el control de procesos. Las aplicaciones
administrativas, por su parte, abarcan el procesamiento de grandes cantidades de información como: cuentas
corrientes de bancos o comercios, control de stock, facturación, contabilidad y, en general, gestión
empresaria.
La ciencia moderna usa las matemáticas como lenguaje para expresar leyes en términos exactos. La
computadora digital electrónica es una herramienta valiosa para estudiar las consecuencias de estas leyes.
Una vez que se ha encontrado el procedimiento exacto para resolver un problema, el tiempo requerido para
ejecutar manualmente los cálculos necesarios lo puede hacer prohibitivo y también, algunas veces, es
necesario resolver el mismo problema en repetidas ocasiones usando diferentes series de parámetros o
datos de entrada. La computadora no sólo es capaz de evaluar expresiones matemáticas a altísimas
velocidades, sino también puede efectuar cálculos tantas veces como se desee con diferentes series de valores numéricos, comparar los resultados y encontrar los valores óptimos que se emplearon.
Considerando todo lo expresado anteriormente, la gente a menudo se pregunta: Puede una
computadora hacer cualquier cosa? Pueden las computadoras pensar?.
A pesar de sus increíbles posibilidades, las computadoras tienen sus limitaciones, pero es difícil
predecir cuales de estas limitaciones serán superadas en el futuro. Por lo tanto no hay acuerdo entre los
expertos sobre lo que las computadoras serán o no dentro de 100 años. Es difícil aún predecir lo que las
computadoras harán dentro de 5 o 10 años.
Lo más importante a aprender es qué tipos de tareas puede hacer una computadora, eficientemente,
rápido y a bajo costo. Por el momento, pensar en forma parecida a un ser humano, no es una de esas tareas.
En general, una forma de saber si un problema puede ser resuelto por una computadora es asignar
ese problema a una persona o grupo de personas, sin preocuparse cuanto tiempo llevará a las personas
hacer esa tarea, 100 ó 1000 años, si no puede ser realizado de ninguna manera por las personas, es muy
probable que la computadora tampoco pueda hacerlo ahora, ni en un futuro próximo.
Los adelantos tecnológicos favorecieron, en principio, a las actividades técnicas, debido fundamentalmente a los requerimientos de equipos necesarios en esta categoría. Las computadoras para usos técnicos
se requieren, generalmente, para realizar grandes cantidades de cálculos sobre cantidades pequeñas de
datos. La gestión administrativa, usualmente, trabaja sobre mayor cantidad de datos, realizando operaciones
menos complejas. El abaratamiento de los equipos, la mayor perfomance de los mismos y la más reciente
reducción del valor de las memorias de trabajo y de almacenamiento masivo, permiten cubrir con facilidad las
necesidades de casi cualquier aplicación, poniendo la computación al alcance de prácticamente todo el
mundo.
Lo mencionado precedentemente permite, en las empresas, descentralizar muy convenientemente
los equipos. Un ejecutivo de una importante firma fabricante de microprocesadores, se refería a esta situación haciendo una analogía con lo sucedido en los albores de la revolución industrial, en la que los
grandes motores eran la pieza más importante de los talleres ya que todas las máquinas estaban acopladas
a un eje común, el del gran motor, que en caso de avería detenía toda la producción. Con los avances
tecnológicos se abarató la producción de motores de menor potencia, dotándose a cada máquina de su
correspondiente motor, lográndose mejores aprovechamientos y menores trastornos en casos de falla. Con el
aprovechamiento de la computadora está sucediendo una situación muy parecida.
Unidad temática: Hardware - Página 3
Area COMPUTACION - Dpto. Cs. Básicas - FICES - UNSL - 2002
B.- CLASIFICACION DE COMPUTADORAS
Existen distintos puntos de vista para encarar una clasificación de computadoras. Desde la óptica de
sus principios de funcionamiento, tenemos tres tipos principales: Digitales (que son el objeto de este curso);
Analógicas e Híbridas.
NOTA TECNICA: Clasificación por principio de funcionamiento
Sus principales características son las siguientes:
- Computadoras Digitales: Son las que operan realizando los cálculos con los que estamos
familiarizados, es decir operan en forma discreta obteniendo los resultados por aplicación de métodos
numéricos, proporcionando los resultados en forma de números o bien en forma de gráficos discontínuos.
- Computadoras Analógicas: estas máquinas resuelven problemas de sistemas físicos mediante
analogías eléctricas de los mismos, operando de acuerdo con las leyes del cálculo infinitesimal en forma
contínua. Proporcionan la solución en forma de funciones de una variable independiente, el tiempo, que
pueden visualizarse mediante dispositivos adecuados, como osciloscopios y graficadores, etc. Las
computadoras digitales son mas versátiles, permiten su utilización en las ramas más dispares del
conocimiento, son extremadamente rápidas y permiten el almacenamiento o memorización de los datos. Las
computadoras analógicas tienen un área de aplicación mas restringida, la simulación y resolución de
ecuaciones íntegro-diferenciales fundamentalmente, pero son muy eficientes. Su mayor desventaja es su
elevado costo, debido a la necesidad de elementos más precisos. Esta desventaja está haciendo que su uso
disminuya, siendo sustituidas por computadoras digitales adecuadamente programadas.
- Computadoras Híbridas: son combinaciones de computadoras digitales y analógicas que permiten
usufructuar las ventajas de ambos sistemas.
Por lo tanto la primera clasificación posible de computadoras será:
DIGITALES
CLASIFICACIÓN POR
PRINCIPIO DE
ANALÓGICAS
FUNCIONAMIENTO
HÍBRIDAS
Una vez determinado el tipo de computadora del cual nos ocuparemos, es decir las computadoras
digitales, podemos hacer una nueva clasificación, esta vez en base a la tecnología empleada en su construcción.
Si en este estudio sólo tenemos en cuenta las computadoras digitales electrónicas, hasta el momento
existen cuatro generaciones de computadoras, como vimos anteriormente.
Es de destacar que esta clasificación evoluciona con el tiempo y con los avances tecnológicos y se
puede graficar de la siguiente forma:
1ra. Generación:
1946 - válvulas
CLASIFICACIÓN
2da. Generación:
1956 - transistores
EN BASE A
TECNOLOGÍA
3ra. Generación:
1964 - circ. integrados
4ta. Generación:
1975 - circ. integr. VLSI
Hasta hace 10 años el término computadora comprendía a cualquier equipo dedicado al proceso de
datos; actualmente podemos distinguir tres clases de computadoras, también denominadas ordenadores,
claramente diferenciados: la maxicomputadora o computadora clásica, la minicomputadora y la
microcomputadora, todo ésto teniendo en cuenta la capacidad y potencia.
Unidad temática: Hardware - Página 4
Área COMPUTACIÓN - Dpto. Cs. Básicas - FICES - UNSL – 2002
A medida que descendemos en esta escala, nos encontramos con equipos menos potentes aunque
más baratos y versátiles.
En general cada uno de ellos tiene características ideales para un tipo especial de usuario, por lo
tanto ninguno anula a los anteriores, aunque existe la tendencia a la sustitución de los grandes equipos por
sistemas de miniordenadores o micro-ordenadores distribuidos, con lo que se gana en autonomía sin perder
cohesión. Existe una clasificación más amplia que los divide, de mayor a menor en: supercomputadora, maxi,
media, mini, mili, micro y nano. Aparecen además las de bolsillo; las home computers y las personal
computers y a éstas, en unidades de escritorio, laptops, notebooks y palmtop, pero consideramos que todas
éstas están, mas o menos, incluídas en la clasificación. Trataremos de clarificar los alcances y características
de los tipos principales:
- Maxi-computadora: son equipos necesarios para el proceso de datos a gran escala, tanto en su
componente de gestión comercial como científica. Normalmente la adopción de grandes computadoras obliga
a realizar fuertes inversiones, tanto por lo oneroso que resultan los equipos, como por las instalaciones
auxiliares que necesitan: aire acondicionado, locales diáfanos y amplios, etc. El equipo humano dedicado a
su explotación debe ser numeroso y de alta especialización. Por todo ello, sólo es recomendable su
implementación si la complejidad o características de las aplicaciones no se adaptan a sistemas mas asequibles.
- Mini-computadoras: estos equipos son "mini" sólo en tamaño y precio, prestando servicios muy
importantes, incluso, si se distribuyen convenientemente y se conectan entre sí las minicomputadoras pueden
sustituir con éxito a un equipo grande, evitando la centralización y acercando los equipos al usuario final. Sus
principales aplicaciones son: el control de procesos; comunicaciones y sistemas de información.
- Microcomputadoras: En la actualidad constituyen uno de los sectores más importantes del
mercado informático, haciéndose cargo de muchas de los áreas que anteriormente se cubrían con
minicomputadoras. Sus principales aplicaciones son: control de procesos; control de periféricos de
computadoras mayores; toma de datos y computadoras personales, cuyo bajo costo y la posibilidad de
introducir la informática en el hogar, ha permitido que su popularidad haya crecido espectacularmente.
MAXICOMPUTADORAS
CLASIFICACIÓN POR
POTENCIA Y
MINICOMPUTADORAS
CAPACIDAD
MICROCOMPUTADORAS
C.- PRINCIPIO DE FUNCIONAMIENTO Y ELEMENTOS FUNDAMENTALES.
Un sistema de computación está formado por dos partes claramente diferenciables, indispensables
ambas, para un adecuado funcionamiento del mismo.
Una de ellas, que es la que describiremos en este punto, está formada por el medio físico o tangible,
compuesta por el equipo y sus accesorios, es decir: los circuitos, teclado, monitor, cables, etc. La otra parte,
de la que hablaremos en la próxima unidad, es la que comprende toda la información complementaria que el
equipo necesita para su normal funcionamiento: el sistema operativo, intérpretes, compiladores, programas,
etc.
La parte física se suele denominar con el término inglés "hardware" y la parte no-física con un
término derivado de aquél: "software". También algunos autores los denominan anatomía y fisiología de las
computadoras, respectivamente.
Partiendo de una definición de la función general de una computadora llegaremos a un detalle de los
elementos fundamentales de la misma: podemos decir que la función principal de una computadora es la
obtención de resultados a través de la información dada por el hombre en forma de instrucciones y datos:
INSTRUCCIONES
DATOS
COMPUTADORA
RESULTADOS
Unidad temática: Hardware - Página 5
Area COMPUTACION - Dpto. Cs. Básicas - FICES - UNSL - 2002
Esta sencilla definición permite clarificar que aún el hardware de una computadora estará compuesto
principalmente por dos partes: un lugar donde se desarrollan todos los procesos que se denomina CPU y los
elementos que la rodean y le permiten comunicarse con el exterior, llamados dispositivos periféricos.
La CPU -sigla inglesa de Unidad Central de Proceso- es el corazón de la máquina y está formada por
la unidad de control, la unidad aritmético-lógica y la unidad de memoria.
Los dispositivos periféricos se dividen en unidades de entrada, unidades de salida y unidades de
almacenamiento.
- Unidad de Control: es la encargada de interpretar y seleccionar las distintas instrucciones que
forman el programa y que se encuentran almacenadas en la memoria. Esta unidad interpreta, de entre los
datos introducidos a la memoria, aquellos códigos que significan instrucciones, generando señales que envía
a las otras unidades de la máquina que son las encargadas de ejecutarlos.
- Unidad Aritmético-lógica: Es la que lleva a cabo todos los cálculos y comparaciones (decisiones)
que forman el programa. Durante la ejecución del mismo fluyen entre esta unidad y la memoria los diferentes
datos, indicándole la unidad de control el tipo de operación a realizar con estos datos.
- Unidad de Memoria: Es la parte de la computadora en la que se introducen y almacenan los datos
e instrucciones que forman el programa. De ella extraen, la unidad de control y la unidad aritmético-lógica, la
información que necesitan para ejecutar los programas y deposita los datos intermedios que se generan. Una
vez finalizada la ejecución del programa, quedan almacenados en esta unidad los resultados para ser
extraídos por la unidad de salida.
C.P.U.
Unidad de Control
Unidad Aritmetico-lógica
Unidad de Entrada
MEMORIA
Unidad de Salida
Flujo de Control
Unidades de Almacenam.
Flujo de Datos
- Unidad de Entrada: Es el sistema mediante el cual se introducen en el ordenador los datos y las
instrucciones que forman el programa que se habrá de ejecutar. Son los elementos de comunicación entre el
hombre y la máquina.
Ejemplos de periféricos de entrada son:
?
?
?
?
?
?
?
?
?
Teclados.
Tarjetas de cartón perforado o magnéticas.
Lápices ópticos.
Lector de códigos de barras.
Joysticks y ratones.
Digitalizadores y scanners.
Convertidores analógico/digital.
Micrófonos
Sensores (auditivos, de movimiento, ópticos, etc.)
Unidad temática: Hardware - Página 6
Área COMPUTACIÓN - Dpto. Cs. Básicas - FICES - UNSL – 2002
- Unidad de salida: Es el sistema que toma de la memoria la información codificada y la convierte en
un formato que, o bien puede ser directamente interpretado por el hombre, o trasladado a otra máquina de
procesamiento. En general son los instrumentos de comunicación entre la máquina y el hombre.
Ejemplos de periféricos de salida son:
?
?
?
?
?
?
?
Monitores (tubos de rayos catódicos)
Impresoras.
Plotters.
Convertidores digitales a analógicos.
Displays de cuarzo líquido o leds.
Parlantes.
Indicadores luminosos.
- Unidades de almacenamiento: Son aquellas unidades que utilizando algún elemento de soporte
(generalmente magnético), como memorias auxiliares de almacenamiento, permiten la entrada o salida de información de la Unidad Central de Proceso.
Ejemplos de periféricos de almacenamiento son:
?
?
?
?
Unidades de disco magnético.
Unidades de cinta.
Unidades de disco óptico.
Unidades de Medida.
El propósito principal de las computadoras es el procesamiento de números; que esos números
pueden significar letras, símbolos u otra información es algo aparte: las computadoras procesan números.
Por razones técnicas, las computadoras electrónicas digitales tienen facilidad para reconocer sólo dos
estados posibles: hay tensión o no hay tensión. La pregunta es, por lo tanto, si con esta limitación la
computadora puede sernos útil. En principio parecería que no, debido a que el hombre maneja su actividad
con un sistema numérico que reconoce 10 símbolos distintos, es decir tiene base diez. Este sistema se denomina sistema numérico decimal. Su base proviene de la cantidad de dedos que los seres humanos tienen en
sus manos, con las que se ayuda naturalmente a contar.
Qué sucede entonces con un equipo que sólo reconoce dos estados posibles?. Pues en realidad es
muy simple: cuenta hasta dos. Existe un sistema de numeración que tiene base dos y se denomina sistema
binario. Las computadoras manejan su información con este sistema de numeración.
Sistema numérico binario
Como dijimos anteri/rmente, este sistema tiene base dos y reconoce sólo dos símbolos: el cero (0) y
el uno (1). A esta mínima unidad de información se la denomina BIT (Binary Information digiT, dígito de
información binario). Generalmente la información que manejan las computadoras está formada por cadenas
de bits de longitud constante, denominadas palabras de procesamiento, existiendo máquinas de 1, 4, 8, 12,
16, 32, 64 y más bits. Las microcomputadoras utilizan palabras de 8 y 16 bits mientras que las grandes
computadoras procesan palabras de 32 y 64 bits.
Como se utiliza mucho la configuración de 8 bits o múltiplos de 8, se denomina "byte" a esa
configuración. También se le suele denominar "caracter" ya que con las 256 combinaciones posibles de 8 bits
(2^8), se pueden almacenar todos los caracteres utilizables: mayúsculas, minúsculas, números, signos,
caracteres extranjeros, etc.
Por otra parte 1.024, (2^10) -la potencia entera de dos más cercana a 1.000- se emplea como
múltiplo, notándose como Kilo. Es decir cuando decimos: 1 Kbyte, hablamos de 1.024 bytes o de 8.192 bits.
Análogamente, 1.048.576, (2^20) -la potencia entera de dos más cercana a 1.000.000- también se emplea
como múltiplo, notándose como Mega.
Otros múltiplos son el Giga para representar los 1.000.000.000 (miles de MegaBytes) y el Tera para
representar los billones de Bytes o millones de MegaBytes.
A pesar de que esos múltiplos son bastante impresionantes, ya están prepartados los que seguirán la
secuencia: Peta, Exa, Zetta y Yotta, hasta el momento.
? Sistemas
de Codificación.
La posibilidad que tienen los hombres y las computadoras para comunicarse se sustenta en que
puedan manejar un lenguaje común; el caso es totalmente análogo al de cualquier par de personas que
intenten entrar en diálogo: deben utilizar un lenguaje que resulte comprensible por ambas. La serie de
acuerdos que representan los elementos de una convención para establecer una comunicación entre un
Unidad temática: Hardware - Página 7
Area COMPUTACION - Dpto. Cs. Básicas - FICES - UNSL - 2002
hombre y una computadora, o entre dos computadoras, se conoce con el nombre de código. El hombre ha
utilizado símbolos y códigos desde hace mucho tiempo. Un ejemplo muy conocido es el código Morse, en el
cual los números y las letras del alfabeto son simbolizadas mediante puntos y rayas para permitir su
transmisión. Otro ejemplo es el código Braile que permite leer a los ciegos. Las señales de tránsito también
forman un código compuesto de una serie de acuerdos sobre el comportamiento del tráfico.
Volviendo a los códigos para computadoras debemos destacar que es sumamente importante que la
simbología empleada debe tener exactamente el mismo significado para ambas partes a fin de evitar
cualquier confusión o interpretación errónea.
La elección de un código para una aplicación determinada depende de varios factores. Uno de ellos
es su facilidad para efectuar cálculos aritméticos y otro su facilidad para detectar errores y corregirlos. Los
ordenadores modernos sólo reconocen los símbolos 1 y 0, ya que son manejados muy fácilmente por los
equipos electrónicos, en este punto trataremos de mostrar algunas de las formas en que puede representarse
una gran cantidad de información, haciendo uso solamente de unos y ceros.
Existen códigos que permiten convertir datos numéricos en información binaria. Esos códigos se
denominan códigos ponderados. Por tratarse de conversiones muy internas al equipamiento no serán tratados aquí.
Existen también códigos que se utilizan para la conversión de letras y otros signos a códigos binarios.
Estos códigos se denominan códigos no ponderados y por su importancia, se estudiará brevemente el
denominado Código ASCII.
ASCII (se pronuncia aproximadamente como: asji) es acrónimo de American Standart Code for
Information Interchange. Es de hecho una versión americana del código internacional ISO con algunos
agregados para la utilización de símbolos especiales. El código ISO no es muy popular a diferencia del ASCII
que es prácticamente el sistema de codificación universal en pequeñas y grandes computadoras. Los caracteres permitidos en código ASCII incluyen el alfabeto inglés, tanto en mayúscula como en minúscula, los números, signos de puntuación, operadores matemáticos, el espacio (ESP), algunos signos de utilización especial y caracteres de control. Estos caracteres de control son códigos no imprimibles (es decir que no se
ven) e incluyen información para manipular periféricos como retorno de carro en una impresora, avance de
línea, tabulación vertical y horizontal, etc. Los caracteres ASCII de control cubren los primeros 32 códigos
(del 0 al 31) y el 127.
El Código ASCII es un código de 7 bits, pero en los sistemas modernos se amplia al octavo bit, hasta
completar el byte y así incluir gráficos, letras griegas, símbolos matemáticos, letras de distintos idiomas no
incluidas en el inglés, etc. A continuación se presentan los primeros 128 caracteres correspondientes al
código ASCII convencional:
000 = NUL
001 = SOH
002 = STX
003 = ETX
004 = EOT
005 = ENQ
006 = ACK
007 = BEL
008 = BS
009 = HT
010 = LF
011 = VT
012 = FF
013 = CR
014 = SO
015 = SI
016 = DLE
017 = DC1
018 = DC2
019 = DC3
020 = DC4
021 = NAK
022 = SYN
023 = ETB
024 = CAN
025 = EN
026 = SUB
027 = ESC
028 = FS
029 = GS
030 = RS
031 = US
032 = ESP
033 = (!)
034 = (")
035 = (#)
036 = ($)
037 = (%)
038 = (&)
039 = (')
040 = (()
041 = ())
042 = (*)
043 = (+)
044 = (,)
045 = (-)
046 = (.)
047 = (/)
048 = (0)
049 = (1)
050 = (2)
051 = (3)
052 = (4)
053 = (5)
054 = (6)
055 = (7)
056 = (8)
057 = (9)
058 = (:)
059 = ( )
060 = (<)
061 = (=)
062 = (>)
063 = (?)
064 = (@)
065 = (A)
066 = (B)
067 = (C)
068 = (D)
069 = (E)
070 = (F)
071 = (G)
072 = (H)
073 = (I)
074 = (J)
075 = (K)
076 = (L)
077 = (M)
078 = (N)
079 = (O)
080 = (P)
081 = (Q)
082 = (R)
083 = (S)
084 = (T)
085 = (U)
086 = (V)
087 = (W)
088 = (X)
089 = (Y)
090 = (Z)
091 = ([)
092 = (\)
093 = (])
094 = (^)
095 = (-)
Unidad temática: Hardware - Página 8
Área COMPUTACIÓN - Dpto. Cs. Básicas - FICES - UNSL – 2002
096 = (`)
097 = (a)
098 = (b)
099 = (c)
100 = (d)
101 = (e)
102 = (f)
103 = (g)
104 = (h)
105 = (i)
106 = (j)
107 = (k)
108 = (l)
109 = (m)
110 = (n)
111 = (o)
112 = (p)
113 = (q)
114 = (r)
115 = (s)
116 = (t)
117 = (u)
118 = (v)
119 = (w)
120 = (x)
121 = (y)
122 = (z)
123 = ({)
124 = (|)
125 = (})
126 = (~)
127 = DEL
D.- DESCRIPCION DE LOS ELEMENTOS FUNDAMENTALES.
? Unidad
de Control y Unidad Aritmético Lógica
La unidad de control y la unidad aritmético-lógica, en las primitivas computadoras estaban formadas
por una gran cantidad de circuitos lógicos convenientemente distribuidos.
En la actualidad una gran parte de estas funciones han sido reemplazadas por un minúsculo circuito
integrado: el microprocesador. Este increíble proceso de miniaturización es el que ha permitido este enorme
avance y tener en una sola plaqueta los elementos necesarios para configurar una computadora.
Precisamente se denominan microcomputadores a los equipos basados en microprocesadores.
El circuito integrado que constituye un microprocesador, también denominado CHIP (en inglés,
brizna, astilla), está formado por una base plástica o cerámica de unos 20 cm2 y más o menos cuarenta patitas (denominadas pines), que se unen a través de hilos muy delgados al verdadero corazón del
microprocesador: una pastilla de silicio de unos pocos milímetros cuadrados de superficie, que puede
contener miles de transistores.
Existen en la actualidad una gran cantidad de microprocesadores con distintas características que los
identifican y los hacen más apropiados para ciertas aplicaciones.
NOTA TECNICA - Bloques internos de los microprocesadores.
En general los bloques internos que constituyen un microprocesador, abreviado µP son:
- Unidad Aritmético-Lógica: En donde se efectúan las operaciones aritméticas (sumar y restar) y lógicas
(AND, OR, NOT, etc.) .
- Decodificador de instrucciones: En donde se interpretan las instrucciones del programa que va llegando.
- Bloque de registros: Los registros son celdas de memoria en donde queda almacenado un dato
temporalmente. Existe un registro especial llamado registro de estado (en inglés, Status) , en donde
se refleja el estado operativo del microprocesador.
- Stack: Bloque de registros en donde quedan anotados ciertas direcciones que necesita el microprocesador.
- Contador de Programa (PC): En dónde se refleja la dirección de la instrucción del programa que el µP está
ejecutando.
- Señales de control: comprende las señales de reloj, señales de acceso a memoria, señales de
interrupción, etc.
- Buses: Existen tres buses: el Bus de Datos, por donde entran y salen datos, el Bus de Direcciones, por
donde salen direcciones de memoria y el Bus de Control, que controla la comunicación con los
elementos periféricos.
Un microprocesador se caracteriza por una serie de cualidades que lo definen, estas principalmente
son: longitud de palabra, capacidad de direccionamiento, número de instrucciones y velocidad de proceso.
Estas características no se presentan en forma independiente pues se relacionan entre sí mediante la
tecnología de fabricación, existiendo procesadores que pueden operar a distintas velocidades, respondiendo
a idénticas características y por otra parte, dos procesadores de distinta tecnología operando a igual
velocidad de proceso pueden registrar distinta perfomance por su modo de funcionamiento.
NOTA TECNICA - Características técnicas de los microprocesadores.
- Longitud de palabra: es la cantidad de bit que el µP puede tratar simultáneamente, es decir en paralelo, en
el bus de datos. Atendiendo a esta característica, los principales son:
Unidad temática: Hardware - Página 9
Area COMPUTACION - Dpto. Cs. Básicas - FICES - UNSL - 2002
- µP de 1 bit, para aplicaciones muy concretas como por ejemplo el MC14500 que es una unidad de control
industrial.
- µP de 4 bits, los pioneros de los microprocesadores, actualmente en desuso; por ejemplo Intel 4004 y
4040.
- µP de 8 bits, los más comunes en la actualidad; por ejemplo Intel 8008, 8080, 8085; Motorola 6800, 6802,
6809; Mos Technology 6502 y 6510; Zilog Z-80.
- µP de 16 bits de procesamiento y 8 bits de bus datos como el Intel 8088 y el NEC-V20.
- µP de 16 bits de procesamiento y 16 bits de bus de datos como el Intel 8086, el Intel 80286 aunque debe
destacarse que este último es mucho más sofisticado y rápido.
- µP de 32 bits de procesamiento y 32 bits de bus de datos como el Intel 80386, 486 y PENTIUM.
-
Capacidad de direccionamiento: la capacidad de direccionamiento de memoria de los µP
anteriormente citados son de 2^16 (64 Kb), 2^20 (1Mb), 2^24 (16 Mb), 2^32 (4 Gb).
- Número de instrucciones: el número de instrucciones que es capaz de comprender y manejar un µP
determina su potencia y facilidad de manejo. El número de instrucciones depende de cada µP, pero
éstas generalmente comprenden los siguientes tipos:
?
?
?
?
?
Instrucciones de transferencias de datos.
Instrucciones de transformación de datos.
Instrucciones de ruptura de secuencia.
Instrucciones de entrada/salida.
Instrucciones de control.
- Velocidad de un µP: los microprocesadores ejecutan sus instrucciones secuencialmente, en forma
sincrónica con un reloj que fija el ritmo. La velocidad de este reloj será la que determinará la cantidad
de instrucciones que un µP puede realizar en la unidad de tiempo, pero los µP tienen un techo
máximo de frecuencia. Las frecuencias del reloj (clock) interno del µP van desde 1 MHz, y han
evolucionado desde 4.77 MHz en 1980 a 1000 MHz en el año 2000, en los microprocesadores Intel.
Como opera un microprocesador?: Un microprocesador opera básicamente fijando el comienzo de la
dirección de memoria desde donde se va a ejecutar el programa, cargando dicho valor en el contador
de programa (PC) e interpretando y ejecutando secuencialmente las instrucciones, incrementando el
PC y buscando una nueva instrucción. De acuerdo con las características de las instrucciones su
decodificador de instrucciones le permitirá diferenciar instrucciones de datos, según corresponda.
?
Memorias RAM y ROM
Se denomina "elemento de memoria" a cualquier dispositivo que tenga capacidad de "recordar"
información almacenada en el mismo durante un intervalo de tiempo relativamente grande. El elemento básico de información es aquél cuya capacidad es la de recordar un bit de información, es decir, almacenar un
cero o un uno hasta tanto esa información sea modificada desde el exterior.
La necesidad de contar con elementos capaces de almacenar grandes cantidades de información
lleva al desarrollo de distintos tipos de almacenamiento masivo, pasando de las antiguamente populares
memorias de núcleos magnéticos a los modernos medios semiconductores de almacenamiento de
información, favorecidos en gran medido por los avances en las técnicas de integración a gran escala.
Tipos de memoria
Pueden establecerse distintas clasificaciones de acuerdo al criterio adoptado, consideraremos la
clasificación según la persistencia de la información almacenada.
Dentro de esta clasificación debe tenerse en cuenta una subclasificación, según se tome como
referencia la tensión de alimentación del sistema de memoria, o la reacción del mismo a la lectura de la
información almacenada.
Si se toma como referencia la tensión, las memorias serán: no volátiles o muertas (ROM) y volátiles o
vivas (RAM).
NOTA TECNICA - Memorias No Volátiles (ROM)
Se denominan memorias no volátiles a aquellas en las que la información almacenada no se pierde aún
cuando desaparezca la tensión de alimentación. Esto significa que al volverse a alimentar el sistema,
la información almacenada será la misma que existía antes de desaparecer la tensión.
Dentro de esta división existen:
Unidad temática: Hardware - Página 10
Área COMPUTACIÓN - Dpto. Cs. Básicas - FICES - UNSL – 2002
- Las memorias ROM (Read Only Memory: memorias sólo de lectura), son grabadas por el fabricante del
CHIP, con los datos proporcionados por el usuario y es imposible alterar su contenido; por lo tanto
sólo es posible leerlas. A esta categoría pertenecen los intérpretes y sistemas operativos integrados,
los generadores de caracteres y toda otra información convenientemente depurada y que por ser
necesarias en grandes series hagan económico su uso.
- Las memorias PROM (Programables Read Only Memory). Estas memorias pueden ser grabadas por el
propio usuario; pero una vez grabado, su contenido permanece inalterable, ya que su grabación se
realiza fundiendo unos fusibles internos integrados. Su utilización está restringida a aplicaciones
finales de pequeñas series.
- Las memorias EPROM (Erasable Programable ROM). Este tipo de memorias pueden ser también
programadas por el usuario, con la particularidad de que pueden ser borradas hasta unas quinientas
veces. Existen dos tipos: los llamados simplemente EPROM, cuyo contenido puede ser alterado
aplicándoles un fuerte campo de radiación ultravioleta durante unos minutos, contando para ello con
una ventana de cristal de cuarzo que hace visible el CHIP desde el exterior. Son los más utilizados
en la actualidad y su capacidad aumenta de año en año; como referencia diremos que existen
EPROM de 64 bytes, es decir, más de 512.000 celdas.
- El otro tipo existente se denomina EEPROM (Erasable Electricaly PROM), cuyo contenido puede alterarse
eléctricamente. Actualmente se encuentran en expansión y su capacidad es pequeña todavía, pero
son las memorias del futuro.
Tanto las EPROM como las EEPROM tienen su aplicación en sistemas de desarrollo no totalmente
depurados o aplicaciones de muy pequeñas series (aplicaciones personales).
Memorias Volátiles (RAM)
Se denominan memorias volátiles a aquellas que pueden ser grabadas y leídas un número indefinido de
veces, a este grupo pertenecen las memorias RAM (Random Access Memory).
El contenido de estas memorias permanece mientras permanece la tensión que las alimenta, la desaparición
de la tensión produce la pérdida completa y definitiva de la información almacenada. Este tipo de
memoria se utiliza para almacenar información y programas de usuario, se las denomina memoria de
trabajo.
Las memorias RAM varían entre 64 KB, pasando por 256, 512, 640, 1024, 2048 y 4096 en los equipos chicos
y medianos, mientras que en equipos de mayor envergadura se pueden tener valores de memoria
RAM de hasta 4 GB.
?
INTERFACES SERIE Y PARALELO
Las interfaces constituyen el medio por el cual los periféricos se conectan a la CPU. Existen
interfaces de aplicación general para distintos usos (serie y paralelo) aunque muchos periféricos requieren de
interfaces específicas.
Las interfaces series generalmente responden a una especificación estándar denominada RS-232C,
son muy comunes y permiten la conexión de terminales, ratones, lápices ópticos, scaners, modems, sistemas
de adquisición de datos, impresoras y plotters. Por el tipo de periférico que pueden admitir se deduce que son
tanto de entrada como de salida. Un mismo equipo puede contar con una o varias de ellas, identificándose
como COM1:, COM2:, etc. Su principal característica es que la información se transmite, básicamente, por un
sólo conductor o cable (uno para los datos de entrada, otro para los de salida y un cable común) es decir que
los datos se transmiten uno a continuación del otro, en un modo denominado asincrónico en que se debe
establecer la velocidad de comunicación y una convención respecto de la información que se envía o recibe.
Las interfaces paralelas generalmente responden a una especificación estándar denominada
CENTRONICS, permiten la conexión, principalmente, de impresoras y plotters. Estas interfaces son de
salida. Un mismo equipo puede contar con una o varias de ellas identificándose como LPT1:, LPT2:, etc. Su
principal característica es que la información se transmite, básicamente, por varios conductores
simultáneamente (en paralelo) en un modo denominado sincrónico.
Existe también una interfase de alta perfomance –que podría considerarse como interfase de tipo
paralelo- denominada SCSI (Small Computer System Interface), que se pronuncia “scasi”, incluye una tarjeta
que se instala dentro de la computadora y puede conectar hasta siete periféricos tales como: Discos rígidos
de alta velocidad, grabadoras de CD-ROM, Scanners, etc. La desventaja de esta interfase es que requiere
abrir la PC para instalar la controladora y son bastante caras. La ventaja es el alto rendimiento en velocidad
que se obtiene con esta conexión.
Unidad temática: Hardware - Página 11
Area COMPUTACION - Dpto. Cs. Básicas - FICES - UNSL - 2002
Las computadoras más modernas incluyen un nuevo tipo de interfase serie, denominada USB
(Universal Serial Bus) que puede conectar hasta 127 dispositivos externos en total, tales como cámaras web,
scanners, impresoras, etc. La interfase USB soluciona las confusiones que tienen algunos usuarios con las
interfases serie y paralelo, usando un unico tipo de conector para todos los periféricos, pudiendo conectar un
dispositivo USB a otro como si se tratase de una cadena. No requieren reiniciar la computadora para que el
sistema reconozca los nuevos dispositivos, gracias a una nueva tecnología de conexión. Sólo debe
conectarse y el equipo detectará automáticamente el nuevo dispositivo y comenzará la instalación del
software necesario.Tampoco en necesario apagar la computadroa para desconectar un periférico
? Periféricos
de entrada
La CPU es incapaz, por sí misma, de comunicarse con el medio exterior, ya sea para recibir
información como para devolverle información al usuario. Se denominan periféricos a las unidades exteriores
a la CPU y que permiten su comunicación para el usuario.
Los periféricos de entrada son los que permiten al hombre dialogar con el equipo, ingresando
información: instrucciones, comandos, programas, datos, elecciones, etc.
Debemos tener en cuenta, antes de comenzar una pequeña descripción de los principales
periféricos, que toda la información que maneja una computadora es de tipo digital o discreta (ceros y unos).
En cualquier caso la información a recibir, sea digital o analógica, debe ingresar por los correspondientes
convertidores, adaptadores o interfaces.
-Teclados
Los teclados son actualmente el medio de entrada por excelencia. A pesar de que en éstos el
principio de funcionamiento se basa en interruptores, existen decodificadores, teniendo la CPU una información que depende de la posición que este interruptor (tecla) ocupa dentro del teclado. Existen teclados
decimales, hexadecimales y alfanuméricos. La disposición de las teclas en los teclados alfanuméricos es
parecida a los de las máquinas de escribir, existiendo dos configuraciones principales: la conocida como
QWERTY (la más popular) y la conocida como ASERTY, correspondiendo la sigla a las primeras cinco teclas
de la segunda fila de caracteres.
Las principales características que definen un teclado para su utilización en informática son:
- Tipo de Tecla: ésta es una de las características más importantes ya que determina la
profesionalidad y el precio del teclado. Existen modelos denominados Soft-touch (toque suave) en las que los
interruptores son láminas metálicas blandas recubiertas de una membrana plástica. Su utilización es
incómoda pero son muy baratos y se emplean en sistemas de seguridad ya que al ser impermeables y
herméticos no corren riesgos (por ejemplo: derramamientos accidentales sobre el teclado, polvo, etc.). A
continuación de los teclados de toque suave, vienen los tipos calculadora, que representan una pequeña
mejora respecto de los anteriores y luego de éstos, los teclados de teclas móvi les o de gran recorrido, que
son los preferidos para aplicaciones profesionales, tratamientos de textos, etc.
- Cantidad de teclas: en este punto lo importantes es la cantidad de teclas con que cuenta el
teclado, además de las alfanuméricas correspondientes, es decir teclas de funciones, teclado numérico
separado también llamado Key-Pad, teclas especiales para otros lenguajes como acentos y ñ, recordando
que el teclado universal de computación es de sistema anglo-sajón. El primitivo teclado de la IBM/PC contaba
con 83 teclas; los más modernos tienen 101 y hasta 103 teclas y se denominan "enhanced" (mejorados) ya
que tienen mayor cantidad de teclas de función y teclas separadas para el control del cursor. Estos teclados
se impusieron con la aparición de las IBM/AT.
Actualmente y a pesar de la supremacía del teclado como medio de entrada de información, han
aparecido otros medios que lo sustituyen o complementan.
-Raton (Mouse)
Otro medio de ingreso de información muy difundido es el llamado ratón (mouse) que permite
desplazar el cursor en la pantalla del monitor en forma continua y simple, deslizando un dispositivo pequeño
que está unido al ordenador mediante un cable, sobre una superficie cualquiera. Este movimiento acciona
una esfera que modifica la posición de unos potenciómetros dentro del mismo, generando una señal
analógica que es convertida a digital dentro del ordenador. Cuando el cursor se encuentra en la posición
apropiada, se acciona una tecla, sobre el mismo dispositivo, llevándose a cabo la acción deseada. Los
primeros equipos en utilizar en forma estándar este dispositivo fueron el Lisa y el Macintosh de APPLE.
Actualmente, cualquier equipo IBM o compatible, con una interface serie, puede utilizar un ratón. Debe
tenerse presente que los programas deben estar preparados para utilizar este medio alternativo de ingreso
de información.
Unidad temática: Hardware - Página 12
Área COMPUTACIÓN - Dpto. Cs. Básicas - FICES - UNSL – 2002
-Lápiz Optico
Otro medio de entrada de datos muy utilizado es el lápiz óptico el cual permite al operador trabajar
directamente sobre una pantalla, indicando posiciones o dibujando sobre la misma, según el programa que
se esté ejecutando. El lápiz óptico trabaja con un detector de luz muy sensible que permite al ordenador
determinar la posición que esté señalando el lápiz, por comparación con el barrido horizontal del monitor.
-Lector de Código de Barras
Otro dispositivo de entrada de gran proyección en la actualidad es el lector de código de barras que
puede determinar, por las variaciones de la luz que se refleja en barras negras y espacios blancos
(verticales), información codificada. Es de fácil empleo para la toma de información con un grado de error
muy inferior al ingreso manual y mucho más rápido. Los lectores de códigos de barras pueden tener la forma
de un lápiz, donde la técnica de lectura es óptica, mientras que otra posibilidad son las denominadas pistolas
laser, las cuales emiten un haz que lee el código de barras. Estas, si bien son mucho más onerosas que los
lápices, son a menudo la única solución cuando la cantidad de lecturas es importante.
-Pantallas sensibles al tacto
Existen las pantallas sensibles al tacto, que están constituídas por hileras de emisores infrarrojos y
los correspondientes sensores que pueden detectar cuando un haz de radiación infrarroja se corta y pueden
determinar la coordenada horizontal y la vertical, obrando a consecuencia. Este sistema no llegó a imponerse
y era empleado en los equipos Hewlett-Packard HP-150.
-Digitalizador
Otro sistema menos conocido, pero de gran aplicación en el tratamiento de imágenes mediante
ordenador es el "digitalizador" o "tableta gráfica": se trata de una superficie plana, generalmente de plástico
rígido, sobre la que se puede trazar cualquier cosa que se necesite, o bien, por ejemplo, apoyar un dibujo
para calcarlo mediante un elemento específico que incorpora.
Para dibujar sobre esta "tableta" se utiliza un dispositivo similar a una pluma que tiene un cable que
lo une a la tabla; trazando con la pluma un dibujo sobre el plano, la tablilla va transmitiendo al ordenador las
sucesivas posiciones que va adoptando la pluma en forma de los valores de sus coordenadas X-Y sobre la
tabla. El ordenador está en condiciones de utilizar solamente las informaciones numéricas, es decir, que
cualquier información (incluyendo los dibujos) debe traducirse a números para que el ordenador pueda
entenderla.
Otro principio de funcionamiento del digitalizador consiste en un brazo articulado, fijado a una mesa
de trabajo; en las articulaciones existen resistencias variables (potenciómetros) los que una vez
decodificados permitirán encontrar las coordenadas que indica el punto de trabajo; éste puede ser una aguja
o una retícula con una lente de aumento. Cuando el punto de trabajo está convenientemente localizado se
envía una señal del ordenador para que determine la posición y la almacene.
-Scanners
Estos dispositivos pueden leer, en modo semejante al de una fotocopiadora, información gráfica por
rastreo. Existen en distintos tamaños, precio y prestaciones. Es de resaltar que aún los más económicos,
denominados manuales y de media página (el ancho que pueden leer de una sola pasada), pueden solapar
información y reproducir imágenes de ancho mayor al físico. Otra característica muy importante de estos
dispositivos es que no se limitan solamente a la reproducción gráfica: con los programas apropiados pueden
convertir la información gráfica correspondiente a un texto, en un texto editable, es decir modificable
mediante una sofisticada técnica de reconocimiento gráfico de caracteres (OCR).
Los scanners pueden ser de media página o de página completa de acuerdo al ancho de papel
barrido. Los de media página generalmente se deben desplazar en forma manual, mientras que los de página
completa se desplazan sobre un rodillo en forma automática.
La otra especificación que se debe tener en cuenta es si el scanner es color o blanco y negro. En
ambos casos además de ello, se debe determinar cual es la reolución, entendiendose como resolución la
cantidad de puntos que definen una unidad de medida (denominada DPI: Puntos por Pulgada.)
-Joystick
Finalmente describiremos el Joystick, el medio de entrada por excelencia en cuanto a juegos se
refiere; éste consiste de cuatro contactos (interruptores o microswitch) dispuestos en forma de cruz y
accionados a través de una palanca permitiendo seleccionar las cuatro direcciones básicas (adelante, atrás,
izquierda y derecha) y cuatro direcciones auxiliares cuando hacen contacto dos direcciones principales
simultáneamente, es decir direcciones intermedias. Los joysticks o palancas de mando siempre cuentan
Unidad temática: Hardware - Página 13
Area COMPUTACION - Dpto. Cs. Básicas - FICES - UNSL - 2002
también con un pulsador, generalmente de disparo o acción. La información de interruptores y pulsador es
leída digitalmente por la CPU, que obra en consecuencia.
? Periféricos
de salida
En el apartado anterior vimos los dispositivos que permiten al hombre comunicarse con una
computadora. Ahora haremos una breve descripción de los principales periféricos que permiten al usuario recibir información desde una computadora.
-Teleimpresor
El teleimpresor fue uno de los pioneros de los periféricos de comunicación hombre-máquina. Servía
para introducir información a través de un teclado y editarlo gracias a una impresora. Normalmente dispone
de un lector-perforador de cinta, útil para introducir programas previamente grabados o crear bandas
perforadoras. Generalmente se conocen como teletipos (Teletype es una marca registrada). Su velocidad
máxima es de 10 caracteres por segundo. Actualmente están en desuso.
-Monitores
Los monitores o terminales con pantallas de rayos catódicos reemplazaron a los teleimpresores por
ser un excelente medio de comunicación hombre-máquina. En los computadores domésticos u hogareños se
sustituyen los monitores por televisores convencionales, en los que la definición de la imagen se empobrece
bastante en comparación con un monitor, debido a las transformaciones a que se somete la señal generada
por la CPU hasta que es visualizada, muchas de estas transformaciones se evi tan en los monitores,
generando una imagen mejor definida que las hace imprescindibles en las aplicaciones comerciales o científico-gráficas.
Las propiedades que definen las características de los sistemas de pantalla no son una propiedad del
monitor de vi deo propiamente dicho, sino también es un atributo del controlador de vi deo que está en la
computadora y que se debe complementar con el monitor.
Los parámetros básicos que definen las características de un terminal de video que trabaja en "modo
texto" son: cantidad de caracteres por renglón (23, 32, 40, 64, 76, 80, 132) y la cantidad de renglones por
pantalla (16, 24, 25, 43, 50).
Cuando se trabaja en "modo gráfico" el parámetro principal es la cantidad vertical y horizontal de
puntos que pueden visualizarse en la pantalla (resolución). Estos puntos se denominan pixels (del inglés:
picture celds).
Un atributo inherente al monitor es su tamaño, dado en pulgadas de su diagonal (5", 9", 10", 12", 14",
15", 17" 20"). Los monitores de 5" a 10" son para aplicaciones especiales, no siendo recomendados para
tareas normales y habituales. Lo ideal, teniendo en cuenta confort y costo, es un monitor de 14", excepto
cuando de deba trabajar con alta resolución gráfica, en cuyo caso se hace necesario un monitor de mayor
tamaño, aunque los costos son bastante superiores.
También se hacen diferenciaciones, por supuesto, entre los monitores color y los monocromáticos
(de fósforo blanco, ámbar o verde). Los de fósfora ambar y verde se han dejado de fabricar, ya que no sólo
cansan la vista, sino que se "quema" la misma pantalla del monitor con la emisión de la imágen.
Existen en la actualidad una gran variedad de adaptadores de video que proporcionan diferentes
resoluciones y distintas prestaciones respecto del uso del color. La mayoría de los adaptadores responden a
estandarizaciones realizadas por la empresa IBM. Los primeros PC estaban equipados con un adaptador
MDA (Monocromo Display Adapter) que no permitía el modo gráfico ni el color, a pesar de que su modo
texto era de muy buena resolución. Posteriormente aparecieron los adaptadores CGA (Color Graphic
Adapter), estas tarjetas con su correspondiente monitor, permitían una utilización limitada del color, un modo
texto con definición muy pobre y un modo gráfico de hasta 640 x 200 pixels con 2 colores y 320 x 200 con 4
colores. Para suplir las deficiencias de ese adaptador apareció en el mercado, aproximadamente en 1982, el
adaptador HERCULES comercializado por Van Suwannukul, que permitía un modo texto de calidad igual al
MDA de IBM y una resolución gráfica de 720 x 348 pixels, a pesar de ser monocromo, con un precio muy
accesible. En 1984 IBM lanza al mercado el adaptador EGA (Enhanced Graphic Adapter) que permitía un
modo texto de buena definición y modos gráficos que llegaban a 640 x 350 pixels con hasta 16 colores. Este
adaptador no se popularizó porque su tecnología resultaba demasiado cara para las prestaciones que
ofrecía. A posteriori, en 1987, IBM presenta la norma VGA (Video Graphic Array) con una resolución de 640
x 480 pixels con hasta 16 colores o 320 x 200 con 256 colores a precios muy inferiores a los correspondientes a la norma EGA por emplearse distinta tecnología. Actualmente el máximo está representado
por los adaptadores Súper VGA o VGA Plus (SVGA) que permiten resoluciones de 800 x 600 y hasta 1024 x
768 con una cantidad de colores simultáneos limitados por la cantidad de memoria presente en el adaptador.
Lamentablemente, debido a que el desarrollo de los Súper VGA fueron realizados en forma independiente
Unidad temática: Hardware - Página 14
Área COMPUTACIÓN - Dpto. Cs. Básicas - FICES - UNSL – 2002
por varios fabricantes, no existe una normalización o estándar en esta tecnología, por lo que cada fabricante
debe suministrar los recursos específicos para que el adaptador funcione con distintas aplicaciones.
Las tarjetas de video más limitadas tienen 256 KB de memoria (prácticamente no se consiguen en el
mercado) las tarjetas actuales tienen una base de 1 ó 2 MB de memoria, generalmente expansibles a 4 u 8
MB. Para una buena resolución (800x600) y alta densidad de colores 16 o 32 bits, se debe considerar un
mínimo de 2 MB.
Las ultimas novedades en el mercado de las tarjetas de video corresponden a las aceleradoras
gráficas 2D y 3D, indispensables para programas muy exigentes como los juegos de alta resolución y el
software de diseño gráfico. Estas tienen cantidades de memoria muy elevadas (8, 16 y hasta 32 MB) y
procesador propio.
Las tarjetas se conectan a través de los slots de expansión de las computadoras. Las primeras se
conectaban mediante slots denominados ISA de 16 bits. Las más recientes lo hacen mediante slots PCI de
32 bits, por lo que son más rápidas. La última generación de tarjetas de video para las máquinas más
modernas utilizan un puerto especial de las computadoras denominado AGP (Advanced Graphic Port) que
permite una mayor velocidad en la transferencia de la información gráfica.
Cuando se trabaja interactivamente, los monitores o display de video son el medio más adecuado;
cuando se necesita tener documentación de un resultado de un programa o un listado del mismo se debe
recurrir a una impresora.
-Impresoras
Existen en la actualidad una gran cantidad de tipos de impresoras e innumerables formas de
clasificarlas. Podemos decir que hasta hace poco tiempo las im presoras más comunes eran las impresoras
matriciales, en las que los caracteres o formas nacen de una matriz de puntos o agujas (8 ó 9 agujas como
mínimo y 24 como máximo, dependiendo de la calidad y precio) que golpean una cinta entintada sobre un
papel. Existen impresoras matriciales que no trabajan por impacto sino por temperatura operando sobre
papel termosensible especial, aunque el principio es el mismo que para las de papel común. Las impresoras
matriciales pueden ser mono o bidireccionales (es decir que imprimen al ir y al volver) con arrastre de papel
por tracción (formularios continuos perforados) o por fricción (hojas sueltas); la velocidad de operación varía
entre 80 y 300 o más cps (caracteres por segundo); el ancho del carro de las impresoras determina la
máxima cantidad de caracteres por línea que pueden imprimir, siendo los valores convencionales los de 80
caracteres para impresores de 9 pulgadas de ancho y 132 caracteres en las de 15 pulgadas. Debe tenerse
presente que estos valores corresponden a 10 caracteres por pulgada (CPI), que es el valor estándar aunque
estas impresoras pueden reducir o aumentar esa densidad de caracteres entre límites bastante amplios: 5
CPI o menos y 16 CPI o más dependiendo de la impresora.
Las impresoras matriciales se prestan para todo tipo de aplicaciones, son muy robustas, rápidas y
económicas. La calidad de impresión de este tipo de impresoras no siempre reúne los requisitos de presentación que son deseables en cartas y documentos, aunque en la actualidad las impresoras matriciales de
bajo precio, disponen de tipos de letra de alta calidad a velocidades de impresión más baja. También existen
impresoras matriciales que pueden imprimir en distintos colores. De todos modos, hoy en día sólo se usan en
aplicaciones especiales o cuando se requieren duplicados al carbónico.
Actualmente, otro tipo de impresora denominada chorro de tinta ha tomado el liderazgo del
mercado. Estas impresoras son muy versátiles al poder generar cualquier caracter y son sumamente silenciosas, lo que las hace atractivas en algunas aplicaciones. Su principio de funcionamiento consiste en
disparar gotas de tinta para modelar el caracter a imprimir. La tinta es conducida a través de una boquilla que
la dispersa en gotas diminutas, estas gotas atraviesan luego un electrodo y reciben una carga eléctrica. Un
par de placas metálicas desvían luego las gotas en distintas direcciones, para modelar la forma del caracter.
Obviamente pueden trabajar con distintos colores de tinta.
Un segundo mecanismo se denomina de burbujas y consiste en que el cabezal de impesión
incorpora una serie de inyectores con un pequeño dispositivo calórico que, al calentarse, forma diminutas
burbujas de vapor. Debido a la variación de volumen que sufre la tinta en los tubos al recibir una corriente
eléctrica de muy corta duración mediante un electrodo, estas burbujas estallan y provocan el chorro de tinta.
Es la propia contracción de la burbuja la que impulsa la tinta hacia el inyector.
En ambos mecanismos la proyección de la gota sobre el papel forma la imágen. El cabezal tiene un
número de tubos montados que avanzan sobre la línea a imprimir, de modo que al expulsar cada tubo una
gota, el carácter o la imágen se forma por medio de una matriz de puntos. A mayor número de tubos, mayor
será la resolución. Los modelos de 24 inyectores, considerados de gran calidad, han sido superados por los
de 48 y 64 inyectores que alcanzan resoluciones de 640, 720 y hasta 1440 puntos por pulgada a costos
realmente muy bajos.
Unidad temática: Hardware - Página 15
Area COMPUTACION - Dpto. Cs. Básicas - FICES - UNSL - 2002
Para trabajo muy pesado se utilizan las impresoras de líneas en las que la impresión no se hace
caracter a caracter, sino línea a línea, es decir, se prepara el renglón completo de escritura y se imprime de
una sola vez, su velocidad se mide en líneas por minuto.
Para trabajos mayores aún se emplean las impresoras láser o impresoras de página que trabajan
por un proceso semejante al fotocopiado. Consta básicamente de un motor que contiene un tambor
fotosensible cubierto por una película de carga eléctrica balanceada. Cuando se expone a la luz, la carga en
la superficie cambia, determinando un área de exposición en la cual la imagen se pinta sobre el tambor por
medio de un haz laser u otra tecnología. Además el sistema tiene un dispositivo revelador que contiene unas
pequeñas bolillas de plástico que transmiten carga eléctrica a las partículas del toner y las transportan al
tambor, donde son atraídas por los puntos de la superficie del tambor que deben ser impresos.
Simultáneamente, el papel, pasa por una película que cubre el tambor, lo cual le da sufucuente carga
eléctrica como para atraer el toner. A medida que el papel pasa por el tambor, el toner se adhiere al papel.
Luego se limpia el tambor de cualquier exceso de toner yla película que o recubre borra la imagen para
permitir que llegue otra. El papel continúa avanzando y pasa entre dos cilindros giratorios que lo someten a
presión y calor durante una décima de segundo para que el toner se derrita y adhiera al papel. De esta
manera se obtiene la impresión que pasa por la bandeja.
Las impresoras laser ofrecen la máxima calidad de impresión, la resolución llega a ser de 600 o más
dpi (puntos por pulgada). Además existen modelos que incorporan distintos tipos de bandejas, impresión en
ambos lados del papel, mayores tonalidades intermedias y utilización de tamaños de papel de hasta 11 x 17
pulgadas. La velocidad de impresión varía, pudiéndose imprimir desde 4 a 7 páginas por minuto en las de tamaño escritorio de bajo costo y hasta 96 o más páginas por minuto en las impresoras centrales.
-Plotters
Si bien gran cantidad de impresoras posee órdenes que permiten obtener una copia del contenido
gráfico de una pantalla de visualización, los ingenieros, científicos y diseñadores requieren que ésto se
realice con un grado de precisión que no puede suministrar una impresora convencional. El único dispositivo
que puede crear estas imágenes es un trazador de gráficos o plotter. Los trazadores de gráficos funcionan de
una forma completamente distinta a las impresoras: trazan líneas entre dos puntos en lugar de partir de
formas preestablecidas o modelos de puntos. El principio básico con el que funcionan es un sistema de
coordenadas X,Y. Trabajan utilizando plumas intercambiables, pudiendo por lo tanto cambiar el espesor del
trazo para dibujos de planos o utilizar diferentes colores. Sus costos se han reducido lo suficiente como para
que los usuarios de microcomputadoras dispongan de esta facilidad que antes estaba limitada a aplicaciones
de gran presupuesto.
Los plotters varían esencialmente de acuerdo a su tamaño, siendo éstos coincidentes con los
tamaños de planos normalizados por las normas IRAM. Así están los plotters A4 (297 x 210 mm), A3 (420 x
297 mm), A2 (768 x 420 mm), A1 (1024 x 768 mm) y A0 (1268 x 1024 mm). Obviamente que el costo está en
relación directa al tamaño del plotter. Otro factor a tener en cuenta son la cantidad de plumas que pueden
imprimir en forma simultánea.
-Demoduladores de voz
A pesar de que por el momento el reconocimiento de voz como entrada de información aún no está lo
suficientemente desarrollado, la síntesis de voz es más sencilla y muchos equipos disponen de sintetizadores
de voz para exteriorizar información o instrucciones.
-Modems
Son de gran importancia para la transmisión de datos a distancia. La denominación de modem deriva
de la función que desempeña este dispositivo: MOdulador-DEModulador.
Los modems acondicionan la información binaria del ordenador para que pueda ser transmitida a
través de la línea telefónica. Concretamente el modem recibe los datos del ordenador (por ejemplo, en
formato paralelo), los transforma en datos serie y, mediante una codificación determinada, los envía por la
línea de comunicación telefónica. En el sentido opuesto, el modem recibe los datos a través de la línea en
serie y los transforma al formato adecuado para suministrarlos al ordenador. Los modems son por lo tanto
periféricos de salida en su zona de modulación y periféricos de entrada de datos en su zona de
demodulación.
Los modems han adquirido una gran importancia, por el auge de las comunicaciones remotas, ya sea
a BBS (sistema donde existen diferentes tipos de información) o a redes internacionales como por ejemplo la
denominada INTERNET.
Unidad temática: Hardware - Página 16
Área COMPUTACIÓN - Dpto. Cs. Básicas - FICES - UNSL – 2002
Los modems pueden ser internos o externos. En el primer caso, internos, se conectan en el interior
de la computadora, de modo, que sólo sirve para ese equipo, mientras que los externos se conectan con el
puerto serie de la computadora, pudiendo ser usado en ditintos equipos.
Entre las características salientes de los modems figuran:
velocidad de transmisión de datos: esta velocidad se mide en una unidad llamada bps (bits por
segundo). En la actualidad los modems transmiten a 4800, 9600, 14400, 28800, 33600 y 56000 bps,
entre las velocidades más utilizadas. Hay que tener en cuenta que la velocidad depende también de
que el tráfico en la línea telefónica lo permita.
Protocolos de corrección de errores: Su funcionamiento consiste en enviar un paquete de información y
preguntar al otro modem si la cantidad de información recibida es igual a la enviada. De no ser así el
modem reenviará dicho paquete. El protocolo de corrección de errores más difundido es el reconocido
por las normas CCITT. (Comité Consultivo Internacional para la Telegrafía y Telefonía).
Protocolos de compresión de datos: se usa para ganar velocidad. El modem antes de transmitir
comprime la información, de manera tal que la información a transmitir es menor, realizando el otro
modem el proceso inverso. El modem debe trabajar con culaquiera de los dos protocolos más
recomendados: el MNP (Microcomm Networking protocol) y el LAPM (Link Access Procedure for
Modems).
Soporte de fax: Tienen la posibilidad de enviar y recibir faxes y comercialmente se los denomina modemfax. Todos los modelos nuevos tienen la posibilidad de enviar, pero no todos tienen la posibilidad de
recibir. No siempre un modem transmite a la misma velocidad datos y fax.
NOTA TECNICA: Interfaces industriales.
A medida que los procesos industriales se van haciendo cada vez más complejos, la automatización y el
control de los mismos requiere el empleo de ordenadores. En estas aplicaciones el ordenador tiene
que comunicarse no sólo con el operador sino, además, con otros elementos del sistema que le van
a suministrar los datos (elementos de entrada), o que van a recibir las órdenes (elementos de salida).
Normalmente los elementos de entrada, denominados sensores, pueden ser: Termopares o
termorresistencias para medir temperatura, Medidores de presión, Medidores de humedad,
Medidores de caudal, Medidores de nivel, Señales de contactos abiertos o cerrados procedentes de
interruptores y Todo tipo de elementos que suministren una señal analógica en forma de tensión o
intensidad, proporcional a una medida.
Como elementos de salida tenemos: relés, electroválvulas, motores, lámparas.
Entre estos elementos y el ordenador hay que colocar un periférico que traduzca sus señales de tipo
analógico a señales de tipo digital, de forma que puedan ser procesadas por el ordenador. Este tipo
de periféricos se denominan tarjetas de interface industrial.
? Unidades
de almacenamiento
En los primeros tiempos de la informática se consideraba memoria masiva a prácticamente cualquier
soporte capaz de registrar información con persistencia (incluidos medios perforables). Más adelante se
exigieron otras características, referidas básicamente al volumen y a la posibilidad de acceso a la
información; estas propiedades sólo las cumplían ciertos tipos de soportes magnéticos como los tambores,
las cintas y los discos.
Actualmente se están realizando investigaciones para llegar a nuevas memorias de masa que
resulten más productivas que las actuales. En algunos casos el estado de las investigaciones está produciendo resultados importantes que permiten predecir como serán las memorias de masa del futuro, teniendo
en cuenta que el futuro en esta disciplina es dentro de cinco o seis años, poco más.
-Unidades de disco
Actualmente los discos son el principal medio del almacenamiento para aplicaciones que requieren
un acceso rápido a los datos en forma aleatoria (es decir en cualquier orden).
Al hablar de discos hay que hacer una primera clasificación:
?
?
?
Discos rígidos, duros o fijos.
Discos flexibles.
Discos ópticos.
Unidad temática: Hardware - Página 17
Area COMPUTACION - Dpto. Cs. Básicas - FICES - UNSL - 2002
- Discos rígidos
Los discos rígidos suelen estar constituídos a partir de una base de aluminio recubierta de un
material magnético sobre el que se graban los datos.
Los tamaños normalizados que se emplean en microcomputadoras son de 5.25 y 3.5 pulgadas,
siendo éstas las medidas de su diámetro.
Los discos rígidos pueden ser fijos o removibles. Los discos fijos vienen ya en su unidad de lectura y
escritura y no pueden extraerse de la misma. Las capacidades más comunes de los discos fijos en la
actualidad son de más de 4 a 6 GB, existiendo discos de 10, 20 y hasta 30 GB a precios accesibles. Los
discos removibles vienen normalmente en un contenedor especial para facilitar su manejo, denominado diskpack.
Los discos rígidos suelen ser de tecnología Winchester (lanzada por IBM en el año 1973),
caracterizada porque la cabeza de lectura no toca físicamente al disco, sino que, por el efecto aerodinámico
de rotación del disco a una velocidad de unos 3500/4500 r.p.m. el aire arrastrado hace que la cabeza de
lectura permanezca suspendida a unas micras de distancia del disco, distancia suficientemente pequeña para
que los datos puedan leerse y escribirse. Actualmente existen discos rígidos que giran a 7200 r.p.m.
- Discos flexibles
Los discos flexibles están hechos de material plástico de Mylar, recubierto de una capa de óxido
magnético. Poseen un agujero central que les sirve para encajar en el mecanismo de rotación y un pequeño
agujero de control en sus proximidades, que sirve como índice para referenciar el comienzo de cada pista.
El disco se protege mediante una cubierta de plástico cuyo interior es antiestático y autolimpiante.
Una abertura en este envoltorio de protección, permite a la cabeza lectora tener acceso a los datos.
Existían tres tamaños de discos flexibles:
?
?
?
8 pulgadas.
5 y 1/4 pulgadas.
3.5 pulgadas.
Actualmente sólo se comercializan los de 3,5” que, a pesar de su tamaño, debido a la densidad de
grabación tienen mayor capacidad que los discos más grandes. Las capacidades de los discos flexibles se
encuentran es de 1,44 Mb.
La lectura de la información contenida en el disco flexible se realiza mediante la cabeza lectora que
entra en contacto directo con el disco a través de la ranura practicada en la funda de protección. Hay que
abstenerse, por tanto, de tocar los discos sobre dicha ranura. Los discos deben ser protegidos del polvo,
cenizas y partículas en general, así como de las temperaturas elevadas que pueden causar su deformación,
induciendo a errores en la lectura de los datos.
La información se graba en el disco sobre pistas circulares, no en forma de espiral como ocurre en un
disco de música. Para pasar a leer la información de una pista a otra, la cabeza lectora debe desplazarse
concéntricamente. El disco se considera dividido en varias secciones llamados sectores. Un sector es la parte
mínima de disco que el sistema es capaz de leer o escribir. Un sector de una pista contiene 256 bytes de
información en un disco flexible, y 256 ó 512 bytes de información en un disco rígido.
NOTA TECNICA - Características de los discos magnéticos
- Capacidad total de almacenamiento: Es la cantidad de bits de información que puede almacenar el disco
y, por tanto, una de sus características más importantes.
Los discos rígidos tienen mayor capacidad que los flexibles, debido a su propia tecnología; el aluminio tiene
menor deformación con los cambios de temperatura que el material plástico y, por tanto, sus pistas
pueden estar más próximas unas de otras.
La capacidad, además de depender del tamaño del disco, está condicionada también por otras
características que se verán a continuación.
- Número de pistas: Es el número de pistas circulares en las cuales se almacena la información.
Normalmente se indica como característica la densidad de pistas; ésto es el número de pistas por
pulgada (TPI).
- Número de caras: Los discos pueden estar grabados por una sola cara o por las dos caras, con lo que
aumenta la capacidad de almacenamiento.
Unidad temática: Hardware - Página 18
Área COMPUTACIÓN - Dpto. Cs. Básicas - FICES - UNSL – 2002
- Número de cabezas (o discos montados sobre un mismo eje): En el caso de los discos flexibles depende
del número de caras, en los discos rígidos generalmente se montan más discos sobre un mismo eje,
existiendo una cabeza lecto-grabadora para cada superficie útil.
- Simple, doble o alta densidad: Los discos pueden estar grabados con distinta densidad de información.
- Grabación vertical o longitudinal: Los bits de información pueden estar orientados en el material
magnético de forma vertical o de forma longitudinal. La tecnología de grabación vertical actualmente
sólo es posible en los discos rígidos, pero con esta tecnología se puede llegar a conseguir en el
futuro un gran aumento de la densidad de información por pulgada en los discos flexibles.
- Velocidad de rotación: Se expresa en r.p.m. y es la velocidad de giro del disco alrededor de su eje.
- Tiempo de acceso: Es el tiempo que tarda en pasar de una pista, a posicionarse y empezar a adquirir
datos en la pista contigua.
- Tiempo medio de acceso: Es el valor medio de los tiempos que tardan las cabezas en distintos
movimientos aleatorios entre distintas pistas.
- Velocidad de transferencia de datos: Es la velocidad a la que se comunican los datos al ordenador una
vez que las cabezas están posicionadas en la pista. Se expresa en baudios o en Kbaudios. Depende
de la velocidad de rotación del disco.
- Método de grabación: Debido a que actualmente las unidades de disco están controladas
electrónicamente por medio de un microprocesador, se incorporan en la propia unidad los sistemas
de codificación y decodificación de la información.
- Discos flexibles de alta capacidad
Se están comenzando a imponer algunos discos flexibles no estandarizados con una capacidad que
va de 100Mb (cuya marca comercial es IOmega Zip) a 120 MB (comercializados por 3M bajo la denominación
Superdisk) y hasta 250 MB (el modelo de IOmega llamado SuperZip). Estos discos ofrecen una interesante
relación de costo por MB de almacenamiento y son muy confiables para la realización de resguardo o
duplicados de información (Back-Ups). Los denominados Superdisk permiten la utilización, en el mismo
dispositivo, de discos de 3,5” convencionales de 1,44 MB de capacidad. Los Iomega necesitan de un
dispositivo lectograbador espacial que puede ser interno o externo.
Comparación entre discos rígidos y flexibles
Los discos rígidos tienen una mayor capacidad de almacenamiento que los flexibles, debido al hecho
esencial de la mayor densidad de pistas por pulgada. Sin embargo, los discos flexibles son mucho más
manejables que los discos rígidos, siendo su precio muy inferior, así como el costo de la unidad
correspondiente de lectura y escritura. De todos modos, actualmente los paquetes de aplicación comercial
(programas) imposibilita la utilización de microcomputadoras equipadas sólo con discos flexibles. Estos se
emplean más como soporte de transferencia de información y resguardo o duplicados de la información que
se almacena en los discos rígidos que incorporan los equipos.
- Discos ópticos
Los discos ópticos o láser son el medio de almacenamiento masivo de mayor desarrollo e
investigación en este momento por la densidad de información que pueden albergar. Para dar un ejemplo,
una cara de un disco compacto que permite grabar una hora de música puede contener 650 MB de datos.
Lamentablemente, como en el caso de los "compact disk" musicales, los CD-ROM convencionales no pueden
ser borrados y regrabados ya que su proceso de grabación consiste en quemar la superficie del disco por
medio de un haz láser. Por el momento se utilizan principalmente para leer información grabada por terceros
como enciclopedias, imágenes gráficas y catálogos (se debe tener en cuenta que, por la cantidad de
información que pueden contener, los modos de acceso a la información que contienen mediante referencias
cruzadas y multi-indexadas, son sumamente sofisticadas). También están disponibles CD-R que pueden ser
grabados (una sóla vez) por el usuario mediante lectograbadoras sumamente económicas. Adicionalmente
existen los CD-RW que pueden se regrabados un número limitado de veces, aunque el proceso es lento.
Actualmente los CD-Rom son superados por un nuevo dispositivo denominado DVD (Digital Video
Disk) que permite almacenar desde 4 a 17 GB, abriendo una nueva etapa el las posibilidades de las
computadoras . Por ejemplo pueden almacenar una película con traducción simultanea a varios idiomas, con
posibilidad de ver escenas desde distintos ángulos o finales interactivos. Y esto es sólo un ejemplo.
Unidad temática: Hardware - Página 19
Area COMPUTACION - Dpto. Cs. Básicas - FICES - UNSL - 2002
E.- Computadoras Personales
Por ser uno de los tipos de computadoras de mayor difusión en la actualidad, y además al alcance
del gran público, es que este curso está orientado fundamentalmente a las computadoras personales,
microcomputadoras o PC.
La historia de las computadoras personales se remonta a mediados de la década del setenta, cuando
la integración en alta escala posibilitó la fabricación de los microprocesadores. A partir de allí, aparecieron
algunas computadoras menores hoy llamadas hogareñas, como Radio Shack, Commodore, etc.
En esa época, la firma IBM, ocupada sólo del sector alto del mercado, detectó una importante
tendencia hacia los equipos más pequeños y comenzó a trabajar en el desarrollo de una computadora
monousuario (personal), pero con prestaciones superiores a las computadoras hogareñas. El resultado fue el
IBM PC (Personal Computer). Inusualmente para esa compañía, el equipo no fue desarrollado íntegramente
por la empresa IBM, sino que utilizó un arquitectura abierta y componentes de otras empresas, como el
microprocesador de Intel, modelo 8088 y un sistema operativo diseñado especialmente para este equipo por
la firma MicroSoft, llamado MS-DOS (MicroSoft Disk Operating System). La IBM/PC fue lanzado al mercado
en 1980, y su repercusión fue tal que superó ampliamente las expectativas de los propios fabricantes.
A partir de allí comenzó a girar en torno del equipo IBM PC, toda una industria de producción de
hardware y software, lo que hizo que se convirtiera en el estándar de facto del mercado. Esto trajo aparejado
que las demás firmas fabricantes de equipos comenzaran a fabricar computadoras que pudieran operar con
el software desarrollado para estos equipos, generando la aparición de las denominadas máquinas
compatibles o clowns, que en lo único que se diferenciaban a la IBM PC era en la marca y en el precio.
Esta irrupción del PC marcó a fuego la historia de la informática moderna, porque a partir de allí, el
desarrollo tanto a nivel hardware como software fue vertiginoso y los precios fueron disminuyendo, lo que
contribuyó a la popularidad de las PCs.
La IBM PC original tenía una memoria RAM de 64 Kb y una o dos unidades de diskette de 160 ó 180
Kb cada una, operando a una frecuencia de reloj de 4.77 MHz.
En 1982, IBM lanza al mercado un nuevo modelo de la línea PC, la PC/XT (eXtended Tecnology),
cuya versión estándar tenía una configuración básica de 256 Kb de memoria RAM, una o dos unidades de
diskettes de 320 ó 360 Kb de capacidad cada una y permitía la conexión de un disco duro de hasta 32 Mb.
Este modelo, al igual que el PC, estaba equipado con el microprocesador 8088 y permitía operar en dos velocidades: la original de 4.77 MHz (para mantener compatibilidad) y otra de 8, 10 ó 12 MHz.
En 1984 es lanzada comercialmente la IBM/AT (Advanced Tecnology), equipo basado en el
microprocesador 80286 de Intel, que permitía una mayor velocidad de procesamiento que el 8088, y además
dos modos de trabajo: el normal, que permite operar como una PC, y el modo protegido, el que permite -con
el software necesario- convertir al equipo en multiusuario. Además la configuración básica de este equipo era
de 640 Kb de memoria RAM, una o dos disketteras de 1,2 Mb de capacidad, y mayor capacidad en disco
rígido. La velocidad de procesamiento era de 6, 8, 10, 12 ó 16 MHz, dependiendo de los equipos.
En 1986, IBM lanza al mercado una nueva línea de microcomputadoras, denominada PS/2 (Personal
System/2), que se componía originalmente de cinco modelos, el 25, 30, 50, 60 y 80. Con esta línea IBM
introdujo una nueva forma de fabricación interna denominada de tecnología cerrada, en contraposición con la
tecnología abierta de la línea PC, a efectos de evitar la proliferación de los clowns.
Los modelos 25 y 30, en características y prestaciones son similares a las XT; los modelos 50 y 60
equivalentes a las AT; y el modelo 80, equipado con el microprocesador 80386 de Intel, de mayor potencia
que el 80286, permitiendo hasta 16 Mb de memoria RAM, una diskettera de 3.5" de 1.44 Mb, capacidad de
almacenamiento en discos rígidos de hasta 628 Mb y velocidad de procesamiento de 16, 20 o 25 MHz.
En 1988 aparecieron equipos compatibles de la línea PC, equipados con el microprocesador 80386,
y en 1990 tuvieron su lanzamiento comercial los primeros equipos basados en el microprocesador 80486 de
Intel, que permiten direccionar hasta 4 Gb de memoria RAM, mayor capacidad de direccionamiento de
memoria en discos, y operar a una velocidad de 33 MHz.
Algunos equipos se basaban en el microprocesador 80386 SX que, con arquitectura interna
equivalente al procesador original (que debían llamarse más propiamente 80386 DX), externamente trabajan
con canales de comunicación menos complejos que estos, permitiendo la fabricación de equipos que pueden
usufructuar modalidades de trabajo propias de los procesadores de 32 bits a precios bastante inferiores, con
un pequeño sacrificio de perfomance.
También se comercializaron equipos basados en el microprocesador 80486 SX, que es equivalente
al microprocesador 80486 DX, pero que no cuenta con coprocesador matemático como este último, siendo
Unidad temática: Hardware - Página 20
Área COMPUTACIÓN - Dpto. Cs. Básicas - FICES - UNSL – 2002
por lo tanto más económico y conveniente para aplicaciones que no requieran esta complementación.
También existen equipos 80486 denominados DX2 y DX4 que obtienen velocidades dobles a la señalada.
La oferta de equipos PS/2 se amplió con equipos basados en el microprocesador 80486, bajo la
denominacion de Model 90, y con equipos basados en microprocesadores SX. También ha aparecido en el
mercado una línea denominada PS/1, que corresponde a equipos de gama baja, para liberar la línea PS/2 de
equipos con prestaciones limitadas, como son el Model 25 y 30.
En 1993 hizo su aparición comercial un nuevo microprocesador de Intel, bajo la denominación de
PENTIUM, microprocesador con buses de datos externo y de direcciones externas de 64 bits y ancho de
palabra de 32 bits. Este componente desarrolla una gran performance manteniendo la compatibilidad con los
modelos anteriores. Los prototipos de máquinas basadas en este chip tienen en la actualidad una velocidad
de procesamiento de 166, 200 y 233 Mhz.
También en 1993 una sociedad formada por IBM, Apple y Motorola produjo un microprocesador
denominado PowerPC, como competencia directa al PENTIUM, pero con tecnología distinta (RISC: Reduced
Instruction Set Computer) desarrollando una performance similar, con un costo y consumo de energía muy
bajo. Este chip no es compatible a nivel de hardware con la línea Intel pero por emulación puede correr el
software (programas) desarrollado para aquellos.
En 1995 la firma Intel comenzó a comercializar un nuevo microprocesador, correspondiente a la línea
P6 (80686 en la identificación numérica), bajo la denominación de PENTIUM PRO. Esta estrategia comercial
capitalizó el prestigio de la línea PENTIUM para entregar un chip mucho más poderoso, destinado a
estaciones de trabajo de gran envergadura, con velocidad de procesamiento de 150 Mhz llegando hasta 300.
Debe destacarse, en ese momento, la presencia en el mercado de los procesadores de 5ta. y 6ta.
generación (equivalentes a 80586 y 80686) de productos desarrollados por competidores de Intel como son
Cyrix y AMD que competían no sólo en precio sino en calidad y prestaciones, fabricando chips que resultaron
alternativas sumamente convenientes al PENTIUM de Intel.
Los últimos desarrollos estuvieron orientados a mejorar la perfomance de las computadoras
personales en lo que se denomina multimedia. Las aplicaciones que tiene que ver con grandes utilizaciones
de sonido de alta calidad, despliegues gráficos como videos y programas de diseño o la utilización de
Internet, muestran las mayores falencias de los equipos; debido a esto Intel a desarrollado una extensión
específica para sus microprocesadores denominada MMX (multimedia extensions) que optimiza la ejecución
de este tipo de aplicaciones. La identificación comercial de estos productos es PENTIUM MMX para los
Pentiums tradicionales con esta extensión y PENTIUM II para los Pentiums Pro con extensión MMX que
llegan a velocidades de hasta 400 MHz.
AMD (American Micro Devices) y CYRIX también entraron en esa variante, comercializando
microprocesadores optimizados para multimedia, ya sea bajo licencia Intel o con desarrollos propios.
A partir de 1999 Intel inundó el mercado con su microprocesador INTEL PENTIUM III que
desarrollaba velocidades de procesamiento de 400, 450 y 500 MHz en los primeros modelos (actualmente
esas velocidades arrancan de 550 MHz y llegan hasta 1000 MHz). También la competencia tradicional de
Intel, AMD -Cyrix desapareció del mercado- ha evolucionado ofreciendo procesadores con prestaciones
semejantes a precios inferiores como el AMD DURON e incluso un procesador totalmente revolucionario,
denominado ATHLOM (que fue el primero en superar la barrera mítica de los 1000 MHz). Por otra parte, Intel
incursionó en el mercado del bajo precio con el procesador CELERON que tiene características parecidas al
Pentium II pero con performance menor pero precio muy competitivo.
Actualmente Intel comercializa principalmente su procesador más evolucionado, el PENTIUM 4,
(abandonando la numeración romana) basado en nueva tecnología, denominada P7 (desde 1995 utilizaba la
tecnología P6). Estos modernos micros están especialmente diseñados para altas velocidades de operación,
tanto es asi que el modelo inicial trabaja a 1.2 y 1.4 GHz, esperándose que los saltos de velocidad sean de
100 MHz. Tendrá un bus de operaciones de 400 MHz (hay que tener presente que los PENTIUM III tienen un
bus de 100 ó 133 MHz, dependiendo del modelo y aún el velocísimo ATHLON de AMD tiene un bus de 200.
Los equipos que se ofrecen en la actualidad, además de un procesador como los que acabamos de
mencionar, normalmente utilizan al menos 64, 128 ó 256 MB de memoria RAM y discos rígidos de 20 GB o
superiores, diskettera de 3.5”, kit multimedia de velocidades de CD-ROM superiores a 50x y tarjetas de
sonido de 16 y 32 bits, placas de video 3D con aceleradores gráficos y modem de 56 Kb.
Debe tenerse en cuenta que los programas y sistemas operativos más modernos requieren de la
mayor potencia que proveen las plataformas de 32 y 64 Bits, es decir de la línea 80486 y superiores, por lo
que no resulta conveniente la adquisición de equipos de bajo nivel. Si bien los modelos más altos de cada
línea son siempre muy honerosos, no siempre conviene adquirir los modelos económicos como el CELERON
o al AMD K6-2 ya que por diferencias de precio poco sustanciales, se puede acceder mejores plataformas.
Unidad temática: Hardware - Página 21
Area COMPUTACION - Dpto. Cs. Básicas - FICES - UNSL - 2002
F.- Redes
Las computadoras personales, como su nombre lo indica proveen, en principio, capacidad de trabajo
para un único y aislado usuario. A pesar de esta característica, existe la posibilidad de interconectar varias
PC para compartir información y recursos, potenciando aún más las prestaciones de este tipo de máquinas.
En este punto se verán los distintos tipos de redes así como también los estándares existentes. Se
mostrarán, además, distintos casos de aplicación y se verá de qué manera se debe optar entre una implementación u otra, dependiendo del problema a resolver. No es un tema sencillo ya que, como todo lo
relacionado con la computación, el tema redes de comunicación avanza día a día.
Una red permite a muchos usuarios compartir e intercambiar información.
El diseño y la implementación de una red debe contemplar una variedad de parámetros, como la
cantidad de usuarios, el volumen de la información, los costos, la confiabilidad y los ámbitos de instalación.
Una red sirve a muchos usuarios, pero no necesariamente a todos al mismo tiempo. Los usuarios de
una red pueden estar todos bajo un mismo techo o distribuídos en grandes áreas, separados por grandes
distancias (aún alrededor del globo terrestre). De ahí que el tema redes sea tan amplio y variado. Las redes
de comunicación deben dar solución a problemas tales como:
- Una pequeña empresa que desea que todos sus directores puedan acceder a información
financiera en forma inmediata;
- Una compañía multinacional con filiales en todo el mundo que debe consolidar en la casa matriz la
información de las operaciones de todas ellas.
Estos dos problemas, tan diferentes entre sí, tienen solución instalando una adecuada red de
comunicación.
Podemos distinguir tres tipos de redes de comunicación:
- Redes globales: son aquellas que se extienden a lo largo de grandes distancias y sirven a gran
cantidad de usuarios.
- Redes Locales: son redes que dan servicio a usuarios que se encuentran separados por no más
de unos cientos de metros entre ellos.
- Redes de campo: un tipo muy particular de red que conecta dispositivos de control. Por ejemplo, la
computadora de un avión que constantemente está verificando el funcionamiento de los dispositivos. En
general, se implementan en tiempo real.
Se debe aclarar que para dar solución a algunas situaciones, se pueden combinar los tipos de redes
antes mencionados a través de puentes (bridges).
Las redes pueden ser agrupadas en abiertas y cerradas.
- Las redes abiertas son públicas y están potencialmente a disposición de cualquiera. En este tipo
de redes se debe poner especial atención en el control de acceso y de la información, para evitar pérdidas.
- Las redes cerradas son privadas de una empresa. En este caso, el control es mucho más sencillo,
ya que sólo los conectados físicamente pueden ingresar al sistema.
Aspectos técnicos de las redes
Una red es mucho más que la simple conexión física entre todos los usuarios. Puede un usuario
hablar con muchos otros? Cómo se asegura la integridad de la información? Cómo evitar que un usuario
provoque la caída de la red?. Estos y otros muchos interrogantes deben plantearse y resolverse antes de la
implementación de la red. Hay que definir un conjunto de controles que resuelvan situaciones como las
mencionadas.
Cuáles son, entonces, los aspectos técnicos que se deben analizar?
Estos son:
- TOPOLOGIA DE LA RED: es el plano de conexión entre los usuarios de la misma;
- PROTOCOLOS: el modo de conversación entre los usuarios;
- INTERFACE ELECTRICA: RS-232, RS 422, etc.
- TIPO DE MODULACION: amplitud, frecuencia, tiempo;
- MEDIO DE COMUNICACION: cable, fibra óptica.
Debemos aclarar antes de analizar en detalle cada uno de esos aspectos, que no existe una solución
ideal, sino que para cada situación existe una red que se adapta mejor a los requerimientos.
Unidad temática: Hardware - Página 22
Área COMPUTACIÓN - Dpto. Cs. Básicas - FICES - UNSL – 2002
- Topología: Es un término matemático que se refiere a la manera de conectarse entre nodos.
- Conexión completa: como primera solución podría considerarse la conexión entre todos los
usuarios. Aunque puede ser efectivo es bastante costoso, ya que la cantidad de conexiones necesarias crece
mucho a medida que aumenta la cantidad de usuarios.
Pensemos que, matemáticamente por medio de combinatoria, para 10 usuarios se necesitan 45
conexiones y para 20 se necesitan 190 conexiones.
Esta topología puede ser efectiva para pocos usuarios, pero en la práctica no se usa. El costo de
agregar un usuario es altísimo.
- Estrella: la topología estrella consiste en un nodo central y todos los usuarios conectados a él. El
límite para la cantidad de usuarios es el máximo que pueda manejar el nodo central. Nótese que la
confiabilidad de la red depende exclusivamente de la del nodo central. Cualquier falla en un usuario no afecta
el funcionamiento de la red. El funcionamiento es el siguiente: un usuario envía información al nodo central
(dedicado o server) y éste se encarga de dirigirla al destinatario. Para agregar un usuario, simplemente se
agrega una conexión hasta el nodo central (incluso en el caso que haya un usuario cerca del nuevo), lo que
en la práctica puede ser muy caro.
Cuándo podemos usar esta topología?. Se usa cuando los usuarios de la red están dentro de un área
predeterminada y no demasiado grande (por ejemplo, dentro de un edificio o una fábrica). Una de las
características más importantes es que varios usuarios puedan transmitir datos simultáneamente.
- Bus : la topología de Bus consiste en un camino común compartido por todos los usuarios. Estos
pueden estar conectados al bus en cualquier punto. El problema de agregar un usuario se reduce a conectarlo al bus. En esta topología debe haber un nodo dedicado al control de la red. Además, si la
implementación es buena, cualquier falla en un usuario no afectará el funcionamiento de la red. Por las
razones anteriormente expresadas es una topología muy popular. Lógicamente, dada su sencillez, se
aumentará la complejidad del control de las comunicaciones. Puesto que existe un único camino compartido
por todos, existirá un protocolo que decida quien puede transmitir y dejar que los demás sólo puedan
"escuchar". Además, todos los mensajes de control se hacen a través del bus, hecho que reduce la eficiencia
de la red.
La segunda desventaja importante es que dos usuarios no puedan transmitir simultáneamente. Sin
embargo, para algunas situaciones ésta puede ser una ventaja, ya que en un determinado instante sólo un
usuario trasmite y los demás "escuchan". Esto provoca que si se desea mandar un mensaje a varios usuarios
no se lo deba transmitir para cada uno de ellos.
Sobre esta topología se han implementado varias redes comerciales como AppleTalk y EtherNet.
- Anillo : la topología de anillo (Ring) conecta a todos los usuarios en un gran anillo. Para agregar un
usuario simplemente hay que integrarlo al anillo. Sin embargo ésto, que parece tan sencillo, implica un corte
en el cable y la conexión del nuevo usuario.
Analicemos cómo opera una red de este tipo. Los mensajes son pasados de un nodo al siguiente
hasta que el destinatario recibe el mensaje y envía una señal de recibido. Nótese que el protocolo será
mucho más simple que en el caso de la topología de bus.
Nodo
1
Nodo
4
Nodo
2
Nodo
3
Nodo
N
TOPOLOGIA DE BUS
Nodo
1
Nodo
4
Nodo
2
Nodo
3
Nodo
N
TOPOLOGIA EN ANILLO
Una gran desventaja de este tipo de topología es que cualquier falla en algún nodo o en la conexión
entre ellos provocará la salida de servicio de la red. Por este motivo, a veces se habilitan dos anillos, uno
para uso normal y otro como respaldo (backup) ante fallas del primero.
Protocolos
Dado que una red está compuesta de muchos usuarios deben ser definidas reglas de comunicación
entre ellos, ésto se denomina acceso a la red.
Unidad temática: Hardware - Página 23
Area COMPUTACION - Dpto. Cs. Básicas - FICES - UNSL - 2002
Hay cuatro tipos de protocolos considerados estándar, que pueden ser usados con cualquier
topología de las mencionadas: maestro-esclavo; manejado por interrupciones; manejado por "marcas" (o
pase de cospel); y por detección de colisiones.
- Maestro-Esclavo (Command-Response): existe una sola estación maestra y todas las demás son
esclavas. Una estación sólo puede enviar información cuando la maestra le envía una señal. Si bien este
protocolo es muy simple, es poco eficiente, debiendo pasar toda la información a través de la maestra lo que
produce gran sobrecarga. Sólo resulta aplicable cuando existen muy pocos usuarios y no se requiere tiempo
de respuesta muy rápido.
- Protocolo Manejado por Interrupciones (interrupt driven): es una mejora sobre el anterior; la esclava
genera una señal a la maestra, indicándole la procedencia, quien, si se encuentra desocupada recibe
también la información que se le envía. El inconveniente sigue siendo la sobrecarga de la maestra, si el
volumen de información es muy grande.
- Protocolo Manejado por "Marcas" (token passing): en este sistema todos los usuarios de la red, a su
turno, reciben una marca o cospel que los habilita para controlar la red. Este sistema es bastante eficiente y
se aplica en situaciones donde se debe garantizar un determinado tiempo de respuesta.
- Protocolo de accesos múltiples con sensado de portador y detección de colisiones (CSMA/CD
Carrier sense multiple access with collision detect): en este sistema, distinto a los anteriores, cualquier nodo
puede transmitir en cualquier momento, luego de verificar que la red no está en uso. en este último caso se
limita a esperar a que se desocupe. La detección de colisiones se implementa para evitar que dos usuarios
transmitan simultáneamente.
CARACTERISTICAS DE LOS PROTOCOLOS
Protocolo
Command/response
Interrupt driven
Token passing
csma/cd
Concepto
Simple
Simple
Media
Complejo
Eficiencia
Baja
Baja
Media
Media-alta
Predictibilidad de
tiempo de
respuesta
Predecible
Relativamente
Predecible
Dificil de predecir
Confiabilidad
Alta
Alta
Media
Media
Medios de comunicación
La intercomunicación entre los usuarios de la red se puede producir a través de distintos medios:
A) Alambre: par simple, par trenzado, cable coaxil, cable plano multiconductor
B) Aire o vacío: Microondas, Radio-enlace, Satélite
C) Fibra óptica
Los factores que intervienen en la decisión son: la distancia a cubrir, costos, cantidad de usuarios,
facilidad de instalación y sensibilidad al "ruido" externo (influencia de campos electromagnéticos que pueden
producir alteración de la información transmitida.
Si la red debe cubrir una distancia importante -cientos de kilómetros- se debe utilizar la red telefónica,
radio-enlace o microondas. Si la distancia es aún mayor, se debe pensar en la transmisión vía satélite. Para
el caso más común, en donde la red a instalar está dentro de un área no mayor a unos cientos de metros (red
de área local o LAN - Local Area Network), se utiliza la conexión física por alambre o fibra óptica
dependiendo de las distancias características de "ruido" presente, etc, para una mejor relación
precio/perfomance.
Redes Comerciales
Las redes nacieron por la necesidad de los grandes usuarios de interconectar nodos. Más tarde, y a
partir de esos desarrollos, se generalizaron para servir a todo tipo de usuario.
Existen redes comerciales cuyos desarrollos originales recibieron el aporte de usuarios, mejorando
las especificaciones y quedando, con protocolo difundido, a disposición de productores y usuarios. Otras en
cambio, se denominan redes propietarias y no difunden su protocolo de comunicaciones, ya que están
diseñadas específicamente para un determinado tipo de máquinas.
Unidad temática: Hardware - Página 24
Área COMPUTACIÓN - Dpto. Cs. Básicas - FICES - UNSL – 2002
Una red propietaria muy importante es la AppleTalk de Apple Computer para la línea de
computadoras Macintosh. Esta red implementa una topología de BUS, admitiendo hasta 32 nodos con un
alcance máximo de 300 metros, se utiliza para que varios equipos compartan impresoras de grandes
prestaciones y discos de alta capacidad externos. Su protocolo de comunicaciones es secreto.
Otro ejemplo de red, en este caso de protocolo difundido, es la ETHERNET, desarrollada
originalmente por Xerox para interconectar dispositivos de oficina. Trabaja sobre una topología de BUS con
protocolo CSMA/CD y se le puede conectar hasta 1024 usuarios por medio de cable coaxil o fibra óptica.
Esta red se adecua a sistemas donde no es necesario un tiempo de respuesta determinado, como por
ejemplo, en control de procesos.
Como último ejemplo consideraremos la MAP (Manufacturing Automation Protocol), diseñada para
controlar procesos en fábrica, orientada a minimizar el tiempo de respuesta. Está implementada sobre
topología de BUS con protocolo Token Passing utilizando cable coaxil.
Redes de Area Local Comerciales
Las LANs (Local Area Networks, redes de área local) permiten conectar cierta cantidad de
computadoras, con la finalidad de compartir información, aplicaciones o recursos a nivel de periféricos.
Hace un tiempo, muchos hubiesen deseado instalar una red, pero el tiempo, costo y complejidad
para mantener una red tradicional lo hacían dificil. En las redes tradicionales, existe una computadora central
que provee los servicios a otras máquinas que ofician de clientes de la misma. Estas redes se denominan
redes tipo client-server y el equipo central debe ser un equipo basado, como minimo, en microprocesadores
PENTIUM. El costo del software necesario para conectar un número de máquinas determinado (10, 20 50 o
más de 100 usuarios) resulta también bastante oneroso. Esto es así ya que se requieren los programas para
poner en marcha la red, donde entre otras cosas es posible definir derechos de acceso, periféricos comunes,
nivel de interrelación, etc.
El mercado de las redes cliente-servidor se divide prácticamente entre Novel y Windows NT (o 200
en su última versión). Progresivamente, Linux, un nuevo sistema operativo de distribución gratuita está
comenzando a ganar posiciones, sobre todo como servidor de internet.
En contraposición a las redes client-server, comenzaron a comercializarse las denominadas peer-topeer (par a par), en las cuales todas las máquinas están a un mismo nivel de jerarquía, pudiendo cada una
de ellas funcionar como server, o como PC "standalone", es decir independiente. Esta es una alternativa
simple y barata para interconectar computadoras.
Peer-to-peer significa que cada computadora conserva su independencia, pero eventualmente
puede compartir sus recursos con las otras, sin la necesidad de un equipo central dedicado, y además corren
directamente sobre MS-DOS (el sistema operativo de las PC).
En una red peer-to-peer, desde una computadora se puede utilizar programas instalados en otra, si
así se desea, o bien, se puede enviar información a través del correo electrónico (E-mail). Esto permite enviar
o recibir información o mensajes a través de la red. Existe también la posibilidad de conectar paquetes de
sonidos, para digitalizar la voz y almacenarla en la red. Cualquier computadora conectada a la red puede ser
utilizada luego para reproducir el mensaje y realizar la transcripción si es necesaria.
Hasta la aparición de Windows para Trabajo en grupos, Windowes 95 y 98, el lider del mercado de
las LANs peer-to-peer era Artisoft, para su línea LANtastic que permiten comunicar hasta 300 nodos.
Actualmente los usuarios de Windows 95 o 98 resuelven sus necesidades de red peer-to-peer (sin
grandes pretensiones) en forma automática ya que el sistema operativo incluye las prestaciones necesaria
Para armar la red, se deben instalar los cables en la plaqueta o tarjeta de red, la cual a su vez se
conecta a la computadora. Se pueden utilizar conexiones por cable coaxil o por medio de cable trenzado,
necesitándose para esto ultimo un dispositivo adicional denominado “hub” que recibe todas las conexiones.
Conclusiones
Las redes permiten el intercambio de información entre usuarios y compartir periféricos de gran
capacidad y alto costo por parte de equipos más modestos. Casi siempre se debe dedicar un "server" de alta
performance (arquitectura PENTIUM como mínimo) para controlar la red. Como beneficio se tiene la
posibilidad de acceder por parte de varios usuarios a una misma información y poder de esa forma utilizar
prestaciones propias de los sistemas multiusuarios, bajo la plataforma MS-DOS extendiendo de esta forma
las limitaciones de este sistema monousuario y monotarea. Toda este avance ha sido posible gracias a la
disminución de los costos del hardware de redes, como así también a la incorporación de prestación de
administración de redes en el sistema Windows 95 y 98 que equipa a la mayoría de las computadoras
personales.
Unidad temática: Hardware - Página 25
Descargar