Luis H Vega Cod 200620028 Johannes Gutenberg Gutenberg es

Anuncio
Luis H Vega
Cod 200620028
Johannes Gutenberg
Gutenberg es conocido por sus contribuciones a la tecnología de la impresión en por lo menos
tres de sus procesos: Las matrices o planchas de impresión de tipos móviles, la prensa y en las
tintas para transferir los tipos al pergamino o al papel. El primer libro impreso por Gutemberg fue
la Biblia, para imprimirla se demoro unos 5 años; se calcula que logró imprimir y encuadernar 180
Biblias de 1282 páginas cada una, a dos columnas de 42 renglones. A Gutenberg se le considera
el inventor –en Europa, pues los chinos y coreanos ya los usaban– de los tipos móviles de plomo
fundido, más duraderos y resistentes que los fabricados en madera, y por tanto reutilizables que
confirieron una enorme versatilidad al proceso de elaboración de libros y a su realización en masa.
Inicialmente éstos eran singulares (únicos), como una obra de arte, elaborados a mano letra por
letra, palabra por palabra, por un Scriba en un Scriptorium
La diferencia –y ventaja– entre los tipos móviles de Gutenberg y los orientales de chinos y coreanos
no es despreciable, estriba en el carácter alfabético de la escritura occidental que requiere sólo la
elaboración de un número reducido de clases de tipos, uno por cada letra del alfabeto, mientras
que la escritura china, también usada por los coreanos, es ideográfica y requiere miles de clases de
tipos, uno para cada concepto, idea o palabra.
La prensa es otra de las contribuciones de Gutenberg; con anterioridad se habían empleado, también desde la época de Sumeria, discos o cilindros sobre los cuales se había labrado el negativo del
texto a imprimir que generalmente era sólo la rúbrica del dueño del cilindro y otorgaba certidumbre de autenticidad a las tabletas que la llevaban. Las prensas en la edad media eran simples tablas
gruesas y pesadas o bloques de piedra que se apoyaban sobre la matriz de impresión ya entintada
para transferir su imagen al pergamino o papel. La prensa de Gutenberg es una adaptación
de aquellas usadas para exprimir el zumo de las uvas en la fabricación del vino, con las
cuales Gutemberg estaba familiarizado, pues Maguncia, donde nació y vivió, está
en el valle del Rin, una región vinícola desde la época de los romanos.
El interés de Gutenberg por la impresión rápida y económica de libros
era en gran medida comercial e incluso se ha llegado a afirmar
que quiso hacer pasar sus primeras Biblias por ejemplares realizados a mano. Antes de inventar los
tipos removibles había sido joyero, conocedor
del arte de la construcción de moldes y de
la fundición de oro y plata; por ello logró
hacer excelentes tipos, valiosos incluso
artísticamente como trabajo de orfebre.
Tras la invención de los tipos y la adaptación de la prensa vinícola, Gutenberg
siguió experimentando con la prensa
hasta lograr un aparato funcional. También investigó sobre el papel o el vellocino y las tintas. Unos y otras tenían
que comportarse de tal modo que las tintas se absorbieran por el papel sin correrse, asegurando la
precisión de los trazos; se necesitaba que el secado fuese rápido y la impresión permanente. Por eso,
Gutenberg experimentó con pigmentos de base de aceite -que no sólo usó para imprimir con las matrices, sino también para las capitulares e ilustraciones que se realizaban manualmente- y con el papel
de trapo de origen chino introducido en Europa en su época.
Método braille
El braille es un sistema de lectura y escritura táctil pensado para personas ciegas. Fue ideado por
el francés Louis Braille a mediados del siglo XIX, que se quedó ciego debido a un accidente durante
su niñez mientras jugaba en el taller de su padre. Cuando tenía 13 años, el director de la escuela de
ciegos y sordos de París –donde estudiaba el joven Braille– le pidió que probara un sistema de lectoescritura táctil inventado por un militar llamado Charles Barbier para transmitir órdenes a puestos de
avanzada sin tener necesidad de delatar la posición durante las noches. Louis Braille, al cabo de un
tiempo descubrió que el sistema era válido y lo reinventó utilizando un sistema de 8 puntos. Al cabo
de unos años lo simplificó dejándole en el sistema universalmente conocido y adoptado de 6 puntos.
El método Braille permite a que los niños ciegos pueden leer y escribir con sus manos
Se trata de un método lógico de puntos en relieve, distribuidos en 2 columnas de 3 puntos para cada
símbolo o letra, por lo cual una persona ciega puede, a través del tacto de la punta de sus dedos, leer
lo que, con un aparato especial denominado pizarra y un punzón, se diseñó anteriormente. Es decir,
es como leer y escribir con sus manos.
Para empezar a utilizar el método Braille, es necesario que el niño tenga buena orientación espacial y
un tacto entrenado. Debe dominar los conceptos arriba, abajo, derecha, u otros, el conocimiento de
figuras geométricas elementales y siluetas sencillas y el conocimiento de los signos Braille. La escritura
del Braille puede hacerse de dos formas: manual o utilizando un teclado. La lectura se realiza primero
colocando el libro en horizontal. Luego se colocan los dedos sobre el renglón, haciendo una pequeña
presión. No se puede palpar, y hay que utilizar ambas manos independientemente.
El braille resulta interesante también por tratarse de un sistema de numeración binario que precedió
a la invención de los computadores.
El PC (Personal Computer)
Los computadores analógicos comenzaron a construirse a principios del siglo XX. Los primeros modelos realizaban los cálculos mediante ejes y engranajes giratorios. Con estas máquinas se evaluaban
las aproximaciones numéricas de ecuaciones demasiado difíciles como para poder ser resueltas mediante otros métodos. Durante las dos guerras mundiales se utilizaron sistemas informáticos analógicos,
primero mecánicos y más tarde eléctricos, para predecir la trayectoria de los torpedos en los submarinos y para el manejo a distancia de las bombas en la aviación.
computadores electrónicos
Durante la II Guerra Mundial (1939-1945), un equipo de científicos y matemáticos que trabajaban en
Bletchley Park, al norte de Londres, crearon lo que se consideró el primer computador digital totalmente electrónico: el Colossus. Hacia diciembre de 1943 el Colossus, que incorporaba 1.500válvulas o
tubos de vacío, era ya operativo. Fue utilizado por el equipo dirigido por Alan Turing para descodificar
los mensajes de radio cifrados de los alemanes. En 1939 y con independencia de este proyecto, John
Atanasoff y Clifford Berry ya habían construido un prototipo de máquina electrónica en el Iowa State
College (EEUU). Este prototipo y las investigaciones posteriores se realizaron en el anonimato, y más
tarde quedaron eclipsadas por el desarrollo del Calculador e integrador numérico digital electrónico
(ENIAC) en 1945. El ENIAC, que según mostró la evidencia se basaba en gran medida en el ‘ordenador’
Atanasoff-Berry (ABC, acrónimo de Electronic Numerical Integrator and Computer), obtuvo una patente
que caducó en 1973, varias décadas más tarde.
A finales de la década de 1950 el uso del transistor en los ordenadores marcó el advenimiento de elementos lógicos más pequeños, rápidos y versátiles de lo que permitían las máquinas con válvulas. Como
los transistores utilizan mucha menos energía y tienen una vida útil más prolongada, a su desarrollo se
debió el nacimiento de máquinas más perfeccionadas, que fueron llamadas ordenadores o computadoras de segunda generación. Los componentes se hicieron más pequeños, así como los espacios entre
ellos, por lo que la fabricación del sistema resultaba más barata.
Circuitos integrados
A finales de la década de 1960 apareció el circuito integrado (CI), que posibilitó la fabricación de varios
transistores en un único sustrato de silicio en el que los cables de interconexión iban soldados. El circuito integrado permitió una posterior reducción del precio, el tamaño y los porcentajes de error. El
microprocesador se convirtió en una realidad a mediados de la década de 1970, con la introducción
del circuito de integración a gran escala (LSI, acrónimo de Large Scale Integrated) y, más tarde, con el
circuito de integración a mayor escala (VLSI, acrónimo de Very Large Scale Integrated), con varios miles
de transistores interconectados soldados sobre un único sustrato de silicio.
El primer registro que se conoce del término “computadora personal” apareció en la revista New Scientist en 1964, en una serie de artículos llamados «El mundo en 1984». En un artículo titulado The Banishment of Paper Work, Arthur L. Samuel, del Centro de Investigación Watson de IBM escribió: «Hasta
que no sea viable obtener una educación en casa, a través de nuestra propia computadora personal, la
naturaleza humana no habrá cambiado».
La primera generación que comenzó a fabricarse en los años setenta, era mucho menos polifacética y
potente que las computadoras de las empresas de aquel entonces, y en general eran utilizadas por los
aficionados a la informática para jugar. Fue el lanzamiento de la hoja de cálculo VisiCalc, en principio
para Apple II y después para el IBM PC, la verdadera aplicación que logró convertir a la microcomputadora en una herramienta de trabajo. El bajo costo de las computadoras personales le hizo adquirir una
gran popularidad tanto para las familias como para los trabajadores en los años ochenta.
En los noventa el poder de las computadoras personales aumentó de manera radical, borrando la frontera desfasada que había entre las computadoras personales y las computadoras de varios usuarios
como las computadoras centrales. Hoy las computadoras de gama alta se distinguen de las computadoras personales por su mayor fiabilidad o su mayor habilidad para realizar multitareas y no por la
potencia de la CPU.
La mayoría de las computadoras personales utilizan una arquitectura de soporte físico compatible con
el PC de IBM, usando procesadores compatibles con x86 realizados por Intel, AMD o Cyrix.
A pesar de la enorme popularidad de la computadora personal, varias microcomputadoras incompatibles con IBM (también llamados de manera general computadoras personales) son todavía populares
para determinados usos específicos. La principal alternativa, hasta hace poco, era la computadora con
procesador PowerPC, con el sistema operativo Mac OS X de Apple Computer (aunque otros sistemas
operativos pueden correr sobre esta arquitectura), que se usa sobre todo para diseño gráfico y usos
relacionados, sirviendo también perfectamente para un usuario doméstico. Hay que decir que a partir
de 2006 las computadoras de Apple usan microprocesadores de Intel y ya no se fabrican PowerPC. Pese
a ello siguen siendo incompatibles (los compatibles utilizan BIOS y los Mac EFI).
La computadora personal es en una palabra consumidor-amistosa para la segunda generación de computadoras de escritorio, que se incorporaron en el mercado a 1977 y llegaron a ser de uso común durante
los años 80. También se conocen como computadoras personales.
La computadora personal llegó a ser de fácil adquisición para el público en general debido a la producción en masa del microprocesador basado en el chip de silicio y como el nombre indica, pensada para ser
utilizada en el hogar antes que en negocios/contextos industriales. También fueron diseñadas para ser
inmediatamente útiles a los clientes no técnicos, en contraste con las microcomputadoras de la primera
generación que vinieron como kits y requirieron a menudo habilidades en electrónica. El uso del término
“computadora personal” murió en gran parte hacia finales de la década (en los EE.UU.) o en los años 90
tempranos (en Europa). Esto se debió a la aparición de la computadora personal compatible de la PC de
IBM, y a la preferencia consiguiente por el término “PC” antes que “la computadora personal”.
El internet
Internet es un conjunto de redes locales conectadas entre sí a través de una computadora especial por
cada red, conocida como gateway o puerta. Las interconexiones entre gateways se efectúan a través de
diversas vías de comunicación, entre las que figuran líneas telefónicas, fibras ópticas y enlaces por radio.
Pueden añadirse redes adicionales conectando nuevas puertas. La información que se debe enviar a una
máquina remota se etiqueta con la dirección computerizada de dicha máquina.
Los distintos tipos de servicio proporcionados por Internet utilizan diferentes formatos de dirección
(véase Dirección de Internet). Uno de los formatos se conoce como decimal con puntos, por ejemplo
123.45.67.89. Otro formato describe el nombre del ordenador de destino y otras informaciones para el
enrutamiento, por ejemplo “mayor.dia.fi.upm.es”. Las redes situadas fuera de Estados Unidos utilizan sufijos que indican el país, por ejemplo (.es) para España o (.ar) para Argentina. Dentro de Estados Unidos,
el sufijo anterior especifica el tipo de organización a que pertenece la red informática en cuestión, que
por ejemplo puede ser una institución educativa (.edu), un centro militar (.mil), una oficina del Gobierno
(.gov) o una organización sin ánimo de lucro (.org).
Una vez direccionada, la información sale de su red de origen a través de la puerta. De allí es encaminada
de puerta en puerta hasta que llega a la red local que contiene la máquina de destino. Internet no tiene
un control central, es decir, no existe ningún ordenador individual que dirija el flujo de información. Esto
diferencia a Internet y a los sistemas de redes semejantes de otros tipos de servicios informáticos de red
como CompuServe, America Online o Microsoft Network.
Los orígenes de Internet hay que buscarlos en un proyecto del Departamento de Defensa estadounidense
que pretendía obtener una red de comunicaciones segura que se pudiese mantener aunque fallase alguno de sus nodos. Así nació ARPA, una red informática que conectaba ordenadores localizados en sitios
dispersos y que operaban sobre distintos sistemas operativos, de tal manera que cada ordenador se
podía conectar a todos los demás. Los protocolos que permitían tal interconexión fueron desarrollados
en 1973 por el informático estadounidense Vinton Cerf y el ingeniero estadounidense Robert Kahn, y son
los conocidos Protocolo de Internet (IP) y Protocolo de Control de Transmisión (TCP). Fuera ya del ámbito
estrictamente militar, esta Internet incipiente (llamada Arpanet) tuvo un gran desarrollo en Estados Unidos, conectando gran cantidad de universidades y centros de investigación. A la red se unieron nodos de
Europa y del resto del mundo, formando lo que se conoce como la gran telaraña mundial (World Wide
Web). En 1990 Arpanet dejó de existir.
A finales de 1989, el informático británico Timothy Berners-Lee desarrolla la World Wide Web para la
Organización Europea para la Investigación Nuclear, más conocida como CERN. Su objetivo era crear una
red que permitiese el intercambio de información entre los investigadores que participaban en proyectos vinculados a esta
organización. El objetivo se logró utilizando archivos que contenían la información en forma de textos, gráficos, sonido y
vídeos, además de vínculos con otros archivos. Este sistema de hipertexto fue el que propició el extraordinario desarrollo
de Internet como medio a través del cual circula gran cantidad de información por la que se puede navegar utilizando los
hipervínculos.
Además de la utilización académica e institucional que tuvo en sus orígenes, hoy se emplea Internet con fines comerciales.
Las distintas empresas no sólo la utilizan como escaparate en el que se dan a conocer ellas mismas y sus productos, sino
que, a través de Internet, se realizan ya múltiples operaciones comerciales. Especialmente la banca tiene en la red uno de
sus puntos estratégicos de actuación para el futuro próximo.
En estos momentos se está desarrollando lo que se conoce como Internet2, una redefinición de Internet que tiene como
objetivo principal lograr el intercambio de datos multimedia en tiempo real. El avance ha de venir de la mano de la mejora
en las líneas de comunicación, con el ancho de banda como principal aliado.
El crecimiento explosivo de Internet ha hecho que se planteen importantes cuestiones relativas a la censura. El aumento
de las páginas Web que contenían textos y gráficos en los que se denigraba a una minoría, se fomentaba el racismo o se
exponía material pornográfico llevó a pedir que los suministradores de Internet cumplieran voluntariamente unos determinados criterios.
La censura en Internet plantea muchas cuestiones. La mayoría de los servicios de la red no pueden vigilar y controlar
constantemente lo que los usuarios exponen en Internet a través de sus servidores. A la hora de tratar con información
procedente de otros países surgen problemas legales; incluso aunque fuera posible un control supranacional, habría que
determinar unos criterios mundiales de comportamiento y ética.
Descargar