Untitled

Anuncio
Definición
Informática la ciencia que estudia los sistemas inteligentes se información se le
denomina informática. En otras palabras, la informática es la ciencia enfocada al
estudio de las necesidades de información, de los mecanismos y sistemas requeridos
para producirla y aplicarla, de la existencia de insumos y de la integración coherente
de los diversos elementos informativos que se necesitan para comprender una
situación.
La definición del IBI (Oficina Intergubernamental para la Informática) es: "La aplicación
racional y sistemática de la información en los problemas económicos, sociales y
políticos"; también señala que la informática es la "ciencia de la política de la
información".
Si buscas el concepto en un diccionario, muy probablemente encuentres una definición
según la cual computación e informática son prácticamente lo mismo.
Por ejemplo, el diccionario de la Real Academia de la Lengua Española señala que
informática es el "conjunto de conocimientos científicos y técnicas que hacen posible el
tratamiento automático de la información por medio de ordenadores (computadoras)".
Es más, en el mismo diccionario se apunta que "informática" es la palabra que se usa
en América para hablar de "computación".
Introducción
El ser humano siempre ha necesitado encontrar métodos rápidos y efectivos para
resolver sus cálculos, y con ayuda de su gran inventiva ha conseguido a través de los
siglos desarrollar las computadoras. Hoy en día ya estamos acostumbrados a vivir con
ellas, o casi, y no nos percatamos de que su aparición ha tenido una gran influencia en
diversos aspectos de nuestra vida diaria, mejorándola y abriendo puertas que antes
eran desconocidas para la humanidad.
En sus orígenes, bastantes años antes de Cristo, el cálculo tenía bastantes
problemas para poder desarrollarse. Uno de ellos era que no existía un mecanismo
fácil para escribir el enunciado de los problemas y para anotar los resultados
intermedios, dificultando así el trabajo de las personas que buscaban la solución de un
cálculo. Dado este problema y la necesidad de obtener resultados rápidos y exactos
procedente de los campos del comercio, impuestos, calendarios, organización militar,
etc., en la historia de la humanidad se han ido construyendo distintos instrumentos y
maquinas que simplificaran notablemente los cálculos humanos.
La computadora u ordenador, no es un invento de alguien en particular, sino el
resultado evolutivo de ideas y realizaciones de muchas personas relacionadas con
áreas tales como la electrónica, la mecánica, los materiales semiconductores, la lógica,
el álgebra y la programación.
Historia de la Informática
El origen de las máquinas de calcular está dado por el ábaco chino. El ábaco no era
otra cosa que un rudimentario marco o tablilla de madera dotada de una serie de
varillas verticales que dividían la tabla en varias columnas, en las cuales habían una
serie de bolas o anillos a modo de cuentas. La columna situada más a la derecha
representaba las unidades, la anterior a las decenas y así sucesivamente. En la parte
inferior de cada columna existían cinco cuentas elementales y, situadas en la parte
superior otras dos de distinto color que representaban cinco unidades. Así,
representando un número en el ábaco mediante las cuentas situadas en las columnas
correspondientes, las sumas se realizaban añadiendo las cuentas necesarias a cada
columna dígito a dígito, de forma que si en este proceso se completaba alguna
columna con diez cuentas, éstas eran eliminadas y se sumaba una cuenta en la
columna inmediatamente a su izquierda.
Desde épocas tempranas se han manipulado piedras sobre el polvo o usado un palo
o el propio dedo sobre tablas de polvo (como sustitución del papel y la tinta) para
hacer operaciones. Por eso se cree que la palabra semítica abaq (polvo) es la raíz de
nuestra palabra moderna ábaco; y que fue adoptada por los griegos que utilizaban la
palabra abax para nombrar la superficie plana en la que dibujaban sus líneas de
cálculo. Como gran parte de la aritmética se realizaba en el ábaco, llegó un momento
en el que ambas palabras se utilizaban indistintamente, considerándose sinónimos.
Su origen no está muy claro, y probablemente comenzó simplemente como piedras
que se movían en líneas dibujadas sobre polvo. Pero lo que sí es seguro es que por el
1000 a.C. en la civilización china el ábaco era una herramienta indispensable para
efectuar todas las transacciones comerciales en las que era necesario realizar
operaciones rápidas y eficaces.
Otro de los hechos importantes en la evolución de la informática lo situamos en el
siglo XVII, donde el científico francés Blas Pascal inventó una máquina calculadora.
Ésta sólo servía para hacer sumas y restas, pero este dispositivo sirvió como base
para que el alemán Leibnitz, en el siglo XVIII, desarrollara una máquina que, además
de realizar operaciones de adición y sustracción, podía efectuar operaciones de
producto y cociente. Ya en el siglo XIX se comercializaron las primeras máquinas de
calcular. En este siglo el matemático inglés Babbage desarrolló lo que se llamó
"Máquina Analítica", la cual podía realizar cualquier operación matemática. Además
disponía de una memoria que podía almacenar 1000 números de 50 cifras y hasta
podía usar funciones auxiliares, sin embargo seguía teniendo la limitación de ser
mecánica.
Recién en el primer tercio del siglo XX, con el desarrollo de la electrónica, se
empiezan a solucionar los problemas técnicos que acarreaban estas máquinas,
reemplazándose los sistemas de engranaje y varillas por impulsos eléctricos,
estableciéndose que cuando hay un paso de corriente eléctrica será representado con
un *1* y cuando no haya un paso de corriente eléctrica se representaría con un *0*.
Con el desarrollo de la segunda guerra mundial se construye el primer ordenador, el
cual fue llamado Mark I y su funcionamiento se basaba en interruptores mecánicos.
En 1944 se construyó el primer ordenador con fines prácticos que se denominó Eniac.
En 1951 son desarrollados el Univac I y el Univac II (se puede decir que es el punto de
partida en el surgimiento de los verdaderos ordenadores, que serán de acceso común
a la gente).
El avance de la tecnología de las computadoras, a partir de los primeros años del siglo
XX ha sido sorprendente. El descubrimiento de los nuevos dispositivos electrónicos,
los grandes avances de la programación y el acelerado desarrollo de los nuevos
sistemas operativos, han marcado fechas que permiten clasificar a las computadoras
de acuerdo a sus componentes y a su capacidad de procesamiento, agrupándolas por
generaciones.
Hay quienes ubican a la primera a partir de 1937, otros desde 1951 que fue cuando
apareció la primera computadora comercial la UNIVAC (Universal Automatic
Computer), pero no es conveniente tomar partido por alguna de estas teorías, sino
considerar a las fechas en que se dieron los grandes cambios, como parámetros para
determinar el fin de una etapa y el comienzo de otra.
- Primera generación
Las computadoras de esta generación se caracterizaron por estar constituidas de
relevadores (relés) electromecánicos como la MARK I, o de tubos de vacío como la
ENIAC. Eran de un tamaño tan grande que ocupaban espaciosos salones en las
universidades donde fueron desarrolladas.
- Segunda generación
En la segunda generación de computadoras la característica principal en cuanto a los
equipos (hardware) es la inclusión de transistores. Respecto a la programación o
software, siguen dominando los sistemas de tarjeta o cinta perforada para la entrada
de datos. Los laboratorios Bell logran avances muy significativos como la construcción
en 1954, de la primera computadora transistorizada, la TRADIC (Transistorized
Airborne Digital Computer).
- Tercera generación
Lo siguiente fue la integración a gran escala de transistores en microcircuitos llamados
procesadores o circuitos integrados monolíticos LSI (Large Scale Integration), así
como la proliferación de lenguajes de alto nivel y la introducción de sistemas
operativos (comunicación entre el usuario y la computadora).
- Cuarta generación
Empieza con la aparición del primer microprocesador. En 1971, Intel Corporation,
presenta el primer microprocesador o Chip de 4 bit, que en un espacio de
aproximadamente 4 x 5 mm contenía 2250 transistores. Este primer microprocesador
fue bautizado como el 4004.
Esta generación se caracterizó por grandes avances tecnológicos realizados en un
tiempo uy corto. En 1977 aparecen las primeras microcomputadoras, entre las cuales,
las mas famosas fueron las fabricadas por Apple Computer, Radio Shack y
Commodore Business Machines. IBM se integra al mercado de las microcomputadoras
con su Personal Computer; se incluyo un sistema operativo estandarizado, el MS-DOS
(MicroSoft Disk Operating System).
- Quinta generación
La quinta generación está en desarrollo desde 1990 hasta la fecha. Hay que
mencionar dos grandes avances tecnológicos que quizás sirvan como parámetro para
el inicio de dicha generación: la creación en 1982 de la primera supercomputadora con
capacidad de proceso paralelo, diseñada por Seymouy Cray, quien ya experimentaba
desde 1968 con supercomputadoras, y que funda en 1976 la Cray Research Inc; y el
anuncio por parte del gobierno japonés del proyecto "quinta generación", que según se
estableció en el acuerdo con seis de las más grandes empresas japonesas de
computación, debería terminar en 1992.
Según este proyecto, la característica principal sería la aplicación de la inteligencia
artificial. Las computadoras de esta generación contiene una gran cantidad de
microprocesadores trabajando en paralelo y pueden reconocer voz e imágenes.
El único proceso que se venido realizando sin interrupciones en el transcurso de esta
generación, es la conectividad entre computadoras, que a partir de 1994, con el
advenimiento de la red Internet y del World Wide Web, ha adquirido una importancia
vital en las grandes, medianas y pequeñas empresas y, entre los usuarios particulares
de computadoras.
Fuentes
http://www.jimenez-ruiz.es/ernesto/II/Historia/treball.html
http://www.monografias.com/trabajos10/recped/recped.shtml
http://es.wikipedia.org/wiki/Anexo:Historia_de_la_computaci%C3%B3n
http://www.ciberhabitat.gob.mx/museo/historia/
http://html.rincondelvago.com/historia-de-la-informatica_12.html
Trabajo realizado por Javier López y Alodia Vergara.
Descargar