Universidad Nacional del Nordeste Facultad de Ingeniería Secretaria de Integración Estudiantil Sistema de Acción Tutorial INICIO ADELANTADO DE CLASES DE PRIMER AÑO MÓDULO 4 2015 INFORMATICA 2016 Autoridades UNIVERSIDAD NACIONAL DEL NORDESTE FACULTAD DE INGENIERIA MODULO INFORMATICA Rectora de la UNNE Prof. Delfina VEIRAVÉ Facultad de Ingeniería Decano Ing. José Leandro BASTERRA Vice-Decano Ing . Arturo Alfredo BORFITZ Secretario Administrativo Ing. Gustavo Horacio DEVINCENZI Secretario de Investigación y Posgrado Dr. Ing. Mario Eduardo DE BORTOLI Secretario Académico Ing. Arturo Alfredo BORFITZ Secretaria de Integración Estudiantil Ing. María Teresa CLEMENTE Secretario de Extensión y Transferencia Prof. Juan José CORACE Compilador Arturo Alfredo Borfitz Material elaborado por Ing. Gustavo Devincenzi Edición Bárbara Lockett Editorial Facultad de Ingeniería Resistencia, diciembre de 2016 Este Módulo intenta brindar conocimientos sobre conceptos in troductorios de Informática, para comprender el significado del término y conocer los componentes de la computadora y su evolución en el tiempo. 3 UNIVERSIDAD NACIONAL DEL NORDESTE FACULTAD DE INGENIERIA MODULO INFORMATICA En la primera parte de este Módulo observaremos que el tratamiento de la información es tan antiguo como el hombre. A lo largo de su historia no ha parado de crear máquinas y métodos para procesarla. En esta sección descubriremos el origen del vocablo, los tipos de operaciones que pueden llevarse a cabo y sus elementos básicos. Objetivos o Adquirir una visión global de un sistema informático: procesador, memoria y periféricos, orientados a la solución de problemas mediante la ejecución de un programa. o Distinguir y clasificar los elementos que forman parte de un sistema informático. o Identificar los momentos más importantes en la evolución de los medios de procesamiento y tratamiento de la información a lo largo de la historia de la humanidad. Contenidos 1. Definición y origen del término Informática. 2. Elementos y conceptos fundamentales. 3. Dato e información. 4. Tipos, evolución e historia de las computadoras. 5. Estructura general de una computadora. 6. Aplicaciones de la Informática. 4 UNIVERSIDAD NACIONAL DEL NORDESTE FACULTAD DE INGENIERIA MODULO INFORMATICA Definición y origen del término Informática El hombre, en su afán de comunicarse, ha necesitado transmitir y tratar la información de manera continua y para ello ha creado métodos y máquinas que la procesan. De esta manera surge la Informática. Con la aparición de las primeras computadoras en la década del „50 y su gran difusión en los años ‟80, con la creación de las primeras PC (Computadoras Personales), surge una nueva manera de tratamiento de la información, teniendo en cuenta su gran importancia en el mundo actual y el gran volumen que se procesa. El término Informática se creó en Francia en el año 1962 bajo la denominación “Informátique” y procede de la contracción de la palabra INFORmación autoMÁTICA. Informática es el conjunto de conocimientos científicos y técnicas que hacen posible el tratamiento automático y racional de la información por medio de computadoras. Otra definición de Informática sería: Ciencia del tratamiento automático y racional de la información considerada como el soporte de los conocimientos y las comunicaciones. Por automático se refiere a que la máquina es la encargada de la captura, proceso y presentación de la información. Entendemos por racional a que todo proceso ejecutado por la máquina está regulado por una secuencia de instrucciones (los programas) que siguen el razonamiento del hombre. Entre las funciones más importantes de esta ciencia están: Desarrollo de nuevas máquinas. Desarrollo de nuevos métodos. Construcción de aplicaciones informáticas. Optimización de métodos y aplicaciones existentes. 5 UNIVERSIDAD NACIONAL DEL NORDESTE FACULTAD DE INGENIERIA MODULO INFORMATICA Elementos y conceptos fundamentales A continuación veremos definiciones de los términos más utilizados de la Informática: Computadora: máquina compuesta de elementos físicos, en su mayoría de origen electrónico, capaz de realizar una gran variedad de trabajos a gran velocidad y precisión, siempre que se le brinden las instrucciones adecuadas. Programas: conjunto de órdenes que se le dan a una computadora para realizar un proceso determinado. Aplicación Informática: uno o más programas y la documentación pertinente. Sistema: conjunto de partes integradas para lograr un objetivo. Por lo tanto, la computadora es un sistema por ser un conjunto de partes integradas que tienen el objetivo de ejecutar instrucciones de un programa. Sistema Informático: conjunto de elementos necesarios, denominados recursos, como por ejemplo computadoras, terminales, impresoras, etc., para el tratamiento de la información. Información: conocimiento producido como resultado del procesamiento de los datos. En un sentido más estricto, existe información cuando lo aportado sirve para la toma de una decisión. Carácter: es cualquier símbolo numérico, alfabético o especial que se emplea en la escritura y en el cálculo: - Numéricos: 0, 1, 2, 3, 4,......, 9 - Alfabéticos: a, b, c, d, e,.......z, A, B, C,....., Z - Especiales: *, /, -, +, ”, @, :, ;, _, ?, !, ... - De control: retorno de carro, fin de archivo, tabulador,... Dato e información Dato El dato (del latín datum) es una representación simbólica (numérica, alfabética, algorítmica etc.), atributo o característica de una entidad. El dato no tiene valor semántico (sentido) en sí mismo, pero convenientemente tratado (procesado) se puede utilizar en la realización de cálculos o toma de decisiones. Según los autores Saroka y Collazo: Un dato es una re-presentación formalizada de entidades o hechos, adecuada para la comunicación, interpretación y procesamiento por medios humanos o automáticos. Información es el significado que una persona asigna a un dato. 6 UNIVERSIDAD NACIONAL DEL NORDESTE FACULTAD DE INGENIERIA MODULO INFORMATICA Como se aprecia, un dato no constituye algo significativo como para posibilitar una decisión ya que constituye una simple descripción o representación de hechos, acontecimientos o estados. El dato es un material de valor escaso o nulo para un individuo en una situación concreta. Esa significación o valor la otorgará un proceso determinado que transformará al dato en información: El Procesamiento de la información consiste en operar o procesar un conjunto de datos de entrada, obteniendo como resultado del mismo un conjunto de datos finales o de salida al que denominamos información, todo en relación al procesamiento realizado. Este procesamiento de la información está constituido por las siguientes actividades: ƒ ƒ ƒ ƒ Recolección Depuración/Verificación Conversión Almacenamiento Proceso 2 ƒ ƒ Aritmético Lógico Salida 3 ƒ ƒ Generación de resultados Distribución de resultados Entrada 1 PROCESAMIENTO DE LA INFORMACIÓN 1. Los datos deben ser registrados antes de procesarse. Pueden ser captados automáticamente (por la computadora o sistemas de captación específicos, por ejemplo detectando sonidos, temperaturas, códigos de barras, etc.) o ingresados en forma manual (normalmente como letras, números u otros caracteres). 2. Sobre los datos de entrada podemos realizar operaciones: Aritméticas: sumas, restas, divisiones... (sobre datos numéricos) Lógicas mayor que..., menor que..., etc., de ordenamiento, de clasificación, etc. (sobre todo tipo de datos) 3. Una vez que han sido procesados los datos de entrada, sobre ellos se pueden realizar operaciones como: Almacenamiento en un soporte de información. Recuperación de la información a través de consultas, comunicación o distribución de la información al destinatario -llamado usuario final- para la toma de una decisión. 7 UNIVERSIDAD NACIONAL DEL NORDESTE FACULTAD DE INGENIERIA MODULO INFORMATICA Entonces vemos que en el tratamiento de la información aparecen implicadas algunas o todas las operaciones que a continuación se exponen: Lectura: consiste en adquirir la información que luego será utilizada en otras operaciones. Almacenamiento de la información en un soporte para hacer uso de ella cuando se precise. Clasificación: permite ordenar la información guardada en un medio de almacenamiento. De este modo podemos acceder cuando sea necesario a una parte o a la totalidad de la información. Cálculo aritmético y lógico: nos permite procesar operaciones aritméticas y lógicas. Copia: consiste en transcribir la información a otro soporte. Escritura: consiste en mostrar la información, lo que debería ser de una manera clara y ordenada sobre un soporte dado, por ejemplo papel. La diferencia con respecto a la copia es que en este caso la información a mostrar deberá ser lo más legible y entendible para el usuario (no para la máquina), mientras que en la copia dicha información se encuentra en un formato que la máquina reconoce. Información. Efectividad y eficiencia. Por regla general, cuanto más sirva la información para reducir la incertidumbre en las decisiones que se toman en todos los niveles, mayor será su valor. Pero, a semejanza de otros recursos básicos con que se cuenta, la información no suele ser gratuita. Casi siempre es preciso comparar el costo de adquisición de la información con los beneficios que se pueden obtener de su uso. Así como en términos económicos no tiene sentido gastar cien pesos para extraer carbón de una mina por valor de 75 pesos, es igualmente absurdo producir información que cuesta cien pesos si dicha información no conduce a acciones que produzcan una utilidad mayor. En términos generales, la información que es precisa, oportuna, completa y concisa es más útil que la información que carece de una o más de estas características. Sin embargo, a menudo se hacen concesiones respecto a una o más de estas propiedades, por razones económicas. Si empleamos los conceptos de evaluación propios del análisis de sistemas (efectividad y eficiencia) podemos obtener las conclusiones que en algunos textos se mencionan como principios de la información. Efectividad La efectividad de la información dependerá de: a. Su capacidad, o grado de incertidumbre que puede reducir (principio de relevancia). Como analizamos antes, la capacidad reposa en los requisitos que hacían el valor de información. En este punto se suelen mencionar los conceptos de: Información por excepción, donde se trata de crear una estructura informativa que permita filtrar los mensajes posibles, eligiendo aquellos que escapan de unos límites de normalidad prefijados. Información por selección, donde la estructura clasifica los acontecimientos referidos por los mensajes, según el valor que estos acontecimientos tienen dentro del conjunto total del problema. 8 UNIVERSIDAD NACIONAL DEL NORDESTE FACULTAD DE INGENIERIA MODULO INFORMATICA Este concepto, EFECTIVIDAD, se ha denominado también clasificación A - B - C o Principio de Pareto y se puede ejemplificar así: en todo sistema donde se concreta un gran número de acontecimientos, se verifica que unos pocos de ellos representan la mayor parte del valor total. En un gráfico esta situación se puede visualizar de la siguiente forma (ubicar los casos según su valor respecto al problema, de mayor a menor en la secuencia de las abscisas): Valor del problema (en %) 100 % 90 40 A B 10 C 40 100 Cantidad de casos ½ En forma aproximada se observará que un 10% de los casos representa un 60% del valor total (por ejemplo, saldo de deuda de clientes o valor de los productos de un stock); un 40% representa un 90% y el 60% final representa sólo un 10%. Aceptando esto, una mejora del 10% en el grupo A dará como resultado un efecto total del 6%, mientras que en el grupo C este efecto sólo se consigue con un cambio del 60%. La información por selección será aquella que, usando este concepto, se concentra en el grupo A, toma con menos detalle el grupo B y asigna una mínima importancia al grupo C. b. La confiabilidad, que representa a la seguridad que ofrece un mensaje respecto del estado que confirma (principio de corrección). Un punto fundamental en esta cuestión es la precisión requerida en la medición que implica la información. Cuanto mayor precisión se requiera, mayor posibilidad de incorrección y, consecuentemente, para lograr un grado determinado de confiabilidad habrá que incurrir en costos adicionales. La precisión es la razón entre la información correcta y la cantidad total de información que se produce en un período. Si se producen 1000 elementos de información y 950 de estos elementos reflejan correctamente la situación real, entonces el nivel de precisión es de 0.95. El que este nivel sea o no suficiente dependerá de la información que se produce. Cincuenta saldos bancarios incorrectos, en una remesa de 1000 estados de cuenta, son intolerables. Pero si los registros de inventarios físicos de grandes cantidades de piezas de bajo costo logran un nivel de precisión de 0.95, podría considerarse aceptable. En el caso de los estados de cuenta bancarios, es necesario obtener mayor precisión. En el caso de inventario de piezas, podría lograrse mayor precisión, pero el 9 UNIVERSIDAD NACIONAL DEL NORDESTE FACULTAD DE INGENIERIA MODULO INFORMATICA valor adicional que tendría para los gerentes el contar con un inventario más preciso podría ser menor que los costos adicionales que implicaría el obtenerlo. Hay que tener presente que la corrección no es una propiedad absoluta, sino relativa al uso a dar a la información. Por ejemplo, para ciertos fines legales, la utilidad de la empresa debe ser expresada con una precisión de centavos; para calcular una tendencia con datos de 20 años, se puede trabajar en miles o millones de pesos. Cuando no se conoce el uso a dar a un dato, se trata de registrarlo con la mayor precisión posible, por si acaso. Esta política obliga a costos adicionales, no siempre justificables. Alguien mencionó en una oportunidad que con 4 dígitos significativos y el orden de magnitud, era suficiente para cualquier tipo de decisión. La experiencia confirma que, salvo para requerimientos legales (no informativos), este principio es satisfactorio. c. La disponibilidad, consiste en poder contar con la información cuando hay posibilidad de decidir (principio de oportunidad). La oportunidad es otra característica importante de la información. No es mucho consuelo para un gerente saber que la información era precisa si llegó demasiado tarde para servir de algo. La precisión no basta por sí sola. ¿Cuál debe ser la rapidez de respuesta del sistema de información? Desafortunadamente, en este caso tampoco es posible dar una respuesta apropiada para todas las situaciones. En el caso de informes periódicos, una respuesta inmediata después de cada transacción produciría un torrente constante de documentos. El resultado sería una costosa avalancha de papel que abrumaría a los gerentes, por lo que a menudo se requiere un equilibrio. El tiempo de respuesta deberá ser lo bastante corto como para que la información no pierda su frescura y su valor, pero deberá ser lo bastante largo como para que se reduzca el volumen (y el costo) y revele tendencias importantes que indiquen cuándo es necesario actuar. Por supuesto, cuando se requiere el acceso instantáneo a cierta información para la que el tiempo es crítico, es preciso utilizar sistemas en línea de respuesta rápida. Eficiencia La eficiencia de la información depende de la relación del valor y del costo de la misma, es decir que para que la información sea considerada eficiente debe proporcionar un grado de utilidad que justifique el empleo de los recursos que se necesitan para producirla. Economía: El costo de producir una información no debe ser superior al beneficio que se espera de su utilización. La información es un bien económico. Al igual que cualquier otra mercadería: Se puede comprar y vender. Puede envejecer y tornarse obsoleta. Se puede almacenar. Se puede transportar. Puede sobreabundar (stock excesivo) o escasear (stock insuficiente). Requiere inversiones de tiempo, recursos o instalaciones. El costo de la información puede calcularse en forma igual a la empleada para cualquier 10 UNIVERSIDAD NACIONAL DEL NORDESTE FACULTAD DE INGENIERIA MODULO INFORMATICA otro de los productos que resultan de la actividad de una organización. El procedimiento no ofrece variantes respecto del habitualmente seguido en la industria; la diferencia principal radica en la complejidad del proceso y la definición del criterio a aplicar para costear algunas informaciones que se obtienen luego de un procesamiento destinado a producir una información rutinaria imprescindible, por ejemplo, las estadísticas de ventas a partir del proceso de facturación. El procesamiento de datos comprende elaboraciones sucesivas donde se obtienen algunos productos (informes) y se actualizan archivos que luego son usados para producir más información. En algunos casos esta secuencia de elaboración se prolonga por varias etapas, con un buen número de informes producidos durante el ciclo de procesamiento. Un criterio posible de aplicar es el seguido para asignar las erogaciones específicas a los subproductos y a productores secundarios. El otro criterio indica que las erogaciones deben repartirse proporcionalmente entre todo lo producido (coproductos). En éste último caso debe identificarse, además, qué se toma como base para efectuar la distribución (mensajes incluidos en cada informe, líneas impresas, cantidad de páginas). Actividad 1. ¿Por qué cree Ud. que se ha automatizado el tratamiento de la información? Piense algunas razones y escríbalas. 2. Analice y describa alguna tarea en la que usted participa, identificando el procesamiento de datos con que se realiza (Entrada/Proceso/Salida) y la eficiencia de la información en la misma. Guarde la actividad en la carpeta de Informática que deberá presentar a su tutor al finalizar el cursado. Tipos, evolución e historia de las computadoras Una clasificación de tipos de computadoras, según su capacidad de proceso, es: Supercomputadoras. Macrocomputadoras o mainframes. Minicomputadoras. Microcomputadoras o pc´s. Veamos cada una… Supercomputadoras Una supercomputadora es el tipo de computadora más potente y más rápida que existió en un momento dado. Estas máquinas están diseñadas para procesar enormes cantidades de información en poco tiempo y son dedicadas a una tarea específica. Son las más caras, sus precios alcanzan varios millones de dólares y en algunos casos tienen restricciones de ventas por su poder logístico. Suelen tener dispositivos especiales de control de temperatura para disipar el calor que algunos componentes alcanzan a tener. Ejemplos de tareas a las que son expuestas las supercomputadoras: 11 UNIVERSIDAD NACIONAL DEL NORDESTE FACULTAD DE INGENIERIA MODULO INFORMATICA Búsqueda y estudio de la energía y armas nucleares. Búsqueda de yacimientos petrolíferos con grandes bases de datos sísmicos. Estudio y predicción del clima de cualquier parte del mundo. Elaboración de maquetas y proyectos para la creación de aviones, simuladores de vuelo. Debido a su precio y limitaciones de venta, son pocas las supercomputadoras que se construyen por año. Macrocomputadoras o mainframes Las Macrocomputadoras son también conocidas como mainframes. Los mainframes son grandes, rápidos y caros sistemas capaces de controlar cientos de usuarios simultáneamente, así como cientos de dispositivos de entrada y salida. Los mainframes tienen un costo que va desde centenas de miles hasta varios millones de dólares. De alguna forma los mainframes son más poderosos que las supercomputadoras porque soportan más programas y usuarios simultáneamente. Las supercomputadoras en general no suelen atender demasiados usuarios ni demasiados programas, sino que tienen un elevado poder de cálculo. En el pasado, los mainframes ocupaban cuartos completos o hasta pisos enteros de algún edificio. Hoy en día, un mainframe es parecido a una hilera de archiveros en algún cuarto en general con piso falso (para ocultar la cantidad de cables de los periféricos), y su temperatura tiene que estar controlada. Minicomputadoras En 1960 surgió la minicomputadora, una versión más pequeña de la Macrocomputadora. Al ser orientada a tareas específicas, no necesitaba de todos los periféricos que necesita un mainframe, y esto ayudó a reducir el precio y costos de mantenimiento. Las minicomputadoras, en tamaño y poder de procesamiento, se encuentran entre los mainframes y las estaciones de trabajo. En general, una minicomputadora es un sistema multiproceso (varios procesos en paralelo) capaz de soportar de 10 hasta 200 usuarios simultáneamente. Actualmente se usan para almacenar grandes bases de datos, automatización industrial y aplicaciones multiusuario. Estaciones de trabajo Se suele dar esta denominación a equipos orientados a ser utilizados por un solo usuario a la vez, pero que demanda importante cantidad de almacenamiento y de proceso. Suelen ser aplicaciones muy comunes las de simulaciones, algunas incluso en tiempo real (se procesa a medida que ingresan los datos) (simuladores de vuelo, simuladores de procesos, animaciones de video, etc.) Microcomputadoras o PC´s Las microcomputadoras o Computadoras Personales (PC´s) tuvieron su origen al poco tiempo de la creación de los microprocesadores. Un microprocesador es "una computadora en un chip", es un circuito integrado independiente donde se encuentran las principales funcione de la CPU, cuestión que veremos con más detalle más adelante. Las PC´s son computadoras para uso personal, relativamente económicas, que actualmente se encuentran en las oficinas, escuelas y hogares. 12 UNIVERSIDAD NACIONAL DEL NORDESTE FACULTAD DE INGENIERIA MODULO INFORMATICA El término PC se origina en el año 1981, cuando IBM® saca a la venta su modelo "IBM PC", orientada a la Computación Personal (Personal Computing), dirigiéndose a un mercado hogareño emergente que estaba utilizando las denominadas en ese entonces “Home Computers”. El término "PC" se estandarizó; el uso de este tipo de equipos se propagó rápidamente y se comenzaron a diseñar aplicaciones ofimáticas que comenzaron a requerir mayores capacidades de almacenamiento y proceso. Asimismo otras empresas comenzaron a fabricar “clones”, en virtud que IBM dio a conocer la arquitectura y especificaciones básicas de sus equipos, y que los microprocesadores eran fabricados por terceros (en principio Intel, luego se sumaron Cyrix, AMD), estos equipos compatibles, fueron llamados "PC compatibles", usando procesadores del mismo tipo que las IBM, pero a un costo menor y pudiendo ejecutar el mismo tipo de programas. Existen otros tipos de microcomputadoras, como la Macintosh®, que no son compatibles con la IBM, pero que en muchos de los casos son llamadas también "PC´s", por ser de uso personal. En la actualidad existen variados tipos en el diseño de PC´s: Computadoras personales, con el gabinete tipo minitorre, separado del monitor. Computadoras personales, con el gabinete horizontal separado del monitor. Computadoras personales portátiles "Laptop" o "Notebook": son aquellas computadoras que están diseñadas para poder ser transportadas de un lugar a otro. Se alimentan por medio de baterías recargables, pesan entre 2 y 5 kilos y la mayoría trae integrada una pantalla de LCD (Liquid Crystal Display). PalmTop Computadora pequeña que cabe en la mano y que generalmente se maneja desde pantalla táctil. Son útiles como agendas, calendario, anotador de recordatorios, reloj, calculadora, etc. En la actualidad, algunos modelos de telé- fonos celulares comienzan a tener funciones equivalentes a las PalmTop, y vice- versa, algunas PalmTop comienzan a tener funciones de telefonía celular Estaciones de trabajo o Workstations: son computadoras que facilitan a los usua- rios el acceso a los servidores y periféricos de la red. A diferencia de un ordena- dor aislado, tienen una tarjeta de red y están físicamente conectadas por medio de cables u otros medios no guiados con los servidores. En redes, la palabra "workstation" o "estación de trabajo" se utiliza para referirse a cualquier compu- tadora que está conectada a una red de área local Supercomputadora “cray 1” Maiframes 13 Pc con gabinete horizontal UNIVERSIDAD NACIONAL DEL NORDESTE FACULTAD DE INGENIERIA MODULO INFORMATICA Pc con Gabinete minitorre Laptop o notebook Palmtop, computadora de mano Computadoras personales que tienen en una sola unidad compacta el monitor y el CPU Estaciones de trabajo Actividad Ahora le proponemos que reflexione sobre cómo la informática y sus elementos han modificado las actividades cotidianas del hombre actual. Mencione algunos ejemplos. Guarde la actividad en la carpeta de Informática que deberá presentar a su tutor al finalizar el cursado. Evolución de la computadora El desarrollo de este tema ayudará a comprender cómo han evolucionado los medios de procesamiento y tratamiento de la información a lo largo de la historia de la humanidad, poniendo especial énfasis en la etapa de la construcción de las primeras computadoras hasta la actualidad. Ábaco: primer dispositivo de cálculo. Era un marco de madera dividido en dos partes, y una serie de varillas verticales que corresponden, cada una, a un dígito o cifra. El más antiguo se remonta al año 3.500a.C. Servía para representar números en el sistema decimal y contarlos, permitiendo operaciones sencillas. Más tarde, hacia el año 2.600a.C. apareció el ábaco chino. Año 1614: el matemático escocés John Napier, inventa los logaritmos naturales o neperianos. En un intento de simplificar las operaciones construye las primeras tablas, transformando la multiplicación en una suma de logaritmos de los números a multipli- car, la división en una resta y la potencia en un producto. Ideó un dispositivo intermedio entre el ábaco y las primeras calculadoras mecánicas, basado en varillas cifradas que contenían números, capaz de multiplicar y dividir en forma automática. Año 1623: el científico alemán Wihelman Schickard ideó una calculadora mecánica que era capaz de sumar y restar. Esta máquina combinada con la de Napier permitía operaciones de multiplicación. 14 UNIVERSIDAD NACIONAL DEL NORDESTE FACULTAD DE INGENIERIA MODULO INFORMATICA Año 1642 (Pascaline): el matemático y filósofo francés Blas Pascal creó la primera máquina de calcular automática completa basándose en ruedas dentadas que simulaba el funcionamiento del ábaco. Año 1672: el filósofo y matemático alemán Gottfried Leibnitz mejoró la máquina de Pascal construyendo su calculadora Universal (sumaba, restaba, multiplicaba, dividía y obtenía raíces cuadradas) caracterizándose por multiplicar en forma directa y no por sumas sucesivas. Año 1805: el francés Joseph Jacquard construyó un telar automático que realizaba un control perfecto sobre las agujas tejedoras utilizando tarjetas perforadas que contenían los datos para el control de figuras y dibujos a tejer. Año 1822 (Máquina de Diferencias): El matemático inglés Charles Babbage, diseñó dos máquinas de calcular destacadas por su complejidad. La primera estaba basada en fundamentos mecánicos con ruedas dentadas y se llamó Máquina de Diferencias. En 1833 desarrolló la Máquina Analítica: realizaba todas las operaciones matemáticas con posibilidad de ser programadas a través de tarjetas de cartón perforado y con capacidad de almacenar muchas cifras en su interior. Ninguna de las máquinas mencionadas llegaron a construirse. Se lo llamó padre de la informática por ser el creador de los fundamentos teóricos de las computadoras actuales. Año 1854: el matemático inglés George Boole desarrolló la teoría del álgebra de Boole, que permitió a sus sucesores el desarrollo del álgebra binaria y su representación de circuitos de conmutación y la aparición de la “Teoría de los Circuitos Lógicos”. Año 1885 (Máquina Tabuladora): el norteamericano y funcionario de la Oficina de Censos de Estados Unidos Hermann Hollerith, ideó una tarjeta perforada para contener la información de las personas censadas, y una máquina capaz de leer y tabular dicha información. En 1895 incluyó en sus máquinas la operación de sumar, utilizándola para tareas contables: fue la primera vez que se automatizaba una aplicación comercial. Año 1936: el matemático inglés Alan M. Turing desarrolló la teoría de una máquina ca- paz de resolver todo tipo de problemas con solución algorítmica llegando a la construc- ción teórica de la Máquina de Turing. Esta máquina permite representar un proceso a partir de su descripción. Con los estudios de Turing se inició la teoría matemática de la computación, en la que se define un algoritmo como la representación formal de un proceso; en ella se verifica que no todos los procesos son representables. A partir de ello se llegó a la siguiente conclusión: “Un problema tiene solución algorítmica si existe una máquina de Turing para representarla”. Año 1937: Howard Aiken desarrolla la idea de Babbage junto a ingenieros de IBM construyendo la primera computadora electromecánica. Fue denominada Calculadora Automática de Secuencia Controlada, aunque su nombre más popular fue Mark-I. Ten- ía 16,6 m. de largo por 2,6 m. de alto y pesaba 70 toneladas. Fue construida con 800.000 piezas móviles y un cableado de 900.000 metros. Año 1938: el alemán Claude Shannon aplica la teoría de Boole en la representación de circuitos lógicos y aparece la medida mínima de cantidad de información: el BIT. Año 1943-46: John Mauchly y John Eckert construyeron la primera computadora electrónica denominada ENIAC. Construida a partir de válvulas de vacío. Comenzó a funcionar en 1945. Era programable y universal, es decir podía ser aplicada a cualquier tipo de cálculos. Era mil veces más rápida que la Mark-I. Año 1944: el ingeniero y matemático John Von Neumann, desarrolla la idea de programa interno y describe el fundamento teórico de la construcción de la computadora electrónica. Su idea se basaba en la coexistencia en el tiempo de datos e instrucciones y la posibilidad de ser programada, sin estar las órdenes cableadas en los circuitos de la máquina. En 1952 se construyó una máquina, fue el primer intento de la aplicación de esta teoría. Se denominó EDVAC. Se basaba en señales eléctricas sujetas a retar- do y permitía la memorización de datos. 15 UNIVERSIDAD NACIONAL DEL NORDESTE FACULTAD DE INGENIERIA MODULO INFORMATICA Año 1949: John Mauchly y John Eckert, tras fundar su propia compañía desarrollaron una computadora binaria automática llamada BINAC. Realizaba transmisiones de señales internas en paralelo. Con esta computadora se introdujeron novedades como los diodos semiconductores y las cintas magnéticas. Año 1951: Mauchly construye la primera computadora de serie puesta a venta llamada UNIVAC-I. A partir de 1952 se construyeron computadoras en serie como la UNIVAC-II que poseía memoria de núcleos de ferrita. En el cuadro siguiente podrá comparar características y usos de estos dispositivos utilizados para procesar los datos mencionados hasta aquí. EVOLUCIÓN DE LAS COMPUTADORAS NOMBRE / IMAGEN AÑO AUTOR CARACTERÍSTICA ÁBACO 5000 años atrás Se utiliza en la educación, principios de conteo aritmético. --- PASCALINE 1642 Blas cal Pas- Solo sumar y restar, ocupa una caja de zapatos. Su diseño se utilizó en las calculadoras mecánicas de los años 60 y se volvieron obsoletas al seguir las calculadoras electrónicas. (Leonardo da Vinci tuvo una visión 150 años antes). M ÁQUINA DE DIFERENCIAS 1822 Charles Babbage 16 Calculaba tablas matemáticas impulsada con vapor, no fue terminada y se cortó el presupuesto en 1842; tenía 2 m de alto, 3 m de longitud y 4000 partes, pesando 3 toneladas. UNIVERSIDAD NACIONAL DEL NORDESTE FACULTAD DE INGENIERIA MODULO INFORMATICA M ÁQUINA ANALÍTICA 1833 Charles Babbage El diseño de esta máquina incluía la mayoría de las partes lógicas de un ordenador actual: el "almacén", el "taller", el "control", la "entrada" y la "salida". La máquina se programaba a través de tarjetas perforadas. La máquina era capaz de realizar bucles (repetir una o varias instrucciones el número de veces deseado), y también era capaz de tomar decisiones dependiendo del resultado de un cálculo intermedio (ejecutar una sentencia SI...ENTONCES...). El sueño de Babbage de construir esta máquina no pudo realizarse, lo único que pudo construir fueron pequeñas partes. M ÁQUINA TABULADORA 1887-90 Hermann Hollerith M ARK I 1944 Howard Aiken Máquina tabuladora con tarjetas perforadas, acumulaba y clasificaba la información. Se utilizó para el censo de 1890, le redituó 40.000 dólares y el Gobierno de los Estados Unidos se ahorró 5 millones de dólares. Primera computadora electromecánica, Tenía 17 m. de largo por 2.5 m. de alto y pesaba 70 toneladas. Fue construida con 800.000 piezas móviles y un cableado de 900.000 metros. Un adelanto significativo, pero IBM no creía que sustituiría a la de tarjetas perforadas. ENIAC 1946 John Mauchly y John Eckert Electronic Numerical Integrator and Computer (Integrador Numérico Electrónico y Computadora). Se utilizó en la 2ª Guerra Mundial en cálculos balísticos. Tenía un volumen de 111m3, ocupaba 160 m2 de superficie y pesaba 30 toneladas. Consumía entre 100.000 y 200.000 vatios. Cuando funcionaba dejaba sin electricidad a Filadelfia. 17 UNIVERSIDAD NACIONAL DEL NORDESTE FACULTAD DE INGENIERIA MODULO INFORMATICA EDVAC 1945 John Von Newman Trabajó con Eckert y Mauchly para su construcción. Él estableció la base del programa almacenado, fundamental para el futuro de las computadoras. El avance principal fue el proveer a la máquina de transferencia de control condicional y almacenar todas las instrucciones del programa juntas, con los datos en la misma unidad de memoria. Este grupo incluyo en sus equipos memoria RAM. 1951 J. Presper Eckert y John W. Mauchly Universal Automatic Computer (Computadora Automática Universal). Se diseñó para la oficina de censos. Utilizó bulbos. Pronosticó la victoria de Dwight Eisenhower sobre Adlai Stevenson con sólo un 5% de votos contados. UNIVAC Continuamos con la evolución, ya inventadas las computadoras digitales. Año 1964-65: Es inventado en Darmouth College, EE.UU., el lenguaje de programa- ción BASIC (Código de Instrucciones Simbólicas de Propósitos Generales para Princi- piantes). Se fabrica en EE.UU. la primera mini computadora que puede colocarse sobre una mesa de oficina. Año 1971: Intel desarrolla el primer microprocesador INTEL 4004. Ejecuta 60.000 operaciones por segundo. Año 1975-77: primera computadora personal (PC) que aparece en el mercado. Se la llamó ALTAIR de MITS con microprocesador 8088 y 256 bytes de memoria. Se funda la empresa Microsoft, que desarrolla el sistema operativo D.O.S. Luego comienzan a fabricarse las computadoras personales en forma masiva como la Commodore. Año 1978: aparece la primera hoja de cálculo electrónica VisiCalc. Año 1981: IBM lanza la primera PC con microprocesador 8088, 64 kb de Ram y unidad de disquete de 5,25” de 160 kb de un solo lado y desarrolla su propio S.O. PC/DOS. Se fabrica la primera computadora portátil. Años 1984-86: hasta el momento el software escrito era exclusivamente para IBM PC, pero con la aparición de la PC lanzada por Compaq, compatible con IBM, se inicia la guerra de los clones. Compaq lanza la primera PC portátil. Más tarde, IBM saca al mer- cado la PC AT (Advance Technology), basada en el procesador Intel 80286 con 256 kb de Ram y disco rígido de 20 mb. Se populariza el S.O. DOS de Microsoft y se lo toma como norma. Aparece Macintosh: usaba una interfaz con ventanas, menús y mouse. Más tarde Microsoft lanza Windows para PC. En 1985 Intel introduce al mercado el procesador 80386 y es Compaq quien lo incorpora como microprocesador de su PC en 1986. Se crean las primeras unidades de CD ROM, aunque tuvieron éxito a partir de los 90´. Años 1987-89: IBM lanza la PS/2, varios modelos que usan desde el microprocesador 8086 al más recientemente creado 80386. La novedad es que se toma como norma a partir de aquí la unidad de disco flexible de 3.5”, tarjeta de video VGA y la arquitectura 18 UNIVERSIDAD NACIONAL DEL NORDESTE FACULTAD DE INGENIERIA MODULO INFORMATICA de microcanal. Por el costo Compaq, AST y otros fabricantes impusieron una alternativa llamada EISA (Enhaced Industry Standard Architecture). En 1989 Intel muestra su microprocesador 80486, más rápido que su antecesor y con coprocesador matemático. Años 1990-94: a fines del 91 se lanza Windows 3.1 bajo DOS. IBM crea el primer S.O. de 32 bits reales OS/2. La norma es el 386SX de Intel (de 32 bits pero con un bus in- terno de 16 bits). En 1993 se incorpora al mercado Windows NT, S.O. para servidores de red; Intel desarrolla el microprocesador Pentium que dispone de 4.000 mb de Ram, ejecuta 112 millones de instrucciones por segundo, mide 16mm x 17mm y contiene 3,1 millones de transistores (VLSI); los discos rígidos son más veloces y de mayor capaci- dad y se incorporan importantes mejoras en cuanto a la definición gráfica. Año 1995-1997: en 1995 Pentium es la norma. Internet existió desde los años 60‟ en ámbitos universitarios y gubernamentales. A partir de 1993 con la aparición de Mosaic, un visualizador gráfico, cualquier persona podría acceder y publicar una página en WWW (World Wide Web), pero se populariza en esta época. Microsoft presenta Win- dows „95: nueva interfaz que permite trabajar con aplicaciones de 32 bits y en 1996 Windows NT 4.0. Surgen lenguajes y S.O. orientados a objeto. Java de Sun Microsys- tem, lenguaje diseñado para ser utilizado en Internet. Intel crea Pentium Pro, y en 1997 lanza las instrucciones MMX (MultiMedia eXtensions), la primera gran mejora a gran escala del conjunto de instrucciones desde la creación del 386. Anteriormente hemos estudiado acerca de la evolución de las computadoras, ahora veremos cómo éstas se dividen en generaciones. Generaciones de computadoras La evolución de las computadoras digitales suele realizarse conforme los avances tecnológicos en el hardware, dividiéndose en „generaciones‟. El siguiente cuadro representa las generaciones de computadoras. Generación Fechas Características del hardware 1ª 1944-59 Válvulas (tubos de vacíos) 2ª 1959-64 Transistores 3ª 1964-75 Circuitos integrados SSI, MSI y LSI (pequeña, mediana y gran escala de integración) 4ª 1975... Circuitos VLSI (muy alta escala de integración) 5ª En desarrollo Computadoras basadas en “inteligencia artificial” Actividad Utilizando una línea de tiempo, le proponemos que marque los momentos más trascendentes en la evolución de la computadora. Socialice sus conclusiones con sus compañeros en el Foro de Discusión. Guarde la actividad en la carpeta de Informática que deberá presentar a su tutor al finalizar el cursado. 19 UNIVERSIDAD NACIONAL DEL NORDESTE FACULTAD DE INGENIERIA MODULO INFORMATICA Si le interesa ampliar este tema podrá hacerlo en: Wikipedia: Dhttp://es.wikipedia.org/wiki/Historia_de_la_computaci%C3%B3n Departamento de Matemática Aplicada – Universidad Politécnica de Madrid: http://orio.eui.upm.es/historia_informatica/Doc/principal.htm Estructura general de una computadora Como hemos visto anteriormente una computadora (también denominada ordenador en otros países de habla hispana) es una máquina capaz de realizar, bajo el control de un conjunto ordenado de instrucciones, llamado programa, las siguientes acciones propias de un procesamiento de datos: 1. Aceptar datos de entrada. 2. Efectuar con ellos operaciones lógicas y/o aritméticas (procesamiento). 3. Proporcionar la información resultante a través de datos de salida. Las partes principales que podemos distinguir en una computadora son: ƒ Elementos físicos: denominados HARDWARE. ƒ Elementos lógicos: denominados SOFTWARE. Hardware Es una palabra de origen inglés con la que se hace referencia a toda la parte "dura" de la computadora, es decir a la maquinaria real utilizada para el procesamiento electrónico de datos. Todos los sistemas computacionales consisten en alguna combinación de equipamiento principal y equipo de apoyo. El equipo principal (que a menudo se denomina Unidad Central de Procesamiento, UCP según las iniciales en castellano (o CPU su equivalente en inglés) es la parte principal del sistema; es la máquina que realiza el procesamiento real de datos y programas. El equipo de apoyo consta de todas las máquinas que hacen posible introducir datos y programas en la 20 UNIVERSIDAD NACIONAL DEL NORDESTE FACULTAD DE INGENIERIA MODULO INFORMATICA CPU, obtener información procesada y almacenar datos y programas para tener fácil acceso a la CPU. Los equipos de apoyo son denominados periféricos u órganos de entrada/salida (I/O – Input/Output). Los órganos de entrada son dispositivos que convierten los datos y programas en una forma que la CPU puede entender y procesar: son codificadores. Los órganos de salida son dispositivos que convierten los datos procesados en una forma que los usuarios pueden comprender: son decodificadores. Los dispositivos de almacenamiento secundario son equipos que pueden poner fácilmente a disposición de la CPU datos y programas usados con frecuencia. Estas funciones a menudo se superponen en una sola máquina. Por ejemplo, muchas máquinas, trabajan como dispositivos tanto de entrada como de salida. Y todos los dispositivos de almacenamiento secundario funcionan asimismo como dispositivos de entrada y de salida. Entonces hemos observado que: a. Unidad Central de Proceso (CPU): es el cerebro de la computadora. Físicamente está formada por circuitos de naturaleza electrónica que en una microcomputadora se encuentran integrados en una pastilla o chip denominado microprocesador. Coordina y ejecuta todas las operaciones. Está formada por la Unidad de Control y la Unidad Aritmético-Lógica. b. Memoria Central: almacena instrucciones y datos para realizar determinados procesos. Para que un programa pueda ser ejecutado por una computadora debe estar en memoria; así como los datos que necesiten ser procesados. Está constituida por circuitos integrados. c. Periféricos de Entrada / Salida: dispositivos que tienen la función de comunicar información entre el usuario y la computadora, o capaz de manejar un soporte de información. Pueden ser solo de entrada, solo de salida, o de entrada y salida d. Soporte de información: medio físico que permite almacenar datos de forma que la computadora pueda manejarlos o proporcionarlos al usuario de manera inteligible. Por ejemplo CD, DVD, disquete, etc. Al momento de conocer la potencia y/o capacidad de determinado hardware, debemos prestar atención a estas partes componentes. 21 UNIVERSIDAD NACIONAL DEL NORDESTE FACULTAD DE INGENIERIA MODULO INFORMATICA Memoria masiva d, i c d, i Memoria Principal (datos e instrucciones) d, i Entrada e d i e c d Unidad aritmético – lógica (ALU) Unidad de Control (UC) Salida c e d: datos i: instrucciones CPU e: señales de estado c: señales de control e c Actividad Analice el hardware del equipo que está utilizando observando los componentes visibles y descríbalos. Guarde la actividad en la carpeta de Informática que deberá presentar a su tutor al finalizar el cursado. Unidad de Información Los datos que son escritos o leídos por la computadora se representan a través de diferentes unidades de medición. Las mencionamos a continuación. La unidad de información mínima manejable por una computadora es el bit. En virtud que para la representación de información el hombre utiliza caracteres (como mencionamos anteriormente están los numéricos, los alfabéticos y los especiales), se han elaborado códigos que permiten interpretar los mismos en los sistemas informáticos. Estos códigos utilizan actualmente 8 bits, constituyendo esta cantidad una nueva medida conocida como byte. A partir de ésta se definieron múltiplos que son los siguientes: 1 Kilobyte (KB) = 1.024 bytes 1 Megabyte (MB) = 1.024 Kbytes 1 Gigabyte (GB) = 1.024 Mbytes 1 Terabyte (TB) = 1.024 Gbytes 1 Petabyte (PB) = 1.024 Terabyte 22 d UNIVERSIDAD NACIONAL DEL NORDESTE FACULTAD DE INGENIERIA MODULO INFORMATICA La relación de 1024 (equivalente a 2^10) fue elegida por ser la potencia binaria más cercana a 1000. Actualmente hay planteos de modificar estas denominaciones, a los efectos de que coincidan los factores de multiplicación con los prefijos en todas las unidades del Sistema Internacional de medidas (SI). Ello llevaría por ejemplo a que Kilobyte sea igual a 1000 (y no 1024) bytes, y así sucesivamente con todos los prefijos definidos en el SI. Para ello se propone instituir la medida Kibibyte para la relación 1 Kibibyte= 1024 bytes, y sucesivamente. Para mayor información al respecto pueden consultar: http://es.wikipedia.org/wiki/Prefijos_del_SI Para mayor información al respecto pueden consultar en Wikipedia: http://es.wikipedia.org/wiki/Prefijos_del_SI Software Es la parte lógica que dota al equipo físico de capacidad para realizar el procesamiento de los datos. Para estar presente en un sistema informático, un elemento lógico debe almacenarse en un soporte físico. Existen diferentes tipos de software, que se clasifican en: a. Software de base o de sistema: conjunto de programas encargados de la gestión interna de la computadora. Encontramos: ƒ Sistema Operativo: Conjunto de programas y funciones que controlan el funcio- namiento del hardware. ƒ Traductores: ensambladores, compiladores e intérpretes. b. Software de aplicación o aplicativo: programas que dirigen el funcionamiento de la computadora. c. Algunos autores agregan a esta clasificación un tercer grupo al que denominan Software de Usuario Final para incluir a las herramientas de Software que permiten el desarrollo de algunas aplicaciones directamente por los Usuarios Finales, sin necesidad de la intervención de programadores profesionales. Algún tipo de Software para Usuario Final se emplea para estimular la productividad de los programadores profesionales. EL ELEMENTO HUMANO es probablemente el más importante de los elementos de la Informática. Las personas son fundamentales porque: ƒ Las computadoras para procesar necesitan un programa, y éste es desarrollado por profesionales de la informática. ƒ Los componentes de hardware son diseñados y construidos por personas. ƒ Cada empresa necesita de un equipo de informáticos para la instalación y manteni- miento de un sistema informático, y de personas que hagan uso de este sistema, 23 UNIVERSIDAD NACIONAL DEL NORDESTE FACULTAD DE INGENIERIA MODULO INFORMATICA denominados usuarios. Del elemento humano, podemos distinguir al: a. Personal informático: profesionales de informática que llevan a cabo tareas de dirección, análisis, programación, evaluación, implementación, mantenimiento de sistemas, etc. b. Usuario final: persona que utiliza los recursos computacionales para el procesamiento de datos. Aplicaciones de la informática Son innumerables las actividades humanas en donde la informática y las comunicaciones se han convertido actualmente en herramientas fundamentales. Tan es así que han afectando de forma significativa a la gestión, la dirección y la cultura misma de las organizaciones. Los incesantes avances en este campo, hacen que sea la imaginación y la creación el factor principal de las posibilidades de aplicación de la informática. Habiéndose iniciado para facilitar las operaciones de conteo, hoy nos encontramos con computadoras que tienen posibilidades multimediales, interactividad y realidad virtual, en donde el límite de lo realizable suele estar más en la creatividad y capacidad de implementarlo que en la disponibilidad del recurso tecnológico para hacerlo. Estas posibilidades son un verdadero desafío que obliga a los demandantes de servicio a trabajar en equipo con el personal de informática, a los efectos de optimizar el uso de los recursos y desarrollar e implementar las soluciones que satisfagan sus requerimientos, con la mayor eficiencia posible. 24