SECRETARÍA DE EDUCACIÓN PÚBLICA DIRECCIÓN GENERAL DE EDUCACIÓN SUPERIOR ESCUELA NACIONAL DE BIBLIOTECONOMÍA Y ARCHIVONOMÍA APLICACIÓN DE NUEVAS TECNOLOGÍAS DE INFORMACIÓN POR EL PROFESIONAL ARCHIVÓNOMO T E QUE S PARA OBTENER LICENCIADO P R E MARIA I S EN E FELIX N EL A TÍTULO DE ARCHIVONOMÍA N T A ESTEFES : PÉREZ ASESOR:Lic. Doroteo Salomón Hernández Guzmán MÉXICO, D. F. 2005 Hoy es un gran día Hoy es un gran día, hoy termina una larga jornada de sacrificios y desvelos, hoy llego al final de la meta que hace cuatro años y medio me propuse lograr; hoy me doy cuenta que soy una triunfadora porque, tuve la fuerza y la voluntad para vencer las barreras que se me presentaron. Al término de esta etapa de mi vida; quiero expresar un profundo agradecimiento a quienes con su ayuda, apoyo y comprensión, me alentaron a lograr esta hermosa realidad. Gracias por todo. TABLA DE CONTENIDO Prefacio……………………………………………………………………………… 1 Introducción…………………………………………………………………………. 3 CAPÍTULO 1 EVOLUCIÓN DE LAS TECNOLOGÍAS DE INFORMACIÓN……………………………………………………….................... 1.1 Evolución de los soportes de información…………………………………. 5 1.1.1 La escritura……………………………………………………………. 5 1.1.2 El papiro……………………………………………………………...... 8 1.1.3 El pergamino………………………………………………………...... 9 1.1.4 El papel………………………………………………………………… 1.2 La imprenta……………………………………………………………………. 5 10 11 1.3 La máquina de escribir……………………………………………………….. 12 1.4 Historia de las computadoras……………………………………………….. 13 1.4.1 Primera Generación (1940-1958)…………………………………... 14 1.4.2 Segunda Generación (1959-1964)…………………………………. 15 1.4.3 Tercera Generación (1965-1970)…………………………………… 15 1.4.4 Cuarta Generación (1971-1984)……………………………………. 15 1.4.5 Quinta Generación (1984- a la actualidad)………………………… 16 1.5 Redes………………………………………………………………………….. 16 1.5.1 Antecedentes…………………………………………………………… 16 1.6 Reprografia……………………………………………………………………. 17 1.6.1 Fotocopias…………………………………………………………….. 18 1.6.1.1 Copia digital impresa…………………………………........ 19 1.6.1.2 Cintas………………………………………………………... 19 1.7 Microfilmación…………………………………………………………………. 20 1.7.1 Antecedentes históricos……………………………………………… 20 CAPÍTULO 2 NUEVAS TECNOLOGIAS DE INFORMACIÓN……………… 22 2.1 Métodos de microfilmación………………………………………………….. 26 2.1.1 Microformas………………………………………………………….... 28 2.2 Digitalización………………………………………………………………….. 30 2.2.1 Concepto de digitalización…………………………………………... 30 2.2.2 Procesos de la digitalización………………………………………… 31 2.2.3 Almacenamiento……………………………………………………… 32 2.2.3.1 Almacenamiento óptico……………………………………. 32 2.2.3.2 CD-ROM……………………………………………………. 32 2.2.3.3 Cinta digital de audio…………………………………….... 32 2.2.3.4 DVD……………………………………………………….... 32 2.2.4 Indexación…………………………………………………………….. 33 2.2.5 Digitalización de documentos en blanco y negro…………………. 33 2.2.6 Digitalización de documentos en escala de grises……………… 33 2.2.7 Digitalización de documentos en color…………………………….. 34 2.3 Captura de la imagen……………………………………………………….... 34 2.3.1 Escáner……………………………………………………………....... 34 2.3.2 Reconocimiento Óptico de Caracteres (OCR)…………………….. 35 2.4 Bases de datos……………………………………………………………….. 36 2.4.1 Bases de datos jerárquicas…………………………………………. 36 2.4.2 Bases de datos en red……………………………………………….. 36 2.4.3 Bases de datos relacionales………………………………………… 37 2.5 Bases de datos documentales………………………………………………. 37 2.5.1 Las características de las bases de datos son:…………………… 38 2.5.2 Tipos de bases de datos documentales…………………………… 38 2.6 Soportes de almacenamiento de bases de datos……………………….... 39 2.6.1 Sistemas de Gestión Electrónica de Documentos (GED)……… 39 2.6.2 Software de los GED…………………………………………………. 40 2.6.3 Documento electrónico………………………………………………. 41 2.6.4 Metadatos……………………………………………………………... 42 2.7 Redes………………………………………………………………………...... 43 2.7.1 Concepto………………………………………………………………. 43 2.7.2 Tipos de redes………………………………………………………… 43 2.7.2.1 Intranet……………………………………………………..... 46 2.7.2.2 Extranet.……………………………………………………… 47 2.7.2.3 Internet……………………………………………………….. 47 2.7.3 Hipertexto……………………………………………………………… 48 2.7.4 Hipermedia…………………………………………………………..... 50 2.7.5 Multimedia…………………………………………………………….. 51 CAPÍTULO 3 APLICACIÓN DE NUEVAS TECNOLOGÍAS DE INFORMACIÓN POR EL PROFESIONAL ARCHIVÓNOMO………………… 52 3.1 El Profesional Archivónomo…………………………………………………. 53 3.1.2 Perfil……………………………………………………………………. 53 3.1.3 Campo de trabajo…………………………………………………….. 54 3.2 Digitalización de documentos……………………………………………….. 55 3.2.1 Un sistema de digitalización de documentos comprende cinco elementos: ……………………………………………………………. 56 3.2.2 Procesos necesarios a seguir para introducir un sistema de imágenes: …………………………………………………………….. 56 3.3 Archivos electrónicos………………………………………………………… 71 3.3.1 Conservación de la información en soporte electrónico………… 72 3.3.2 Estrategias aplicables para los Archivos electrónicos……………. 76 3.3.3 Tipos de formatos para la información en soporte electrónico….. 77 3.3.3.1 Formatos de texto………………………………………….. 78 3.3.3.2 Formatos de datos estructurados……………………....... 79 3.3.3.3 Formatos gráficos………………………………………….. 79 3.3.3.4 Formatos comprimidos…………………………………..... 79 3.3.4 Soportes de almacenamiento de la información en formato electrónico……………………………………………………………... 79 3.3.4.1 Medidas de almacenamiento y conservación………....... 82 Conclusiones……………………………………………………………….............. 84 Bibliografía………………………………………………………………….............. 85 PREFACIO Las llamadas Nuevas Tecnologías de información y Comunicación, pueden ser concebidas como el conjunto de conocimientos completamente innovadores que están revolucionando la existencia actual, y mantienen una estrecha relación con el mundo de la informática, la microelectrica y las telecomunicaciones, asimismo, se relacionan estrechamente con técnicas y estrategias utilizadas para el procesamiento, almacenamiento y distribución de información por medio de diferentes medios de comunicación. En el campo de la información documental, se da el incremento exponencial de la producción de documentos, con programas informáticos que facilitan su producción y la obtención de copias hasta el infinito. Esto ha contribuido a acelerar aun más las tendencias a través de mecanismos como la Internet que nos permite comunicarnos a nivel mundial, la extranet que es la interacción entre diferentes empresas y la intranet que es la comunicación entre los individuos de una misma compañía. Todo este desarrollo tiene su repercusión en el mundo de los archivos y en el trabajo de los archivonomos, que deberán enfrentarse a la nueva realidad de la producción masiva de documentos en soporte no convencional, con marcadas diferencias y desventajas frente al soporte tradicional en papel al que estamos acostumbrados. Las nuevas tecnologías brindan la posibilidad de automatizar muchos procesos archivisticos con indudables ventajas: la recepción de la información, la gestión administrativa, el almacenamiento, la sustitución de soportes, las transferencias, el control sobre el expurgo, la descripción, la difusión, etc. En esta parte, es donde el profesional Archivónomo tiene una intervención más activa en relación con las entidades productoras de documentación y una aplicación especifica de su profesión, cada vez es más importante; ya que, es la técnica la que va a permitir abordad con éxito el control automatizado de todas las fases del ciclo de vida de los documentos. Me parece muy importante que el profesional archivista conozca las tecnologías que se emplean en el manejo de la documentación e información en los archivos. Por que de su conocimiento (aparte de su formación archivista) y profesionalidad, dependerá la buena o mala aplicación de las tecnologías como herramientas, para ayudar y facilitar el trabajo archivistico. Estos fueron los principales motivos, que me llevaron a la realización de este trabajo. Sin embargo, a lo largo de la investigación, me encontré con varios problemas; en 1 un principio, en la tabla de contenido estructure los puntos con el enfoque inicial del cual fue pensado el titulo del trabajo, sin embargo, en el transcurso del desarrollo de la investigación, me di cuenta que algunos puntos tenia que cambiarlos; por que no tenían una relación directa con el tema. Otro problema al que me enfrente en el momento de recopilar la información, fue el de tener una gran cantidad de información y no saber como empezar a estructurarla. El objetivo que pretendo alcanzar con esta investigación, consiste en dar a conocer algunas tecnologías aplicadas al manejo de la documentación e indicar la forma de su aplicación para el control de la información documental. 2 INTRODUCCIÓN En los últimos años se han desarrollado nuevas aplicaciones en las tecnologías ópticas, los sistemas expertos, la digitalización, los sistemas integrados y las conexiones en red; cuya relación con el manejo de la información es inminente. Las nuevas tecnologías son susceptibles de ser aplicadas en distintas tareas archivisticas; algunas de las herramientas que brinda la informática para el tratamiento archivistito son: la entrada de datos mediante el reconocimiento óptico de caracteres, sistemas de digitalización de datos, almacenamiento de información en discos ópticos, CD-ROM, DVD, el procesamiento de la información a través de los sistemas de bases de datos documentales, o del hipertexto relacionado con la hipermedia. La interconexión a través de redes de comunicación de datos como medio de difusión, tipo Internet, publicaciones electrónicas por medio de discos compactos CD-ROM. Esto implica para la Archivonomía, la necesidad de reforzar sus principios y sus métodos, para buscar su aprovechamiento en aras de una modernización, que sin abandonar los conceptos y principios fundamentales, le permita a la disciplina avanzar al ritmo de las nuevas exigencias. La participación del archivista es indispensable en el manejo de la información y de un archivo; su importancia será cada vez más grande, en relación con su preparación, tanto en el área del manejo de documentos como en la aplicación de las nuevas tecnologías. Los profesionales Archivónomos, nos enfrentamos a grandes retos, nuevas funciones y nuevos desafíos tecnológicos. El desarrollo de este trabajo esta estructurado de la siguiente forma: En el capitulo uno, se hace una breve reseña de la evolución de algunos soportes que fueron utilizados por el hombre, en el momento que tiene la necesidad de plasmar sus ideas para comunicarse con sus semejantes, utilizando algunos medios que la propia naturaleza le brindaba para escribir y trasmitir información, como algunas piedras, la arcilla, el marfil, tablillas enceradas, corteza de árboles, seda y algunos metales. Pasando por la utilización del papiro; obtenido de algunos vegetales de arbustos, el pergamino; obtenido de pieles de animales, hasta llegar a la utilización del papel; obtenido por medio del entretejido de fibras de celulosa vegetal. Se aborda el desarrollo y perfeccionamiento de la imprenta, a partir de la imprenta china, una prensa con moldes de metal. La utilización de la maquina de escribir, las tecnologías mas sofisticadas de la actualidad, que son las computadoras y las redes informáticas, reflejando la importancia de cada una. 3 En el capitulo dos se dan a conocer las nuevas tecnologías de información y su aplicación en relación con el manejo de la información documental. Partiendo de su concepto y utilización; la microfilmación y sus diferentes procesos. La digitalización; desde la forma de digitalizar los diferentes documentos (documentos en blanco y negro y color), los tipos de bases de datos y los soportes utilizados para el almacenamiento de la información, redes y sus diferentes tipos (intranet, extranet, Internet, hipertexto y multimedia). En el capitulo tres, se menciona desde un punto muy general lo que es Archivonomía y el Archivónomo; una vez que es egresado como Profesional de la licenciatura, así como desarrollando el perfil de su formación adquirida, se describe el campo de trabajo como profesional, re saltando la situación laboral que vive en la actualidad y la importancia que tiene la preparación del Archivónomo, pasando al desarrollo del proceso de digitalización de documentos; dando a conocer los elementos que se necesitan para un sistema de digitalización aplicado al manejo de imágenes; otro punto que se aborda es el de la forma de conservar los archivos electrónicos y los cuidados que se deben tener para evitar la perdida de la información que contienen; las diferentes formas en que se presenta la información, una ves estructurada y los diferentes soportes de almacenamiento para el uso de información en formato electrónico y su conservación. El présente trabajo, finalisa con algunas conclusiones, a las que se llego como consecuencia de la investigación realizada. 4 CAPÍTULO 1 EVOLUCIÓN DE LAS TECNOLOGÍAS DE INFORMACIÓN 1.1 Evolución de los soportes de información. A lo largo de la vida del hombre, siempre ha tenido la necesidad de comunicarse con sus semejantes; por tal motivo ha ido creando diferentes medios para poder transmitir lo que desea expresar o comunicar. En épocas pasadas, el hombre se comunicaba a través de las palabras, sin que quedara un antecedente de lo hablado, de ahí la necesidad de inventar sistemas de escritura que al grabarse en diferentes soportes como la piedra, la arcilla, el marfil y algunos metales, dejaron grabados acontecimientos relevantes para la historia. Pasado un tiempo, surgió la necesidad de expresar por medio de signos las ideas, naciendo así la escritura que permitiría a los sacerdotes y a todos los componentes de las sociedades la consignación de hechos, de mandatos y de sentimientos cuya evolución se debe precisamente a la escritura, que a su vez dio origen a la historia. La preocupación del hombre por dejar señales de su existencia lo impulso a grabar en las rocas, con puntas de piedra, todo aquello que lograba llamar su atención, como lo fueron algunos personajes que por ideas supersticiosas los colocaba en un plano superior, los animales que le servían de alimento, etc., naciendo así los primeros documentos escritos mediante signos, símbolos o jeroglíficos que nos han permitido conocer el pasado del ser humano. Los documentos en papiro fueron escritos con instrumentos semejantes a las plumas hechas de los tallos de la caña o de otras plantas. Muchos de los papiros egipcios y otros de más reciente creación fueron escritos con caracteres hieráticos, ó sea mediante los signos jeroglíficos simplificados de tipo cursivo que solían emplear los sacerdotes del Antiguo Egipto. Se empleaba en ellos, como tinta, el negro de humo disuelto en goma, y su escritura estaba constituida por varias columnas estrechas, disposición de la cual derivan la que adoptaron los autores de los primeros CODEX o libros. 1.1 La escritura A fínales del cuarto milenio antes de nuestra era en Mesopotamia, fue inventada la escritura por los sumerios, y evoluciono hasta el sistema de signos en forma de cuña llamado cuneiforme. 5 La escritura jeroglífica (combinación de imágenes y signos) fue desarrollada para satisfacer las necesidades de los reyes y los sacerdotes de Egipto. Pero los sumerios aplicaron la escritura a sus actividades cotidianas en mayor medida aún que los egipcios; no la usaban solo para anotar las transacciones comerciales, sino también para registrar los textos de su religión y su filosofía. La escritura apareció hace poco más de 5000 años. El hombre llego a ella tras lentas etapas anteriores: el desarrollo del lenguaje, el descubrimiento de la representación mediante imágenes, la necesidad de reforzar la memoria almacenando información, el darse cuenta de que se podía usarlas para satisfacer esta necesidad; y el difícil proceso de ensayo y error para adaptarlas a la representación de los sonidos del lenguaje. El sistema de escritura permite relatar por si mismo los pormenores de su vida. Las civilizaciones que nos legaron textos escritos por ellos mismos no son posibles de estudiar en su totalidad, debido ha no contar con todos elementos suficientes; por lo cual se recurre al estudio de restos fósiles, huesos, caparazones y piedras, estos restos hallados hasta el momento, permiten asomarnos al lugar de un largo proceso evolutivo. Los mas antiguos fósiles que se discuten sean humanos o no presentan una antigüedad de 1 millón de años, a ellos pertenecen los Australopitecos que es una extraña mezcla de carácter humano y simiesco, cuyos caracteres son similares pero no iguales. Los restos fósiles más antiguos se encontraron en Etiopia, que algunos especialistas consideran con una antigüedad de 4 millones de años. Mesopotamia es el primer lugar donde se encuentran vestigios de una lengua escrita tan importante como lo son los celtas en la península Ibérica. Babilonia es el punto donde se establecen los primeros jeroglíficos en soporte de tierra tallado, de piedra en piedra o piedra y metal. Los antiguos chinos consideraban a la escritura, como un medio sagrado de comunicarse con los espíritus divinos y con sus antepasados reales. Aristóteles definió la escritura como “símbolos de las palabras habladas”. En el siglo XVIII, el filosofo francés Voltaire afirmaba: “la escritura es la pintura de la voz”.1 Los lingüistas modernos definen la escritura como un sistema de comunicación humana por medio de signos establecidos convencionalmente y que representan un lenguaje. 1 ARMANDO CURCIO Editores: Antiguas Civilizaciones. Como eran y que dejaron. La escritura, México, Tomo 1. 1985. pp.8-12. 6 La escritura es la representación del lenguaje por medio de signos; son signos trazados sobre un soporte material. De la escritura se conoce lo siguiente: No fue creada espontáneamente. Se forma por una serie de ensayos y modificaciones, aun cuando la historia no las registra exactamente. La escritura paso sobre varios procesos, antes de conocerla como tal. LA ESCRITURA PICTOGRAFÌCA. Se representan los objetos traza la figura de los objetos sobre rocas, árboles o cueros. gráficamente, se ESCRITURA IDEOGRAFICA. Consiste en simbolizar un concepto por medio de la cosa que lo evoca más fielmente, como un disco rodeado de rayos representa el sol, el día, luz, etc. ESCRITURA FONETICA. Usa signos para representar sonidos sin tener en cuenta el objeto. La escritura china significo el primer progreso, con signos que se alejan de los objetos que representan. ESCRITURA ALFABETICA. Cada signo es un sonido simple; y con pocos signos se pueden tener todas las combinaciones que se deseen. La creación del alfabeto fue decisiva para la perfección de la escritura. “Entre el 1300 y el 1000 a.C, según la arqueología, se descubre el alfabeto o alifato, que designa la totalidad de los signos fonéticos. La palabra es tomada de las dos primeras letras fenicias aleph, vaca (en griego: alpha) y bet, casa (en griego: beta).”2 La intima relación entre las escrituras griegas y fenicia se da en el nombre de las letras y el modo de escribir de ambos pueblos, que es la dirección de la escritura antigua. La primera manera de escribir fue de derecha a izquierda, sustituida por la escritura que cambia la dirección al final de la línea. Las leyes de Salomón (siglo VI a. C.) fueron escritas en una forma llamada bustrophedon, en forma de surcos; la primera línea iba de derecha a izquierda, la segunda de izquierda a derecha y así sucesivamente, siempre en sentido contrario a la anterior. Cien años después se generalizo la costumbre de escribir de izquierda a derecha en Ática; y a partir de entonces los idiomas de Occidente mantuvieron la misma forma. 2 TAGLE DE CUENCA, Matilde: Ediciones del Copista. Córdoba Argentina, 1997 p.20. 7 Los primeros materiales que se utilizaron fueron muy primitivos y diversos, algunos de ellos fueron: Corteza de árbol. La palabra latina liber y la griega biblos significa corteza de árbol. Se escribía con un punzón en la capa vegetal entre la corteza y la madera. Las Hojas de palmera secas y frotadas en aceite fueron empleadas en la India. La piedra, el mármol, el basalto y otras rocas fueron también usados y algunas han sobrevivido en el antiguo Oriente. El Código de Hamurabi, documento importante de la historia de la humanidad, fue grabado en piedra. Metales como oro, bronce, plomo fueron utilizados para trasmitir textos jurídicos o litúrgicos. La seda fue utilizada por los chinos desde tiempos pasados. Las inscripciones se bordaban o se pintaban. Se dice que las predicaciones de Mahoma eran anotadas en hojas de palmera o en huesos de ternero aliados. Estas notas reunidas a su muerte formaron el Corán, libro sagrado de los musulmanes. Tablillas enceradas. Tablillas de madera con una capa de cera; fueron usadas por los griegos y romanos. Tablillas de arcilla. Eran usadas en Mesopotamia. Los sumerios. Asirios y los caldeos grababan los caracteres con un estilerete sobre la arcilla; la cocían al fuego para hacerla resistible. El desarrollo de la escritura culmino a finales del segundo milenio antes de nuestra era con la aparición del alfabeto fenicio, el cual fue el origen de los demás alfabetos. El alfabeto condujo a los complejos usos actuales de la escritura, ello determino diversos adelantos tecnológicos, desde la aparición de la imprenta hasta la impresión mediante la computadora a gran velocidad. 1.1.2 El papiro El papiro es de la familia de las palmáceas. El punto máximo de la utilidad del papiro se desarrollo en el delta del Nilo, creciendo las mejores matas para la fabricación y producción de soportes (Mitos de Tolomeo). El papiro es utilizado con propósitos de escritura y fue técnicamente mejor su elaboración hacia el 3000 a.c. El nombre de este soporte proviene del arbusto del papiro, el cual se obtenía de los tallos del junco partidos y prensados, juntos o formando un haz para formar tiras largas. Este fue el soporte más importante para escribir hasta el siglo XIII. 8 “Los acadios parece que lo usaron en el siglo XVI a.d.C. y probablemente los cretenses en el segundo milenio, por vía de relación comercial a través de los cananeos o directamente. Los fenicios lo conocen en el siglo XI a.d.C. por una embajada egipcia que les ofreció 500 rollos”. 3 Los fenicios favorecieron la difusión en el Mediterráneo y Próximo Oriente. “El rollo de papiro se conservaba en recipientes de madera y arcilla, y para alejar a los insectos bibliòfagos se impregnaban del antiséptico aceite de cedro. Es decir se embadurnaban y untaban los papiros con el aromático aceite destilado de goma o resina de cedro, que les daban un color amarillento, los hacia más rígidos, y además permitían así evitar los insectos bibliòfagos como las polillas, gusanos, carcomas y todo tipo de fauna bibliòfaga. Este aceite, empleado también en la momificación de cadáveres, con su aroma penetrante y agradable, pero de sabor muy amargo, era un repelente eficaz de insectos”. 4 El principal enemigo del papiro siempre era la humedad y el calor. Se han conservado mejor los papiros en lugares que son muy secos, como el desierto que favoreció más su conservación, esto se ha notado en las costumbres que tenían los egipcios de depositar libros y documentos en las tumbas colocadas en lugares secos. 1.1.3 El Pergamino La necesidad de encontrar nuevos soportes que permitan registrar los tributos de las tribus que han sido conquistadas, el registro de la administración, los poemas, historias épicas, etc., dan como resultado el cocimiento de la piel de la cabra para curtirla, fabricando películas delgadas a base del adelgazamiento de la piel por filo. El pergamino obtenido por transformación especial, particularmente de la piel de cabra y ovejas, fue utilizado hasta el siglo XI después de cristo y en este soporte se encuentran los escritos Bizantinos. “El Pergamino supuso un avance en el arte de escribir al permitir pos su lisura y consistencia el uso de la pluma de ave (penna o pendola o peñola) que deba más posibilidades a la mano que a la caña pincel o el càlamo o caña hendida. El 3 ROMERO TALLAFIGO, Manuel. Archivistita y archivos soportes, edificios y organización. 3ª ed., Sevilla , 1997, p.159 4 Ibidem. p.164. 9 pergamino introdujo el códice y nos transmitió palabras como “cuaderno” y “encuadernación” tan frecuentes en el mundo del libro y el archivo” 5 Para fabricar el pergamino se emplearon pieles de ternera y oveja, porque se podían utilizar los dos lados para escribir. Pero también se utilizaron pieles de asno, lobo, conejo, gacela, etc. Por lo regular se escogían animales jóvenes por la consistencia de su piel. Las pieles se remojaban en cal y se agregaba yeso para su limpieza, mejor raspado y desengrase. Este tratamiento quitaba el mal olor rancio del pergamino y las manchas; se utilizo sal y harina para secar la piel. Uno de los pergaminos más caros fue la Vitela por su alta calidad, realizada de piel de bestia nonata (pergamino virgen o piel de animal recién nacido). “El pergamino introduce en los archivos los documentos iluminados con bellas miniaturas (escudos, ruedas, retratos, flores...). Permitía el boceto y diseño con una punta seca. Estas líneas eran luego rellenadas con las tintas de colores por medio de pluma o pincel. Ejemplos claros son los privilegios robados, las cartas ejecutorias de nobleza y cartas de fundación”.6 Al introducirse el papel, disminuyo el uso del pergamino, pero se seguía utilizando en la elaboración de documentos de lujo. 1.1.4 El papel El papel es un material delgado que se fabrica por medio del entretejido de fibras de celulosa vegetal. “Estas hebras de celulosa son inertes a muchos reactivos químicos, por ejemplo, a las tintas, a la luz y al aire; son fibras de forma tubular y se hinchan con el agua, se depositan en un poso en el fondo, que al secarse se cementan y pegan por si mismas; son porosas a los líquidos y absorben la tinta; son incoloras y translucidas dando al papel un color blanco y opaco; son resistentes, flexibles y ligeras dando papeles prácticamente irrompibles; y cuando se rompen, lo que ocurre es que se separan las fibras entre si, separación que es más posible cuando se remojan. Las fibras animales, por ejemplo, las de la lana o la seda no se fibrilan ni se gelatinan, ni se hinchan, ni se pegan entre si con el agua. Por eso, los trapos de lana no son materias primas de papel; solo son y fueron los trapos confeccionados con fibras vegetales”. 7 Fue hacia el año 105 cuando Cai Lun o Tsai-lun, fabrico por primera vez papel utilizando materiales como corteza de morera, tejidos de seda y trapos de ropa vieja y un molde fabricado de tiras de bambú. 5 Ibidem. p.159 6 Ibidem. p.18. Ibidem. p.20. 7 10 Los primeros antecedentes que se tienen datan del año 150. Durante 500 años la técnica de cómo fabricar papel estuvo solo en conocimiento de China. En el año 610 se introdujo por primera vez en Japón y en el año 750 en Asia Central. Posteriormente, en el año 800, apareció en Egipto, iniciándose su fabricación 100 años después. La fabricación del papel se extendió a lo largo de la costa del norte de África llegando a Europa por la península Ibérica y sobre el año 1150 ya existía en Xàtiva una fábrica de papel montada por los árabes. Los fabricantes de Xàtiva producían papel de algodón en el siglo XI. Otra ciudad que tuvo una fábrica importante de papel fue Toledo, donde se fabrica el “papel toledano”. A partir de la invención de la imprenta el aumento de consumo de papel hizo que aumentara el número de molinos papeleros. A fínales del siglo XVI los holandeses inventaron una maquina que permitía deshacer los trapos hasta el estado de pura fibra. Esta maquina paso a llamarse “la holandesa” y se ha seguido utilizando hasta nuestros días, con cambios sucesivos pero sin modificar la idea básica. Hasta el final del siglo XVIII, la fabricación del papel era totalmente artesanal. Los molinos de papel eran primitivos y las hojas de papel eran hechas de una en una, en cantidades muy pequeñas. La industria surge cuando es posible mecanizar el proceso. Con la invención de la maquina de fabricar papel continuo en Francia, en 1800 por Louis Robert y con la utilización de la pasta de madera. 1.2 La imprenta En 1454, en la ciudad de Estrasburgo, Juan Gutenberg (1400-1468) desarrollo, a partir de la imprenta china, una prensa con moldes de metal. La imprenta inventada en China era un modelo muy primitivo, sus moldes eran de madera. Debido a lo poco práctico de esta imprenta se prefería copiar los libros a mano. Con la invención de la imprenta los libros se convirtieron poco a poco en objetos de fácil adquisición, lográndose con ello difundir la cultura. El primer libro que imprimió Gutemberg fue la Biblia, lo que contribuyo a que más gente la leyera y estudiara. Posteriormente se imprimieron libros de autores clásicos, 11 griegos y romanos, alrededor del año 1500 se hicieron las primeras ediciones de bajo costo y muchos lectores pudieron adquirirlos. Se dieron a conocer las grandes obras literarias sobre navegación, comercio, minería y descripciones de plantas y animales, que divulgaron la ciencia. La imprenta fue un medio para dar a conocer las noticias. “A fin de lograr impresiones nitidazas y de poder imprimir sobre ambas caras del papel, Gùtemberg reemplazó el golpeteo con el cepillo o la presión con una muñeca de trapo, con la presión de una prensa semejante a la de los viñateros: Este fue su primer invento. Como esa presión deformaba los caracteres de madera que empleaba, pensó en utilizar letras talladas en metal, optando por fabricar los caracteres vaciando una aleación apropiada dentro de un molde. Este último era obtenido aplicando una letra en relieve, o punzón, sobre una superficie adecuada. Su segundo invento fue fabricar los tipos por molde. Por último, modifico la composición de la tinta, a fin de darle el grado de fluidez y coherencia requerida”8. 1.3 La máquina de escribir “Las máquinas de escribir no se generalizaron hasta el siglo XX, aunque la Primera patente para una máquina de esta clase fue concedida alrededor del año 1714. Esta máquina de escribir, que fue inventada por un inglés, no recibió aplicación práctica. Al principio, las máquinas de escribir se patentaron como mecanismos para ayuda de los ciegos. La patente de la primera máquina de escribir que se registró en los E.U.A, en 1829, correspondió a Guillermo A. Burt. Se llamó topógrafa, pero ningún modelo suyo sobrevivió”.9 Carlos Thurber, un norteamericano, patentó en 1848 una máquina que usaba un juego de barras de tipos situadas alrededor de una rueda de latón. Esta se movía en un eje central, y el tipo entintado golpeaba directamente sobre el papel colocado debajo de la rueda. Su funcionamiento era demasiado lento para que dicha máquina tuviera valor práctico. A. E. Beach, también de los E.U.A., patentó en 1856 una máquina de escribir en la que se empleó por la primera vez las barras de tipo dispuestas en forma de círculo que hacían la impresión sobre un centro común. El año siguiente, S. W. Francis registró una máquina de escribir que utilizaba un teclado semejante al de un piano para actuar las barras de tipo. “La primera máquina de escribir práctica y que se podía fabricar en gran escala fue la obra de tres inventores americanos: Cristóbal L. Sholes, Samuel W. Soule y Carlos Glidden, Sholes, con la ayuda personal y financiera de Santiago Densmore, 8 ALBANI FINO PENNA, Sabor: Manual de Bibliotecología. Historia y Técnica del libro. 2ª Edición. Buenos Aires, Kapelusz. 1958. p.9 9 La Maquina de escribir en: Mar y Arena. [en línea] Universidad Autónoma de Sinaloa, facultad de Ciencias Sociales, México. P. 25. [Consulta: 26 de diciembre, 2004]. 12 perfeccionó su máquina de escribir hasta que en 1878 adquirió esta un valor comercial”10 Esta máquina presentaba la mayoría de los principios de la máquina moderna. Usaba un juego de barras de tipo montado en un eje sobre un anillo horizontal, accionadas por palancas conectadas, en turno, por varillas con las palancas del teclado. El papel se insertaba alrededor de un cilindro de caucho y los tipos golpeaban en una cinta entintada para marcar las letras en el papel. Esta máquina tenía carretes reversibles para la cinta, así como un carro movible, que se podía devolver a su lugar al terminar de escribir un renglón. , Un defecto de esta máquina, dotada sólo de letras mayúsculas, era que el cilindro estaba situado en forma tal, que el mecanógrafo no podía ver lo que estaba escribiendo. Invenciones posteriores aportaron la tecla de cambio de mayúsculas, mediante la cual cada una de las barras podía llevar la letra correspondiente tanto en caracteres mayores como en menores. Para usar una u otra bastaba elevar o bajar el cilindro. Francisco Wagner patentó en 1896 la primera máquina de escribir de acción frontal y visible que resultó satisfactoria, pues resolvió las dificultades de funcionamiento que presentaban las anteriores. La introducción de esta máquina estaba destinada a revolucionar por completo la industria de las máquinas de escribir. En 1961 se usaron las máquinas eléctricas de bolas (IBM), que permitían elegir el estilo de los caracteres por simple cambio de una esfera portadora de los signos. 1.4 Historia de las computadoras La computación tiene sus antecedentes en las máquinas de cálculo y éstas se remontan a los antiguos pueblos y en especial a los babilonios, quienes inventaron el Ábaco y con ello se adjudican el crédito de la invención de la primera calculadora, hace aproximadamente 4000 años. BLAS PASCAL, en el año 1642, invento una maquina para ayudar a su padre (cobrador de impuestos). Se trataba de una serie de engranes en una caja, que proporcionan resultados de operaciones de suma y resta en forma directa. GOTTFRIED WILHELM LEIBNIZ. En 1671, utilizo por primera vez el sistema binario, el cual es la base con la que trabajan las computadoras modernas. Fue el primer hombre que desarrollo un aparato mecánico (basado en la pascalina) capaz de multiplicar, dividir, sumar y restar. JOSEPH MARIE JACQUARD. En 1804 desarrollo una máquina que empleaba tarjetas perforadas para la fabricación de telas. Según el patrón de las perforaciones, la máquina seguía un programa de tejido. Este descubrimiento fue muy importante 10 Ibidem. p. 26. 13 en el desarrollo de la informática, ya que años más tarde se programarían computadoras con tarjetas perforadas. CHARLES BABBAGE. Es considerado el padre de la computadora. En 1811, siendo un estudiante, observo errores en los cálculos de tablas matemáticas, resultando del trabajo que se hacia a mano y no siempre se hacia bien. Por ello desarrollo la maquina de diferencias, pero en su época no se disponía de la tecnología necesaria. A pesar de no lograr construir esta maquina, ideo una nueva llamada máquina analítica. La nueva máquina consideraba mecanismos de entrada, memoria, unidad de control, unidad aritmético- lógica y mecanismos de salida. En 1885 HERMAN HOLLERITH, fue contratado por Estados Unidos, para realizar el conteo del censo nacional de 1890. Para esto diseño un dispositivo de tabulaciòn eléctrica denominado Maquina del censo. Muchas de las preguntas de la forma del censo debían responderse simplemente con “SI” o “NO”; la idea de Hollerith fue que estas respuestas podían registrarse en una tarjeta por la presencia o ausencia de una perforación. Su máquina término a tiempo el censo de 1890, además redujo el tiempo de 7 a 3 años. En 1896 fundo su propia compañía, Tabulating Machina Company, y en 1925 se fusiona con otra compañía para formar la Internacional Business Machines (IBM). EN 1937, EL DOCTOR JOHN VICENT ATANASOFF en la Universidad de Iowa, empezó a construir una máquina calculadora con la ayuda de un estudiante graduado, Clifford Berry. Esta máquina poseía características revolucionarias; sus circuitos lógicos y cálculo en serie utilizaban aritmética binaria, en vez del sistema decimal y era electrónica. Esta maquina fue denominada ABC y se completo en 1939. En 1940, ATANASOFF BERRY, mostró su trabajo a John W. MAuchly de la Universidad de Pennsylvania. MAuchly reunió ideas propias y junto con J. Presper Eckert, construyeron la ENIAC con apoyo financiero del ejército de Estados Unidos. Tanto la computadora Atanasoff-Berry como la ENIAC, empleaban tubos de vacío (bulbos) para almacenamiento y para las funciones básicas de aritmética y lógica. El tubo de vacío transmite corrientes eléctricas solo en una dirección y es posible utilizar encendido y apagado para representar los dígitos 1 y 0. 14 El crédito para la siguiente innovación en la tecnología de computadoras corresponde al matemático JOHN VON NEUMANN, quien en 1945 presentó dos ideas básicas, una fue que el sistema numérico binario se integra a las computadoras; el sistema binario corresponde a las posiciones de encendido y apagado de todos los componentes electrónicos y hace que el diseño de una computadora sea más eficiente. La otra idea fue el concepto de programa almacenado.11 1.4.1 Primera generación (1940-1958) Usaban tecnología de bulbos. Eran maquinas gigantescas de 3 pisos de altura, 30 toneladas de peso, usaban más de 10000 bulbos, con un costo mayor a los 6 mil millones de pesos. Producían mucho calor, por lo que necesitaban enfriarse con ventiladores y sistemas de refrigeración. La información se introducía mediante cintas o tarjetas perforadas. La UNIVAC1 fue utilizada en 1951 para contar los votos con los que fue electo el presidente Eisenhower. Se programaba solo usando lenguaje maquina (0 y1); su uso era muy complicado. 1.4.2 Segunda generación (1959-1964) Entraba la década de 1960 y las computadoras seguían en constante evolución, reduciendo de tamaño y aumentando sus capacidades de procesamiento. La tecnología usada es el transistor. El tamaño se redujo a un piso de un edificio. Los transistores son 200 veces más pequeños que los bulbos; su vida útil es mayor, y no se calientan tanto. Se le programaba utilizando cintas o tarjetas perforadas. Aparecen más lenguajes de programación y usuarios especialistas en computación. En esta generación destacan IBM con su serie 1400 y 1700, así como Sperry Rand con su modelo 1270. En estas generaciones no había monitores, los resultados se veían en impresoras. Aparecen los lenguajes Fortran y Cobol. 1.4.2 Tercera generación (1965-1970) Aparecen los chips o circuitos integrados, (obleas de silicio que contienen muchos transistores). El tamaño es de una habitación, tienen gran capacidad de almacenamiento y alta velocidad de operación. 11 Cfr. LEVINE, Guillermo: Introducción a la computación y a la programación estructurada. 2° ed., México, Mc Grow-Hill. 1985. pp1-18. 15 Aparece el sistema 360 de IBM, con la novedad de poder conectarse en red; además aparece la mini computadora del tamaño de un ropero o refrigerador. El consumo eléctrico es menor. Los usuarios son ahora técnicos que usan lenguajes mas fáciles de aprender (Fortran, Cobol). Se aplica en procesos industriales, y tenían un costo de 30 mil pesos. Así mismo aparece el sistema operativo MS-Dos. Se crean lenguajes de alto nivel como Basic y Pascal. La comunicación se realiza mediante lectoras de tarjetas perforadas. La información se guarda en cintas y discos magnéticos. 1.4.3 Cuarta generación (1971-1984) El adelanto de la microelectrónica sigue creciendo, y en 1972 surgen en el mercado los circuitos integrados de alta densidad, que reciben el nombre de microprocesadores. Las microcomputadoras que se diseñan con base en estos circuitos son extremadamente pequeñas y baratas, por lo que su uso se extiende al mercado de consumo industrial. “Tecnología de Microchips, diminuto objeto plano que media aproximadamente un cuarto de pulgada, tan frágil que debe albergarse en un recipiente de cerámica, equivalente a varios millones de transistores y operan millones de veces más rápido que el antiguo tubo de vacío. También llamados microprocesadores. Cuentan con mayor capacidad de memoria, mayor velocidad de cálculo y tamaño de un portafolio. Son portátiles, trabajan con pilas, los usuarios son muchos, hasta niños. Las aplicaciones se diversifican en todas las ramas del conocimiento. Su costo es desde 4000 pesos en adelante. Esta es la primera generación con variedad de computadoras y la primera que tiende a separarse a los usos puramente especializados en ciencias, defensa nacional o negocios y a inclinarse hacia el uso general.”12 En 1977, surgen las primeras microcomputadoras Apple computer, Radio Shack, Commodor, etc. En 1981 aparece la IBM-PC con procesador 8088 de Intel, con 16kb de memoria principal. 1.4.5 Quinta generación (1984 a la actualidad) 12 Cfr. LEVINE, Guillermo: obr. cit., pp. 19-20. 16 Su característica es la microelectrónica, el software para actividades profesionales, la estructura cliente–servidor, las fibras ópticas, las telecomunicaciones y los satélites. En 1982, Seymur Cray crea la primera supercomputadora con capacidad de procesamiento en paralelo. El mismo año, el gobierno japonés anuncia el proyecto de inteligencia artificial, para que las computadoras puedan reconocer la voz e imagen y se comuniquen en lenguaje natural. 1.5 Redes 1.5.1 Antecedentes Concepto de red: Una red es un conjunto de computadoras, conectadas entre si, que pueden comunicarse compartiendo datos y recursos. Las computadoras suelen estar conectadas entre ellas por cables, pero si la red abarca una región extensa, las conexiones pueden realizarse a través de líneas telefónicas, microondas e incluso satélites. Para que la comunicación entre las computadoras sea posible, es necesaria la existencia de un protocolo, que no es otra cosa que un conjunto de estándares que determine como realizar el intercambio de datos entre dos computadoras o programas. El protocolo usado por todas las redes que forman parte de Internet se llama Transfer Control Protocol/ Internet Protocol – TCP/IP, por sus siglas en ingles. Dyson define a una red como “… un sistema de comunicaciones e intercambio de datos creado para conectar físicamente a dos o más computadoras mediante tarjetas de Interfaz para red y cables, que corren mediante un sistema operativo para red (NOS)...”13 A su vez, Pfaffenberg propone que una red es “… un grupo de computadoras y dispositivos periféricos asociados, conectados por un canal de comunicaciones capaz de compartir archivos y otros recursos entre varios usuarios…”14 Las primeras redes locales comerciales se comenzaron a instalar a finales de los años setenta, pero cada día se fueron haciendo más populares por las ventajas que ofrecían como el aumento de la productividad, la economía en cuanto recursos de hardware y software, la optimización de los sistemas instalados, etc., ha sido en los últimos años cuando han comenzado a adquirir gran importancia las técnicas de comunicación de paquetes como ARPA en Estados Unidos. 13 14 METER DYSON: Diccionario de redes. Colombia, McGraw-Hill, 1997. p.35. Ibidem p.36. 17 Posteriormente la firma americana Xerox Corporation tomo la idea básica para desarrollar la red Ethernet. Los últimos adelantos en el campo de redes locales utilizan sistemas de banda ancha. Esta técnica consiste en dividir el ancho de banda en canales independientes, por lo que se pueden transmitir datos a alta velocidad. La creciente utilización de las redes locales esta originada por la proliferación de terminales inteligentes en oficina, universidades, factorias, etc. Y la capacidad de los ordenadores y sus periféricos para comunicarse entre si, la facilidad de compartir los recursos de que dispone y la posibilidad de acceder a servicios y dispositivos especiales, consiguiéndose un éxito importante en esta nueva aplicación. 1.6 Reprografìa. En la edición (1971) del Glosary of Micrographics publicada por la nacional Microfilm Association de los Estados Unidos define el termino como: “el arte y la ciencia de reproducir documentos”.15 El vocablo tiene diferentes significados, pero se podría definir como: “Cualquier método, que no fuera el de la copia a mano, para la reproducción de un documento u otra imagen visual en una o mas copias”. Esta definición incluiría varios procedimientos, como la impresión en caracteres fijos o móviles al offset, grabado y procedimiento fotogelatinico. Contiene los procedimientos para la exacta copia de documentos e imágenes visuales obtenidas por las diversas técnicas fotográficas o de microfilme ( tales como rollo o tiras de microfilme, microficha opaca, microficha o ultraficha), así como los procedimientos xerograficos y cualquier otro de copia directa. La copia puede ser del mismo tamaño que el original, ampliada o reducida. 1.6.1 Fotocopias. Se llama así al conjunto (Fotocopiadoras). de técnicas utilizadas para copiar documentos Es un término genérico para todas las formas de copia que surgieron desde la copia fotostática hasta las copiadoras electrostáticas de los años 50. 15 LESINGER ALBERT H.: Un estudio de las normas básicas para equipamiento, mantenimiento y funcionamiento de un laboratorio de reprografìa en archivos de países en desarrollo. Versión española de Carmen Crespo. Centro nacional de microfilm, Madrid, 1977.p10. 18 Antes de los años 50 el fotostato era el único método relativamente permanente de hacer una copia de un material grafico, excepto la fotografía. Xerografía “El proceso fue inventado por el estadounidense Chester F. Carlson en 1937, se comercializo en 1950. Se basa en el principio de fotoconductividad, en la capacidad de algunos cuerpos de hacerse conductores bajo la influencia de la luz. La xerografía utiliza una capa aislante fotoconductora de selenio o de aluminio u otro soporte metálico conductor.”16 Los métodos para capturar la imagen son dos: 1. Directo El papel que recibe la copia está cubierto por óxido de cinc o similar, que recibe la carga. Se basan en el principio de que una superficie fotoconductora se vuelve fotosensible cuando se le aplica una carga electromagnética. Recibe la imagen proyectada del original por medio de una lente. El proceso de fusión se hace por medio de calor. Esta copia es permanente: las partículas de carbón se han fundido en la superficie del papel. 2. Indirecto Se utiliza papel ordinario El intermediario es un tambor recubierto de selenio. La imagen se proyecta en éste por medio de una lente. Esta imagen latente entra en contacto con el tonar. Se transfiere al papel cuando pasa por el tambor. La fusión es por medio de calor. La copia es permanente. Ventajas y desventajas de utilizar la fotocopiadora: 16 Ibidem. p.11. 19 Ventajas: 1. Permite la realización económica y rapada. 2. Facilita el trabajo de oficina. 3. Sustituye el uso de papel de carbón. Desventajas: 1. Crea problemas legales relacionados con los derechos de autor y se ha tenido que modificar la legislación de algunos países. 2. Origina la multiplicidad de documentos y explosión documental. 1.6.1.1 Copia digital impresa. Es un ejemplo de lo anterior con la única diferencia que el proceso, en lugar de ser analógico, es digital. Se inicia con la transferencia del documento al medio digital por medio de un escáner. De la resolución con que se capture la imagen y de la calidad del documento original dependerá el óptimo resultado de la impresión a partir de un medio digital. 1.6.1.2 Cintas. Medios magnéticos Son soportes cuya base está recubierta de una capa magnética sobre la que se registran datos, imágenes y sonidos. Su tiempo de vida es variable entre uno u otro tipo. Se presentan normalmente en forma de cintas o cartuchos. Ningún medio magnético está destinado a una conservación permanente, debiendo hacerse una migración periódica de los datos. El acceso a la información es secuencial. Cintas magnéticas “Se basan en los mismos principios de lectura/escritura que los discos magnéticos y las cintas que utilizan los radiocasetes y cintas de audio convencionales; Las cintas convencionales tienen un ancho de 0.5" (12.7 mm). Su espesor es de 0.025 mm y están fabricadas en poliéster recubierto de un óxido magnetizable de aproximadamente 100 mm. De espesor. La lectura y grabación se lleva a cabo haciendo pasar la cinta de un carrete a otro a través de una estación de cabezas lectoras/grabadoras. Normalmente se lee el contenido de varias pistas, necesitándose un elemento lector/grabador por pista. Por 20 lo general el conjunto de bits que se leen simultáneamente corresponde a un carácter con un BIT de paridad, siendo las cabezas de 7 o 9 pistas. Las densidades longitudinales normales de grabación varían entre los 200 y 3200 bpi (Bits por pulgada). La grabación de una cinta se hace, como en discos y tambores, por bloques de caracteres de una longitud preestablecida (generalmente entre 256 y 512). Debido a la inercia de la cinta, entre dos bloques consecutivos se desperdicia (no se graba) un determinado espacio (de 0.5 a 0.75 pulgadas) que se denomina interbloque o IRG (inter-record-gap). Cada bloque contiene, además de los datos del usuario, líneas adicionales redundantes para poder detectar automáticamente posibles errores de grabación, y secuencias preestablecidas de caracteres y espacios identificadores de los límites del bloque. Los extremos inicial y final de la cinta contienen unas marcas metálicas pegadas denominadas BOT (comienzo de cinta) y EOT (fin de cinta) para detección automática del inicio y fin de la cinta” 17. 1.7 Microfilmación 1.7.1 Antecedentes Históricos A principios del siglo XiX (1839), Dagron realiza la primera micro-fotografía de un documento, utilizando un lente con características especiales. Su aplicación como sistema archivistito surge en 1920, cuando el banquero George McCarthy, y dos colegas ven las grandes ventajas que pueden obtenerse con la aplicación de estas técnicas para el control de la información documental. Esto los lleva a crear la primera máquina microfilmadora de salida. En 1928 McCathy se une a la corporación Recordar, la cual se encarga de sacar al mercado las primeras microfilmadoras y lectores de microformatos. Para 1933, ya se tenían 700 máquinas microfilmadoras funcionando en Archivos de corporaciones contables con buenos resultados, en 224 ciudades de los Estados Unidos Durante la segunda Guerra Mundial, muchos bancos microfilmaron sus archivos con el fin de preservarlos en depósitos subterráneos y evita la pérdida de la información. La UNESCO (Organización de Naciones Unidas, Educativas, Científicas y Culturales), brinda una ayuda sistemática multinacional, creando para ello en 1956 una unidad móvil de microfilm, que tenía como finalidad: | Microfilmar la documentación más importante de Archivos y Bibliotecas de países que no tuvieran un servicio de esta naturaleza, para que pudiera ser conservada además de hacerla accesible a los investigadores. 17 ESPINOSA, Maria Blanca: Tecnologías Documentales. Memorias Ópticas, ed., Madrid, Tecnidoc, 1994. pp. 25-37. 21 Se buscaba con esto adiestrar y capacitar al personal de los centros informativos en la técnica de la microfilmación con el fin de que se continuaran las labores iniciadas por dicha unidad móvil. En 1962, la UNESCO, continua con este programa de apoyo y de asistencia técnica, auxiliando principalmente a los países tercer mundistas que no contaban con medios económicos para solventar los gastos que implicaban la instalación de centros micrográficos al servicio de la investigación. La UNESCO, hizo adquisición de varios equipos para microfilmación de documentos, como: cámaras de microfilmación y duplicación, aparatos de revelado y lectores de microfilmes, además de contar con expertos técnicos en la materia. “El programa de asistencia técnica de ésta unidad móvil fue centrado en los países de América, el cual tuvo una duración de cinco años (1956-1961), posteriormente la unidad de microfilm paso de América a los países Africanos y Asiáticos. En el simposio sobre Documentación y Archivos de la Colonización Española, celebrada del 8 al 11 de octubre de 1979, en España, se recomienda la reanulación del programa de microfilmación a nivel mundial.18 Definición de microfilmación La microfilmación es “un procedimiento fotográfico que permite una reducción considerable con una cadencia extremadamente rápida”.19 “La microfilmación consiste en registrar fotográficamente sobre película la imagen reducida de un documento”20. “Es un sistema de reproducción, de información impresa a tamaño notablemente reducido en relación al del documento original, en película fotográfica”21 Se define también como la técnica de miniaturizar los documentos, en cuadros pequeños, en un material flexible, opaco, y transparente denominado microfilm. Esta reducción se efectúa en película de diferentes tamaños dependiendo del tipo de maquina microfilmadora a utilizar y tamaño del documento a microfilmar, siendo los más usuales los de 16,35 y 105 mm. 18 La Micrografìa y su aplicación como sistema de archivo. México. pp.8-13. Ibidem. pp. 13-70. 20 Ibidem. p.21. 21 FERNANDEZ SANCHEZ, E. Y FERNANDEZ, Zulima: Manual de dirección estratégica de la tecnología Ariel, Barcelona, España. 1989. pp.12-15. 19 22 CAPÍTULO 2 NUEVAS TECNOLOGIAS DE INFORMACIÓN. La palabra “Nuevas Tecnologías” realmente implica una serie de cuestiones, ya que “Nuevas Tecnologías” como tales no existen, a través del desarrollo de todas las Ciencias, el hombre va transformando los inventos que alguna vez creó. Con ese avance; se realizan nuevas adaptaciones a lo ya creado, esto nos lleva a obtener cada vez trabajos más perfectos en diferentes campos de su aplicación. Concepto de Tecnología. A la tecnología se le define como “un método (o procedimiento) para efectuar algo, considerando los medios (instrumentos, herramientas, y maquinas), vinculados al procedimiento y a la base de materiales que se transforman”22. Algunos autores mencionan lo siguiente: Galbraith la define como: “una aplicación sistemática de la ciencia y otros conocimientos organizados, en las tareas practicas”. Amilcar Herrera dice: “conjunto de Instrumentos, herramientas, elementos, conocimientos técnicos y habilidades que se utilizan para satisfacer las necesidades de la comunidad y para aumentar su dominio en el medio ambiente”. Jorge Sabato por su parte menciona: “conjunto armónico de habilidades que se emplean en la producción y comercialización de bienes y servicios, que comprende no solo el conocimiento científico que emane de las ciencias naturales, sociales y humanas, sino también el conocimiento empírico proveniente de la observación, las experiencias, determinadas habilidades, la tradición, etc.” La denominación “nuevas tecnologías” comprende todos aquellos medios al servicio de la mejora de la comunicación y el tratamiento de la información que van surgiendo de la unión de los avances propiciados por el desarrollo de la tecnología y que están modificando los procesos técnicos básicos de la comunicación. Hay tres innovaciones tecnológicas, que son las que han hecho posibles el cambio en la comunicación y la información: 22 VILLASEÑOR SANCHEZ, Guillermo: La tecnología en el proceso de enseñanza aprendizaje. ed. trillas, México, 1998. pp. 17-23. 23 La microelectrónica, con una capacidad casi ilimitada de integrar circuitos y elaborar componentes de gran capacidad de transmisión y codificación. La informática, que tiende a facilitar unidades cada vez más integradas, de más bajo precio y sencillo manejo, y que ha extendido el uso de los ordenadores a casi todas las esferas de la vida cotidiana. Las telecomunicaciones, que rebasan los sistemas de transmisión por cable convencional y aprovechan nuevas longitudes de onda, potencian la comunicación vía satélite, establecen sistemas de extraordinaria rapidez. Se debe distinguir entre los nuevos canales de los medios. Los nuevos canales son nuevas tecnologías, proceden de las mismas y se basan en ellas. Los medios que se sirven de nuevas tecnologías pueden ser nuevos o no. Es más, en muchas ocasiones, nos encontramos con nuevos medios que no son sino los mismos sistemas simbólicos de siempre (imágenes reales, gráficos, textos, palabras y sonidos) ahora integrado, como ocurre en el caso de los sistemas multimedia. En esta diferenciación es donde reside la distinción entre medios (hardware y software) y nuevas tecnologías. Si el hardware que posibilita la visión de un programa de televisión es el satélite, la novedad reside más en el sistema de transmisión que en el propio medio (entiéndase el mensaje transmitido por el medio). Las nuevas tecnologías son instrumentos que permiten potenciar las posibilidades comunicativas de los medios, tanto de los más antiguos y convencionales, como de los más nuevos. Al desarrollar este capitulo, se empieza con el tema de la microfilmación, aunque la aplicación de este procedimiento en el control de la documentación, ya casi no se utiliza; debido al desarrollo de nuevas aplicaciones innovadoras y sus facilidades que ofrecen. Sin embargo, me parece importante hacer una pequeña descripción de su utilización, ya que en su momento, la microfilmación fue una herramienta muy importante para el control de la documentación. Para llevar acabo la microfilmación, se utilizan varios elementos que forman parte de las herramientas para microfilmar; por esta razón creo conveniente, hacer mención de algunos elementos básicos. La cámara Es una caja cerrada a la luz con dos componentes: el objetivo o lente, que obtiene la fotografía, y la película, que nos dará una imagen igual a la original pero reducida. El cuadro. Es la posición del documento dentro del microfilme. El enfoque. Es el ajuste de la distancia entre el objetivo y la película; esto se realiza para que la imagen que se obtenga no este desenfocada. El diafragma en una cámara fotográfica es una abertura variable que controla la cantidad de luz que necesita la película. 24 El obturador es aquel que regula la duración del tiempo en que la película recibe la luz. En la cámara microfilmadora el obturador y el diafragma ya están calculados (fijos) y se les ha incorporado un dispositivo para aumentar y disminuir la luz que se necesita para aquel obturador o diafragma. La película Los tipos de película más utilizados son: Emulsión de sales de plata, diazo, vesicular; la más recomendada es la del tipo de sales de plata; las otras tienen más problema. Sensibilidad de los microfilmes: es más baja que las películas corrientes, debido al equipo especial empleado para el registro no se exige una sensibilidad elevada. Los siguientes factores influyen sobre la sensibilidad: 1. 2. 3. 4. 5. 6. Temperatura de color de la fuente que incide sobre la emulsión. Tiempo de exposición. Composición química del revelador. Temperatura del revelador. La agitación del baño del revelador. Tiempo de revelado. Transparencia. La transparencia de una película es la relación entre la intensidad de la luz transmitida y la intensidad de luz incidente. Como siempre hay debilitamiento de la luz al pasar por un medio, la transparencia es siempre inferior a la unidad. Conservación de la película Todos los materiales fotosensibles sufren modificaciones debido a las reacciones físico-químicas (efecto de envejecimiento). Regularmente, las películas de microfilme vírgenes se conservan durante 30 meses en condiciones normales, o sea temperatura inferior a 22 grados centígrados y humedad relativa entre 30 y 40%. Los lugares donde se almacena la película deberán estar fuera de la acción de gases, químicos, vapores y debe cuidarse especialmente la ventilación. Antes de microfilmar se debe hacer un estudio completo de la documentación, de su flujo, de la cantidad de copias que se necesitaran para las distintas áreas que requieren la información y de la finalidad de la misma. 25 Se debe definir el tipo de microformas que se ajusten mejor a las exigencias (microfichas, tarjetas de ventana, jackets), microfilmes de 35 o de 16 milímetros, etc... Otro punto muy importante que se debe tomar en cuenta es el valor total del equipo de microfilmación, si se justifica la compra del equipo o es mejor contratar los servicios de una empresa. Antes de pensar en microfilmar la documentación se debe tener perfectamente ordenada y clasificada. Si no esta organizado el archivo, habrá que hacerlo, pues la microfilmación no reemplaza estos procedimientos. La microfilmación debe iniciarse por la documentación que tiene más consulta, ya que esta es la que con más frecuencia se desaparece por el manipuleo constante en una oficina grande o pequeña. Otro procedimiento que se tiene que realizar, es la clasificación y ordenación de los documentos por rollo; tomando en cuenta el número de exposiciones de cada rollo y el orden que se le dará para hacer más rápido el acceso a su localización. Métodos de codificación Tarjetas divisorias: Consiste en fotografiar en la película tarjetas con grandes letras o números identificadores. de microfilme unas Líneas de Código: se fotografían líneas horizontales escalonadas entre las imágenes de los documentos. Para localizar el grupo de imágenes deseado, se hacen coincidir estas líneas con los números o letras de una escala adyacente a la pantalla del lector. Numeración secuencial: durante la microfilmación los documentos son identificados con números sucesivos que permiten un rápido acceso al material microfilmado. Una vez microfilmada la información, esta se mantiene lista para su consulta en el momento en que el usuario la requiera. En la microfilmación están implicados un conjunto de procesos íntimamente relacionados entre si, como son: 1) 2) 3) 4) La microfilmación directa del papel. Revelado de la película. Control de calidad. Duplicado de películas microfilmadas y una oportuna distribución de las mismas a los usuarios. Con el fin de que el sistema proporcione los resultados esperados, se hace indispensable realizar un estudio previo del acervo documental a microfilmar, con el 26 objeto de utilizar la técnica en forma adecuada, dándole el enfoque que requiere para introducir el sistema a nuestras áreas de trabajo. 2.1 Métodos de microfilmación. Existen tres métodos de microfilmación que hacen aparecer las imágenes en la película y que son elegidos conforme las circunstancias lo requieran y son: 1- Simples. 2- Dúo. 3- Duplex. Método Simplex. En éste método el documento se alimenta de frente con la cabeza hacia la derecha, usando como guías las marcas que se encuentran a los lados de la platina de entrada, obteniendo como resultado en el rollo una imagen vertical derecha y en la forma de lectura normal. Cuando se trata de documentos de longitudes mayores a las aceptadas por las guías exteriores del alienador, el documento se coloca con la cabeza hacia adelante y el anverso hacia arriba, esto permite que la imagen aparezca en la película en forma horizontal y con la cabeza a la izquierda. Este método se usa principalmente para la microfilmación de documentos estándar y en los que predomina la información únicamente en el frente de los mismos, en caso de que se tengan documentos con información al reverso, se optará por pasarlos dos veces por la máquina, la primera por el anverso y la segunda por el reverso, teniendo como resultado en la película las dos imágenes sucesivas respectivamente. Método Dúo Este método consiste en microfilmar por la mitad interior de la película de principio a fin, una vez terminada esta se voltea y se microfilma sobre la otra mitad; éste procedimiento se realiza con el fin de aprovechar en toda su extensión la película. En éste método solo es posible microfilmar documentos pequeños (21.2 x 27 cm.), y empleando un alto grado de reducción (32 x cm.), con el fin de obtener imágenes que puedan caber en la mitad de la película. En un principio éste método fue empleado para microfilmar en la mitad inferior el anverso del documento, y en la segunda pasada microfilmar en la mitad superior de la película el reverso del documento. Esto representaba una operación difícil ya que se debe calcular el reinicio de la película con el fin de que el documento quede 27 frente a frente, o sea el anverso con su reverso correspondiente; esto hace que las posibilidades de error sean considerables puesto que las posibilidades de hacer coincidir la segunda mitad de la microfilmación con la primera, son mínimas. Por lo cual este método ha sido desechado por lo menos para fines de microfilmar documentos con datos en ambos lados, por lo mismo su práctica no es muy común. Método Duplex Este método solo es ofrecido por algunas maquinas que permiten microfilmar las dos caras del documento (anverso y reverso), de una sola pasada apareciendo en la película el frente en una mitad y el dorso en la otra mitad; esto se consigue por medio de un sistema óptico a base de espejos y otros componentes que hacen posible lograr que el obturador funcione justo en el momento de captar las dos imágenes, cuando el documento pasa frente a él. El Duplex es considerado como una modificación del método Duo, ya que el objetivo es el mismo, esto es aprovechar al máximo toda la película y tener juntas ambas caras del documento. Este método al igual que el Duo, solo puede microfilmar documentos no mayores de 21.2 x 27 cm., y a un nivel de reducción mayor de 32x en adelante, pero con mucha precisión y a una gran velocidad. 2.1.1 Microformas Dentro del campo de la microfilmación han sido creados materiales de soporte a los que se les conoce como: “microformas o microformatos”, en ellos se integra la información que ha sido impresa por medio de los diversos equipos de microfilmación. Las microformas se encuentran en forma de rollos en diferentes anchos y longitudes, en fichas de diversos tamaños o en tiras de película; las que pueden ser transparentes u opacas. Las microformas utilizadas en el sistema de microfilmación son las siguientes: 12345678- Rollo. Magazín, cassette o cartucho. Jacket o Cartera de plástico. Microficha. Tarjeta para archivar. Tarjeta de Abertura y Tab Jac. Molex. Ultra ficha. 28 Estos microformatos serán utilizados en mayor o menor escala dependiendo de las necesidades que tenga el usuario en el área de recuperación de información. Otro de los puntos que determina que tipo de microforma se utilizara, será el sistema de microfilmación que va adoptarse tomando como base los tipos de documentos que serán microfilmados y el uso que se les dará a los mismos. Rollo El rollo de microfilmar es el más común de las microformas en existencia, además de ser el más económico, es considerado como el punto de partida en la creación de otros tipos de microformas. Con este microformato se puede lograr el máximo de ahorro de espacio, puede ser duplicado con facilidad dando de esta forma mayor seguridad a los Archivos. Se utiliza principalmente en microfilmación extensa cuya secuencia sea cronológica, como es el caso de archivos contables o numéricos progresivos, en expedientes que no sufren cambios posteriores o actualización, como por ejemplo los archivos de pasaportes, catálogos, archivos históricos, archivos notariales, etc. El registro se hace con carátulas de inicio y fin de rollo con firmas de certificación sobre el estado que guarda la documentación y la secuencia de rollos. La preparación de documentos es una etapa previa a la microfilmación y se organiza en paquetes de 2,500 documentos (si se trata de tamaño carta), cuando la microfilmación se efectúa en rollos de 16 mm. Con reducción 24x. La ventaja de utilizar rollo en la microfilmación es la de conservar las imágenes en el mismo orden en que han sido impresas, proporcionando con ello una seguridad absoluta, ya que de esta manera no puede ser sustraída o alterada la información en él contenida. Para conservarlo e identificarlo se utiliza la caja de archivo en la cual viene empacado de fábrica dicho rollo, y la continuidad de las imágenes proporciona una integridad de archivo excelente. También si nuestras necesidades lo requieren pueden mandarse hacer cajas especiales con datos de identificación que se consideren necesarios, inclusive si se pretende llevar un sistema cromático (por colores), que nos permita la identificación de la información contenida en cada caja. Los problemas de archivar erróneamente los documentos individuales se eliminan virtualmente por medio de esta técnica. Este microformato es aceptado por casi todos los equipos de microfilmación, y los rollos pueden venir en varios anchos, pero los de 16 y 35 mm., son los más conocidos, siendo el uso más comercial el de 16 mm.23 23 Cfr. Revista del Archivo Nacional. En Instituto Colombiano de Cultura, Bogota, n. 76. 2° serie, 1977, pp.1191. 29 Elementos para evaluar un Rollo para microfilm: Obtener los reportes del operador. Verificar la densidad. Si tiene una densidad más alta que 1.4 o menos que 0.80, hay que tener muy en cuenta la evaluación, pues el filme puede estar muy claro o muy oscuro. Asegurarse de que el filme tiene las vueltas de seguridad tanto al principio como al final (guía y cola). Poner el rollo en el lector. Verificar él número del proyecto. Verificar la pagina de titulo (tomo, volumen, año, etc...) Verificar si el rollo es principio o continuación del anterior; Si es continuación, la primera exposición de este rollo será el último documento del rollo anterior. Inspeccionar los documentos. Si las paginas o folios están numerados, verificar la secuencia de la numeración; si no están numerados, se deberá contarlos, si faltan páginas, asegurarse de que no hay una nota que diga que faltan paginas, o que los números de paginan no están en orden, que hay un error de numeración o que hay paginas en blanco, etc. En caso contrario, se anotaran las páginas o folios que aparecen omitidos. Buscar páginas borrosas, información fuera de foco, esquinas dobladas, información cubierta. Cuando se encuentra uno de estos problemas, se debe informar al operador para que no microfilme otra vez con el mismo problema, antes de ordenar la retoma. Al final del volumen se debe verificar si el rollo termina con un letrero o marca que indique el final; y asegurarse que el siguiente tenga alguna seña que indique el principio. Si el rollo termina con la marca o señal que indica que continua en el rollo siguiente, se debe tomar en cuenta que el siguiente comience con la continuación del rollo anterior, y de que la ultima página del rollo anterior sea el comienzo de éste.24 2.2 24 Digitalización. Revista del Archivo Nacional. En Instituto Colombiano de Cultura: obr. cit., pp. 91-93. 30 El documento en formato digital, es un documento que puede tener información en forma de texto, sonido, imagen, etc., codificada en forma de dijitos binarios y susceptible de ser capturada, almacenada, distribuida y presentada por medios informáticos. 2.2.1 Concepto de digitalización "La digitalización consiste en la captura de la imagen de los documentos mediante un proceso de escaneo, y su posterior almacenamiento en un soporte óptico o magnético”. En la digitalización se realiza: 1. Muestreo: la imagen se divide en líneas horizontales y estas a su vez se descomponen en una serie de puntos o píxeles (píxel es acrónimo de Picture Element, es el elemento más pequeño de una imagen digital y también uno de esos puntos pequeñitos de luz que forman una imagen en la pantalla del ordenador). 2. Cuantificación: a cada uno de estos puntos se le asigna un valor en función de la luminosidad o color de la imagen original. A la unión de ambos procesos se le denomina digitalización, y el instrumento que realiza este proceso es el escáner o cámara digital. Existen dos parámetros que determinan el resultado de la digitalización: a) La resolución, número de puntos obtenidos por unidad de longitud. b) El número de niveles de grises en que se cuantifica la luminosidad del documento, o de colores en el caso de que se trate de un documento en color. Teniendo en cuenta que uno de los objetivos fundamentales de la digitalización es el de la preservación y conservación del documento original, es imprescindible asegurar que éste no sufra daños durante este proceso; para ello será necesario utilizar el instrumento de escaneo más adecuado según el tipo de documento, así como los parámetros más indicados para optimizar la calidad de la imagen obtenida. 2.2.2 Procesos de la digitalización El proceso de digitalización presenta las siguientes etapas: 31 Integración de la información Para implementar un adecuado sistema de digitalización se debe proceder en forma similar al proceso de microfilmación, en el cual se identifican las necesidades y requerimientos del archivo a tratar. Preparación de la documentación En esta fase se preparan los documentos a fin de proceder a su digitalización, para ello se debe seguir los siguientes pasos: Remover el polvo de los documentos y su contenido. Preparación de cada hoja según una secuencia ordenada, que permitirá hacer la base de datos (indexación), agrupando la documentación, de ser posible por orden lógico que permita unificar la secuencia de la información en segmentos sistematizados de fácil acceso para los eventuales usuarios. Digitalización e Indexación Para generar la base de imágenes se inicia con dos procesos: 1. La digitalización masiva de documentos. 2. La indexación de las imágenes obtenidas. Depósito de la información El proceso de digitalización concluye en el momento que se depositan las imágenes en algún tipo de dispositivo de almacenamiento. Este dispositivo va directamente relacionado al uso que se le quiera dar a la información. 2.2.3 Almacenamiento La información digitalizada se puede almacenar en diversos soportes, los mas utilizados son: CD – ROM, Discos ópticos, cintas magnéticas, DVD, servidores en la red etc. 2.2.3.1 Almacenamiento óptico 32 Aalmacenamiento óptico. Allí se encuentran los CD, el videodisco, y los discos ópticos. Poseen la capacidad de que el usuario puedan escribir en ellos información al igual que grabar datos directamente en el disco de manera que se puedan leer inmediatamente, lo que no tiene el microfilm ni el CD - ROM, ya que no gozan de este atributo. 2.2.3.2 CD - ROM CD - ROM: el CD -ROM disco compacto solo para leer, posee un mercado muy amplio. La tecnología que utiliza esta basada en datos codificados en forma digital en discos que luego se leen en un aparato óptico. Poseen gran capacidad de almacenamiento. 2.2.3.3 Cinta digital de audio CINTA DIGITAL DE AUDIO. Emplea el mismo tipo de tecnología que la cámara de videos, al igual que las cintas de vídeo, se utiliza el escaneo helicoidal; utiliza al igual que los discos compactos para la grabación tecnología digital. 2.2.3.4 DVD DVD: visualmente son parecidos a un CD, pero cuentan con una capacidad de almacenamiento sensiblemente mayor, además de una considerable diversificación de sus tipos que permitirá encontrar el adecuado a cada situación. 2.2.4 Indexación. Indexación: para el manejo de los documentos se debe contar con índices precisos para asegurar la rápida recuperación de la información solicitada. El escaneado de documentos no es el único proceso que incluye la digitalización, puesto que, una vez escaneados, se deben crear los mecanismos para la búsqueda y recuperación de dichos documentos. 2.2.5 Digitalización de documentos en blanco y negro “Cuando el documento a digitalizar es un texto o grafico en una sola tinta (negra) sobre una superficie monocroma (blanca), el proceso de conversión a formato digital se lleva a cabo descomponiendo la imagen en los puntos de una cuadricula, llamados píxeles (o dots) y asignando a cada píxel un valor 0 o 1 en función de que el punto corresponda a una zona blanca o negra en el documento. La información de cada 33 punto se almacena en un bit. A mayor número de puntos mayor calidad tendrá la imagen digital.”25 La palabra píxel viene de Picture Element. Un píxel es el componente mínimo de una imagen digital. Dot (significa punto en ingles). El proceso suele denominarse digitalización. La imagen es un mapa de bits (bitmap) que en su conjunto reproducen la sensación visual del documento original. La imagen, una vez digitalizada, se almacena en un fichero informático, utilizando un formato grafico. Los formatos más difundidos son JPG, TIFF, PCX, TGA, BMP Y GIF. El formato grafico especifica la manera en que se estructura la información grafica. Juega el mismo papel que los formatos de los programas de tratamiento de texto. La mayoría de las herramientas de manipulación de imagen pueden leer o escribir varios de estos formatos, aunque trabajen solo con uno de ellos. 2.2.6 Digitalización de documentos en escala de grises. En una fotografía en blanco y negro hay zonas más y menos oscuras. Se selecciona un conjunto fijo de niveles en la escala de grises y se asocia un código a cada uno de ellos. El color de cada píxel de la imagen se compara con la tabla de colores preseleccionados y sé le asigna el valor de dicho código. Pero, ahora esta información ya no cabe en un bit como ocurría en los documentos textuales. Cuando mayor sea el número de grises distintos considerados, más bits se requieren para almacenar el código del color que corresponde a un píxel. Si la información de cada píxel se almacena en un byte, se puede representar una imagen en la que aparezcan 256 grises diferentes por cada punto, asignando cada código a un color concreto. La calidad de la imagen depende de dos factores: De la capacidad cromática o crominancia, es decir, del número de diferentes colores que pueden estar presentes simultáneamente. Del número de puntos por unidad de superficie representados, es decir de su resolución. La resolución se mide en puntos por pulgada ppp o dpi (en ingles dots per inche). Las imágenes digitales consumen muchas memorias de almacenamiento. Naturaleza del color 25 PEÑA ROSALIA, BAEZA YATES, Ricardo: Gestión digital de la Información de bits a bibliotecas digitales y a la web., Madrid, ed., Roma. 2002. p.321. 34 El color es una sensación que completa la descripción y formas de los objetos. El primer estudio científico en esta área lo realizo Newton en 1792, al descubrir la descomposición espectral de la luz blanca en sus colores componentes (arco iris). El color blanco es la suma de todos los colores. Cada color es una radiación electromagnética (una señal compuesta por una onda eléctrica y otras magnéticas asociadas), con una longitud de onda concreta. El color que posee un objeto viene determinado por su capacidad para absorber o reflejar determinadas longitudes de onda. 2.2.7 Digitalización de documentos en color El ordenador incorpora un adaptador grafico o tarjeta grafica, que es el componente hardware encargado de preparar la información residente en la memoria principal para ser presentada en el monitor. En el entorno de ordenadores personales, el adaptador grafico es una tarjeta que se instala en una de las ranuras (slots) de la unidad central, a la que se conecta el monitor. Una imagen digitalizada con la resolución requerida para difusión ocupa 1.2 MB (625 columnas, 625 líneas, 3 colores componentes de 1 Byte), por lo que es un dispositivo de almacenamiento como el CD-ROM, con capacidad de 650 MB (aproximadamente 250.000 páginas de texto), solo puede almacenar 500 imágenes a esta calidad. 2.3 Captura de la imagen 2.3.1 El escáner “El escáner es el sistema de digitalización de imágenes que proporciona las mejores prestaciones para la captura de documentos en dos dimensiones de tamaño pequeño o mediano. Utiliza un haz luminoso para detectar los patrones de luz y oscuridad (o los colores) de la superficie del papel, convirtiendo la imagen en señales digitales que se pueden manipular por medio de un software de tratamiento de imágenes o con un reconocimiento óptico de caracteres.”26 El tipo de escáner más utilizado es el de sobremesa en el que, los objetos se colocan boca abajo sobre una superficie lisa de cristal y son recorridos (barridos) por un 26 Ibidem. p.329. 35 detector óptico desplazado por un mecanismo de avance por debajo del cristal. Tiene un funcionamiento y aspecto similar al de las fotocopiadoras de oficina. El cabezal detector estudia un determinado número de puntos por pulgada, predeterminados por el programa de gestión del escáner, y a cada uno de estos puntos le asigna un valor en función del número de bits del proceso. Algunos escáneres especializados utilizan para el barrido una cámara de vides, convirtiendo la imagen de vides a señales digitales. Al digitalizar un documento con un escáner es posible elegir la prefundida del color y la resolución, y ajustar el contraste y brillo en función de las características del documento. Es posible seleccionar la zona del documento a digitalizar. Antes de almacenar en la base de datos una imagen digitalizada, con frecuencia se utiliza un programa de retoque fotográfico (como Photoshop o Saint Shop Pro) con el fin de ajustar su tamaño y optimizar su visibilidad. 2.3.2 Reconocimiento óptico de caracteres (OCR) “El fichero de salida de un escáner es una imagen del documento, es un mapa de bits, es decir, contiene información de lo que esta oscuro y lo que esta claro, pero no es un texto, por lo que no puede ser procesado por un software de búsqueda en texto libre, ni es útil para indización automática. Tampoco es posible modificar su contenido, ni capturar directamente porciones de su contenido para llevarlo a un editor de textos. Para poder modificar el texto se debe utilizar un software especializado de Reconocimiento Óptico de Caracteres (OCR). El proceso de OCR se inicia con el escaneo en dos colores: el de tinta y el del papel, generalmente blanco y negro, de la superficie de la cual se desea extraer el texto. El programa se encarga de convertir las imágenes a caracteres siguiendo unos patrones precargados y comparando el resultado con la tabla de caracteres definidos.”27 Cámara Cuando el objeto a digitalizar no es plano, o es demasiado grande, o esta encuadernado en gruesos o frágiles volúmenes, no es posible emplear un escáner. La captura de la imagen puede realizarse con una cámara fotográfica, cámara de video o cámara fotográfica con salida digital. 2.4 Bases de datos Concepto de base de datos “una base de datos es un conjunto de información organizada sistematicamente”28. 27 28 Ibidem p.330. CASAS LUENGA, Julián: Access 97 para torpes. Madrid, Ed., Anaya Multimedia. 1997. pp.20-23. 36 Tipos de bases de datos. Las bases de datos se clasifican tradicionalmente en tres grupos: jerárquicas, en red y relaciónales. Las dos primeras se diferencian en los tipos de relaciones que permiten. Pueden decirse que la estructura jerárquica es un caso particular de la estructura en red. Cualquier esquema que se cree para una base de datos jerárquica se puede utilizar para una base de datos en red. Las bases de datos relacionales son conceptualmente distintas. En estas, las relaciones se almacenan y manipulan de forma completamente distinta. 2.4.1 Bases de datos jerárquicas En una base de datos jerárquica solo se pueden crear estructuras jerárquicas (esto es, en árbol). No es posible definir relaciones muchos a muchos. Para poder dar una caracterización más precisa de este tipo de bases de datos se introduce un nuevo concepto: el de conjunto. Un conjunto es una estructura formada por dos registros ligados por una relación uno a muchos. Los registros que forman el conjunto reciben, en éste, los nombres de propietario y miembro, siendo la relación de un propietario a muchos miembros. Se dice que una base da datos es jerárquica cuando no permite definir relaciones muchos a muchos y no acepta estructuras en las que un mismo registro sea miembro de dos conjuntos distintos. 2.4.2 Bases de datos en red. En una base da datos en red no hay ninguna restricción ni en el tipo de relaciones que se pueden usar, ni en los registros que pueden intervenir en ellas. No obstante, se distinguen entre bases de datos en red simple y bases de datos en red compleja, según permitan o no utilizar relaciones muchos a muchos. En una base de datos en red simple, este ultimo tipo de relaciones no esta permitido. Esto es, por parte, del tipo de sistema de base de datos más usual. Una base de datos en red simple se puede descomponer en conjuntos, al igual que una base jerárquica. La limitación en el tipo de relaciones que permite tratar, no implica restricción alguna en el tipo de datos que se pueden almacenar. Cualquier conjunto de datos es representable en cualquier sistema de bases de datos en red simple. 37 2.4.3 Bases de datos relacionales “Una base de datos relaciónal esta formada por tablas. Una tabla es una estructura bidimensional formada por una sucesión de registros del mismo tipo. Si se imponen ciertas condiciones a las tablas, se pueden tratar como relaciones matemáticas. De ahí el nombre de este tipo de bases de datos y el hecho de que las tablas de una base de datos relacional se les denomine tablas relaciónales”29. 2.5 Bases de datos documentales “Las bases de datos documentales son una colección de elementos de información almacenados y manipulados por un ordenador que los hace aparecer no estructurados y de contenido abierto”30. Datos no estructurados implica: Dimensión variable en estructuras repetidas. Para un elemento se pueden definir un número de características distinto que para un elemento que se considera similar al primero. Contenido variable, en cuanto que unas determinadas características pueden existir o no para elementos de una misma serie. Enlaces variables. En una estructura dada, pueden faltar enlaces sin afectar la validez de esta estructura. Contenido abierto implica la facilidad de evolución de la base de datos no estructurada. es decir, ha de ser posible y practico añadir, suprimir o cambiar las definiciones de elementos, de estructuras, de enlaces y de reglas. 2.5.1 Las características de las bases de datos son: Están formadas por grandes depósitos de información muy diversa (textos, cifras o imágenes), organizada en unidades mínimas que son los registros. Los registros están grabados en un soporte susceptible de ser leído por un ordenador. 29 MOYANO AVILA, Encarnación: La documentación Automatizada. España, ed., Librería Universidad. 1996. p. 42. 30 Ibidem. p.65. 38 Constan de un programa de gestión documental que se encarga de estructurar la información para facilitar en cualquier momento su rápida y precisa localización y recuperación. 2.5.2 Tipos de bases de datos documentales Existen dos tipos, las referenciales y las fuentes. Las bases de datos referenciales son aquellas que no disponen de la información final, sino que dan una información mínima y remiten al usuario a otra fuente de información que le permitirá completar su consulta. Las bases de datos referenciales pueden ser a su vez: Bibliografìcas: si contienen descripciones, algunas veces con resumen, de diversos documentos. Remiten a diferentes tipos de documentos (artículos de revistas, monografías, videos, patentes, etc.). Directorio: las diferencias que contienen generalmente remiten organizaciones, asociaciones, instituciones, empresas o individuos. a Las bases de datos fuente son las que proporcionan la información final, el texto completo, original. Existen distintos tipos de estas bases de datos: Textuales. Sus registros contienen los textos completos de los documentos y remiten el acceso inmediato a la fuente primaria de información. Numéricas. Contienen básicamente cifras y valores numéricos sobre diferentes aspectos como estadísticas de población, encuestas, etc. Generalmente se presentan en forma de tablas o series. Textual-numéricas. Combinan información textual con otras de carácter numérica, ya que sus registros disponen de diferentes campos de información. 2.6 Soportes de almacenamiento de bases de datos Los discos ópticos utilizan un rayo láser como medio de lectura, pero se diferencian entre ellos por su tamaño, el formato de los datos, su capacidad y el sistema de grabación. Los que más se utilizan son los siguientes: Los discos CD-ROM (Compact Read Only Memory). Los discos de este tipo tienen el mismo formato y dimensiones físicas que los discos CD-Audio pero están 39 preparados para contener texto e imágenes. “Una capacidad media de estos discos es de 650 Mb, que equivalen al texto de 350.000 páginas de tamaño DIN-A4.” 31 La información que contienen no puede ser modificada ni borrada, tampoco se puede añadir más información de la que contienen. Los discos WORM (Write Once Read Many). El usuario puede grabar una sola vez en él con el mismo aparato que utiliza la lectura. Existe una amplia gama de estos discos ópticos con diferentes formatos no normalizados al igual que los DON. Son útiles para el soporte de archivos históricos o para datos que se van a modificar. Los discos EDOD (Erasable Digital Optical Disc) o WMRA (Write Many Read Always). Funcionan igual que los discos magnéticos, se puede leer y modificar su contenido cuantas veces se necesite. “Disco Óptico Numérico (DON). Tiene de 5 a 14 pulgadas de diámetro. La escritura se hace directamente por láser (en los discos compactos se hace mediante matrices) y puede hacerla el mismo usuario. Un DON de 12 pulgadas permite almacenar más de 500.000 paginas de texto. Es un soporte útil para almacenar documentos que se consultan frecuentemente y permite la sucesiva incorporación de nueva información por medio de un escáner”32. 2.6.1 Sistemas de Gestión Electrónica de Documentos (GED) Los sistemas de gestión electrónica de documentos. Son los que se incorporan en una base de datos documental, para la manipulación de la información. Son sistemas informáticos preparados para almacenar, recuperar y reproducir documentos de manera totalmente automatizada y sin manejar físicamente los documentos. Generalmente se basan en ordenadores de alto nivel y memorias ópticas de tipo WORM y magnetoópticos. Las partes de un sistema GED son: Entrada. La información entrara en la memoria óptica, en forma de imagen mediante un escáner que digitalizara la imagen y la conservara como un archivo grafico, o en forma de texto, mediante un sistema de reconocimiento de carácter OCR (Optical Carácter Recognition) transformando un documento en un archivo de texto. Tratamiento. El archivo del documento se procesa con un programa de tratamiento grafico o de texto, según el tipo de entrada, mejorándolo y buscando posibles errores en la entrada. El documento se describe según el gestor de bases de datos que se utilice, indicándolo y describiéndolo. 31 32 Ibidem. p.67. Ibidem. pp. 67-68. 40 Almacenamiento. El documento se guarda definitivamente y su descripción se incluye dentro de la base de datos. Comunicaciones. Desde una estación de trabajo se pide el documento y éste se envía hasta la estación. Salida. Se hace copia del documento con una impresora de alta resolución. Con los Sistemas de Gestión Electrónica de Documentos se obtiene un ahorro de espacio, velocidad en la recuperación de documentos en 15 segundos, frente a los 2 minutos de los sistemas manuales. Los documentos dentro de un sistema GED están indizados en bases de datos y su recuperación es mucho más precisa que en sistemas manuales. 2.6.2 Software de los GED El software consiste en un sistema de gestión de bases de datos, que puede ser de tipo relacional o documental. Este sistema de gestión incorpora control de escáner y los controladores del monitor, de la unidad de discos ópticos y de la impresora láser. El sistema de recuperación de información es uno de los puntos mas importantes, por que de el dependerá la rapidez y la recuperación de documentos. Un GED puede instalarse en modo monopuesto o en red. En un sistema de red, se necesita una estación de entrada, un servidor de discos ópticos, un servidor de gestor de base de datos y varias estaciones de búsqueda y recuperación. La estación de trabajo básica en el modo monopuesto consiste en cinco subsistemas: 1) Subsistema de entrada, que esta compuesto por un escáner que se utiliza para digitalizar los documentos. 2) El subsistema de tratamiento y control, compuesto por un microordenador de gama alta. 3) El subsistema de almacenamiento, compuesto por discos ópticos tipo WORM o magnetoópticos y por un disco duro convencional como memoria masiva auxiliar. 4) El subsistema de visualización y reproducción, formado por un monitor de alta definición y una impresora láser. 41 5) También se puede incorporar fax y correo electrónico. 2.6.3 Documento electrónico No hay un acuerdo en la definición de documento archivístico electrónico, pero esta definición puede ser obtenida a través del concepto de documento archivístico y de documento electrónico. La Guía para la Gestión Archivística de documentos electrónicos del Consejo Internacional de Archivos define documento archivístico como: “Un documento es una información registrada que se produce o recibe en el marco de la gestión de una actividad institucional o personal y que engloba el contenido, el contexto y la estructura, sirviendo de prueba a la actividad que le ha dado origen” sin embargo esta definición poco nos dice en relación con los documentos electrónicos que son definidos como: “Documento que puede ser manipulado, transmitido o tratado por un ordenador”33. Documento electrónico es el documento orgánico, generado o recibido por una persona o entidad en el desempeño de sus actividades y que ha sido producido o almacenado usando las tecnologías informáticas. Las características del documento electrónico, son determinadas en la forma en como se produce. Como: El área al cual pertenece el ente productor, incluyendo la estructura, las funciones y las actividades desarrolladas por la entidad. El procedimiento en el cual es creado el documento. El fondo documental al que pertenece el documento. Este contexto es el que le da al documento electrónico, su consideración archivística referida a los ámbitos administrativo, legal o fiscal en cuanto los documentos de archivo son el reflejo de esas actividades administrativas, lo que les confiere un valor especial tanto para el organismo productor como para los organismos o personas con el relacionados. El documento electrónico pasa por diversas fases en su ciclo vital, como son: 33 CONSEJO INTERNACIONAL DE ARCHIVOS. Comité sur les documents electroniques. Guide pour la gestion archivistique des documents électroniques. Paris: CIA, 1997. p 24. 42 1. Fase de diseño 2. Fase de creación 3. Fase de mantenimiento El documento electrónico se creó con el desarrollo de la informática. Con el pueden comunicarse y consultarse documentos electrónicos desde cualquier parte del mundo. Características del documento electrónico: 1. Es de fácil reproducción. Esto significa que puede copiarse las veces que se solicite. 2. Se requiere equipo de cómputo para su visualización. 3. Almacena grandes cantidades de información en espacios reducidos. 4. Es necesario conocer el tipo de formato en que fue hecho para poder leerse. 2.6.4 Metadatos Concepto: “Datos sobre los datos”.34 Los metadatos conforman los atributos que identifican y estructuran elementos de fuentes de información, pero estos elementos se refieren explícitamente a fuentes electrónicas que están disponibles en red. Al igual que los instrumentos tradicionales, los metadatos presuponen procedimientos, normas y especificaciones transparentes y consecuentes. “Los metadatos y la formulación de estándares dependerán del área o disciplina en la que son utilizados; muchas de estas las encontramos en Internet: datos médicos, información bibliotecaria, juegos, comercio electrónico y catálogos audiovisuales. En cada dominio, los metadatos pueden servir para varios y diferentes propósitos: para ayudar en la determinación de la relevancia de una información relacionada con una consulta concreta, para analizar las características de un conjunto de información, o para enviar información de un sistema a otro diferente. “35 Los Metadatos son la información identificada de diferentes aspectos relacionados a un dato. Es parecido a una ficha técnica en la cuál se documenta un dato. El Metadato describe el contenido, la calidad, condición y otras características de un dato. 34 ANNEMIEKE DE JONG: Los metadatos en el entorno de la producción audiovisual. Trad., por Jesús Andèrez. México, Edición ILCE.2001. p.19. 35 Ibidem. p.19. 43 Por ejemplo un metadato muestra información acerca de la Identificación del dato como su título, áreas, temas, fechas de creación, restricciones, etc. También acerca de la calidad de los datos, la organización geoespacial, la referencia espacial, entidades e información acerca de los atributos, su distribución y otros referentes al dato. Los Metadatos son útiles para la transferencia o distribución de los datos de las Organizaciones. Además provee información para mantenimiento y organización de los inventarios de información. 2.7 Redes 2.7.1 Concepto Existen varias definiciones acerca de que es una red, algunas de las cuales son: Conjunto de operaciones centralizadas o distribuidas, con el fin de compartir recursos "hardware y software". “Sistema de transmisión de datos que permite el intercambio de información entre ordenadores”. “Conjunto de nodos "computador" conectados entre sí”. Los usuarios de una red pueden compartir impresoras, enviar mensajes electrónicos y compartir otros recursos de programas. 2.7.2 Tipos de redes Según su ubicación, se dividen en tres tipos: Si se conectan todos los ordenadores dentro de un mismo edificio, se les llama LAN (Local Área Network). Si se distribuyen en edificios diferentes, que están ubicados en la misma ciudad ó área metropolitana, se llama MAN (Metropolitana Área Network). Si están distribuidas en edificios diferentes que están ubicados distintas o en distintos países, se llaman WAN (Wide Área Network). en ciudades 44 En la forma en que se encuentren establecer varias categorías: conectados los ordenadores, se pueden 1. Redes sin tarjetas. Utilizan enlaces a través de los puertos serie o paralelo para transferir archivos o compartir periféricos. 2. Redes punto a punto. Un circuito punto a punto, es un conjunto de medios que hace posible la comunicación entre dos ordenadores determinados de forma permanente. 3. Redes entre iguales, en las cuales cada ordenador conectado a la red, puede compartir la información y los recursos determinados previamente con los demás ordenadores de la red. 4. Redes basadas en servidores centrales utilizando el modelo básico cliente servidor. En este tipo de redes, un ordenador pone sus recursos a disposición del resto de ordenadores de la red, de esta forma; cada estación recupera los datos del servidor y los procesa como si fueran locales. Red de área local La red de Área Local (LAN), es un grupo de estaciones de trabajo (clientes) y periféricos (como las impresoras) conectados al servidor. Para ello es necesario contar, aparte de los ordenadores, con las tarjetas de red, los cables de conexión, los dispositivos periféricos y el sofware conveniente. Para conectar una PC o microcomputadora a una LAN (Red de Área Local), es necesaria la instalación de una tarjeta de interfaz de red (NIC) en cada computadora. Las NIC de cada computadora se conectan con un cable especial para red. El ultimo paso para implementar una LAN es cargar en cada PC un software conocido como sistema operativo de red (NOS). El NOS trabaja con el software del sistema operativo de la computadora y permite que el software de aplicación (el procesador de palabra, las bases de datos, las hojas de calculo, los paquetes, etc.) que se estén ejecutando en la computadora, se comuniquen a través de la red con otras computadoras. Redes de Área Amplia Dos o más redes locales enlazadas entre si forman una red de área amplia. Una organización con numerosas redes locales puede enlazarlas con cables de fibra óptica y líneas telefónicas de alta velocidad, para formar una red de área amplia. Una WAN (Wide Área Network) puede vincular dos departamentos del mismo piso entre si o llegar a todo un continente o ha todo el mundo. 45 Redes Cliente –Servidor El mundo cliente- servidor puede ir soportado por un tipo de red local. Los servidores almacenan, protegen, gestionan y sirven la información desde la red, que los clientes solicitan. Un servidor puede ser cualquier computadora, un gran sistema, una minicomputadora ò una potente computadora de escritorio. Los servidores deben tener alta velocidad de entrada y salida (I/O rate), de manera que puedan manejar cientos de peticiones a la vez. Algunos servidores están dedicados como los servidores de correo y otros tienen participaciones para manejar diversas funciones. El servidor de archivos central de la red local almacena el sistema operativo de la misma, los búferes del sistema y la caché o memoria próxima. Las máquinas cliente demandan datos al servidor y utilizan su propia potencia de datos y sus aplicaciones, como Microsoft Word o Adobe Photoshop, para procesarla localmente. Este, entorno tiene varias ventajas: costo más bajo y mayor flexibilidad. Tanto la maquina cliente como la maquina servidor, así como otros dispositivos de la red, se pueden reconfigurar para adaptarlos a las necesidades variables. Red Man (Metropolitana Área Network), Red de área metropolitana, comprende una ubicación geográfica determinada "ciudad, municipio", y su distancia de cobertura es mayor de 4 kmts. Son redes con dos buses unidireccionales, cada uno de ellos es independiente del otro en cuanto a la transferencia de datos. Es básicamente una gran versión de LAN y usa una tecnología similar. Puede cubrir un grupo de oficinas de una misma corporación o ciudad, esta puede ser pública o privada. El mecanismo para la resolución de conflictos en la transmisión de datos que usan las MAN, es DQDB. DQDB, consiste en dos buses unidireccionales, en los cuales todas las estaciones están conectadas, cada bus tiene una cabecera y un fin. Cuando una computadora quiere transmitir a otra, si esta está ubicada a la izquierda usa el bus de arriba, caso contrario el de abajo. Redes heterogenias o híbridas “Es una LAN que incluye computadoras y dispositivos de distintos fabricantes. Muchas organizaciones crean redes heterogéneas que enlazan muy bien sistemas Macintosh y compatibles con la PC de IBM como Hacer, Compaq, Hewlett Packard, entre otras.”36 2.7.2.1 Intranet 36 Cfr. STOLTZ KEVIN: Todo acerca de las redes de computadoras. Traducido por Sergio Luís Maria Ruiz Faudan. México. Ed., New Riders Publishing.1994. p. 25. 46 Antecedentes La primera aparición del termino, impresa comercialmente, se encuentra en las Digital News & Review en el articulo de Stephen Lawton sobre Intranets en abril de 1995. En el analiza a las mil empresas de Fortuna que publicaron paginas Web e instalaron servidores Telnet y FTP. Los iniciadores fueron Boeing, Schlumberger Ltd., weyerhaeuser Corp, Sun Microsystems y Digital Equipment Corp. El termino se volvió popular debido en gran parte a Netscape. Cuando este empezó a desarrollar su estrategia de negocios alrededor de la Intranet de servicio completo. CONCEPTO “…Una Intranet es una red de computadoras que permite que los empleados de una organización compartan e intercambien información, correo electrónico e incluso documentos empresariales confidenciales. Así como Internet conecta entre si a usuarios de todo el mundo, una Intranet conecta entre si a todos los empleados de una organización, independientemente del lugar donde residan…”37 En algunos casos, es estrictamente una red de área local. Sin embargo, los empleados conectados a una Intranet trabajan a menudo en oficinas geográficamente dispersas, incluso en el mundo entero. Una de las características que distinguen a las intranets de las redes tradicionales de área local es que se basan en el Protocolo TCP/IP. Es una red privada que esta bajo estricto control, se instala y se administra utilizando el mismo hardware y software que un usuario usa en Internet; pero tiene dos diferencias muy importantes: Una red Intranet es una red corporativa, en Internet es una red mundial. La Intranet tiene acceso a Internet pero Internet a Intranet no. Un servidor de Intranet elimina la necesidad de duplicar los datos, y provee a los usuarios un fácil acceso a los mismos. Una plataforma de este tipo puede soportar aplicaciones internas y externas para compartir la información interna y externa en Internet. Por ser una red de uso privado, se necesitan elementos de seguridad que impidan el acceso a personas no autorizadas. 2.7.2.2 Extranet 37 LYNN BREMMER, Al Servato: La Biblia de Intranet, México, 1998. p. 245. 47 Concepto. Una Extranet es una red, que es parte de la intranet de una empresa que se hace accesible a usuarios de otras compañías, siendo la información privada o en algunos casos publica. La red Intranet se convierte en Extranet, cuando un acceso selectivo es otorgado a otras entidades fuera de la organización o empresas. Por lo tanto si una compañía permite el acceso a su Intranet a proveedores, clientes, socios, etc., esta se convierte en una red Extranet. También en este tipo de red el acceso es restringido, utilizando los usuarios passwords (claves) y encriptación. 2.7.2.3 Internet Concepto “Meter Dayson dice que Internet es “… un sistema de redes de computación ligadas entre si, con alcance mundial, que facilita servicios de comunicación de datos como registro remoto, transferencia de archivos, correo electrónico y grupos de noticias. Internet es una forma de conectar las redes de computación existentes que amplia en gran medida el alcance de cada sistema participante…” 38 Actualmente la utilizan toda clase de personas: educadores, bibliotecarios, políticos, hombres de negocios, estudiantes, etc. Con diferentes propósitos, que van desde comunicarse unos con otros, hasta el tener acceso a información y diferentes recursos. Internet nace como una red llamada ARPANET, se inicio como un experimento del gobierno de los Estados Unidos. Posteriormente se convirtió en DARPA (Agencia de Proyectos Avanzados de Investigación en Defensa). Conectaba a los investigadores con centros de cómputo lejanos, permitiéndoles compartir recursos de los equipos y de los programas. En 1980 se dividió ARPANET en dos redes: ARPANET Y MILNET (una red militar con información no clasificada). Las conexiones que se hicieron entre las redes, permitieron que continuara la comunicación y se llamo Internet Darpa y posteriormente se redujo a Internet. “El acceso a ARPANET en los primeros años se limito a los militares, los contratistas de defensa y a las Universidades que realizaban investigación sobre defensa. A fínales de 1970 se crearon redes cooperativas descentralizadas como UUCP, una red de comunicación mundial de UNIX y USENET (Red de Usuarios), que daban servicio, inicialmente a la comunidad universitaria y posteriormente a las organizaciones comerciales. A principios de 1980, redes mas coordinadas como la CSNET (Red de Ciencias de Cómputo) y BITNET empezaron a proporcionar redes de alcance nacional a las comunidades académicas y de investigación. Estas redes no formaban parte de Internet. Pero posteriormente se realizaron conexiones 38 Meter Dyson: obra. Cit. P.248. 48 especiales que comunidades. permitían intercambiar la información entre las diversas El siguiente momento importante en la historia de Internet fue el nacimiento de la NSFNET (Red de Fundación Científica Nacional) en 1986, que unía a los investigadores de diferentes estados en Estados Unidos con cinco macrocentros de cómputo. Rápidamente se expandió para conectar las redes académicas de nivel estatal y medio, que conectaban las universidades y centros de investigación; la NSFNET empezó a reemplazar a ARPANET en el trabajo de redes de investigación. ARPANET se dio de baja honorablemente y se desmantelo en marzo de 1990. Al tiempo que se constituyó NSFNET Internet comenzó a crecer, mostrando ganancias exponenciales en cantidad de redes, seres humanos y computadoras. De manera similar se desarrollaron redes internacionales en todo el mundo y se conectaron a las redes de Estados Unidos.”39 Internet es una red que une una serie de redes de computadoras con la finalidad de realizar el intercambio de información entre los diversos usuarios a nivel mundial, que crece y se modifica diariamente. 2.7.3 Hipertexto Antecedentes Fue Vannerva Bush el creador del concepto de hipertexto. Bush pensaba que los mètadatos tradicionales de indización eran ineficaces, sobre todo en la artificialidad del sistema y la recuperación de la información que se realizaba de subclase en subclase. Bush pensaba que un sistema ideal de organización y recuperación de información debería estar basado en una estructura asociativa parecida a la del pensamiento humano. Pensó un sistema teórico llamado MEMEX (Memory Extended System), sistema de información, donde el usuario podría guardar textos en su integridad y realizar relaciones no-secuénciales entre partes o unidades arbitrarias de aquellos textos. Parecido a un lugar donde el individuo almacenara registros que están estructurados para que se puedan consultar rápidamente. Para Bush MEMEX, era una combinación de microfotografia y lógica electrónica, donde el sistema trabajaba uniendo diferentes elementos de gráficos, textos, documentación personal, etc. Todo esto a través de pantallas, creando enlaces entre dos puntos cualesquiera entre documentos almacenados. Este sistema nunca se convirtió en realidad. 39 LAQUEY TRACY, Jeanne Ryer: Que es Internet. Trad., por Flor A. Bellomo. Ediciòn Addison E.U.A. 1994 p. 5. 49 “En 1962 Douglas Engelbart en el desarrollo del proyecto Augmented, planteo la posibilidad de desarrollo de un conjunto de herramientas orientadas a aumentar la capacidad y productividad humana, desarrollando actividades como automatización de documentación y procesamiento de textos”40. Parte de este proyecto fue el sistema NLS (ON-Line System), basado en la idea original de Vannervar Bush. NLS fue un sistema que tenia característica de hipertexto, aunque no fue desarrollado como tal. “Este sistema se llego a implementar hasta en 100.000 elementos y hoy en día, es todavía único como estructura de hipertexto. NLS puede ser considerado como el primer sistema de hipertexto en funcionamiento. La estructura principal de la organización de los nodos en este sistema era la jerarquía, reflejando así la estructura de la mayor parte de la documentación técnica, pero también permitiendo el establecimiento de enlaces entre diferentes niveles y ficheros. Con el paso del tiempo y posteriores desarrollos, NLS se ha convertido en el sistema de hipertexto Augmented, comercializado por McDonnell-Douglas”41 Definición de hipertexto. Fue Theodor Nelson en 1965, quien define el término de hipertexto de la siguiente manera: “Por hipertexto entiendo escritura no secuencial. La escritura tradicional es secuencial por dos razones. Primero, se deriva del discurso hablado, que es secuencial, y segundo, porque los libros están escritos para leerse en forma secuencial… sin embargo, las estructuras de las ideas no son secuénciales. Están interrelacionadas en múltiples direcciones. Y cuando escribimos siempre tratamos de relacionar cosas de forma no secuencial”42. Conklin lo define como: “El concepto de hipertexto es sencillo: las ventanas en la pantalla están asociadas con objetos (nodos) en la base de datos y, por otra parte, las ligaduras o relaciones entre aquellos objetos, se representan tanto gráficamente (marcas rotuladas), como en la base de datos ( en forma de punteros)”43 Ted Nelson definió el hipertexto como: 40 Cfr. CANTOS GOMEZ, Pascual: Hipertexto y Documentación. Murcia: Secretariado de publicaciones. Universidad, 1994. pp. 15-24. 41 Ibidem, p.18. 42 NELSON. T.H.: Managing inmense storage: Proyect Xanadu provides a model for the possible of mass storage.1988, pp. 225-238. 43 CONKLIN, j.: Hipertex: An introduction and Survery, IEEE, (Septiembre), pp.17-14. 50 “La combinación de texto en lenguaje natural con la capacidad del ordenador para la arborescencia interactiva o la visualización dinámica…de un texto no lineal… que no puede ser impreso adecuadamente en páginas convencionales”44 La definición de Nielsen: “El hipertexto consiste en piezas de texto o de otro tipo de presentación de la información ligadas de manera no secuencial. Si el foco de tal sistema descansa en tipos de información no textual, se utiliza el término Hipermedia… Los objetos entre los que es posible establecer relaciones como origen o destino de ligaduras se denominan nodos, y el sistema global formará una red de nodos interconectados. Las ligaduras pueden ser de distintos tipos y / o tener asociados a las mismas atributos, que también pueden ser bidireccionales. El usuario accede a la información contenida en los nodos, navegando por las diferentes ligaduras que se establezcan. Dicha navegación tendría que estar asistida por una panorámica estructural de la red (y de la ruta seguida por el usuario en su navegación)”.45 La expresión "hipermedia" extiende la noción de hipertexto al incluir información visual, sonora, animación y otras formas de información. Se podría decir que son términos como sinónimos, ya que "hipertexto" es el que aparece con mayor frecuencia en la literatura especializada. El hipertexto deja en manos del lector muchas decisiones que, anteriormente, eran propias del autor o del editor. Al leer una obra en hipertexto, se puede generalmente cambiar el tamaño de la tipografía, para verlo mejor. Al llegar a una nota, se podría abrir una segunda ventana y leer la nota, sin borrar el texto original (y la nota aparece, así, como otro texto, no como algo subsidiario o parásito). Aquí podría aparecer un nuevo nexo (o varios), y el lector decidirá si sigue alguno de ellos. El hipertexto se compone de múltiples fragmentos o "páginas-pantallas", que son llamadas "lexias" (utilizando el término propuesto por Barthes). Una lexia puede ser un trozo de texto pero, dada la capacidad multimedia de las aplicaciones computacionales de hoy, también puede ser un conjunto compuesto de texto, imagen (fija o video) y sonido. 2.7.4 Hipermedia El hipertexto, un conjunto de hipermedia, se refiere de manera especifica a documentos computacionales donde los lectores se pueden mover de un lugar a otro, de un documento a otro o dentro del mismo, de una manera no secuencial ni 44 45 CANTOS GOMEZ, Pascual. Op. cit., p.21. NILSEN, J.: Hypertext and Hypermedia, 1990, Oxford:Oxford Academic Press. 51 lineal; esto quiere decir que no se tiene acceso a la información en forma tradicional de principio a fin. Como se hace en los libros. En un documento computacional no lineal, el usuario se desplaza en forma aleatoria. Las palabras, frases e iconos del documento se convierten en enlaces que permiten viajar a una nueva posición en el mismo documento e incluso a uno nuevo. Hipermedia es una extensión natural de hipertexto. En hipermedia, los enlaces son conexiones visuales a graficas o fotografías, mensajes de audio o video, así como a texto. Hipermedia le da vida a un documento y la computadora personal se convierte en un dispositivo multimedia, donde se puede tener acceso a información en distintos formatos. 2.7.5 Multimedia Es como su nombre lo dice “multimedios”, una combinación de texto, arte grafico, sonido, animación y video que llega al usuario por medio de la computadora u otros medios electrónicos. Es un proceso interactivo donde se puede tener el control de lo que se desea realizar o ver. Multimedia se compone de combinaciones entrelazadas de elementos de texto, arte grafico, sonido y video. Cuando al observador de un proyecto de multimedia se le permite tener el control de ciertos elementos y cuando deben presentarse, se le llama multimedia interactiva. Cuando se le proporciona una estructura de elementos ligados a través de los cuales el usuario puede navegar, entonces multimedia interactiva se convierte en hipermedia. Además de proporcionar un método para que los usuarios interactúen con el proyecto, la mayoría de las herramientas de desarrollo de multimedia ofrecen además facilidades para crear y editar texto e imágenes, y tienen extensiones para controlar los reproductores de videodisco. Las aplicaciones de multimedia incluyen presentaciones, capacitación, mercadotecnia, publicidad, demostración de productos, bases de datos, catálogos y comunicaciones en red. Multimedia requiere grandes cantidades de memoria digital cuando se almacena en una biblioteca de usuario final, o de un gran ancho de banda cuando se distribuye por cables o fibra óptica en una red. 52 CAPÍTULO 3 APLICACIÓN DE NUEVAS TECNOLOGÍAS DE INFORMACIÓN POR EL PROFESIONAL ARCHIVÓNOMO. Archivonomía La Archivonomía es una ciencia aplicada a la organización y manejo de los Archivos, es la disciplina que se encarga de dictaminar la forma en que se deben conservar los documentos. Antonia Heredia Herrera la define como “La ciencia que estudia la naturaleza de los archivos, los principios de su conservación y organización y los medios para su utilización”.46 El objeto de estudio de la Archivonomía son los archivos y su documentación. Jenkinson define al archivo como: “conjunto de documentos de cualquier naturaleza de cualquier institución o persona, reunidos automática y orgánicamente en virtud de sus funciones y actividades”47. Giorgio Concetti define Archivo como: “el conjunto de los documentos despachados y recibidos por una institución o individuo para conseguir sus propios fines y para el ejercicio de su propia función”48. Un Archivo es un lugar donde se encuentran documentos organizados y que dan un servicio. Por lo tanto las funciones de un archivo son recoger, conservar y dar servicio. “La Archivonomía se presenta como una ciencia eminentemente práctica, que no puede prescindir en ninguna medida del contexto teórico, el cual constituye la base de sus actos, ni de la teoría, el cual constituye su experiencia y alcances actuales. La formación de Archivistas propone a sí, a perfeccionar el discernimiento y la valoración de la última tecnología informática”49. Por lo tanto, el Archivónomo Profesional de hoy debe conjugar y poner al servicio de los usuarios, personal e instituciones, todos esos avances mas los que el mismo descubra o le sean sugeridos por la tecnología y las demás ciencias. 46 HERRERA HEREDIA, Antonia: Archivistica general. Teoría y práctica. Diputación provisional de Sevilla, 7° edición, Sevilla, 1995. p. 30. 47 JENKINSON, Hilary: Manual of archive administration. Londres, 1937. p. 41. 48 CENETTI, GIORGIO: Saull archivio come Universitas rerum, “ARchivis”. IV, 1937. pp.7-13. 49 AREVALO JORDÁN, Víctor Hugo: La profesionalización de los archivos. Programa de Difusión cultural. Santa Fe, 2000, pp. 7-8. 53 3.1 El profesional Archivónomo. La profesión de archivista no responde a un personal único y determinado. Un egresado de la Licenciatura en Archivonomía cuenta con los conocimientos necesarios para desarrollarse en cualquier tipo de archivo, en la docencia y en actividades directivas de planificación y coordinación. Otro campo de aplicación es el de investigación en el área de la Archivonomía. 3.1.2 Perfil. El profesional de los Archivos, por su formación; se puede permitir disponer de muchos elementos de juicio para tomar decisiones; y cuenta con estudios y con la capacidad para: Elaborar instrumentos, manuales y cuadros de clasificación para aplicarlas en el archivo. Indicar a los usuarios del archivo, sobre la consulta información que contiene. y manejo de la Asesorar dentro de su especialización a instituciones oficiales y privadas que lo soliciten. Crear sistemas de archivos y dirigirlos. Planificar las competencias y actividades de cada archivo que integre el sistema. Aplicar reglas para: conservar en toda su integridad individual y colectiva los documentos. Planificar actividades del Archivo para llegar a objetivos a corto, mediano y largo plazo. Diseñar y ejecutar programas de capacitación en el manejo y uso de la información. Identificar y asimilar los objetivos, estructuras y problemática de las instituciones a las que esta vinculado, a fin de aportar información necesaria y oportuna que le facilite el cumplimiento de sus objetivos y la solución de problemas. 54 Posee conocimientos en paquetería y programas de computación. 3.1.3 Campo de trabajo. El área de trabajo del profesional archivista es amplia, puede desarrollarse en la organización de los archivos de diversas instituciones, dependencias gubernamentales o empresas privadas; también puede ejercer su profesión de manera independiente como consultor o asesor profesional, o dedicarse al campo de la investigación en la Archivonomía y a la docencia. Sin embargo, con la situación laboral que se vive en México desde hace algunos años, para los profesionales que egresan con una profesión, es un poco difícil; debido a la falta de empleo, y por otra parte los sueldos de un profesionista son muy bajos. “Los jóvenes en México enfrentan un futuro incierto frente al desempleo, un mal crónico que acompaña como maldición a este sector poblacional compuesto por casi 34 millones de individuos entre 12 y 29 años, es decir, 34.5% de la población. A diferencia de otras épocas en que la posibilidad de cursar una carrera profesional les permitía mayores oportunidades de trabajo, en la actualidad los egresados de instituciones de educación superior —una minoría privilegiada que apenas representa 1% de ese sector— no tienen la garantía de obtener un trabajo relacionado con su profesión. La realidad es contundente: la mitad de los jóvenes desempleados tienen niveles de educación de profesional medio y superior, es decir, la población más educada no encuentra empleo. La frustración y el desencanto es una constante entre los jóvenes para quienes, con mayor frecuencia, estudiar una profesión responde cada vez menos a sus expectativas, pues de todos modos un número importante no encontrará trabajo. “La receta de la educación superior, que hoy sean o no universitarios, no les quita ni les pone nada: igual se van al desempleo”, afirma el director de Investigación y Estudios sobre la Juventud del Instituto Mexicano de la Juventud, José Antonio Pérez Islas”50. El campo laboral del profesional Archivónomo que se tenía hace algunos años ha ido cambiando. Esto se ha dado en la medida que el mercado laboral plantea nuevas exigencias que son producto de los cambios en las estructuras económicas, políticas, sociales, culturales y tecnológicas. Por lo tanto, estas exigencias requieren y exigen al egresado como profesional de la Licenciatura en Archivonomía, que se enfrente a esos retos; y debe prepararse aún más, para que tenga las herramientas suficientes, y pueda enfrentarse a las diversas situaciones laborales. 50 HERNANDEZ, Ángel: Una carrera Universitaria no garantiza trabajo ni buen salario. [en línea]. Revista Vértigo (2005).Dirección: [email protected] [Consulta: 14 de enero 2005]. 55 En los últimos años se han desarrollado nuevas aplicaciones en las tecnologías ópticas, los sistemas expertos, la digitalización, los sistemas integrados y las conexiones en red; cuya relación con el manejo de la información es inminente. Tecnología es un término que casi siempre nos lleva a evocar como referente inmediato el uso de maquinas de diferentes formas y tamaños, o bien, un conjunto de técnicas empleadas en un determinado proceso; no obstante la raíz etimológica: teckné, es un vocablo griego que significa saber hacer con conocimiento de causa; lo que implica que la tecnología no se reduce, necesariamente, sólo a la existencia de maquinarias o a la aplicación de determinadas técnicas adquiridas, sino que se basa en formulaciones teóricas y en conocimientos con usos y aplicaciones específicas. La tecnología demanda una reflexión permanente y seria, contextualizada en los procesos de globalización y de la nueva división internacional de trabajo, las aplicaciones de uso tecnológico marcan hoy el carácter de la configuración económica internacional, aun cuando no tenga por si misma un sentido económico, constituye uno de los factores imperativos del desarrollo de las sociedades actuales; y además por que el conocimiento o desconocimiento de las mismas determina el uso potencial que ésta pueda tener. Con el desarrollo de las Nuevas Tecnologías, se han transformado las diversas actividades del ser humano en todos los campos posibles. En el campo de la Archivonomía, tiene un impacto directo; sobre todo en la aplicación de procedimientos archivisticos que son necesarios para la conservación, organización, descripción y difusión. Con la aplicación de nuevas técnicas de procesamiento de la información, se pueden desarrollar nuevos métodos para el manejo de la documentación en los Archivos. El Profesional Archivista debe aprovechar los avances Tecnológicos, en el área de la Informática para la aplicación de los Archivos. Sin olvidar que las Tecnologías solo son herramientas que le ayudan de alguna manera a realizar su trajo con más rapidez y facilidad. Antes de abordar los siguientes apartados, me permito aclarar que las notas al pie de pagina están estructuradas, de acuerdo a como lo señala la norma ISO 690-2, para citar bibliografía publicada en formato electrónico. 3.2 Digitalización de documentos Los documentos son escaneados en el sistema. El sistema de digitalización de documentos los guarda en el disco duro ó en un disco óptico. Luego, los documentos pueden ser indexados. Cuando más tarde, algún usuario desea leer un documento, utiliza las herramientas de recuperación disponibles en el sistema. 56 Cuales documentos pueden ser leídos y que acciones se pueden aplicar sobre éstos dependerá del nivel de acceso permitido por el sistema. 3.2.1 Un sistema de digitalización de documentos comprende cinco elementos: Escaneo Los mayores avances en la tecnología de escaneo permiten que la conversión del documento en papel sea rápida, económica y fácil. Un buen escáner permitirá que la operación de ingresar los documentos en su computadora sea una tarea fácil. Archivo El sistema provee un sistema de archivo confiable y de largo plazo para sus documentos. El sistema de archivo manejará el cambio de documentos, el crecimiento de los volúmenes y el avance de la tecnología. Indexación El sistema de indexación crea un sistema de archivo de documentos organizado y permite que la recuperación futura sea simple y eficiente. Con el sistema de indexación hará más efectivos los procedimientos y sistemas existentes. Recuperación El sistema de recuperación utiliza la información en los documentos, incluyendo el índice y texto, para buscar las imágenes guardadas en el sistema. El sistema de recuperación permitirá encontrar los documentos precisos rápida y fácilmente. Acceso Los documentos deben estar disponibles para ser leídos por aquellos que necesiten hacerlo y con la flexibilidad de controlar el acceso al sistema. El sistema de acceso pondrá los documentos a disposición de aquellos usuarios autorizados, ya sea en la oficina, en diferentes locaciones ó a través de la Internet. 3.2.2 Procesos necesarios a seguir para introducir un sistema de imágenes: Todos los documentos deben ser escaneados hacia el sistema. Luego las imágenes son almacenadas en el disco duro o disco óptico. Posteriormente los documentos pasan por un motor de OCR y finalmente estos pasan por un proceso de indexación. Cuando un usuario requiere un documento, sólo con una palabra o frase los documentos pueden ser recuperados instantáneamente. 57 Un sistema completo de imágenes debe contener los siguientes elementos: Digitalización Tener la capacidad de escanear o digitalizar los documentos de una manera rápida, barata y fácilmente. Almacenamiento El sistema de almacenamiento debe permitir que se pueda almacenar un volumen importante de documentos de una manera que esta pueda ser manipulada convenientemente. Indexación La indexación hace posible que los documentos puedan ser recuperados posteriormente por solo una palabra que esta contenida en el documento en sí. Recuperación Un sistema de recuperación hace que se pueda encontrar los documentos rápida y fácilmente. Además, debe permitir realizar una combinación de búsquedas, tal como, comodines, búsqueda aproximada, búsqueda por texto, búsqueda por plantilla y una combinación de factores que hace que su búsqueda sea exitosa. Acceso El acceso a la base de datos es un punto importante para un sistema de imágenes. Hay muchas forma de ingresar a la base de datos, las cuales son: Internet/intranet, CD-ROM ejecutables, y un sistema cliente servidor. La captura de imágenes digitales debe tomar en cuenta los procesos técnicos comprendidos al convertir una representación analógica en digital, así como los atributos de los documentos fuente en sí mismos: dimensiones físicas y presentación, nivel de detalles, rango tonal, y presencia de color. Los documentos también se pueden caracterizar por el proceso de producción utilizado para crearlos, incluyendo medios manuales, mecánicos, fotográficos, y, últimamente, electrónicos. Además, todos los documentos con formato de papel y película estarán comprendidos en una de las siguientes cinco categorías, que afectarán su grabación digital. Tipos de documentos Texto impreso. Dibujos de líneas simples — representación en base a bordes definidos, sin variación de tono, como un libro que contiene texto y gráficos de líneas simples. 58 Manuscritos. representaciones en base a bordes suaves que se producen a mano o a máquina, pero no exhiben los bordes definidos típicos de los procesos a máquina, como el dibujo de una letra o una línea. Media Tinta. reproducción de materiales gráficos o fotográficos representados por una cuadrícula con un esquema de puntos o líneas de diferente tamaño y espaciadas regularmente que, habitualmente se encuentran en un ángulo. También incluye algunos tipos de arte gráfica, como por ejemplo, los grabados. Tono Continuo. elementos tales como fotografías, acuarelas y algunos dibujos de líneas finamente grabadas que exhiben tonos que varían suave o sutilmente. Combinado. documentos que contienen dos o más de las categorías mencionadas anteriormente, como por ejemplo, los libros ilustrados. Resolución “El aumento de la resolución permite capturar detalles más precisos. Sin embargo, en algún punto, una mayor resolución no tendrá como resultado una ganancia evidente en la calidad de la imagen, sino un mayor tamaño de archivo. La clave es determinar la resolución necesaria para capturar todos los detalles importantes que están presentes en el documento fuente”51. La configuración del umbral en el escaneado bitonal define el punto en una escala, que varía entre 0 (negro) y 255 (blanco), en el cual los valores grises capturados se convertirán en píxeles negros o blancos. Profundidad de bits “El aumento de la profundidad de bits, o la cantidad de bits utilizados para representar cada píxel, permite capturar más matices de gris, o tonos de color. Rango dinámico es el término utilizado para expresar el total de variaciones tonales, desde el más claro de los claros hasta el más oscuro de los negros. La capacidad de un escáner para capturar el rango dinámico está regulada por la profundidad de bits que utilice y genere, así como también por el rendimiento del sistema. El aumentar la profundidad de bits afectará los requisitos de resolución, tamaño de archivo y método de compresión utilizado”52. Mejoras 51 Oya Y, Rieger, “Establishing a Quality Control Program [en línea], (Establecimiento de un programa de control de calidad)”, en Moving Theory into Practice: Digital Imaging for Libraries and Archives. (Llevando la Teoría a la Práctica: Digitalización de Imágenes para Bibliotecas y Archivos), Mountain View, CA: Grupo de Bibliotecas de Investigación, 2000; pp 61-83. [Consulta: 17 diciembre, 2004]. 52 Ibidem. p.70. 59 Los procesos de mejora aumentan la calidad del escaneado pero su utilización genera inquietudes acerca de la fidelidad y autenticidad. Muchas instituciones rechazan las mejoras efectuadas en imágenes originales, limitándolas a archivos de acceso solamente. Las características típicas de mejoras en el software de los escáneres o de las herramientas de edición de imágenes incluyen eliminación de muaré (descreening), eliminación de puntos (despeckling), eliminación de oblicuidad (deskewing), aumento de nitidez (sharpening), utilización de filtros personalizados, y ajuste de profundidad de bits. Color La captura y transmisión de la apariencia del color es posiblemente el aspecto más difícil de la digitalización de imágenes. La reproducción correcta del color depende de una serie de variables, como el nivel de iluminación al momento de la captura, la profundidad de bits capturada y generada, las capacidades del sistema de escaneado, y la representación matemática de la información del color a medida que la imagen pasa por la digitalización y de un espacio de color a otro. Rendimiento del sistema “Con el tiempo, el equipo utilizado y su rendimiento afectarán la calidad de la imagen. Diferentes sistemas con las mismas características declaradas (por ejemplo: dpi, profundidad de bits y rango dinámico) pueden producir resultados radicalmente diferentes. El rendimiento del sistema se determina por medio de pruebas que verifican la resolución, reproducción de tonos, calidad de colores, ruido y artefactos”53. Formato de archivo El formato de archivo para las imágenes originales deberá aceptar la resolución, profundidad de bits, información de color y metadatos que se necesiten. Por ejemplo, tiene poco sentido crear una imagen a todo color sólo para guardarla en un formato que no acepta más de 8 bits (por ejemplo: GIF). El formato también deberá aceptar el ser guardado estando en forma descomprimida o comprimida, utilizando técnicas con pérdida o sin ella. Compresión La compresión con pérdida puede tener un marcado impacto sobre la calidad de la imagen, especialmente si el nivel de compresión es alto. En general, cuanto más 53 Ibidem, pp. 61-83. 60 enriquecido sea el archivo, tanto más eficiente y sustentable es la compresión. Por ejemplo, el escaneado bitonal de una página a 600 dpi es 4 veces más grande que una versión de 300 dpi, pero con frecuencia sólo dos veces más grande cuando se lo comprime. Cuanto más compleja sea la imagen, tanto menor será el nivel de compresión que se puede alcanzar en un estado sin pérdida o sin pérdida visual. Crear un archivo maestro de imagen digital enriquecido (algunas veces denominado imagen para archivo) en el cual se representa toda la información importante que contiene el documento fuente, tiene las siguientes ventajas para la preservación: 1. Protección de originales vulnerables. El sustituto digital debe estar lo suficientemente enriquecido como para reducir o eliminar la necesidad del usuario de consultar el original. 2. Reemplazo de originales. En ciertas circunstancias, las imágenes digitales se pueden crear para reemplazar los originales o producir copias en papel o Microfilm generado por computadora. El reemplazo digital debe satisfacer todos los requisitos de investigación, legales y fiscales. 3. Preservación de archivos digitales. Un original digital debería responder a una variedad de necesidades de los usuarios mediante la creación de derivados para impresión, visualización y procesamiento de imágenes. Cuanto más enriquecido sea el original digital, tanto mejor serán los derivados en términos de calidad y capacidad de ser procesados. Cornell recomienda una metodología para determinar los requisitos de conversión, que se basa en lo siguiente: Evaluación de los atributos del documento (detalle, tono, color). Definición de las necesidades de los usuarios actuales y futuros. Caracterización objetiva de las variables relevantes (por ejemplo: tamaño del detalle, calidad deseada, poder de resolución del sistema). Correlación entre variables por medio de fórmulas. Confirmación de resultados por pruebas y evaluaciones. Algunos textos escritos requerirán escaneado en escala de grises o a color por los siguientes motivos: 1) Las páginas están muy manchadas. 61 2) El papel se ha oscurecido al punto de que es difícil limitar la información a píxeles puramente blancos y negros. 3) Las páginas contienen gráficos complejos o información contextual importante (por ejemplo: grabados en relieve, anotaciones). 4) Las páginas contienen información de color (por ejemplo: tintas de diferentes colores). Se pueden realizar procedimientos y técnicas para verificar la calidad, precisión y consistencia de los procesos digitales. Las estrategias de control de calidad pueden ser implementadas en diferentes niveles: Evaluación inicial Se utiliza un subconjunto de documentos (a ser convertidos en la empresa o por un proveedor de servicios) para verificar que las decisiones técnicas tomadas durante la evaluación de referencia son las apropiadas. Esta evaluación ocurre con anterioridad a la implementación del proyecto. Evaluación continuada El mismo proceso de garantía de calidad utilizado para confirmar las decisiones de la evaluación de referencia puede ser ampliado y extendido a la totalidad de la colección para asegurar la calidad de todo el programa de digitalización de imágenes. Los siguientes pasos resumen los puntos principales de un programa de control de calidad. En Moving Theory into Practice: Digital Imaging for Libraries and Archives (Llevando la Teoría a la Práctica: Digitalización de Imágenes para Bibliotecas y Archivos). 1. Identifique sus productos El primer paso es identificar claramente los productos a ser evaluados. Los mismos pueden incluir imágenes originales y derivadas, impresiones, bases de datos de imágenes, y metadatos complementarios, incluyendo texto convertido y archivos marcados. 2. Desarrolle un enfoque sistemático 62 Para medir la calidad y juzgar si los productos son satisfactorios o no, defina claramente las características de base para los productos digitales "aceptables" e "inaceptables". Si el objetivo es una representación fiel, la valoración de la calidad estará basada en cuán bien la imagen transmite la apariencia del documento original (detalle, color, tono, textura del papel, etc.). Si el objetivo consiste en eliminar tonalidades de color introducidas durante el proceso fotográfico, la calidad se juzgará en comparación con la escena o el documento original (intento de representación), antes que con la fotografía con la que se cuenta. 3. Determine un punto de referencia Para determinar cual va ha ser el parámetro de comparación que se va a tomar como referencia, se tienen que formular las siguientes preguntas: ¿Con qué está comparando las imágenes al juzgarlas? No siempre es sencillo responder esta pregunta. Por ejemplo, si la conversión está basada en un intermedio, la imagen digital se encuentra a dos "generaciones" de distancia respecto del original. La misma ha sido copiada a película (primera generación), la cual posteriormente es escaneada (segunda generación). ¿Cuál debería ser el punto de referencia al valorar una imagen de tales características, el documento original o la transparencia? La inspección de calidad de la imagen, ¿estará centrada en el original o en el derivado (o en ambos)? 4. Defina el alcance y los métodos Determine el alcance de su revisión de calidad. ¿Inspeccionará todas las imágenes, o solamente un subconjunto de prueba (por ejemplo el 20%)? Describa su metodología y defina el modo en que se realizarán los juicios sobre calidad. Por ejemplo, ¿evaluará las imágenes en forma visual a una ampliación del 100% (1:1) en la pantalla y las comparará con los documentos originales? ¿O su evaluación estará basada sólo en una valoración subjetiva de las imágenes en la pantalla, sin remitirse a los originales? 5. Entorno del control de calidad Por lo general se subestima el impacto que producen las condiciones de visualización de imagen sobre la percepción de la calidad. En un entorno inadecuado, incluso una imagen de alta calidad puede ser percibida como no satisfactoria. “Por ejemplo, una imagen a color de 24 bits puede verse "posterizada" 63 en exceso cuando se la ve utilizando una computadora configurada de manera incorrecta, que no puede proporcionar una paleta de colores completa” Factores que afectan la calidad de la imagen en la pantalla Configuración del hardware Es difícil recomendar una configuración de hardware ideal. La regla general es armar un sistema que pueda satisfacer sus necesidades de velocidad, memoria, almacenamiento y calidad de presentación. ¿Qué clase de imágenes se están creando? ¿Qué cantidad? ¿Con qué fines? ¿Qué nivel de revisión en pantalla se necesita? Necesitará una computadora rápida y confiable con una amplia capacidad de procesamiento y memoria para poder recuperar y manipular los grandes archivos que está creando, especialmente al crear imágenes en color. Software de recuperación de imágenes Se necesita un software de recuperación apropiado para las imágenes. “Por ejemplo, si se está evaluando imágenes creadas y almacenadas en formato ImagePac de Kodak, recupérelas utilizando uno de los programas de visualización gratuitos (freeware) y compartidos (shareware) disponibles en la Web que soportan el espacio de formato y de color”54. Características humanas “La evaluación de la calidad de la imagen requiere sofisticación visual, especialmente para las evaluaciones subjetivas. Idealmente, la misma persona debe evaluar todas las imágenes, con el mismo equipo y bajo los mismos parámetros. El personal debe ser entrenado en particular en lo que se refiere a cómo transmitir en forma efectiva la información sobre la apariencia del color. Algunas deficiencias de visión del color están relacionadas con un gen recesivo defectuoso en el cromosoma X. Siendo que las mujeres tienen dos cromosomas X y los hombres uno, la probabilidad de tener visión del color defectuosa es de 1 en 250 para las mujeres, y de 1 en 12 para los hombres. Aún entre personal experto en evaluaciones visuales, no es raro que se presenten diferencias en los resultados que se deban a variaciones normales del ojo humano”55. Calibración del monitor 54 Cfr. En Using Kodak Photo [CD], Technology for Preservation and Access [en linea], Uso de la Tecnología Kodak Photo CD para la Preservación y el Acceso). [Consulta: 14 de diciembre, 2004]. 55 Don D′Amato, Imaging Sistems [en línea]: The Range of Factors Affecting Image Quality, Guide 3 to Quality in Visual Resource Imaging (Sistemas de Digitalizacion de Imágenes: La Variedad de Factores que Afectan la Calidad de la imagen, Guía 3 para la calidad en la digitalización de Recursos Visuales). [Consulta: 26 de diciembre, 2004]. 64 “Las imágenes pueden aparecer de manera diferente en los distintos monitores. La calibración es el proceso de ajuste de la configuración de la conversión de color del monitor a un nivel estándar, de manera que la imagen se presenta de igual manera en diferentes monitores. El método ideal es utilizar hardware de calibración de monitor y el software adjunto. Sin embargo, se pueden utilizar las herramientas de calibración de sus programas de aplicación. Por ejemplo, Adobe Photoshop incluye una herramienta de calibración de monitor básica, que puede ser utilizada para eliminar tonalidades de color y estandarizar la presentación de las imágenes”56. Uno de los principales desafíos en la digitalización de documentos a color es mantener la apariencia y consistencia del color en todo el proceso de digitalización, incluyendo el escaneado, la visualización, e impresión. La reproducción precisa de los colores es difícil debido a que los dispositivos de entrada y los de salida tratan a los colores de manera diferente. Los factores claves en la valoración de la calidad de la imagen son la resolución, el color, el tono, y la apariencia general. Resolución “La resolución es el factor claves en la determinación de la calidad de imagen de materiales de texto y otras representaciones con base de bordes definidas. Para los materiales gráficos, especialmente imágenes de tono continuo, la profundidad de bits, la representación del color, y el rango dinámico, se combinan con la resolución para determinar la calidad. Los atributos de la resolución que deben ser inspeccionados son la legibilidad, integridad, oscuridad, contraste, nitidez, y uniformidad. La medición y evaluación de cada trazo y detalle son útiles para valorar la calidad de la imagen”57. Color y tono “Para las imágenes en color, a escala de grises, y para algunas imágenes monocromáticas, la reproducción del color y del tono son indicadores significativos de la calidad, complementando el "detalle" proporcionado por la resolución. El objetivo que se persigue al hacer la valoración de la apariencia del color y del tono es determinar en qué medida una imagen transmite la misma apariencia al tiempo que el color y el tono varían respecto del documento original (o del intermedio utilizado). La valoración del tono y del color puede ser altamente subjetiva y cambiante de acuerdo con el entorno de visualización y las características de los monitores y de las impresoras”58. Cómo funcionan los escáners “Los escáners funcionan iluminando el objeto o documento a ser digitalizado y dirigiendo la luz reflejada (por lo general a través de una serie de espejos y lentes) sobre un elemento fotosensible. En la mayoría de los escáners, el medio sensible es 56 Idem. KENNERY R. Anne. Moving Theory into Practice [en línea]: Digital Imaging for Libraries and Archives (Llevando la teoria a la practica: Digitalización de Imágenes para Bibliotecas y Archivos). Traducido por Global Listing Directories. Biblioteca de la Universidad de Cornell. Departamento de investigación, 2003. [Consulta: 25 diciembre 2004]. 58 Idem. 57 65 un circuito electrónico integrado sensible a la luz conocido como un dispositivo acoplado cargado (CCD). Los fotositos sensibles a la luz dispuestos a lo largo del CCD convierten los niveles de brillo en señales electrónicas que luego se procesan en una imagen digital. CCD es, sin la menor duda, la tecnología de sensibilidad a la luz que más comúnmente se utiliza en los escáners modernos. También existen otras dos tecnologías, CIS (Contact Image Sensor - Sensor de Imagen de Contacto) y PMT (photomultiplier tube - tubo fotomultiplicador) que se encuentran en los extremos inferior y superior del mercado de escáners, respectivamente. CIS es una tecnología más reciente que permite que los escáners sean más pequeños y livianos, pero sacrifica el rango dinámico, la profundidad de campo y la resolución. Los escáners de tambor de base PMT producen imágenes de una muy alta calidad, pero tienen una aplicación limitada en el escaneado para bibliotecas y archivos. Otra tecnología de sensibilidad, CMOS (Complementary Metal Oxide Semiconductor Semiconductor de Óxido de Metal Complementario), aparece principalmente en las cámaras digitales de mano de gama baja, en las cuales su bajo costo, bajo consumo de energía y su fácil integración de componentes permite diseños más pequeños y económicos. Tradicionalmente, las cámaras digitales de gama alta y las profesionales utilizan sensores CCD a pesar de su costo y de la complejidad de su diseño, debido a que presentan características de menos artefactos visuales indeseados. Si bien están apareciendo algunos diseños innovadores que presentan imágenes basadas en CMOS con menos artefactos visuales, CCD todavía domina el sector de alta gama del mercado”59. Tipos de escáners Escáners planos (de mesa) “Los escáners planos son el tipo de escáner más conocido y vendido. Son versátiles, fáciles de manejar, y con una amplia disponibilidad. En el otro extremo, las unidades profesionales para el mercado de gráficos ahora compiten con los escáners de tambor en cuanto a calidad. Todos utilizan la misma tecnología básica, en la cual un sensor de luz (por lo general un CCD) y una fuente de luz, ambos montados sobre un brazo móvil, pasan sobre el documento, que está fijo sobre una placa de vidrio. Algunos modelos poseen manipuladores de documento automáticos (ADH), que pueden aumentar el rendimiento y disminuir la fatiga del operador en el caso de grupos de documentos uniformes que se encuentran en condiciones razonablemente buenas. Una variante especializada del escáner plano es el escáner de libros de trayectoria aérea, en el cual la fuente de luz, la selección de sensores y la óptica son trasladados a un ensamble de brazo de trayectoria aérea bajo el cual puede colocarse un volumen encuadernado con las hojas hacia arriba, para ser escaneado. Escáners con alimentador de hojas Los escáners con alimentador de hojas utilizan la misma tecnología básica que los escáners planos, pero maximizan el rendimiento, por lo general a expensas de la calidad. Diseñados generalmente para entornos de negocios de grandes volúmenes, típicamente escanean en blanco y negro o escala de grises con resoluciones relativamente bajas. Se espera que los documentos sean de un tamaño uniforme y con una solidez suficiente para soportar una manipulación bastante brusca, aunque 59 Ibidem, pp. 24-60. 66 los mecanismos de transporte de algunos modelos más nuevos reducen la tensión. Ya sea que utilicen un transporte de rodillos, cinta, tambor o de vacío, el sensor de luz y la fuente de luz permanecen fijos mientras que se mueve el documento. Una subclase de escáneres con alimentador de hojas son los modelos de pie específicamente diseñados para los documentos de gran formato, como los mapas y los planos arquitectónicos. Escáners de tambor Los escáneres de tambor producen escaneados con la mayor resolución y calidad que cualquier otro tipo de escáner, pero esto tiene su precio. Además de su costo, los escáneres de tambor son lentos, no son indicados para documentos de papel quebradizo y requieren un alto nivel de habilidad por parte del operador. Por eso típicamente se los encuentra en agencias de servicios que satisfacen las necesidades del mercado de pre-impresión a color. Escáners para microfilm Los escáners para microfilm son dispositivos altamente especializados para digitalizar películas en rollo, microfichas y tarjetas de apertura. Puede ser difícil obtener una calidad buena y consistente en un escáner para microfilm debido a que los mismos pueden tener un funcionamiento complejo, la calidad y condición de la película puede variar, y debido a que ofrecen capacidad de mejora mínima. Sólo unas pocas empresas fabrican escáneres para microfilm, y la falta de competencia contribuye al alto costo de estos dispositivos. Escáners para diapositivas Los escáneres para diapositivas se utilizan para digitalizar colecciones de diapositivas ya existentes como así también materiales fotográficos intermedios de objetos tridimensionales y documentos que no son adecuados para el escaneado directo. El uso de medios transparentes por lo general entrega una imagen con un buen rango dinámico, pero, dependiendo del tamaño del original, la resolución puede ser insuficiente para algunas necesidades. El rendimiento puede ser lento. Cámaras digitales Las cámaras digitales combinan un escáner con óptica de cámara para formar una herramienta versátil que puede producir imágenes de calidad superior. A pesar de ser más lentas y más difíciles de utilizar que los escáneres planos, las cámaras digitales se adaptan a una amplia variedad de documentos y objetos. Se pueden capturar en forma segura los materiales más frágiles, aunque la necesidad de proporcionar iluminación externa significa que el daño causado por la luz puede ser una preocupación. La tecnología de las cámaras digitales continua mejorando, impulsada por el creciente mercado de consumidores”60. Consideraciones sobre la computadora 60 Ibidem, pp. 60-70. 67 Una computadora utilizada como Terminal de trabajo debe evitar volverse un problema en el proceso de producción. Aquí se presentan algunas características que se deben buscar en una Terminal de trabajo de escaneado: 1. RAM adecuada - se recomiendan 512 MB. Más todavía si la máquina va a ser utilizada para el procesamiento de imágenes. 2. Una CPU veloz - mínimo 1.8 Ghz Pentium IV (o compatible) 800 Mhz G4. 3. Almacenamiento masivo veloz y con capacidad - suficiente espacio para por lo menos las necesidades temporales (40-60 GB), aún si los archivos en última instancia se trasladan a otros dispositivos de almacenamiento. 4. Bus periférico. La mayoría de los escáneres de gama baja y media actualmente vienen con puertos USB, comúnmente disponibles tanto en las computadoras Wintel como Mac. 5. Red de un alto ancho de banda (10/100/1000 Base-T) para permitir un rápido acceso y transmisión de los archivos escaneados. 6. Plataforma / sistema operativo - La mayoría de los escáneres que ofrecen conectividad USB trabajan igualmente bien en computadoras Wintel y Macintosh, a pesar de que algunos fabricantes no proporcionan los drivers del software para computadoras Mac (los productos de terceros algunas veces pueden resolver este problema). Algunos escáneres son específicos para determinada plataforma. Los escáneres de gama alta para gráficos a color más comúnmente soportan sólo máquinas Macintosh y los escáneres de producción de alta velocidad con más frecuencia soportan sólo máquinas Wintel. Se debe verificar las especificaciones para asegurarse de que el escáner que desea es compatible con su infraestructura existente. Algunas operaciones de procesamiento de imágenes / archivos: “Edición, retoque, mejora - incluye pasos tales como eliminación de muaré (descreening), eliminación de puntos (despeckling), eliminación de oblicuidad (deskewing), aumento de nitidez (sharpening), utilización de filtros personalizados y ajuste de profundidad de bits. En algunos casos el software de escaneado realiza estos pasos. En otros, se utilizan herramientas de edición de imágenes separadas (por ejemplo: Adobe Photoshop, Corel Photo Paint, ImageMagic). Compresión - algunas veces llevada a cabo por firmware dedicado del escáner o hardware dedicado de la computadora. La compresión también puede ser una operación sólo de software, a pesar de que el hardware dedicado es más rápido y se lo debería considerar cuando se crean archivos muy grandes o grandes cantidades de archivos. Conversión de formato de archivo - el escaneado original puede no estar en un formato adecuado para todos los usos previstos, por lo que requiere conversión. 68 Escala - es probable que los escaneados capturados a alta resolución no sean adecuados para la visualización en la pantalla. Con frecuencia se necesita aplicar escala (es decir, reducción de resolución a través de eliminación de bits) para poder crear imágenes para entrega en la Web. OCR (reconocimiento óptico de caracteres)- conversión de texto escaneado a texto legible por medio de una máquina, que se puede buscar o indexar. Creación de metadatos - agregado de texto que ayuda a describir, rastrear, organizar o mantener una imagen”61. Gestión de archivos La gestión de archivos consiste en una serie de pasos interrelacionados, diseñados para asegurar la fácil identificación, organización, acceso y mantenimiento de los archivos. Dado que hay fuertes conexiones entre los diversos aspectos de la gestión de archivos, se debe planificar con anticipación para evitar tomar decisiones que limiten las opciones posteriormente. Es en especial importante mantener las líneas de comunicación abiertas entre el personal técnico y el personal del proyecto durante la etapa de planeamiento. Algunas recomendaciones básicas acerca de los sistemas de archivos: Utilice un sistema de asignación de nombres que sea compatible con cualquier sistema operativo y medio de almacenamiento que planee utilizar. Utilice extensiones de archivo estándar para los distintos tipos de archivos. No sobrecargue los directorios con demasiados archivos. Confíe en el software de gestión de almacenamiento para manejar grandes colecciones a través de múltiples unidades físicas de disco. Permita que la colección pueda crecer en grandes cantidades. Bases de datos de imágenes Las bases de datos de imágenes varían significativamente en cuanto a la facilidad de uso y al nivel de funcionalidad. Realizan un seguimiento de sus archivos, proporcionan funciones de búsqueda y recuperación, suministran una interfaz de acceso, controlan el nivel y tipo de uso, y proporcionan algo de seguridad al controlar quién tiene acceso a qué. Ninguna herramienta tiene posibilidades de satisfacer 61 John Price-Wilkin, "Enhancing Access to Digital Image Collections [en línea]: System Building and Image Processing (Cómo Mejorar el Acceso a las Colecciones de Imágenes Digitales: Creación de Sistemas y Procesamiento de Imágenes)", en Moving Theory into Practice: Digital Imaging for Libraries and Archives (Llevando la Teoría a la Práctica: Digitalización de Imágenes para Bibliotecas y Archivos), Mountain View, CA: Grupo de Bibliotecas de Investigación, 2000, [Consulta: 28 diciembre 2004]. 69 todas sus necesidades, e incluso el conjunto de herramientas elegido más cuidadosamente necesita ser reevaluado en forma regular para determinar si aún sigue siendo la mejor elección. Los criterios generales para evaluar las bases de datos de imágenes incluyen los siguientes: Objetivo para el cual se creó la colección digital. Tamaño y tasa de crecimiento de la colección digital. Complejidad y volatilidad de los metadatos complementarios. Nivel de demanda y de rendimiento esperado. Infraestructura técnica existente, incluyendo disponibilidad del personal de sistemas capacitado. Gasto. Almacenamiento Los criterios generales para la evaluación incluyen: Velocidad (lectura / escritura, transferencia de datos). Capacidad. Fiabilidad Estandarización. Costo. Monitores “El mercado de los monitores consta principalmente de dos tecnologías muy distintas: aparatos CRT (Tubo de Rayos Catódicos) y aparatos LCD (Pantalla de Cristal Líquido). Los dispositivos con tecnología de tubo de rayos catódicos están construidos con lo que en términos electrónicos se denomina una tecnología antigua, pero que aún domina el mercado, en especial en lo que respecta al trabajo intensivo con gráficos. Sin embargo, importantes mejoras en el rendimiento y la asequibilidad de los dispositivos con tecnología de pantalla de cristal líquido han reducido significativamente la brecha existente entre estas dos tecnologías. Los monitores CRT típicamente tienen un mejor contraste, una rendición del color más fiel, mayor gama de colores y una visualización más satisfactoria desde fuera de 70 los ejes (es decir: cuando no se mira de frente). Son mejores para visualizar imágenes que cambian con velocidad como en las películas o las animaciones. Los monitores con tecnología CRT pueden exhibir una imagen de calidad en diferentes dimensiones de píxel (la calidad de la tecnología LCD decae considerablemente cuando no se la utiliza en la resolución de diseño primario, denominada resolución nativa). Los monitores con tecnología CRT no están sometidos a píxeles atascados o muertos, en cuyo caso se ven puntos en la pantalla que están permanentemente negros o brillantes. Los monitores con tecnología LCD típicamente poseen imágenes más brillantes, un mejor enfoque, menos distorsión, ausencia de problemas de convergencia y no poseen parpadeo” 62. Impresoras Hoy en día, la impresión en blanco y negro está dominada por dos tecnologías: las impresoras a inyección de tinta (chorro de tinta), que echan chorros de tinta líquida sobre el papel a través de pequeños inyectores; y las impresoras láser, que utilizan una fuente de luz para crear cargas en un tambor fotoconductor, permitiéndole atraer partículas de tinta seca (toner) que se funden en el papel. Las impresoras a inyección de tinta se han vuelto muy económicas, pero son más lentas que las impresoras láser y por lo general no están diseñadas para la impresión de grandes volúmenes. Las impresoras láser de producción de gama alta pueden producir bastante más de 100 páginas por minuto a 600 dpi. “Ambas tecnologías han sido adoptadas para el color. Las impresoras a inyección de tinta a color vienen en modelos de 3 ó 4 colores. Las impresoras láser a color son mucho más costosas, tanto por el precio inicial como por los insumos. Las impresoras a color, ya sean a inyección de tinta o láser, son sustancialmente más lentas que sus equivalentes en blanco y negro. Las impresoras a color a inyección de tinta imprimen en promedio 5 páginas de texto por minuto y 1 página de gráficos de página completa por minuto. Las impresoras láser a color son más rápidas, con un promedio de 12 páginas de texto por minuto y 2 páginas de gráficos de página completa por minuto. Se encuentran disponibles muchas otras tecnologías para la impresión a color. Las mismas incluyen sublimación de tintura, tinta sólida y cera térmica. La sublimación de tintura es en especial significativa dado que puede producir impresiones de color verdadero de tono continuo, a pesar de ser extremadamente lentas y requerir un papel recubierto especial”63. Elementos necesarios para establecer un sistema de digitalización El establecer un sistema de digitalización en la institución que tenga todo el proceso de digitalización con personal, espacio e instalaciones, equipos y suministros 62 Programa Nacional de Bibliotecas Digitales, Biblioteca del Congreso, [en línea] “Quality Review of Image Documents, Internal Training Guide (Revisión de calidad de documentos de imagen, Guia de capacitación Interna)”, abril 1999, http://memory.loc.gov/ammem/techdocs/qintro.htm. [Consulta: 27 diciembre, 2004]. 63 Idem. 71 adecuados, y que absorba el tiempo y los gastos asociados con la etapa inicial, tiene la necesidad de personal para las siguientes tareas: identificación, selección, preparación, digitalización, creación de metadatos, control de calidad, catalogación, carga de datos, soporte de sistemas y gestión. Dependiendo de la configuración institucional y del alcance del programa de digitalización de imagen, también se deberá contratar personal para desarrollar y mantener la base de datos de imágenes y el sistema de entrega a través de la Web. Las Instalaciones dedicadas se deben identificar y proporcionar para sustentar el esfuerzo de digitalización de imágenes. Se debe considerar contratar con un consultor o seleccionar una persona que pueda asesorar acerca de los requisitos de instalaciones, así como también componentes de hardware/ software e integración de sistemas. También debe haber lugar de trabajo adecuado y seguro para preparar y almacenar materiales que vayan a ser escaneados (por ejemplo: mesas, estantes). Se debe calcular un espacio de mesa 6 veces mayor al tamaño del objeto más grande a ser digitalizado para promover una manipulación y un orden seguros de los materiales. También considere las "huellas" del equipo, en especial si un miembro del personal es responsable del manejo de más de una máquina (por ejemplo: múltiples escáneres). La instalación también debe proporcionar las comunicaciones necesarias, como son líneas de teléfono, bases de datos, conexiones LAN, y protección UPS (suministro eléctrico ininterrumpido). Debe sustentar controles ambientales apropiados, incluyendo sistemas de aire acondicionado, filtración de aire y luces controladas (luces del techo y ambientales) adecuadas. Los equipos y luces para escanear pueden elevar la temperatura, en especial en áreas cerradas. Considere el flujo de trabajo al diseñar la configuración del ambiente. El equipo incluye el hardware, software y los suministros necesarios para sustentar el proceso de digitalización: 1. Hardware. 2. Dispositivos de escaneado. 3. Monitores de alta resolución. 4. Terminales de trabajo. 5. Periféricos. 6. Servidores y dispositivos de almacenamiento. 7. Impresoras. 8. Sistema operativo, paquetes de programación. 9. Escaneado, edición de imagen, visualización, gestión de color, control de calidad. 10. Gestión de archivos, gestión de circulación de trabajo. 11. Indexación, Reconocimiento Óptico de Caracteres (OCR), estructuración. 12. Sistema de gestión de bases de datos. 72 13. Otros equipos y suministros. 14. Soportes/ bastidores/ luces/ lentes para copias. 15. Equipos y suministros de control de calidad. 16. Suministros habituales de oficina. 17. Medios de almacenamiento, papel, cartuchos de tinta. 18. Documentación, manuales técnicos, publicaciones de referencia. Se deben desarrollar y utilizar consistentemente, procedimientos escritos para la manipulación, escaneado, creación de metadatos, control de calidad y otras funciones. 3.3 Archivos electrónicos. Los documentos se empiezan a convertir en algo intangible, lo cual era impensable hasta ahora según su propia naturaleza. El factor de intangibilidad lo ha proporcionado la nueva realidad virtual que ha revolucionado el acceso al documento y por añadidura a la información. La disponibilidad de los documentos ha cambiado al someterlos al procesamiento electrónico, y la transmisión y la comunicación de los documentos entregados a la aplicación de la nueva tecnología multimedia, hipermedia y realidad virtual se llevan a cabo sobre todo en el mundo de las redes. En primer lugar se emplea el término “archivo” con gran asiduidad, para referirse a fondos documentales de diversas materias y en distintos soportes, que no constituyen el genuino fondo de archivo articulado por el principio de procedencia. La acepción de archivo se toma como conjunto de documentos, y es por ello que los sistemas de recuperación empleados no son los que se ajustarían a un sistema de información descriptiva, de almacenamiento electrónico organizado jerárquicamente de acuerdo a las reglas de descripción multinivel y a las establecidas por la norma ISAD(G). Para algunas empresas e investigadores; el archivo digital, es el lugar en el cual los usuarios accederían a través de una búsqueda, cuyo final sería conseguir la información, que desea; pero hasta el momento los principales problemas de recuperación surgen en este mismo punto de partida y se refieren a cómo encontrar la información en un entorno digital. Un documento electrónico es 73 “una entidad identificada y estructurada que contiene texto, gráficos, sonidos, imágenes o cualquier otra clase de información que puede ser almacenada, editada, extraída e intercambiada entre sistemas de tratamiento de la información”64 . Concepto: “Información almacenada en soporte electrónico es todo dato conservado con un formato que permite su tratamiento automático y que no es posible leerla y recuperarla sin la ayuda de una herramienta específica”65. 3.3.1 Conservación de la información en soporte electrónico La conservación de los documentos en soporte electrónico tiene lugar en un entorno muy complejo. En primer lugar la evolución continua de la tecnología hace que sea difícil la selección de soportes y formatos estables y duraderos, por los siguientes motivos: 1) Aparición constante de nuevas versiones de plataformas, sistemas operativos y programas. 2) Introducción de cambios en las características físicas de los soportes (tamaños, densidad de grabación, etc.). 3) Ciertos soportes pueden tener una mayor vida útil, como objeto físico, pero pueden estar sometidos a una rápida obsolescencia tecnológica. 4) Generación de nuevas formas de documentos electrónicos, tales como los documentos compuestos, hipertexto o multimedia. 5) Disponibilidad de una gran capacidad de procesamiento y de almacenamiento que no va acompañada de los procedimientos necesarios para el control adecuado de documentos. 6) Desarrollo de sistemas de información orientados a la gestión de datos pero no tanto a la gestión de documentos. En segundo lugar, existen amenazas tales como las siguientes: 1) 2) 3) 4) 64 65 Acumulación incontrolada de documentos. Destrucción accidental o incontrolada de documentos. Manipulación no autorizada de los mismos (acceso, alteración, destrucción). Ausencia de documentación asociada y de metadatos, que da lugar a ineficiencias en el acceso. Definición personal. Ministerio de Administración Publica [en línea]. Manual de documentos [Consulta: 23 diciembre, 2004]. administrativos. Ed.Tecnos. 74 5) Existen factores agresivos que facilitan su deterioro, tal es el caso de los campos magnéticos, de la oxidación o de la degradación de los materiales. La adopción de medidas organizativas y técnicas para la conservación de la información se debe realizar de forma rigurosa y proporcionada a los riesgos detectados. El proceso de análisis y gestión de riesgos constituye la tarea primera y a la vez esencial de toda actuación organizada. Se deben formular preguntas clave, que den una idea de lo que se necesita establecer un sistema, algunas de las cuestiones pueden ser las siguientes: para ¿Qué información se ha de conservar y proteger?, ¿de qué tipo es? y ¿cuál es su valor? ¿Cuáles son los plazos de conservación? ¿En qué soportes y formatos está? ¿Qué problemas de durabilidad y degradación se plantean? ¿Quién tiene acceso, a qué, para qué, cuándo y cómo? ¿Qué amenazas afectan a la información? ¿Qué medidas organizativas y técnicas se deben adoptar? El análisis de los riesgos; aporta, por tanto, la racionalidad necesaria para la adopción de medidas organizativas y técnicas en el marco del principio de proporcionalidad que se establece entre la naturaleza de la información, los riesgos a los que está sometida, el estado de la tecnología y los costos que esto implica. Es preciso abordar la conservación de la información en soporte electrónico, y en otros soportes, desde una perspectiva global que contemple, al igual que se hace con los sistemas de información, todo el ciclo de vida de la misma, desde su creación, hasta su conservación, o en su caso destrucción, pasando por las etapas de mantenimiento y gestión. Sólo así se puede adoptar un conjunto coherente de normas y estándares que permita dar respuesta a los requisitos de seguridad, conservación y eficacia. Esta perspectiva global se basa, en particular, en una estrategia a largo plazo que garantice: La conservación de la información. El acceso de la misma. La protección de los datos. Esta estrategia se debe definir además, no de una forma aislada, sino en relación con la globalidad del sistema de información y teniendo en cuenta que, al igual que sucede con los documentos en papel, la información en soporte electrónico atraviesa a lo largo de su ciclo de vida tres grandes etapas: Diseño de la estrategia de gestión de la información en soporte electrónico. 75 Creación de la información en soporte electrónico. Gestión y Conservación de la información. El documento se puede estructurar en torno a los aspectos siguientes: 1) Texto, páginas, párrafos y palabras, 2) Números, 3) Tablas, Un documento electrónico puede contener información en diferentes presentaciones, tales como: 1) Dibujos, gráficos, sonido y vídeo, enlaces hipertexto. 2) Estructura lógica, incorporada al (o separada del) propio documento y que puede ser diferente de la estructura física. 3) Contexto, documento asociado, que incluye: Descripción de la actuación que corresponda. 4) Metadatos técnicos: aplicaciones y equipo necesario, número de versión, estructura del fichero, descripción de los datos, enlaces y relación con otros documentos. 5) Presentación, documento independiente que trata los aspectos de la propia presentación. A continuación se identifican elementos de metadatos o del contexto de un documento para analizar y estructurar la información: Código, número de expediente. Título, denominación dada a los documentos electrónicos. Número de versión. Creador o autor, persona/s responsable/s del contenido del documento. Destinatario, número de copias. Tema, palabras claves que vocabularios o descriptores. describen el contenido, utilizadas en Descripción, del contenido textual del documento, o resumen con un enlace a la propia descripción. Editor, entidad responsable y que da acceso a la información. Colaboradores, persona/s u organismo/s además del creador que aportaron una contribución importante. Fecha, expresada en forma de número de ocho cifras: (D) día; (M) mes y (A) año, tipo: DDMMAAAA. 76 Tipo, categoría de la información elegida de entre una lista de tipos: borrador; trabajo, informe técnico. Formato, representación de los datos de la información: elegidos de entre los de una lista, que pueda aportar información sobre las aplicaciones, programas y equipos necesarios para poder visualizarlos o ejecutarlos. Identificador, número utilizado para identificar la información, el número o localizador de la dirección de una página de información en Internet (URL o URN) son un ejemplo de identificador, pero pueden utilizarse identificadores únicos o números oficiales. Fuente, obra impresa o electrónica de donde procede la información, por ejemplo la versión papel del documento que sirvió para su transcripción a versión electrónica. Lenguaje, lengua del contenido de la información, puede coincidir con los códigos de caracteres para los lenguajes escritos. Relación con otra información, tiene por finalidad el expresar la relación entre documentos, por ejemplo, imágenes de un documento, partes o capítulos o de un libro. Alcance, características espaciales o temporales de la información. Derechos de autor, declaración de la gestión de los derechos o del servicio que informa de las condiciones de acceso, rectificación, cancelación y oposición a la información. Niveles de seguridad y medidas aplicables. 3.3.2 Estrategias aplicables para los archivos electrónicos “Algunas estrategias parten de un enfoque global según el cual el documento o la información se debe conservar con independencia del soporte físico o de la tecnología. Para ello es necesario convertir, regenerar, copiar o transferir de un soporte y tecnología a otra; mantener la autenticidad, integridad, identidad del autor; gestionar su plazo de conservación y su volumen; gestionar la conservación de la información y la accesibilidad de la misma; todo lo anterior en relación con la globalidad del sistema de información”66. Para aplicar estos pasos, se consideran los siguientes elementos: Métodos y procedimientos para creación, modificación, duplicación, almacenamiento, conservación, recuperación, destrucción de la información en soporte electrónico. Formación del personal. 66 Guía de la información electrónica [en línea]. [Consulta: 19 diciembre, 2004]. 77 Control de las operaciones de creación, modificación, ¿quién?, ¿cuándo?, ¿qué hizo?, ¿con qué resultados? Auditorias periódicas, para determinar grado de seguimiento de los procedimientos documentales. Adoptar procedimientos para la estrategia de gestión de la información con planteamientos a corto, mediano y largo plazo de acuerdo con las necesidades reales de conservación. La política de la organización y la asignación de responsabilidades. La elección de formatos de ficheros normalizados y perdurables para asegurar la independencia de los datos de sus soportes. Los plazos de conservación, archivo y traspaso de la información. La traducción de la información a formatos normalizados e independientes del equipo físico. Las condiciones de realización de copias de respaldo y de recuperación de los datos. Las condiciones de la renovación de sistemas y sustitución de soportes. Mantener un registro o historial de las operaciones de tratamiento de la información en soporte electrónico. Hacer auditorias periódicas de seguimiento de la utilización de los procedimientos. Estos procedimientos pueden formar parte de procedimientos de seguridad y, además, estar documentados como procedimientos de calidad. Eliminar la información que carece de valor administrativo con la ayuda de las normas establecidas por el archivo. Hacer copias de los ficheros y de las bases de datos, verificar la consistencia de la información, documentar los errores de los ficheros y de los documentos. Comprobar que toda la información, y su contexto, está completa, documentada, y es conforme a los procedimientos y requisitos de conservación establecidos por el Archivo al que se transfiere. Una forma de tratar la transferencia del acervo de series documentales entre archivos puede hacerse de acuerdo a las siguientes pautas: Contactar con el archivo al cual se van a transferir los acervos documentales, con el objeto de conocer sus normas, procedimientos y requisitos de transferencia. Preparar la información de los documentos que se van a transferir. 1) Revisar todos los expedientes a transferir y comprobar que no falta ningún documento. 78 2) Reclamar los documentos que faltan en el expediente a las personas responsables de su salida. 3) Identificar y documentar los errores encontrados en la revisión de la documentación. 4) Identificar y documentar el contenido de los soportes con los documentos que se transfieren. 5) Confeccionar una relación de entrega para controlar las series documentales que pasan al otro archivo. 3.3.3 Tipos de formatos para la electrónico información en soporte “Ficheros de texto, la elección del tipo de fichero es distinta dependiendo de su utilización, si los documentos se distribuyen sólo para consulta o lectura, o si después serán manipulados con procesadores de texto. Los ficheros de texto también son distintos si conservan la estructura y la presentación. El texto es un conjunto de caracteres: letras; números y símbolos que forman palabras o sentencias. La estructura es el texto ordenado en capítulos y títulos, con índice y tabla de ilustraciones, y la presentación es el texto en negrita, cursiva o subrayados. Ficheros de datos, al no existir un formato normalizado de fichero, y para poder leer los datos después de un largo período de tiempo, se requiere disponer de una herramienta capaz de leer el formato antiguo o bien conservar el programa que los generó. Ficheros gráficos, la elección del tipo de fichero depende de la calidad de cada formato, es decir de la relación entre el número de bits por píxel y número de colores que soporta el formato, y también de la perdida o no de información relevante después de su compresión, dando lugar a relaciones de compresión más altas dependiendo del grado de deterioro que puede aceptarse de una imagen. Utilizar un formato de texto que conserve la estructura del fichero, puesto que con estructura el fichero es independiente del equipo y de fácil manejo, mientras que sin estructura el fichero es una secuencia de caracteres difícil de manejar. Utilizar un formato de gráficos cuya relación calidad y pérdida de información sea menos relevante en relación al mayor grado de compresión obtenido”67. Algunos de los formatos de ficheros más recomendados por su fácil manejo de la información, son los siguientes: 3.3.3.1 Formatos de texto: TXT: formato simple que permite su lectura a cualquiera. PDF: permite visualizar documentos reproduciendo todas las características del original en ficheros de menor tamaño, independientes de la aplicación y plataformas, su especificación es pública y también se encuentra extendido para la distribución y difusión formal de documentos y para su acceso y visualización. RTF: formato que constituye un mínimo común entre procesadores de texto diferentes. 67 Internacional Estándar Organization [en línea]: http://www.iso.ch, [Consulta: 19 diciembre, 2004]. 79 SGML: norma internacional ISO 8879, del mundo editorial, que almacena el texto y su estructura, pero no tiene atributos de presentación; actualmente está siendo reemplazado por XML y HTML. XML: dialecto del SGML adecuado para definir documentos independientes de la plataforma y procesarlos de forma automática pues distingue entre estructura, contenido y presentación, ofreciendo mayores posibilidades que HTML. HTML: versión simplificada del SGML que se utiliza en los servidores web, muy útil para la difusión de información. SXW: formato de los documentos de texto manejados por el software libre openoffice.org. Encapsulated PostScript: utilizado para enviar e imprimir documentos junto con su presentación, de forma que se asegure que la salida impresa es correcta con independencia del dispositivo utilizado. 3.3.3.2 Formatos de datos estructurados: XML: dialecto del SGML adecuado para definir documentos independientes de la plataforma y procesarlos de forma automática pues distingue entre estructura, contenido y presentación, ofreciendo mayores posibilidades que HTML. Formularios, sólo es posible conservar información y datos, junto con una copia del formulario en blanco. 3.3.3.3 Formatos Gráficos: Gráficos de Mapa de Puntos, imagen constituida por puntos y utilizada para posteriores codificaciones. JPEG, ISO 10918. Hay que tener en cuenta que es destructivo con un nivel de compresión alto, por lo que se debe comprobar que la perdida de imagen es aceptable. Soporta 16,7 millones de colores (24 bits por píxel). TIF, utilizado en ficheros generados por escáneres con varias posibilidades según el número de colores elegido: blanco y negro; escala de grises y color. No es destructivo pero de nivel de compresión bajo. PNG, con características similares e incluso superiores a GIF, está libre de royalties y patentes. Soporta 16,7 millones de colores y se puede utilizar sin necesidad de licencias de software. Gráficos Vectoriales, gráfico que conserva las coordenadas de los vectores que lo componen, y es utilizado en la digitalización de planos. 80 3.3.3.4 Formatos comprimidos: Especificación ZIP 2.0 para el intercambio de datos comprimidos. 3.3.4 Soportes de almacenamiento de la información en formato electrónico. El soporte electrónico es: un objeto sobre el cual o en el cual es posible grabar y recuperar datos. Los elementos clave en relación con la conservación de los soportes son el acceso, la legibilidad, y la preservación de la autenticidad de la información. A la hora de afrontar la conservación de la información en soporte electrónico se deben tener presentes los siguientes aspectos y características de los soportes: Los soportes de almacenamiento magnético utilizados habitualmente como backup, a corto, mediano e incluso largo plazo, sólo permiten un acceso secuencial a la información y aunque pueden llegar a tener una capacidad significativa de almacenamiento, se debe tener en cuenta que pueden ser modificados o borrados. El almacenamiento magnético de tipo “storage” obviamente necesita backup e igualmente puede ser modificado o borrado. “Los soportes de almacenamiento óptico de tipo única escritura múltiple lectura, no modificables por tanto, permiten satisfacer requisitos de archivo, constituyen un soporte duradero a medio y largo plazo, tienen gran capacidad de almacenamiento y permiten el acceso directo a la información. Para el almacenamiento de documentos administrativos en condiciones que permitan garantizar su conservación, integridad y calidad se deben utilizar los soportes ópticos no reescribibles, como es el caso de los CD-R y DVD-R del tipo WORM (múltiple lectura única escritura), dado que estos soportes duran muchos más años y no se ven afectados por el número de veces que se lean; también se conocen en el mercado como “soportes no repudiables”68. La tabla siguiente contiene un resumen de tipos de soportes con sus características de capacidad, condiciones ambientales y plazo de almacenamiento recomendados junto con otras consideraciones. 68 Guía de la Información electrónica [en línea]. http://europa.eu.int/historical archives/dlm forum/index en.htm. [Consulta: 18 diciembre, 2004]. 81 1. Soportes Capacidad Magnéticos Condiciones Plazo Consideraciones Ambientales Almacén Disquete 3 ½ 1,44 a 120 5º a 32º C y 2 a MB 20% a 60% años HR Cinta Magnética 1.600 bpi - Cinta Magnética 6.350 bpi 112,5 GB 5 Regrabable +1.000 Norma ISO/IEC 9529 veces 5º a 45º C 5 a y20% a 80% años HR 10 Regrabable + 1.000 veces Reescribir cada 10 años Rebobinar cada 2 años Norma ISO/IEC 3788 Cartucho 1/2" y 80 MB / 2 5º a 32º C y 5 a 1/4" GB 20% a 80% años HR 10 Regrabable +1.000 veces Reescribir cada 10 años Rebobinar cada 2 años. Norma ISO 8462 Cinta DAT de 2 a 24 GB 4mm. 10 Regrabable + 1.000 veces Reescribir cada 10 años Rebobinar cada 2 años Normas ISO/IEC 11319 y 12246 Cinta de 8mm 5º a 32º C y 5 a 20% a 60% años 3,5 a 25 GB HR. 2. Soportes Capacidad Condiciones Plazo Consideraciones Ópticos Ambientales Almacén CD-ROM 0,65 GB CD-R y CDRW DVD-ROM DVD-RAM DVD-R DVD_RW -5º a + 30º C y 5% a 60% HR Regrabable (RW) + 1.000 veces Reescribir cada 10 años Normas ISO/IEC 9660 y 1014 18 -10ª a 50º C 10 a 20 Regrabable (RW) + 100 veces 3% a 85% HR años reescribir cada 10 años Normas ISO/IEC 16824 y 4,7 a 9,4 16825 GB 4,7 a GB y 4,7 GB 3. Soporte Capacidad Condiciones Plazo Consideraciones Microfilm Ambientales Almacén Micro film: Poliéster y Halógeno de plata 17º C Más estable que el papel e 20% a 30% independiente de la 100 años obsolescencia tecnológica de HR sistemas y aplicaciones. Normas ISO 6199, 10602 4. Condiciones ambientales de conservación 82 Soporte Temperatura Humedad Relativa Papel 17º C +/- 1º C- 52% +/- 3% Microfilm: - Película Nitrato - 20º C hasta 2º C +/- 1º C 20% hasta 30% +/- 3% - Película Poliéster - 20º C hasta 17º C +/- 1º 40% +/- 2% C Electromagnético + 2ºC hasta 18º C +/- 1º C 40% +/- 2% Óptico + 2ºC hasta 18º C +/- 1º C 40% hasta 55% +/- 2% 3.3.4.1 Medidas de almacenamiento y conservación El volver a grabar la información de los soportes electrónicos, a pesar de su costo añadido, permite resolver muchos problemas derivados de los soportes no normalizados, que son la mayor parte de los soportes magnético - ópticos. Durante cada reescritura se debe tener en cuenta medidas técnicas de perdurabilidad y preservación que aseguren la accesibilidad, legibilidad y la autenticidad de los archivos electrónicos. Se deben realizar grabaciones periódicas de los archivos electrónicos, teniendo en cuenta la duración de los soportes y la evolución de su tecnología, ya sea reutilizando los mismos soportes o migrando hacia otros más modernos. Preservar la información de soporte electrónico volviendo a grabar los soportes magnéticos y ópticos según los plazos recomendados para los distintos tipos de soportes. Se recomienda migrar hacia un soporte más moderno una vez cumplido su plazo de vida útil. Protección contra el deterioro físico Existen diversos factores que afectan al deterioro físico de los soportes, tal es el caso de los campos eléctricos y magnéticos, la oxidación y degradación de los materiales con los que están hechos. Seleccionar un sistema de almacenamiento de la información y las copias de seguridad no es una cuestión simple. Por ejemplo, las unidades de cinta magnética han sido la solución tradicional, pero ahora han irrumpido en el mercado las unidades ópticas, con un coste menor y una vida útil más prolongada, aunque pueden tener el inconveniente de que su velocidad de transferencia de datos sea lenta. Se deben realizar controles periódicos del archivo de soportes electrónicos para protegerlos del deterioro físico. Se debe disponer de segundas copias del archivo de soportes electrónicos. Entre los procedimientos de protección contra el deterioro físico de los soportes electrónicos figuran los siguientes: 83 1) Detallar la forma de protección contra el deterioro físico del contenido del archivo de soportes. 2) Determinar la frecuencia de tiempo con que se realizarán copias de respaldo y recuperación. 3) Determinar la migración de soportes en función de su vida útil. 4) Mantener y verificar el inventario de los soportes. 5) Especificar los plazos de tiempo de conservación de los soportes, su puesta fuera de servicio y el borrado de ficheros. Identificación y control de soportes: Identificar los soportes por su nombre, fecha de creación, durabilidad y período de retención. Identificar y controlar la duración de los equipos y soportes. Mantener registros de entrada / salida de los soportes recibidos y enviados. Determinar el modo en que debe realizarse el traslado de los soportes. Autorizar, por su responsable, la salida de soportes fuera de los locales en que están ubicados. Impedir cualquier recuperación de la información almacenada en los soportes posterior a su baja en el inventario o a consecuencia de su salida fuera de los locales en que están ubicados. Control en la realización de los cambios de soporte. 1. Proteger los soportes de cambios no autorizados. 2. Documentar y justificar la necesidad del cambio. 3. Evaluar las consecuencias del cambio. 4. Aprobar, implantar y verificar la realización de los cambios. 5. Seguir la evolución y los cambios que puedan afectar a la aplicación y la plataforma. 84 CONCLUSIONES Durante el desarrollo del presente trabajo de investigación pude constatar, que el progreso tecnológico en materia de informática se encuentra presente en todos los campos del saber humano; la innovación tecnológica ha propiciado que en la actualidad, todos los profesionistas se capaciten para la utilización optima de las nuevas herramientas puestas a su disposición, esto los volverá más competitivos en el mercado laboral y los dotará adecuadamente para enfrentar con mayor nivel de éxito los nuevos retos que les depara el futuro. Con base en lo anterior y adentrándonos en nuestra especialidad, es importante actualizarnos en el manejo de estas tecnologías para eficientar la administración de los documentos y de esta forma tener un mejor control de las diferentes instancias del sistema red de archivos. El Profesional Archivista debe aprovechar los avances Tecnológicos, en el área de la informática para la aplicación de los Archivos. Sin olvidar que las Tecnologías solo son herramientas que le ayudarán de alguna manera a realizar su trajo con más rapidez y facilidad, y que estas no sustituyen la realización y aplicación de los instrumentos de descripción y los principios fundamentales de la Archivonomía (Principio de procedencia y principio de orden original). Me parece muy importante que, el Archivónomo reflexione sobre las nuevas situaciones que se le presentan cada ves que se desarrollan y perfeccionan herramientas que son utilizables para realizar su trabajo, pensar por un momento sí como profesional del manejo de la información tiene los conocimientos suficientes para poder tomar una decisión; para saber hasta que punto esas herramientas van a facilitar la búsqueda y consulta de la información, o provocarán que el trabajo sea deficiente y más tardado que si se realizara todo manualmente. 85 La importancia que tiene el saber para que nos sirven los recursos tecnológicos y como utilizarlos de manera eficiente, nos va a permitir el poder elegir el sistema mas adecuado para dar una solución al problema que se presente y obtener resultados óptimos en el archivo . BIBLIOGRAFIA 1. HEREDIA HERRERA, Antonia: Archivistica general: Teoría y práctica. Sevilla: Diputación provincial, 7° edición, 1995. ISBN 84-77-98-056-x. 512 pp. 2. CRUZ MUNDET, José Ramón: Manual de archivistica. Madrid: Pirámide, 1996. ISBN 84- 86168- 94-5. 299-312 pp. 3. ISIDRO GIL, Leiva: La automatización Editorial TREA.120 pp. de la indización de documentos. 4. LÓPEZ YEPEZ, Alfonso: Documentación Informativa, Sistemas, redes y aplicaciones. Editorial Síntesis, Madrid, 1997, ISBN 84-7738-523-8. 150 pp. 5. RIVAS FERNADEZ, José Bernal: El archivista: un Profesional de la información: análisis en perspectiva. En Bibliotecas y Archivos. Vol. I, num.3 (ene-abr. 1997) México: Sep ENBA. 1997, 130 pp. 6. CRUZ MUNDET, José Ramón: Manual de archivistica. Madrid: Fundación Germàn Sánchez Ruipèrez, 1999. 170 pp. 7. CRUZ MUNDET, José Ramón: Información y Documentación. Fernando Milkalarena Peña. Año 1998, 145 pp. 8. PERNIA, Humberto: Diccionario de terminología archivistica. Caracas José. 1970. 150 pp. Sn. 9. AMAT NOGUERA, Nuria: La documentación y sus Tecnologías, Editorial Pirámide, Madrid, 1995, 548 pp. ISBN: 84-368-0823-1. 10. MARTÍNEZ COMECHE, Juan Antonio: Teoría de la información documental y de las instituciones documentales. Editorial Síntesis, Madrid, 1995, 182 pp. ISBN: 84-7738-307-3. 86 11. MOREIRO (COORD), José Antonio: Manual de Documentación Informativa. Editorial Cátedra, Madrid, 2000, 458 pp. ISBN: 84-376-1798-7. 12. ABADAL FALGUERAS, Ernest: Sistemas y Servicios de información digital. Editorial Trea, España, 2001, 147 pp. ISBN 84-95178-98-2. 13. RUÍZ RODRÍGUEZ, Antonio Ángel: Manual de Archivística. Editorial Síntesis, 1995, 343 pp. ISBN: 84-7738-306-5. 14. CARBALLO DA COSTA, Carlos: Introducción a la informática documental. Fundamentos Teóricos, Prácticos y Jurídicos. Editorial Síntesis, Madrid, 1995, 367 pp. ISBN: 84-7738-208-5. 15. RABAGO, JOSE Feliz: Introducción a las redes locales. Editorial Anaya Multimedia, Madrid, 2000, 302pp. ISBN 84-415-0831-3. 16. VILLASEÑOR SÁNCHEZ, Guillermo: La tecnología en el proceso de enseñanza-aprendizaje, México, trillas, ITESM, Universidad Virtual, 1998 (reimp. 1998). 95 pp. ISBN 968-24-448-x. 17. ESPINOSA MARIA, Blanca: Libro de tecnologías documentales. Madrid, 1994, 317pp. ISBN 84-604-946-9 18. ROMERO TALLAFIGO, Manuel: Archivistica y archivos soportes, edificios y organización. 3ª edición, 1997. S & C, ediciones. sevilla. 513pp. ISBN: 920332-7-4. 19. LAQUEY TRACY, Jeanne Ryer : Que es Intenet. Versión en español de Flor A. Bellomo. 1994 por Addison – Wesley Iberoamericana, S.A. impreso en E.U.A. 196pp. ISBN: 0-201-63110-5. 20. CANTOS GOMEZ, Pascual: Hipertexto y Documentación. Murcia: Secretariado de Publicaciones, Universidad, 1994. 75pp. ISBN: 84-7684-5529. 21. ARMANDO CURCIO, Editores: Antiguas Civilizaciones: como eran y que dejaron. La escritura, México, 1985. tomo 1. 145 pp. 22. TAGLE DE CUENCA, Matilde: Notas sobre Historia del libro. Editorial el copista. Córdoba Argentina, 1997, 201pp. ISBN 987-9192-08-7. 23. ROMERO TALLAFIGO, Manuel: Archivistita y archivos, soportes, edificios y organización. 3° edición. Sevilla, 1997, 159pp. 24. ALBANI FINO PENA, Sabor: Manual de Bibliotecología, historia y técnica del libro.2° edición. Buenos Aires, 1958, 9pp. 87 25. LEVINE, Guillermo: Introducción a la computación y a la programación estructurada. 2° edición, McGrow-Hill. México, 1985, 240pp. ISBN 968-422511-3. 26. LESINGER ALBERT H.: Un estudio de las normas básicas para equipamiento, mantenimiento y funcionamiento de un laboratorio de reprografia en archivos de países en desarrollo. Versión española de Carmen Crespo. Centro Nacional de microfilmación. Madrid, 1977, 170pp. 27. ESPINOSA MARIA, Blanca: Tecnologías Documentales. Memorias Ópticas. Editorial Tecnidoc, Madrid, 1994, 130pp. ISBN 84-604-946-9. 28. FERNANDEZ SANCHEZ, E.: Manual de dirección estratégica de la tecnología. Editorial Ariel, España, 1989, 127pp. ISBN 84-78-97-514-4. 29. Revista del Archivo Nacional en: Instituto Colombiano de Cultura. Bogota, n. 76, 1977. segunda serie n. 1. 115pp. 30. PEÑA ROSALIA, BAEZA YATES, Ricardo: Gestión digital de la información de bits a bibliotecas y a la web. Editorial Rama, Madrid, 2002. 440pp. ISBN 7897-514-4. 31. MOYANO AVILA, Encarnación: La documentación Automatizada. Editorial Librería Universidad. España, 1996 43pp. ISBN 84-92-1490-6X. 32. ANNEMIEKE DE JONG: Los metadatos en el entorno de la producción audiovisual. Traducido por Jesús Anderez. Editorial ILCE, México, 2001, 19pp. 33. STOLTZ, Kevin: Todo acerca de las redes de computadoras. Traducido por Sergio Luís y Maria Ruiz Faudan. Editorial New Riders Publishing, México, 1994, 25pp. ISBN 968-880-511-4. 34. LAQUEY TRACY, Jeanne Ryer: Que es Internet. Traducido por Bellomo. Editorial Addison E. U. A. 1994, 4pp. Flor A. 35. CANTOS GOME, Pascual: Hipertexto y Documentación. Murcia: Secretariado de Publicaciones, Universidad, 1994, 140pp. 36. AREVALO JORDAN, Víctor Hugo: La profesionalización de los archivos. Programa de Difusión Cultural. Santa Fe, 2000, 135pp. 37. LÓPEZ ALONSO, Rosa M.: El documento electrónico en Europa. Facultad de Traducción y Documentación. Universidad de Salamanca. 1999. 95pp. 88 38. HERNANDEZ, Ángel. Una carrera Universitaria no garantiza trabajo ni buen salario. [en línea]. Revista Vértigo (2005).Dirección: [email protected] [Consulta: 14 de enero 2005]. 39. Oya Y, Rieger: Establishing a Quality Control Program [en línea], (Establecimiento de un Programa de Control de Calidad)", en Moving Theory into Practice: Digital Imaging for Libraries and Archives (Llevando la Teoría a la Práctica: Digitalización de Imágenes para Bibliotecas y Archivos), Mountain View, CA: Grupo de Bibliotecas de Investigación, 2000; pp. 61-83. http://www.rlg.org/preserv/mtip2000.html [Consulta: 16 diciembre, 2004]. 40. ARNE R. Kenney y Oya Y. Rieger: Using Kodak Photo [CD], Technology for Preservation Access [en línea], (Uso de la Tecnología Kodak Photo CD para el Acceso y la Preservación). Ithaca, NY: Biblioteca de la Universidad Cornell, Departamento de Preservación y Conservación, 1998, http://www.library.cornell.edu/preservation/kodak/cover.htm [Consulta: 14 de diciembre, 2004]. 41. Don D'Amato, Imaging Systems [en línea]: The Range of Factors Affecting Image Quality, Guide 3 to Quality in Visual Resource Imaging (Sistemas de Digitalización de Imágenes: La Variedad de Factores que Afectan la Calidad de la Imagen. Guía 3 para la calidad en la digitalización de recursos Visuales), http://www.rlg.org/visguides/visguide3.html [Consulta: 26 diciembre 2004]. 89