PRODUCCIÓN Y DIRECCIÓN MULTIMEDIA COMUNICACIÓN AUDIOVISUAL – UVIC 2009/2010 TRABAJO TEÓRICO INDIVIDUAL REFERENTE AL MEDIO DIGITAL Tema: HIPERMEDIA, MULTIMEDIA, SISTEMAS OPERATIVOS Y LA CREACIÓN DE LA WWW. Personaje: EL CREADOR DE LAS 3W : TIM BERNERS-LEE Reseña: BERNERS-LEE, Tim (1999). Tejiendo la Red . El inventor del W orld W ide W eb nos descubre su origen . Madrid: Siglo XXI de España Editores. MYRIAM FIGUEIRA BLANCO MYRIAM FIGUEIRA BLANCO ÍNDICE Págs. 1. El creador de las 3WWW .......................................................................... 1 2. Desarrollo del tema ................................................................................. 3 2.1 Multimedia e hipermedia ......................................................... 3 2.2 Sistemas Operativos ................................................................ 5 2.3 El nacimiento y desarrollo de la WWW ...................................... 8 3. Conceptos Clave .................................................................................... 11 3.1 Internet............................................................................... 11 3.2 Funcionamiento de la Web HTML y TCP/IP ........................................................................... 11 3.3 W3C..................................................................................... 14 4. Tejiendo la Red ..................................................................................... 16 5. Reseña (Resumen y citas de la obra) ...................................................... 18 6. Conclusiones ......................................................................................... 34 Bibliografía ............................................................................................... 35 1. EL CREADOR DE LAS 3W Antes de 1990, Internet no era lo que hoy conocemos. Encontrar una información específica era prácticamente imposible, miles de espacios inconexos aparecían desplegados por la red sin apenas formas de encontrarlos si el internauta no tenía conocimiento previo de ellos. La World Wide Web apareció de la mano de Tim Berners-Lee para mejorar la red en un tanto por cien elevadísimo. Combinó dos tecnologías ya existentes: el hipertexto y el protocolo de comunicaciones de Internet; para crear un nuevo modelo de acceso a la información intuitivo e igualitario. Timothy "Tim" John Berners-Lee (TimBL o TBL) nació el 8 de junio de 1955 en Londres (Reino Unido) se licenció en Física en 1976 en el Queen's College de la Universidad de Oxford. Y actualmente es conocido por ser el creador de la World Wide Web y todo lo que hace posible que funcione: el lenguaje HTML (HyperText Markup Language) o lenguaje de etiquetas de hipertexto; el protocolo HTTP (HyperText Transfer Protocol), y el sistema de localización de objetos en la web URL (Uniform Resource Locator). Sus padres eran matemáticos y formaron parte del equipo que construyó el Manchester Mark I (uno de los primeros ordenadores) en la Universidad de Manchester en 1949. Estudió en el Sheen Mount Primary School y en el Emanuel School (Wandsworth) hasta que entró en el Queen's College de la Universidad de Oxford, durante sus estudios universitarios construyó un ordenador con una soldadora de hierro, circuitos TTL, un procesador Motorola 68000 y una televisión vieja. Después de trabajar en Plessey Telecommunications Limited (Poole) y en D.G. Nash Limited como programador de software a finales de los setenta, en 1980 entró en el CERN 1 y propuso un proyecto basado en el hipertexto para facilitar la forma de compartir y actualizar información entre investigadores. En este periodo también construyó un programa llamado Enquire que nunca llegó a ver la luz, pero que sentó las bases para una red mundial de interconexión que, más tarde, vendría a llamarse la WWW. Casi una década de esfuerzo y muchos proyectos fueron necesarios para que su iniciativa viera la luz. En Marzo de 1 Conseil Euripéen por la Recherde Nucléaire. El Laboratorio Europeo de Física de Partículas en Ginebra, actualmente. 1 1989 Tim vio la oportunidad de unir Internet y el hipertexto (HTTP y HTML) y desarrolló su primera propuesta de la Web. En 1990, con la ayuda de Robert Cailliau llevó a cabo una revisión que fue aceptada por su gerente, Mike Sendall. Diseñó y construyó el primer navegador (llamado WorldWideWeb y desarrollado con NEXTSTEP) y el primer servidor Web al que llamó HTTPD (HyperText Transfer Protocol Daemon). El primer servidor Web fue puesto en línea el 6 de agosto de 1991 desde el CERN. Esto proporcionó una explicación sobre lo que era el World Wide Web, como uno podría tener un navegador y cómo establecer un servidor Web. Este fue también el primer directorio Web del mundo, ya que Berners-Lee mantuvo una lista de otros sitios Web aparte del suyo. Desde entonces la Web no ha parado de crecer a pasos agigantados y de forma desmesurada. En 1994 entró en el Laboratorio de Ciencias de la Computación e Inteligencia Artificial del Massachusetts Institute of Technology. Se trasladó a EE.UU. y puso en marcha el W3C, que dirige actualmente. Recibió el prestigioso MacArthur Felloship en 1998. Y en 2002 el Premio Príncipe de Asturias (compartió este premio con Lawrence Roberts, Robert Kahn y Vinton Cerf) en la categoría de investigación científica y técnica. También en 2002, el público británico consideró que se encontraba entre los 100 británicos más importantes de todos los tiempos en una encuesta realizada por la BBC. El 15 de abril de 2004 se convirtió en el primer ganador del Premio de Tecnología del Milenio por la World Wide Web. Recibió el rango de Knight Commander (el segundo más alto en la Orden del Imperio británico) de la Reina Isabel II el 16 de julio de 2004. Y en mayo de 2006 fue nombrado miembro honorífico de la Royal Society of Arts. 2 2. DESARROLLO DEL TEMA 2.1 Multimedia e Hipermedia 2.2 Sistemas Operativos. 2.3 Nacimiento y desarrollo de WWW 2.1 MULTIMEDIA E HIPERMEDIA El Diccionario de la La Real Academia Española define el término “multimedia” de la siguiente forma: “multimedia. (Del ingl. multimedia). adj. Que utiliza conjunta y simultáneamente diversos medios, como imágenes, sonidos y texto, en la transmisión de una información” 2. Pero su significado no está tan claro como parece a primera vista. El término multimedia todavía no está lo suficientemente bien definido y sus límites no están claros. Se suele decir que “multimedia” es la combinación o utilización de dos o más medios en una misma obra, sin necesidad de que alguna de estos medios sea digital (o informático). Pero “multimedia” se ha ido generalizando para referirse a la informática y al mundo digital, más todavía desde la entrada en el siglo XXI. Si a finales de la década de los 70, multimedia era la integración de voz, texto, datos y gráficos, en los 90 a estos elementos se suman los gráficos interactivos, las imágenes en movimiento, las secuencias de audio y vídeo, las imágenes en tres dimensiones, la composición de documentos digitales y la realidad virtual. En este panorama creciente de obras multimedia en las nuevas tecnologías, como ya he dicho, el término se ha metamorfoseado y se relaciona constantemente con lo digital, la red y los nuevos medios, en definitiva, con bits. Xabier Berenguer, en su artículo Escribir programas interactivos, al igual que Nicholas Negroponte, en su obra Un mundo digital, afirma que lo 2 Lamarca Lapuente, María Jesus. Hipertexto, el nuevo concepto de documento en la cultura de la imagen. Hipermedia/Multimedia. Tesis doctoral. Universidad Complutense de Madrid. Fecha de actualización: 10/12/2009. [Fecha de consulta: 03/01/2010]. http://www.hipertexto.info/documentos/hipermedia.htm Disponible en Internet: 3 “multimedia” no es una combinación de medios sino de un único medio: lo digital (bits de información). Mutimedia e hipermedia, son dos conceptos diferentes, el último engloba al primero. “Hipermedia es un nuevo medio. Es la síntesis de hipertexto multimedial, que comparte usos y características tanto del hipertexto como del multimedia, más una serie de propiedades que le son propias” 3. La estructura de un hipermedia es la misma que la de un hipertexto, formado por nodos que se conectan mediante enlaces. La única diferencia es que los nodos contienen elementos de diferentes medios o morfologías. El usuario puede, a través de recursos hipermediales, interactuar de manera más sencilla y “amigable”, dentro de un soporte digital u on-line. La World Wide Web es el máximo exponente de la interconexión (mediante hipertexto) de contenidos hipermediales a través, también, de interfaces multimediales e hipermediales. En resumidas cuentas, el “hipertexto” es texto en formato no secuencial, compuesto de nodos y enlaces que los interconectan; “multimedia” es toda aquella unión de diferentes medios o morfologías de la información, como texto, gráficos, audio, vídeo, otros recursos audiovisuales, etc.; e “hipermedia” es hipertexto aplicado a la multimedia. Aunque existe una diferencia clara entre los conceptos, es frecuente utilizarlos indistintamente. El término “hipertexto” se ha generalizado y se utiliza indistintamente para referirse al hipertexto en sentido estricto como al “hipertexto multimedial”, es decir, “hipermedia". Un ejemplo del uso indiferente (y en este caso argumentación) de “hipertexto” e “hipermedia” es la definición que realiza el World Web Consortium del “hipertexto multimedia” en Hypertext Terms y lo define de la siguiente forma: "Hipermedia e hipertexto tienden a usarse uno en lugar del otro. Media no es más que texto que incluye gráficos, sonido y vídeo.” 4 3 4 Ibid. Ibid. 4 2.2 SISTEMAS OPERATIVOS Un sistema operativo es un programa que actúa como intermediario entre el usuario y el hardware de un ordenador y su propósito es proporcionar un entorno en el cual el usuario pueda ejecutar programas. El objetivo principal de un sistema operativo es lograr que el sistema de computación se use de manera cómoda, y el objetivo secundario es que el hardware del ordenador se emplee de manera eficiente. Un sistema operativo (SO) es un software especial, la base, la matriz de un terminal. El SO despierta al ordenador y hace que reconozca a la CPU, la memoria, el teclado, el sistema de vídeo y las unidades de disco. Cuando un ordenador se enciende, lo primero que hace es llevar a cabo un autodiagnóstico llamado Auto Prueba de Encendido (Power On Self Test, POST). Durante la POST, la computadora identifica todo su hardware y busca un SO para arrancar (boot). Un sistema operativo es el programa que oculta la verdad del hardware y presenta una interfaz simple orientada al archivo. La función del SO es la de presentar al usuario con el equivalente de una máquina ampliada o máquina virtual que sea más fácil de programar que el hardware implícito. Es una parte importante de casi cualquier sistema de computación, junto con el hardware, los programas de aplicación y los usuarios. Las funciones principales de los sistemas operativos son: aceptar todos los trabajos y conservarlos hasta su finalización; interpretar comandos que permiten al usuario comunicarse con el ordenador; controlar los recursos; manejar los dispositivos de E/S (organiza los archivos en diversos dispositivos de almacenamiento); llevar a cabo el manejo de errores; administrar la manera en que se reparten los procesos y definir el orden; evitar que las acciones de un usuario afecten el trabajo del hardware; y establecer el costo por utilizar determinados recursos. La primera era de los SSOO (Sistemas Operativos) llegó en 1945. Hasta 1950, los primeros sistemas eran grandes máquinas operadas por programadores 5 especializados. Durante la década siguiente (1950-1960) los avances tecnológicos permitieron que el hardware mejorase, y a su vez el software, con la creación de compiladores, ensambladores, cargadores y manejadores de dispositivos. Así llegaron, en los 60, los primeros Sistemas Operativos Multiprogramados, que administraban la memoria, gestionaban el uso de la CPU y administraban el uso de los dispositivos de E/S. Has que a mediados de los 60 aparece Multics (Multiplexed Information and Computing Service), un sistema operativo multiusuario/multitarea desarrollado por los laboratorios Bell de AT&T y Unix, que se convirtió en uno de los pocos SSOO escritos en un lenguaje de alto nivel. En 1969 lo abandonaron para comenzar a crear el sistema UNIX. El problema principal es que el usuario debía conocer un complejo lenguaje de control para realizar sus trabajos; ocupaban grandes espacios de memoria principal y secundaria, así como tiempo de procesador consumido. A finales de los 60 se comenzó a trabajar en la realización de un software potente que permitiera al usuario interactuar con la máquina, pero de forma sencilla e intuitiva. MVS (Multiple Virtual Storage) fue el sistema operativo más usado en los modelos de mainframes, desarrollado por IBM y lanzado al mercado por primera vez en 1974. CP/M (Control Program/Monitor), desarrollado por Gary Kildall para el microprocesador 8080/85 de Intel y el Zilog Z80, salió al mercado en 1976, y fue el SO más usado en los PC de esta década. Finalmente, tras casi diez años de trabajo en el campo de los SSOO, llegó la revolución: un cambio muy significativo en la filosofía de la relación entre usuario y tecnología. En la década de los 80, con la creación de los circuitos LSI, empezó el auge de los ordenadores personales. En éstos se dejó un poco de lado el rendimiento y se buscó que el sistema operativo fuera “amigable”, surgiendo menús, e interfaces gráficas. Esto reducía la rapidez de las aplicaciones, pero se volvían más prácticos y simples para los usuarios. Un avance importante que se estableció a mediados de 1980 fue el desarrollo de redes de PC que utilizaban sistemas operativos en red y sistemas operativos distribuidos. MS-DOS (Micro Soft Disk Operating System), escrito por Microsoft para IBM PC y otras computadoras que utilizaban la CPU Intel 8088 y sus 6 sucesores, y UNIX, que dominaba en los ordenadores personales que hacían uso del Motorola 68000; fueron los sistemas predominantes. En enero de 1984 Mac lazó oficialmente el ordenador Macintosh, que incluía su sistema operativo Mac OS cuya características novedosas era una GUI (Graphic User Interface) multitareas y el “mouse”. Provocó diferentes reacciones entre los usuarios acostumbrados a la línea de comandos y algunos tachando el uso del mouse como juguete. Las innovaciones de Mac tuvieron rápida respuesta por parte de Windows que a mediados de los 80 comienza a crear un sistema operativo que llegaría a todas las casas de Occidente. En principio solo era una interfaz gráfica del MS-DOS, pero acabó constituyéndose como un SO completo: el Windows 95. Años después se hizo el Windows 98 que era el más eficaz de esa época, al que le seguiría Windows ME (Windows Millenium Edition) aproximadamente entre el año 1999. Un año después se crearía el sistema operativo de Windows 2000. Después le seguiría el sistema operativo más utilizado en la actualidad, Windows XP. El más reciente es Windows 7 que salió al mercado el 22 de Octubre del 2009, dejando atrás al Windows Vista, que tuvo innumerables críticas durante el poco tiempo que duró en el mercado. En contraposición a Mac y Windows se encuentra el otro SO más utiliza en la actualidad: Linux y sus múltiples variantes. En 1991 aparece la primera versión del núcleo de GNU/Linux, creado por Linus Torvalds y un sinfín de colaboradores a través de Internet. La diferencia básica frente a sus competidores actuales es que se trata de un software libre; todo el código fuente puede ser utilizado, modificado y redistribuido libremente por cualquiera bajo los términos de la GPL (Licencia Pública General de GNU) y otras licencias libres. Desde su aparición el software ha sido modificado por muchos usuarios creando versiones diferentes como Debian, Ubuntu, Linspire, Mandriva, Knoppix, Fadore Core y una infinidad de sistemas operativos en constante modificación. 7 2.3 EL NACIMIENTO Y DESARROLLO DE LA WWW World Wide-Web (abreviado Web; escrito también WWW o incluso W3) significa algo así como red (o telaraña) de alcance mundial y vino a ser la llegada de vías de acceso sencillas y homogéneas a la red capaces de gestionar conexiones no lineales. Es decir, que desde cualquier terminal conectado a Internet fuese posible acceder a recursos en formato electrónico de otro ordenador también conectado, de forma simple. El año cero de la World Wide Web fue 1990. Tim Berners-Lee usó un NeXTcube como el primer servidor web del mundo, escribió el primer navegador web, (WorldWideWeb) y creó las primeras páginas web (que describían el proyecto y funcionaban como directorio). Finalmente, el 6 de agosto de 1991 fue la fecha del debut de la web como un servicio disponible públicamente en Internet. El concepto, subyacente y crucial, del hipertexto tiene sus orígenes en viejos proyectos de la década de los 60, como el Proyecto Xanadu de Ted Nelson y el sistema on-line NLS de Douglas Engelbart. Los dos estaban a su vez inspirados por el sistema Memex (basado en microfilm), de Vannevar Bush. Si bien podemos considerar a Tim Berners-Lee como el arquitecto de la Web, las ideas intrínsecas de su funcionamiento tienen sus orígenes medio siglo atrás, cuando el prestigioso científico norteamericano Vannevar Bush publicó en The Atlantic Monthly de julio de 1945 un artículo denominado As we may think (Como nosotros pensamos) donde describía un curioso dispositivo al cual llamaba Memex (Memoria Extendida) que almacenaba gran cantidad de información que el usuario podía consultar con cierta rapidez y flexibilidad mediante vínculos que las unían en forma no secuencial. Se trataba de una especie de escritorio futurista en el que se guardarían, microfilmados, los libros, actas, ficheros, etc. Cada elemento de información se visualizaría en pantalla tecleando su código mnemotécnico correspondiente y se podrían registrar las conexiones observadas entre elementos distintos. Bush entendía que un ordenador podría llegar a realizar asociaciones no lineales de ideas, al igual que la mente humana, y profetizaba que algún día, el usuario de la red podría crear su propia enciclopedia a través de hipervínculos. Sin duda, Bush fue un visionario para su época. Hablamos del año 1945, donde sus ideas no eran técnicamente realizables. Ni lo eran aún en 1965, cuando 8 otro visionario, Ted Nelson, las ordenó conceptualmente. Fue Nelson quien acuñó el término hipertexto para referirse a "un cuerpo de material escrito o gráfico interconectado de un modo complejo que no se puede representar convenientemente sobre el papel; puede contener anotaciones, adiciones y notas de los estudiosos que lo examinan" 5. El concepto de hipertexto es la base de la web que conocemos hoy en día. En una explicación más que sencilla podríamos decir que el lector (el usuario) examina los nodos de una red, y pasa de unos a otros siguiendo las conexiones (links, en inglés). Hipermedia es otro término que, aunque relacionado con el anterior, posee algunas especificaciones. Se denomina hipermedia a los nodos que contiene sonido, imagen o contenido multimedia. Dos años más tarde Nelson presentó en sociedad su software Xanadú que posibilitaba la creación de textos no lineales ni secuenciales, siguiendo la estela de lo que había denominado hipertexto. El proyecto no llegó a cuajar hasta los años 80 con la llegada de los primeros ordenadores personales. El gran avance de Tim fue unir hipertexto e Internet. En el proceso, desarrolló un sistema de identificadores únicos globales para los recursos web y también el Uniform Resource Identifier (URI) 6. A finales de la década de los ochenta internet se había convertido en el mayor almacén de datos que jamás hubiese existido, pero también el más caótico. Formatos incompatibles, programas distintos, protocolos heterogéneo, etc. Eran problemas de la red que plasmaban la necesidad de simplificar el acceso, hacerlo más sencillo y homogéneo. La WWW no fue la primera herramienta con este objetivo. WAIS, desarrollado a partir de 1989 por un grupo de empresas, intentó acotar y manejar la red pero sólo fue capaz de generar una solución parcial: “los datos debían indexarse con el nuevo software y distribuirse por medio de un nuevo protocolo, es decir, había que realizar un trabajo de adaptación de lo ya existente al nuevo sistema” 7. El sistema Gopher de la Universidad de Minnesota, ampliamente difundido desde 1991, aportó algo más 5 Adell, Jordi. Bellver, Carles. 2004 (Apud. Nelson, T.H). NELSON, T. H. (1965). A File Structure for the Complex, The Changing and The Indeterminate. ACM 20th National Conference. 6 Identificador de Recurso Uniforme, es un sistema universal para referenciar recursos en la Web. 7 Adell, Jordi. Bellver, Carles. Internet como Telearaña: el Word Wide Web. Universitat Jaume I. Castell. Fecha de publicación: 2004. [Fecha de http://www.uv.es/biblios/mei3/Web022.html consulta: 17/01/2010]. Disponible en internet: 9 al WAIS. Su objetivo, al igual que el de la web, fue crear un interface unificado para el acceso a la información de la red. Con Gopher, a través de un sistema simple de ventanas (o de menús) se accede a todo tipo de archivos sin preocuparse por su localización específica. En los comienzos de la web, ViolaWWW fue un navegador bastante popular que estaba basado en el concepto de la herramienta hipertextual del software de Mac denominado HyperCard. Sin embargo, el punto de inflexión de la World Wide Web comenzó con la introducción del navegador web Mosaic en 1993, un navegador gráfico desarrollado por un equipo del NCSA en la Universidad de Illinois en Urbana-Champaign (NCSA-UIUC), dirigido por Marc Andreessen. Funding para Mosaic vino del High-Performance Computing and Communications Initiative, un programa de fondos iniciado por el entonces gobernador Al Gore. Desde entonces la comunidad de usuarios de Internet creció de forma exponencial. Se podría decir que World Wide Web en español vendría siendo algo así como Red Global Mundial. Una red basada en un sistema de documentos de hipertexto y/o hipermedios enlazados y accesibles a través de Internet. Una explicación básica y sencilla sería decir que el funcionamiento de la WWW se basa en un navegador web mediante el cual cualquier usuario puede visualizar sitios web; y que estas páginas web pueden contener texto, imágenes, videos u otros contenidos multimedia, y el internauta puede navegar a través de ellos a través de hiperenlaces. Según el propio TimBL, la Web es un sistema hipermedial, ya que la web permite manejar información multimedia y navegar a través de ella; distribuido, ya que es un sistema compuesto por miles de servidores localizados en cientos de ciudades del mundo que están interconectadas entre sí; heterogéneo, ya que reúne servicios y protocolos más antiguos (como Gopher, los News, FTP, e inclusive el correo electrónico); y colaborativo, ya que cualquier persona, en cualquier parte del mundo, puede agregar información a la Web para que luego pueda ser consultada por el resto de los usuarios. 10 3. CONCEPTOS CLAVE 3.1 Internet 3.2 Funcionamiento de la Web: HTML y TCP/IP 3.3 W3C 3.1 Internet Internet es un conjunto descentralizado de redes de comunicación interconectadas que utilizan la familia de protocolos TCP/IP, garantizando que las redes físicas heterogéneas que la componen funcionen como una red lógica única, de alcance mundial. Sus orígenes se remontan a 1969, cuando se estableció la primera conexión de computadoras, conocida como ARPANET, entre tres universidades en California y una en Utah, Estados Unidos. Uno de los servicios que más éxito ha tenido en Internet ha sido la World Wide Web (WWW, o "la Web"), hasta tal punto que es habitual la confusión entre ambos términos. La WWW es un conjunto de protocolos que permite, de forma sencilla, la consulta remota de archivos de hipertexto. Ésta fue un desarrollo posterior (1990) y utiliza Internet como medio de transmisión. Internet es una red de redes, redes de ordenadores y equipos físicamente unidos mediante cables o redes inalámbricas que conectan puntos de todo el mundo. 3.2 Funcionamiento de la Web: HTML y TCP/IP Las siglas HTML y TCP/IP definen el lenguaje y la familia protocolos necesarios para el funcionamiento de la World Wide Web. Es necesario, por tanto, conocer estos conceptos para comprender cómo se ha creado y desarrollado la Web, su importancia, su futuro y sobre todo, cómo TimBL llegó en el momento adecuado para unificar los dos principales elementos que constituyen la Web: el HTML y el HTTP de TCP/IP. 11 HTML, siglas de HyperText Markup Language (“Lenguaje de Marcas de Hipertexto”), es el lenguaje de marcado predominante para la construcción de páginas web y que tiene como principal función permitir el salto de una página a otra en un mismo documento o hacia otro. Es usado para describir la estructura y el contenido en forma de texto, así como para complementar el texto con objetos tales como imágenes. HTML se escribe en forma de "etiquetas", rodeadas por corchetes angulares (<,>). HTML también puede describir, hasta un cierto punto, la apariencia de un documento, y puede incluir un script (por ejemplo Javascript), el cual puede afectar el comportamiento de navegadores web y otros procesadores de HTML. HTML también es usado para referirse al contenido del tipo de MIME text/html o todavía más ampliamente como un término genérico para el HTML, ya sea en forma descendida del XML (como XHTML 1.0 y posteriores) o en forma descendida directamente de SGML (como HTML 4.01 y anteriores). Por convención, las extensiones utilizadas son .htm o .html para marcar las direcciones URL (“Recurso de Identificación Uniforme”) que trabajan con este lenguaje. En resumen HTML es un lenguaje comúnmente utilizado para la publicación de hipertexto en la Web y desarrollado con la idea de que cualquier persona o tipo de dispositivo pueda acceder a la información en la Web. HTML utiliza etiquetas que marcan elementos y estructuran el texto de un documento. La familia de protocolos de Internet es un conjunto de protocolos de red en los que se basa Internet y que permiten la transmisión de datos entre redes de ordenadores. En ocasiones se le denomina conjunto de protocolos TCP/IP, en referencia a los dos protocolos más importantes que la componen: Protocolo de Control de Transmisión (TCP) y Protocolo Interno (IP), que fueron los dos primeros en definirse, y que son los más utilizados de la familia. El TCP/IP es la base de Internet, y sirve para enlazar ordenadores que utilizan diferentes sistemas operativos, sobre redes de área local (LAN) y área extensa (WAN). TCP/IP (Transmision Control Protocol o Protocolo de Control de Transmisión) es el protocolo que fragmenta los datos en paquetes de información. Después, estos paquetes son enviados a la red. El IP es el protocolo más básico de Internet, y provee todos los servicios necesarios para el transporte de datos. Cualquier otro protocolo de Internet se basa en IP o le sirve de base. 12 El Protocolo de Control de Transmisión (TCP) “(…) permite a un ordenador enviar a otro una corriente continua de información rompiéndola en paquetes y recomponiéndola al otro extremo, reenviando cualquier paquete que se haya perdido en Internet. El TCP usa IP para enviar los paquetes y a los dos se les denomina TCP/IP.” 8 Así de simplificado lo explica Tim en Tejiendo la Red. Existen tantos protocolos en este conjunto que llegan a ser más de 100 diferentes, entre ellos se encuentra el popular HTTP (HyperText Transfer Protocol), que es el que se utiliza para acceder a las páginas web, además de otros como el ARP (Address Resolution Protocol) para la resolución de direcciones, el FTP (File Transfer Protocol) para transferencia de archivos, y el SMTP (Simple Mail Transfer Protocol) y el POP (Post Office Protocol) para correo electrónico, TELNET para acceder a equipos remotos, entre otros. El TCP/IP fue desarrollado por Vint Cerf y Bob Kahn y demostrado por primera vez en 1972 por el Departamento de Defensa de los Estados Unidos, ejecutándolo en ARPANET, una red de área extensa de dicho departamento. El TCP/IP se remonta pocos años después de la creación de Internet y continúa vigente más de 25 años después. Como punto y aparte cabe reunir las claves y conceptos básicos para el entendimiento del funcionamiento de la WWW. La Web puede tener dos caminos de navegación. Acceder a páginas web mediante una dirección URL 9 que el usuario conoce y puede escribir directamente en el navegador (Mozilla, Firefox, Google Chrome, Amaya, Epiphany, Galeon, Internet Explorer, Konqueror, Lynx, Netscape Navigator, Opera, Safari, Seamonkey, Shiira, Maik Navigator, Flock, Arora, K-Meleon), o a través de enlaces de hipertexto desde buscadores u otras páginas. Una vez el ordenador recibe la orden de búsqueda el navegador comienza una serie de comunicaciones, transparentes para el usuario, para obtener los datos de la página y visualizarla. El primer paso consiste en traducir el nombre del servidor de la URL en una dirección IP usando la base de datos distribuida de Internet conocida como DNS. Esta dirección IP es necesaria para contactar con el servidor web y poder enviarle paquetes de datos. 8 9 Ibid, p.228 Localizador Uniforme de Recursos. El término proviene de URI (Identificador Universal de Recursos) que define la dirección de cualquier página o documento en la Web. 13 El segundo paso es enviar una petición HTTP 10 al servidor Web solicitando el recurso. En el caso de una página web típica, primero se solicita el texto HTML 11 y luego es inmediatamente analizado por el navegador y, si es el caso, este hace peticiones adicionales para los gráficos y otros ficheros que formen parte de la página. Y finalmente renderiza la página tal y como se describe en el código HTML, el CSS y otros lenguajes web. Este es el protocolo general de funcionamiento de la web, pero si un usuario accede de nuevo a una página después de un pequeño intervalo, es probable que no se vuelvan a recuperar los datos del servidor web de esta forma. Por defecto, los navegadores, algunos buscadores como Google, Yahoo o AltaVista y firewalls de empresa, almacenan en una caché del disco duro local todos los recursos web a los que el usuario va accediendo. De esta forma el navegador reconoce la versión almacenada y esta se reutiliza en el paso de renderización para agilizar la página. Aunque también cabe señalar que existen excepciones, como el caso de ciertas páginas que tiene restringida la memorización, como en el caso de páginas de bancos o ciertas páginas personales. 3.3 W3C El W3C es un organismo internacional de estandarización de tecnologías Web dirigido conjuntamente por el Instituto Tecnológico de Massachusetts (MIT), el ERCIM francés y la Universidad de Keio en Japón. Es un consorcio internacional donde las organizaciones miembros, personal a tiempo completo y el público en general, trabajan conjuntamente para desarrollar estándares Web. La misión del W3C, según su creador y actual director, es: “Guiar la Web hacia su máximo potencial a través del desarrollo de protocolos y pautas que aseguren el crecimiento futuro de la Web.” 12 El W3C trata de alcanzar su objetivo principalmente a través de la creación de Estándares Web y Pautas. Desde 1994, el W3C ha publicado más de ciento diez 10 Protocolo de Transferencia de Hipertexto, especifica cómo se comunican el navegador y el servidor entre ellos. 11 12 Lenguaje de Marcado de Hipertexto, define la estructura y contenido de documentos de hipertexto. W3C. ¿Qué es el Consorcio World Wide Web (W3C)? [Fecha de consulta: 19/01/10]. Disponible en Internet: http://www.w3c.es/Consorcio/ 14 estándares, denominados Recomendaciones del W3C. El W3C también está involucrado en tareas de educación y difusión, y en el desarrollo de software, sirviendo a su vez como foro abierto de discusión sobre la Web. El W3C luchara para que las tecnologías Web más importantes sean compatibles entre sí y permitan que cualquier hardware y software, utilizado para acceder a la Web, funcione conjuntamente y evitar así la fragmentación del mercado (e implícitamente la fragmentación de la Web). A este objetivo lo denominan "interoperabilidad Web". Entre las iniciativas globales del W3C se encuentra la de mantener sus asociaciones con organizaciones nacionales, regionales e internacionales en todo el mundo para establecer una cultura de participación global en el desarrollo de la World Wide Web. Las operaciones realizadas por el W3C cuentan con el apoyo financiero procedente de las tasas de los Miembros, becas de investigación, y otros recursos de financiación públicos y privados, así como de los Programas de Ayudas. La gestión de estas operaciones se realiza de forma conjunta en el Laboratorio de Ciencias de la Computación e Inteligencia Artificial del MIT (CSAIL) en los Estados Unidos, el Consorcio Europeo para la Investigación en Informática y Matemáticas (ERCIM), en Francia y la Universidad de Keio, en Japón. El Consorcio tiene también Oficinas Mundiales en países de todo el mundo. Estas oficinas trabajan con sus comunidades Web regionales para promocionar las tecnologías del W3C en los idiomas locales, ayudar a ampliar la base geográfica del W3C y fomentar la participación internacional en las Actividades del W3C. 15 4. TEJIENDO LA RED TimBL nos descubre en este libro el origen de la Red, desde su revolucionaria introducción y la creación de las siglas WWW, HTML y HTTP, hasta su opinión sobre el futuro desarrollo de este medio. Narra en primera persona todo lo que le influyó en la creación de la World Wide Web. Desde los orígenes de Internet a la mejora en los ordenadores personales de diferentes marcas y desde el lenguaje de hipertexto a la profusión de múltiples navegadores y sistemas operativos. Toda acción o acciones provienen de personas que las realizan. Y éstas poseen una vida particular que de una manera u otra influyen en esas acciones. Esto también forma parte del resumen de esta obra, donde una de las principales bazas es la biografía capitulada y paralela de TimBL y la WWW. Desde niño hasta su primer proyecto, el Enquire en el CERN, pasando por la Universidad. Toda su vida ha estado girando en torno al concepto del aspecto conectivo de la información. En este libro su vida es tan importante como los acontecimientos que rodean a las tecnologías y las redes. Tim escribe sobre el proyecto Xanadu y la idea de hipertexto de Ted Nelson, así como de otros antecedentes y cómo trabajó a escondidas en el CERN durante años creando el proyecto de la mano de Robert Cailliau y algún que otro ayudante. También narra detalladamente cómo tuvo que luchar para que creyesen en él y en su propuesta, cómo recorrió varios congresos y reuniones de empresas de hipertexto –sin éxito- y cómo finalmente creó, en el CERN, el primer servidor Web de la historia: el info.cern.ch. La Web tuvo que crear herramientas para universalizarse. Escribir en lenguajes comunes para todos los ordenadores, construir “pasarelas” a otros servicios de Internet o crear un navegador modo-línea son algunos ejemplos de cómo la Web trabajó para llegar al mayor número de personas posibles. Tim creó un grupo de trabajo en Internet que se llamó Engineerin Task Force (IETF- “Destacamento de Ingeniería de Internet”) que fue decisivo para promover el flujo de ideas, en la comunidad Web, sobre el funcionamiento de éstas. En el libro nos habla de cómo poco a poco el círculo fue aumentando entorno a la Web. La proliferación de empresas relacionadas con la web, sus fusiones y estrategias empresariales así como el deseo de apoderarse o manejar la Web 16 es otro de los temas que Tim trata en esta obra. Al igual que adjunta información sobre sistemas de navegación, protocolos en Internet y la historia de los navegadores como Erwise, ViolaWWW, Midas, Arena, Lynx 2.0., Cello, Navipress o Mosaic. Finalmente opina sobre la privacidad en Internet, la confianza en la Web y lo que ésta ha significado social y comunicativamente. Al mismo tiempo que defiende un futuro mejor de la Web (la Web Semántica) a través de las recomendaciones del Consorcio W3C creado en 1994 entre el CERN y el MIT, y que él mismo dirige. 17 5. Resumen y citas de la obra Capítulo 1: Preguntar en el interior acerca de cualquier cosa (págs.1-6) “Preguntar en el interior acerca de cualquier cosa” (Enquire within upon everything) fue el nombre que recibió el primer programa de software que creó Tim Berners-Lee. Este título, especialmente significativo en la filosofía Web, proviene de un libro que Tim tenía en su casa cuando era un niño y que “servía como portal a un mundo de información acerca de todo” 13. Este símil le sirvió como punto de partida para los primitivos bocetos mentales de la World Wide Web. Desde niño, influenciado en gran medida por sus padres -que eran matemáticos y programadores informáticos-, pensaba que los ordenadores podrían llegar a realizar asociaciones al azar, al igual que un cerebro humano. He aquí el “quit” de todo su trabajo. Se licenció en Física, en 1976, por la Universidad de Oxford y trabajó como ingeniero de software en Plessey Telecomunications y en D.G. Nash Ltd. Pero no fue hasta 1980 cuando brotaron sus ideas acerca de la que hoy conocemos por la Web. Con el proyecto Enquire, su primer programa tipo Web, para uso personal, basado y dirigido a relacionar las direcciones y departamentos del CERN, el concepto madre de WWW vio la luz: “Supongamos que toda la información almacenada en ordenadores de todas partes esté unida entre sí (…). Supongamos que pueda programar mi ordenador para crear un espacio en el que cualquier cosa pueda relacionarse con cualquier cosa.” 14 La Web surgió gracias a las influencias, ideas y logros de muchos visionarios, investigadores, informáticos, matemáticos y físicos que Tim Bernes-Lee recogió y fusionó en los noventa. En 1945, Vannevar Bush escribió acerca de una máquina -a la que llamó Memex-, que podía realizar y seguir referencias cruzadas entre documentos microfilmados. Veinte años más tarde, Ted Nelson escribió acerca de las “Máquinas literarias”, capaces de escribir en un nuevo formato no lineal, es decir, texto vinculado mediante nexos de unión con otros muchos a través de citas. Un formato que denominó hipertexto y que estaba inmerso en un proyecto mucho más amplio donde toda la información del 13 Berners-Lee, Tim (1999). Tejiendo la Red. El inventor del World Wide Web nos descubre su origen. Madrid: Siglo XXI de España Editores. p.1 14 Ibid, p.4 18 mundo se podría publicar en hipertexto: el proyecto Xanadu. También en los sesenta e influenciado por el concepto de hipertexto, Doug Engelbart mostró un espacio de trabajo en cooperación llamado NLS (oN Line System) e inventó el ratón, primitivo, por aquel entonces. Los siguientes avances en los setenta y ochenta en el campo de Internet y la conexión global entre todos los ordenadores del mundo, fue el impulso necesario para que Tim Berners-Lee creara la WWW. Como él mismo afirma, llegó “(…) en el momento justo, interesado, cuando el hipertexto e Internet habían visto ya la luz. La tarea que me correspondía era hacer que casaran” 15. Capítulo 2: Enredos, enlaces y redes (págs. 8-22) El Enquire fue su primer trabajo en el campo de las relaciones de nodos en redes, incluso escribió un manual e cuatro páginas donde se hablaba de lo útil que sería utilizar un programa de ordenador que llevase a la tecnología, los círculos y las flechas que se podían escribir sobre una servilleta. En el Enquire la única forma de crear un nuevo nodo sería a partir de un antiguo nodo y para hacerlo se debía escribir la relación que estos dos tenían entre sí. TimBL decidió también que en este programa existiesen vínculos “internos” que serían bidireccionales y otros unidireccionales, los “externos”. El programa jamás vio la luz y desapareció cuando TimBL dejó el CERN por primera vez. Dos años después, en 1983, volvió como ayudante de programación y en su tiempo libre empezó a escribir otro programa de relaciones. “Desde un punto de vista extremo, el mundo puede considerarse como sólo un conjunto de conexiones, nada más” 16, con esta filosofía nació el Tangle (Enredo). Un programa para descifrar secuencias de caracteres y crear nodos de relación, que se quedó en una fase primitiva pero que significó, para TimBL, una pequeña incursión en su “deseo de representar el aspecto conectivo de la información” 17. En 1984 el CERN había crecido y paralelamente el mundo informático que lo rodeaba. Nuevas generaciones de ordenadores, nuevos sistemas operativos, lenguajes de programación y variados protocolos de redes malvivían en el microcosmos de las montañas de Suiza. Para facilitar la comunicación entre 15 Ibid, p.6 Ibid, p.12 17 Ibid, p.13 16 19 todos los ordenadores y redes Tim comenzó un nuevo programa: el RPC (“de llamada remota”). Y volvió a reescribir el Enquire, aunque esta vez no programó los vínculos externos y no se podía conectar de forma externa con las estructuras de relaciones cerradas de los internos. Pero rápidamente, se dio cuenta de que aquello no funcionaba y comenzó a pensar en un proyecto más global. La idea era utilizar “los vínculos externos del Enquire con hipertexto y los esquemas de interconexión que había desarrollado para el RPC” 18, desde un sistema descentralizado y fácil de utilizar. Cada nodo tendría una dirección de referencia y todos existirían en el mismo espacio no jerarquizado, un espacio que denominó “espacio de la información” 19. Mike Sendall, su jefe en el CERN, le aconsejó que si quería que aquello saliese adelante tendría que presentar una propuesta. Y fue entonces cuando se puso manos a la obra. Para que su idea cuajara necesitaba una red para comunicarse indirectamente, y ahí estaba Internet, que funcionaba desde los setenta y que en los 80 conectaba, en EEUU, muchas Universidades. Una gran red de redes, como Internet, era lo que necesitaba. Internet descomponía los datos en paquetes a través de dos protocolos: IP (Internet Protocol) y TCP (Transmission Control Protocol), el software los etiquetaba y después de ser enviados a otro terminal vía telefónica o por cable, eran descifrados por el software gracias a las etiquetas. El e-mail, también existía, pero la información enviada entre personas no tenía un espacio permanente para existir y al que poder acceder. Lo que Tim pretendía crear era un lugar el que permanecer. La odisea comenzó incorporando al RPC un código para que funcionase mediante IP/TCP y desarrollo un sistema de hot buttons (botones calientes) en forma de ayuda online del programa. En 1989 decidido a presentar la propuesta tenía presente como tenía que vender el proyecto en el CERN: “Podemos crear una base común para comunicación a la vez que permitimos a cada sistema mantener su individualidad. De eso se trata esta propuesta, y el hipertexto global es lo que les permitirá hacerlo. Lo único que tienen que hacer es fabricar una dirección para documento o pantalla que haya en sus sistemas, y el resto es fácil”. A finales de marzo de 1989 entregó la propuesta a Mike Sendall y lo volvió a hacer en 1990, ya que no había recibido respuesta. 18 19 Ibid, p.15 Ibid, p.16 20 Mientras siguió trabajando en el proyecto en un nuevo ordenador, el NeXT, y comenzó a pensar en un nombre. Mesh (“Malla”), Mine of Information (MOI“Mina de Información”) y The Information Mine, fueron denominaciones que le pasaron por la cabeza, pero finalmente acabó llamándolo World Wide Web (en una traducción no demasiado exacta, “Telearaña de alcance mundial”), porque prometía un sistema potencialmente global. Capítulo 3: info.cern.ch (págs.23-31) Robert Calliu, fue de los pocos convencidos en el CERN acerca de la WWW, y ayudó a TimBL a rehacer la propuesta para que tuviese más efecto. Acudieron a la Conferencia Europea sobre Tecnologías de Hipertexto (ECHT) pero no tuvieron demasiada suerte. Tim estaba buscando un mundo cambiante de hipertextos en páginas en continuo movimiento. Una filosofía que tampoco consiguió el apoyo de la empresa Electronic Book Technology. Aunque en el CERN se mantenía el credo de “Compra, no fabriques”, TimBL no contaba con la ayuda para poder comprar nada y tuvo que fabricarlo el mismo. Escribió, en primera instancia, el cliente del Web, es decir, el programa para crear, navegar y editar páginas de hipertexto. Después, transformó el texto en hipertexto y creo el Protocolo de Transferencia de Hipertexto (HTTP), el lenguaje que los ordenadores usarían para comunicarse por internet, y el Identificador de Recursos Universal (URI), el esquema para direcciones de documentos. Así como el Lenguaje Markup de Hipertexto (HTML), que describe cómo formatear páginas que contengan vínculos de hipertexto. En segunsa instancia, escribió el primer servidor del Web: el software que contiene páginas web en una parte de un ordenador y permite a otros acceder a ellas; al que llamó “info.cern.ch”. Ya funcionaba, el siguiente paso fue crear la primera página Web, en esta se explicaba todo lo relativo al proyecto. Pero por el momento la WWW solo funcionaba en NeXT, se necesitaba un navegar muy básico para que pudiese funcionar en cualquier sistema operativo. Nicolla Pellow, una estudiante de matemáticas que por cuestiones de la vida estaba interna en el CERN, se puso a trabajar en ello. Mientras Tim hizo que la información que se transmitía por protocolo FTP (File Transfer Protocol) por Internet estuviese disponible también para la Web, y convenció a Brend Pollerman para convertir el viejo listín telefónico del CERN en 21 hipertexto. La World Wide Web comenzó a funcionar de forma primitiva en el núcleo del CERN, instalado, gracias al navegador básico (modo-línea 20) de Nicola, en muchos de sus ordenadores. Todavía faltaba lo mejor, que realmente la Web se volviese mundial. Tim parecía leer el futuro cuando pensaba que “si cualquier persona que estuviera en el Web pudiera hacer eso, entonces un único vínculo de hipertexto podría conducir a un enorme mundo sin límites.” 21. Capítulo 4: Protocolos (págs. 33-48) “(…) los ordenadores no se comunicaban unos con otros. La existencia del Web marcaría el fin de una era de frustración.” 22, ansioso Tim tuvo que definir las pocas reglas básicas y comunes del “protocolo” que permitiría a un ordenador hablar con otro. Para que la Web funcionase eras necesarios (en orden decreciente de importancia) los identificadores de recursos universales (URI’s), el Protocolo de Transferencia de Hipertexto (HTTP) y el Lenguaje Markup de Hipertexto (HTML). La Web, desde sus orígenes, nunca fue un lugar físico ni un objeto u organización que controlaba absolutamente nada. La Web siempre fue un espacio virtual donde la información podía coexistir. Frente a otros protocolos como el FTP, para archivos, y el NNT, para network news, el HTTP era un protocolo sencillo con la única función de leer hipertexto en páginas web lo más rápido posible (el objetivo era una décima de segundo aproximadamente). La clave de la Web de Tim era (y es) la dirección URI, con esta dirección cualquier cosa puede ser enviado a un servidor y encontrado por un navegador. La URI incorpora toda la información necesaria para que el sistema funcione: antes de las dos barras se sitúa el protocolo de comunicaciones que usa el servidor (HTTP, FTP o cualquier otro), después la dirección de la página (el servidor), y tras la barra simple cualquier documento específico de éste. En Mayo de 1991, tras muchos intentos porque la WWW fuera aceptada dentro y fuera del CERN, Louise Addis, bibliotecaria del Centro del Acelerador Lineal Standford (SLAC) tutelada por Paul Kunz puso en marcha el primer servidor 20 Ibid, p.28. Navegador “Modo-línea”, recibió este nombre como símil de lo simple que debería ser dicho navegador. El símil estaba justificado porque los teletipos y los primeros terminales de ordenador operaban mostrando una línea de texto de cada vez. 21 Ibid, p.31 22 Ibid, p.33 22 Web fuera de Europa. A partir de entonces, Robert Calliu y TimBL intensificaron la promoción dentro del CERN. Hasta el momento la WWW para NeXT, el navegador modo-línea y el servidor básico para cualquier ordenador, seguían sin ser suficientes para que el CERN reaccionase, así que TimBL tomó la importante decisión de hacer público en varios grupos de noticias de internet su sistema. Entre estos grupos, el más importante era alt.hypertext y los emails empezaron a llegar con dudas y comentarios sobre el servidor web. Con toda esta información que Tim recibía a su email fue completando el info.cern.ch convirtiéndolo en un directorio de páginas web conectadas por hipervínculos. Meses más tardes, la comunidad de NeXT y de hipertexto creció hasta el punto de necesitar un grupo de noticias que compartiesen información exclusiva de la Web. De esta forma se puso en marcha comp.infosystems.www. Otro pequeño paso para aumentar la difusión de la Web se dio cuando Tim abrió un servidor vía Telnet público en info.cern.ch. Telnet era un protocolo que ya existía, funcionaba en Internet y permitía a cualquier persona que se registrase en info.cern.ch vía Telnet acceder directamente al navegador modo-línea. La WWW continuaba creciendo. Nicola fue sustituida en el trío por Jean-François Groff, y llevó a cabo, junto a Tim, la transformación del lenguaje objective-C en lenguaje C que, aunque menos potente, era más común. Cuando Jean-François terminó su período de voluntario tuvo que abandonar el CERN, debido a políticas internas, y montó la primera consultoría de diseño Web (infodesign.ch) en Ginebra. En octubre del 91 continuaban los esfuerzos por hacer arrancar la Web, Robert y Tim instalaron dos “pasarelas” (gateways) a dos populares servicios de Internet: una al sistema de ayuda en línea del sistema operativo VAX/VMS de Digital, y otra al WAIS de Brewster Khale para bases de datos. Y también se puso en marcha una lista de correo en línea, como si de un foro se tratase para la creciente comunidad Web: [email protected] En el empeño por llegar a la comunidad del hipertexto viajaron a EEUU. La presentación en Hypertext 91 de San Antonio fue una auténtica odisea pero consiguieron demostrar el navegador modo-línea y dos años más tarde todos los proyectos que se presentaron a la conferencia tendrían algo que ver con la Web. 23 Capítulo 5: Globalización (págs. 49-61) Para normalizar por separado cada una de las tres especificaciones fundamentales de la Red: las direcciones URI, el protocolo HTTP y el lenguaje HTML; Tim decidió crear un grupo de trabajo en la Internet Engineerin Task Force (IETF- “Destacamento de Ingeniería de Internet”). Para que la Web creciese, se necesitaban clientes PC, Macintosh y Unix. Y para ellos se necesitaba un navegador. En 1992, desde la Universidad de Tecnología de Helsinki apareció un proyecto de doctorado muy interesante, era un navegador para Unix que utilizara X-Windows, denominado Otherwise, pero simplemente se quedó en eso, un proyecto. Otro estudiante, esta vez de la Universidad de Berkeley, también creó un navegador de señalar-cliquear para Unix, denominado Viola. El navegador Web recibió el nombre de ViolaWWW y marcó un temprano estándar de navegación y consulta para aquellos terminales que utilizaban Unix. La Web que Tim había ideado se difuminaba: la “(…) Web que yo había diseñado para que fuese un medio de toda clase de información, desde lo muy local hasta lo muy global, creció decididamente en dirección de lo muy global, y también como medio de publicación, pero menos como medio de colaboración” 23. Pronto numerosas empresas utilizaron la Web para uso interno e inventarían el término intranet. Mientras Robert comenzó a diseñar un navegar para Macintosh con la ayuda de Nicola al que llamaron Samba. Se trajo además, a Henrik Frystyk Nielsen y Ari Luotonen para que trabajasen en el sistema. Lo mejoraron y “productivizaron” los esfuerzos de todo el equipo. En esta época (1992) apareció el primero de los muchos servidores de mapas web que estaban por llegar: el servidor Steve Putz de Xerox PARC. Ese verano Tim se tomó una largas vacaciones (un “extenso viaje de obligaciones” 24) y fue entonces cuando, tras varias reuniones y discusiones con el grupo de IETF, el término UDI/URI (Identificador Universal de Documentos, Identificador Universal de Recursos) se modificó, para pasar a ser denominado URL (Localizador Uniforme de Recursos). Localizador en vez de identificador, ya que las URIs podían ser cambiadas constantemente; documentos por recursos, porque en la web podían encontrarse muchas cosas más que simples 23 24 Ibid, p.53 Ibid, p.56 24 “documentos”; y uniforme por universal, ya que era demasiado pretencioso hablar de algo “universal”. Mientras Erwise y ViolaWWW competían como navegadores para el sistema XWindows en Unix, Tony Johnson, del SLAC, presentó otro navegador para X llamado Midas. El viaje de Tim del verano del 92 terminó con la visita a Ted Nelson que había inventado Xanadu hacía veinticinco años. Capítulo 6: Navegando (págs. 64-69) En Enero de 1993 el número de servidores crecía al mismo tiempo que los nuevos navegadores. Erwise, ViolaWWW, Midas y Samba seguían funcionando, pero apareció el Arena 25, el Lynx 2.0. 26, el Cello 27 y el Mosaic, y la competitividad entre todos ellos aumentó. El Arena era un navegador que abogaba por utilizar el HTML para efectos visuales y gráficos; el Lynx 2.0., por su parte adaptaba a la web el Lynx original, un navegador “modo-pantalla” que permitía navegar hacia delante y atrás en un mismo documento; mientras que Mosaic llegó a ser el más completo. Mosaic (1993) fue creado por Marc Andreessen y Eric Bina, provenientes del Centro Nacional de Aplicaciones Superinformáticas (NCSA) de la Universidad del Illinois. Era fácil de descargar e instalar y su filosofía era que lo utilizase el mayor número de gente posible, esto lo convirtió en el navegador por excelencia para las personas menos familiarizadas con Internet y la Web. Hasta el momento era el navegador con mayor repercusión social y mediática, la NCSA pretendía que Mosaic “se comiese” a la Web, y TimBL estaba preocupado por ello. Este mismo año la Universidad de Minnesota decidió privatizar el software del servidor Ghoper. Esta decisión trajo consecuencias decisivas para el mundo de la Web e Internet: la industria abandonó Ghoper y comenzó la lucha por la liberalización o la privatización de determinados softwares. TimBL había pedido que la WWW tuviese una Licencia Pública General (PGL) 28, pero ante el panorama naciente el CERN y el propio creador de la Web decidieron no atarla, “permitir a todo el mundo el uso del protocolo y el código web gratuitamente, 25 Ibid, p. 63, Creado por Dave Raggett, de Hewlett-Packard en Brisol. Ibid, p. 64. Creado por Lou Montulli en Marzo de 1993, a partir del navegador de hipertexto Lynx, de la Universidad de Kansas. 27 Ibid, p. 65. Creado por Tome Bruce, Instituto de Información Legal en la Universidad de Cornell. 28 Ibid, p. 69. Creada por Richard Stallman para su Free Software Foundation (FSF). 26 25 crear un servidor o un navegador, repartirlo o venderlo, sin ningún royalty ni otras cargas”. 29 Capítulo 7: Cambios. (págs. 71-84) La proporción de visitas de visitas al servidor info.cern.ch seguía creciendo. De 10 visitas al día en el verano de 1991, a 1.000 en el de 1992 y 10.000 al año siguiente. La Web aumentaba y la NCSA ponía en circulación el Mosaic para Unix, Windows y Mac. La reunión que organizó Dale Dougherty (de O’Reilly Associates) con unas veinticinco personas importantes en el desarrollo de la Web desde sus inicios, en la que se habló de grupo, asociación, consorcio, y en definitiva, del futuro. El Digital Equipment Corporation buscando un organismo que vigilase a la Web. Y la Webcore 30 del CERN, la Comisión Europea y el Fraunhofer Gesellschaft. Sirvieron para que TimBL se diera cuenta de que un consorcio era necesario para ayudar a todas las partes a trabajar conjuntamente, evitar que alguna empresa intentara controlarlo todo o incluso privatizarlo, y ver las cosas desde una situación neutral. En 1994 O’Reilly Associates llevó Internet y la Web a los hogares con “Internet en una caja”: “El producto de O’Reilly lo reunía todo. Lo único que tenía que hacer el usuario era instalarlo en su ordenador y pagas las tarifas telefónicas por su conexión a Internet.” 31. Pero pronto sería desbancado por las compañías locales de telefonía, que comenzaron a proporcionar también el software necesario. Mientras Navisoft Inc. puso en marcha un navegador/editor para PC y Mac, que se conoció como Navipress. Las personas podían ahora navegar y editar en HTML al mismo tiempo, sin necesidad de otros programas o descargas innecesarias. En paralelo Marc Andreessen se unió a Enterprise Integration Technology (EIT), se asoció con Jim Clark (un hombre de negocios) y juntos fundaron Mosaic Communication Corp. Rápidamente contrataron a Lou Montulli (de Lynx), al equipo principal del Mosaic y comenzaron a comercializar un nuevo navegador: Netscape 32. 29 Ibid, p.69. Ibid, p.74. Webcore: El primer proyecto basado en la UE para difundir información tecnológica a través de los países del antiguo bloque soviético en Europa. 31 Ibid, p.76. 32 Ibid, p.77. 30 26 La Conferencia de Mayo de 1994 en el CERN acerca de la World Wide Web fue decisiva para plantearse, definitiva la creación de un consorcio: el CERN y el MIT fueron los fundadores. Mike Sendall, Robert Cailliau se unieron a François Fluckiger y dirigirían el consorcio desde el CERN. TimBL lo haría desde el MIT: “Abandoné Ginebra para ir al MIT. A América. Al Consorcio del World Wide Web. Y a un nuevo papel como contribuyente a la evolución del Web” 33. Capítulo 8: Consorcio (págs. 85-96) En Abril de 1994 Bill Gates decidió que la versión de Windows 95 de Microsoft incluiría un software para acceder a Internet. Mosaic Communication se cambió el nombre porque el NCSA les impedía continuar usando su nombre comercial (Mosaic). Tim y compañía decidieron bautizar al Consorcio con el nombre de World Wide Web Consortium, resumiendo, W3C 34. Cualquier organización; comercial, educativa o gubernamental, fuese lucrativa o no, podía pertenecer al W3C. La única restricción era la cuota de 50.000$ para miembros de pleno derecho y de 5.000$ para miembros afiliados. El propósito principal era “conducir a la WWW a lo más alto” 35. Y las funciones eran desarrollar especificaciones técnicas abiertas; permanecer en el puesto más alto que controlase a millones de empresas, investigadores e usuarios; y apoyar las innovaciones en tecnología de la información. Un nuevo servidor del creador de la Web se hizo espacio en la red, http://www.w3.org, mientras que el CERN continuaba con el clásico info.cern.ch. TimBL narra en su libro que, en diciembre de 1994, “en tres cortos días, tuvieron lugar grandes acontecimientos que alterarían para siempre el futuro del Web: los miembros del Consorcio se reunieron por primera vez; Netscape lanzó la versión comercial de su navegar; y el CERN decidió después de todo no hospedar la página W3C en su servidor.” 36. 33 Ibid, p.83 Ibid, p.87 35 Ibid, p.88 36 Ibid, p.91. El nuevo navegador de Netscape se llamó Navigator 1.0. 34 27 Capítulo 9: Competitividad y Consenso (págs. 98-114) Windows 95 de Microsoft apareció y causó una gran controversia entre el mundo comercial de software. Quiso comprar Netscape para utilizarlo como navegar de su SO (sistema operativo), pero la propuesta fracasó. La compañía Compaq comenzó a comercializar el primer navegador que acompañaba al hardware: el Navigator. Por su parte, Sun Microsystems introdujo un nuevo lenguaje de programación denominado Java para crear programas de aplicaciones que se conocieron como applets, estos podían enviarse entre ordenadores mediante Internet y funcionaban en las páginas web, pero algún caso se necesitaba cierta programación en el cliente. El Java era un lenguaje orientado hacia los objetos, una técnica más potente que el HTML de la WWW. Rápidamente Nestcape se dio cuenta de su importancia, compró Java y lo incorporó a la nueva versión de Navigator. AOL (America Online) compró Navisoft, la empresa que había creado el único navegar/editor del mercado (Navipress) y le cambió de nombre: AOLpress. Mientras, Netscape tomó una decisión que cambiaría su rumbo, y las finanzas de las empresas de la Red, para siempre. Decidió hacerse pública, se lanzó en bolsa y los resultados fueron espectaculares, la IPO (“Oferta Pública Inicial”) que consiguió fue la más alta de la historia. Significó un vuelco comercial para la web y se popularizó que internet y la WWW era un gran negocio. Bill Gates se lo tomó como una guerra personal y anunció que su compañía iba a “abarcar y extender”. Con “abarcar” se refería a compatibilizar su software con el resto de software web y con “extender”, que una vez alcanzase su cuota de mercado se encargaría de hacer que los sistemas de otros pareciesen incompatibles. El consorcio W3C comenzó a definirse cada vez más, atendía a cuestiones políticas, sociales pero también tecnológicas y, sobre todo, empresariales. Las decisiones se tomaban teniendo en cuenta la opinión de todos los miembros, se consolidó como foro de discusión y difusor de propuestas de recomendación. Llegó 1996 y con él cambios en cuanto a navegadores. El Navigator 2.0. (de Netscape) incluía un email fácil de usar y aplicaciones Java. Microsoft se asoció con AOL y AOLpress murió. 28 Fue entonces cuando surgió un problema gravísimo para la web, el W3C, la comunidad web, y en definitiva para la sociedad en general. La pornografía en Internet que podía ser accesible para niños y adolescentes provocó que los EEUU quisiesen censurar la red. El Acta de Decencia de la Comunicación se aprobó ante un tribunal pero fue recurrida por grupos pro-derechos civiles y finalmente se rechazó por anticonstitucional. El Consorcio optó por presentar una solución: la Plataforma para la Selección de Contenidos en Internet (PICS). Con este sistema los padres podrían ejecutar una selección de páginas nocivas y la Web seguiría siendo libre. Compañías de Japón y la zona del Pacífico formaban un amplio número dentro del consorcio y fue necesario crear una Sede en la Universidad de Keio (Japón). Mientras la industria web crecía y creía. El consorcio luchaba para una mejora del lenguaje HTML y por las páginas multimedia. Con este objetivo dentro del consorcio Dave Raggett utilizaba el navegador Arena con figuras insertadas, Marc Andreessen utiliza imágenes en Mosaic y Hakon Lie diferentes estilos, fuentes y formateos. Windows 98 vino acompañado inseparablemente de Explorer 4.0, y caminaba en el límite de la ley debido al decreto de acuerdo que prohibía la integración de productos -por posible violación de las leyes antimonopolio-. Netscape se convirtió en software libre, su código fuente se hacía completamente público, modificable por cualquier usuario. TimBL pensaba con respecto a esta situación que “Microsoft era más grande que Netscape, pero Netscape esperaba que la comunidad web fuese más grande que Microsoft.” 37 El consorcio desarrolló su propio conjunto de herramientas web: código Amaya, servidor Apache y servidor de fuente abierta Jigsaw, completamente públicos. Ya que en la propia constitución del consorcio se estipula que “todo el software que produce apoyo a su trabajo será disponible al público” 38. 37 38 Ibid, p.111 Ibid, p.114 29 Capítulo 10: Una red de gente (págs. 115-132) Tim en este capítulo hace una mención más que especial a las repercusiones sociales de la Web. Específicamente Tim defiende que la creación y diseño de la Web tiene una raíz muy profunda en su aspecto social. La Web nació para trabajar en grupos de personas y no como un juguete técnico. Pero no se puede negar que la tecnología afecta a la sociedad y con el paso de los años cada vez más. En cuanto al propósito generalizado por parte de las empresas, los gobiernos y la propia sociedad de querer “controlar” la Web, Tim BL asegura que son cuestiones de trasfondo que viven detrás de un tema mucho más importante, que es definitiva la propia “telaraña”. “Los éxitos de las empresas y el triunfo de las organizaciones no son importantes para nuestro futuro como usuarios web tanto como las cuestiones fundamentales sociotécnicas que pueden construir o destruir el Web”. 39 Sin duda al hablar de Web es imprescindible hablar también de grupo, de equipo y de confianza. Pero cuanto mayor es el grupo la cuestión de confianza decae; y la Web es un grupo de muchos grupos interconectados entre sí con otros grupos (y así sucesivamente…) y esto repercute en la confianza. Una tecnología eficiente en este campo es la criptografía de clave pública (PKC), un sistema que permite codificar información y utilizar una clave para descodificarla. Paralelamente Tim también hace un punto y aparte en este capítulo para hablar de los “dominios”. Y con ello me refiero a que plasma tanto el problema de la “dominación” de ciertos grupos con ciertas cosas y también los propios dominios (en lenguaje informático) como la fiebre del oro de .com. IANA (Autoridad de Números Asignados de Internet) era un organismo que se encargó durante la expansión de Internet de la delegación de nombre de dominio consiguiendo que esta fuera justa, imparcial y lo más libre de ataduras posible. El dominio era para el que primero llegase, pero con la muerte de John Postel (creador y director) en 1998, EEUU decidió privatizar el organismo y la lucha por nombres de dominio cortos y reconocibles estalló. TimBL también habla de las cuatro capas que componen la estructura de la tecnología de la red: los medios de transmisión, el hardware del ordenador, el 39 Ibid, p.116 30 software y la Web (el contenido). “El medio de transmisión conecta el hardware en el escritorio de una persona, el software hace funcionar el acceso al web y los sitios web, mientras que el propio web es sólo el contenido informativo que existe gracias a las otras tres capas”. 40 Muchas compañías han jugado a tener más poder en alguna de estas capas, como los acuerdos de empresas de líneas telefónica y TV, o los proveedores de contenidos. Pero verdadero problema de monopolización se daría si las fusiones y ampliaciones de empresa se diesen en sentido vertical en algunas de las capas. Por último destaca la importancia el hipertexto (unidad básica de la construcción de la Web) y el “derecho a vincular”. Tras explicar las diferencias básicas entre vínculos “normales” y vínculos “incorporados” adjunta su propia valoración sobre tres mitos importantes con respecto a los hipervínculos y el discurso libre. En contra a las personas que defienden que el hipertexto infringe el copyright de otra obra al ser citada, afirma que la capacidad de cita es derecho fundamental del libre discurso. Frente a los que opinan que se debería pagar al autor de la página u obra citada por referenciarla y hacer, implícitamente, que tu obra aumente de valor; defiende que la gente que cita mediante hipertexto no está robando absolutamente nada ya que el hipertexto les conduce a otra página, la del propio autor. Y por último defiende la privacidad por medio de autorizaciones si uno no quiere que le referencien o hagan público (o más público) su contenido. Capítulo 11: Privacidad (págs. 133-144) El usuario de la Web debe contar con apoyo (técnico) para poder tener confianza en la misma. En la Web todo queda registrado, las Cookies es un código que muchas empresas utilizan para rastrear lo que un usuario concreto navega, favorece en algunos casos a la propia persona pero en muchos otros atenta contra su privacidad. El anonimato y la identidad bien definida son dos polo opuestos pero ninguno de los dos se da al cien por cien en la Web. El consorcio W3C lucha por conseguir llevar adelante el Proyecto de Plataforma por las Preferencias en Privacidad (P3P) para que cualquier propietario de un 40 Ibid, p.121 31 ordenador pueda definir sus exigencias y que nadie las pudiese perturbar sin su consentimiento. La criptografía de clave pública (PKC) ofrece conseguir cuatro aspectos básicos de seguridad: autenticidad, confidencialidad, integridad de mensajes y honorabilidad. La calve pública de cualquier ordenador se puede cifrar para que sólo acceda a su contenido las personas que sepan una clave privada asociada a la pública. Un ejemplo es la Secure Stockets Layer, que se puede visualizar en la URL de un navegador ya que comienza por el “prefijo” https://. ¿Cuál es el problema? Que estos sistemas de encriptación sirven para la seguridad de comunicación entre personas y contenidos privados pero no para asegurar que un servidor es quien dice que es. Para esto se utiliza lo que se denomina firma digital y que el W3C proyecta que se utilice en todos los documentos para asegurar la autoría de los mismo. La principal razón por la que no se utilizan estos sistemas son los bloqueos gubernamentales por temor de no poder vigilar las conversaciones privadas y de esta forma vigilar posibles complots terroristas. El W3E aboga por una Web de Confianza, el sueño de la Web del futuro. Capítulo 12: Mente a mente (págs. 145-162) La Web Semántica, donde los ordenadores conectados a la red sean capaces de analizar todos los datos de la Web, sean contenidos, vínculos o transacciones entre personas y ordenadores; es la Web que TimBL había ideado en un principio. Ahora, sigue pensando que será la filosofía de la Web del futuro. La primera cuestión que no escapa al concepto de Web Semántica es la independencia de localización. Es decir, que la tecnología sea lo más transparente posible para que el usuario pueda interactuar con la información sin estar atado a ciertas herramientas para acceder a ella. El lenguaje Web del futuro será el XML, donde la información queda mejor definida y se convierte en “extensible”. Un lenguaje nuevo que no sustituye al HTML sino al SGML, sobre el que estaba construido el HTML. El XHTML es la conjugación de los dos lenguajes contemporáneos de navegación. La Web ha sufrido durante todos los años 90 y principios del siglo XXI grandes cambios en su apariencia. Ahora es el momento de que todo siga creciendo como con el uso de imágenes Scalable Vector Graphics, basada en XML; el 32 Vistual Reality Modeling Language (VRML) para tridimensionalidad; o el Synchronized Multimedia Integration Language (SMIL) destinado a la integración de contenidos hipermediales. La creación de herramientas que le hagan todavía más fácil a las personas la creación de páginas mediante HTML llegó a su culmen con los CSS (Cascading Style Sheets), hojas de estilo para transformar objetos sencillos y texto en HTML o XML. Capítulo 13: Las máquinas y el Web (págs. 163-185) TimBL insiste en que el primer paso para comenzar a crear la Web Semántica es colocar datos “entendibles” por las máquinas dentro de la Web y que ellas crearán la “magia”. Basándose en la idea de Metadatos el Consorcio W3C está desarrollando un lenguaje nuevo denominado RDF (Resource Description Framework), que añade al XML información acerca de los datos y sus relaciones, dejando todo el razonamiento expuesto y permitiendo ser modificado cuando las relaciones hayan cambiado o los documentos se hayan metamorfoseado. TimBL pronostica que la máquina se volverá inteligente en la Web. Que los ordenadores aprenderán a describir, luego a suponer y finalmente a razonar, mediante lenguajes de deducción que se lo expliquen. El campo de la representación del conocimiento aglutina varios proyectos que han intentado almacenar significados interrelacionados en un ordenador y ahora es el momento de que la Web conozca “personalmente” a todo aquello que contiene. Capítulo 14: Tejiendo la Red (págs. 186-195) “¿Podrá el futuro Web cambiar el modo en que la gente trabaja junta (…)? ¿Puede usarse para cambiar el mundo?(…)” 41. TimBL deja, en este último capítulo, sobre todo, una perspectiva optimista en cuanto al futuro de la Web. No duda que la Web semántica salga adelante y triunfe, al igual que lo hizo la World Wide Web, será un cambio lento pero la Web se perfeccionará, la tecnología le ayudará a crecer y mejorar para servir las necesidades e inquietudes del hombre. 41 Ibid, p.185 33 6. Conclusiones La frase “renovarse o morir” es lo que mejor define el día en el que vivimos. Las nuevas tecnologías no sólo nos facilitan la vida sino que son utilizadas por todos nosotros como recursos de primera necesidad. Occidente no puede separarse de los móviles de alta tecnología, Ipods y reproductores mp3, ordenadores portátiles, cámaras de fotos y video digital, e Internet. Muchas personas no pueden ni siquiera pasar varios días sin conectarse a la red, mirar su email y visitar sus páginas personales o comerciales favoritas. La Web ha conseguido que Internet haya llegado al usuario medio, a todas nuestras casas, a todos nuestros amigos y que ahora todos podamos navegar fácilmente, sin conocimientos previos sobre programación por ejemplo. Entenderla, amarla, pero sobre todo, utilizarla y explotarla. ¿A quién? A la Web. Estos son los sentimientos que Tejiendo la Red inculca a quien la lee. Tim se convierte en esta obra en un autobiografista, “auto” de si mismo y “auto” también de una porción de su mente que se viene conociendo mundialmente como World Wide Web. Retrata el pasado, presente y futuro de la Web y expresa su opinión sobre la (no)confianza, la censura, la privacidad y el poder en la red por excelencia. No solo es un libro detallado de la historia de la Web, es una obra que posee muchos rasgos personales que el autor ha dejado ver conscientemente. Sin duda sorprende como uno de los mayores inventores de la historia, que ha conseguido cambiar la condición de la vida moderna de una forma tan desmesurada, se pare a detallar ejemplos cotidianos para relacionarlos con conceptos tecno-sociológicos muy complejos. Este detalle, en mi sincera opinión, es el mayor hándicap de Tejiendo la Red. Es decir, poder leer cómo una celebridad te explica a ti, cómo lo hizo, con quién contó, qué pudo conseguir y qué no, y cuál es su opinión sobre todos estos acontecimientos. Dejando de lado los conceptos que se hayan podido conocer o entender mejor tras esta lectura y análisis de Tejiendo la Red. Este trabajo de recerca a significado una amplitud de mente y una reflexión de lo que la Web ha llegado conseguir en un periodo tan corto de vida. Vale la pena viajar por la mente del creador de aquello que no existe en ningún lugar físico, construido para y por nosotros y que continúa creciendo sin límites. 34 BIBLIOGRAFÍA y webgrafía BERNERS-LEE, Tim (1999). Tejiendo la Red. El inventor del World Wide Web nos descubre su origen. Madrid: Siglo XXI de España Editores. CARRETERO, Jesús (2001). Sistemas operativos: una visión aplicada. Madrid: McGraw-Hill. - ADELL, Jordi. BELLVER, Carles. Internet como Telearaña: el Word Wide Web. Universitat Jaume I. Castell. <http://www.uv.es/biblios/mei3/Web022.html> [en [publicación: línea] 2004]. [consulta: 17/01/2010]. - DE VICENTE, Jose Luis. Los personajes del navegante. Científico: Inventor de la World Wide Web. Tim Berners-Lee. [en línea] <http://www.elmundo.es/navegante/personajes/bernerslee.html> [Consulta: 17/01/2009]. - LAMARCA, María Jesús. Hipertexto, el nuevo concepto de documento en la cultura de la imagen. Hipermedia/Multimedia. Tesis doctoral. Universidad Complutense de Madrid. [en línea] <http://www.hipertexto.info/documentos/hipermedia.htm> [actualización: 10/12/2009]. [consulta: 03/01/2010]. - W3C. ¿Qué es el Consorcio World Wide Web (W3C)? [en línea] <http://www.w3c.es/Consorcio.html> [consulta: 19/01/10]. 35