TRABAJO TEÓRICO INDIVIDUAL REFERENTE AL MEDIO DIGITAL

Anuncio
PRODUCCIÓN Y DIRECCIÓN MULTIMEDIA
COMUNICACIÓN AUDIOVISUAL – UVIC 2009/2010
TRABAJO TEÓRICO
INDIVIDUAL
REFERENTE AL
MEDIO DIGITAL
Tema:
HIPERMEDIA, MULTIMEDIA, SISTEMAS
OPERATIVOS Y LA CREACIÓN DE LA
WWW.
Personaje:
EL CREADOR DE LAS 3W :
TIM BERNERS-LEE
Reseña:
BERNERS-LEE, Tim (1999). Tejiendo la
Red . El inventor del
W orld
W ide
W eb nos descubre su origen . Madrid:
Siglo XXI
de España Editores.
MYRIAM FIGUEIRA BLANCO
MYRIAM FIGUEIRA BLANCO
ÍNDICE
Págs.
1. El creador de las 3WWW .......................................................................... 1
2. Desarrollo del tema ................................................................................. 3
2.1 Multimedia e hipermedia ......................................................... 3
2.2 Sistemas Operativos ................................................................ 5
2.3 El nacimiento y desarrollo de la WWW ...................................... 8
3. Conceptos Clave .................................................................................... 11
3.1 Internet............................................................................... 11
3.2 Funcionamiento de la Web
HTML y TCP/IP ........................................................................... 11
3.3 W3C..................................................................................... 14
4. Tejiendo la Red ..................................................................................... 16
5. Reseña (Resumen y citas de la obra) ...................................................... 18
6. Conclusiones ......................................................................................... 34
Bibliografía ............................................................................................... 35
1.
EL CREADOR DE LAS 3W
Antes de 1990, Internet no era lo que hoy conocemos. Encontrar una
información específica era prácticamente imposible, miles de espacios
inconexos aparecían desplegados por la red sin apenas formas de encontrarlos
si el internauta no tenía conocimiento previo de ellos. La World Wide Web
apareció de la mano de Tim Berners-Lee para mejorar la red en un tanto por
cien elevadísimo. Combinó dos tecnologías ya existentes: el hipertexto y el
protocolo de comunicaciones de Internet; para crear un nuevo modelo de
acceso a la información intuitivo e igualitario.
Timothy "Tim" John Berners-Lee (TimBL o TBL) nació el 8 de junio de 1955 en
Londres (Reino Unido) se licenció en Física en 1976 en el Queen's College de la
Universidad de Oxford. Y actualmente es conocido por ser el creador de la
World Wide Web y todo lo que hace posible que funcione: el lenguaje HTML
(HyperText Markup Language) o lenguaje de etiquetas de hipertexto; el
protocolo HTTP (HyperText Transfer Protocol), y el sistema de localización de
objetos en la web URL (Uniform Resource Locator).
Sus padres eran matemáticos y formaron parte del equipo que construyó el
Manchester Mark I (uno de los primeros ordenadores) en la Universidad de
Manchester en 1949.
Estudió en el Sheen Mount Primary School y en el
Emanuel School (Wandsworth) hasta que entró en el Queen's College de la
Universidad de Oxford, durante sus estudios universitarios construyó un
ordenador con una soldadora de hierro, circuitos TTL, un procesador Motorola
68000 y una televisión vieja.
Después de trabajar en Plessey Telecommunications Limited (Poole) y en D.G.
Nash Limited como programador de software a finales de los setenta, en 1980
entró en el CERN 1 y propuso un proyecto basado en el hipertexto para facilitar
la forma de compartir y actualizar información entre investigadores. En este
periodo también construyó un programa llamado Enquire que nunca llegó a ver
la luz, pero que sentó las bases para una red mundial de interconexión que,
más tarde, vendría a llamarse la WWW. Casi una década de esfuerzo y muchos
proyectos fueron necesarios para que su iniciativa viera la luz. En Marzo de
1
Conseil Euripéen por la Recherde Nucléaire. El Laboratorio Europeo de Física de Partículas en Ginebra,
actualmente.
1
1989 Tim vio la oportunidad de unir Internet y el hipertexto (HTTP y HTML) y
desarrolló su primera propuesta de la Web. En 1990, con la ayuda de Robert
Cailliau llevó a cabo una revisión que fue aceptada por su gerente, Mike
Sendall. Diseñó y construyó el primer navegador (llamado WorldWideWeb y
desarrollado con NEXTSTEP) y el primer servidor Web al que llamó HTTPD
(HyperText Transfer Protocol Daemon).
El primer servidor Web fue puesto en línea el 6 de agosto de 1991 desde el
CERN. Esto proporcionó una explicación sobre lo que era el World Wide Web,
como uno podría tener un navegador y cómo establecer un servidor Web. Este
fue también el primer directorio Web del mundo, ya que Berners-Lee mantuvo
una lista de otros sitios Web aparte del suyo. Desde entonces la Web no ha
parado de crecer a pasos agigantados y de forma desmesurada.
En 1994 entró en el Laboratorio de Ciencias de la Computación e Inteligencia
Artificial del Massachusetts Institute of Technology. Se trasladó a EE.UU. y puso
en marcha el W3C, que dirige actualmente.
Recibió el prestigioso MacArthur Felloship en 1998. Y en 2002
el Premio
Príncipe de Asturias (compartió este premio con Lawrence Roberts, Robert
Kahn y Vinton Cerf) en la categoría de investigación científica y técnica.
También en 2002, el público británico consideró que se encontraba entre los
100 británicos más importantes de todos los tiempos en una encuesta realizada
por la BBC. El 15 de abril de 2004 se convirtió en el primer ganador del Premio
de Tecnología del Milenio por la World Wide Web. Recibió el rango de Knight
Commander (el segundo más alto en la Orden del Imperio británico) de la
Reina Isabel II el 16 de julio de 2004. Y en mayo de 2006 fue nombrado
miembro honorífico de la Royal Society of Arts.
2
2. DESARROLLO
DEL TEMA
2.1 Multimedia e Hipermedia
2.2 Sistemas Operativos.
2.3 Nacimiento y desarrollo de WWW
2.1
MULTIMEDIA E HIPERMEDIA
El Diccionario de la La Real Academia Española define el término “multimedia”
de la siguiente forma: “multimedia. (Del ingl. multimedia). adj. Que utiliza
conjunta y simultáneamente diversos medios, como imágenes, sonidos y texto,
en la transmisión de una información” 2.
Pero su significado no está tan claro como parece a primera vista. El término
multimedia todavía no está lo suficientemente bien definido y sus límites no
están claros. Se suele decir que “multimedia” es la combinación o utilización de
dos o más medios en una misma obra, sin necesidad de que alguna de estos
medios sea digital (o informático). Pero “multimedia” se ha ido generalizando
para referirse a la informática y al mundo digital, más todavía desde la entrada
en el siglo XXI.
Si a finales de la década de los 70, multimedia era la integración de voz, texto,
datos y gráficos, en los 90 a estos elementos se suman los gráficos interactivos,
las imágenes en movimiento, las secuencias de audio y vídeo, las imágenes en
tres dimensiones, la composición de documentos digitales y la realidad virtual.
En este panorama creciente de obras multimedia en las nuevas tecnologías,
como ya he dicho, el término se ha metamorfoseado y se relaciona
constantemente con lo digital, la red y los nuevos medios, en definitiva, con
bits. Xabier Berenguer, en su artículo Escribir programas interactivos, al igual
que Nicholas Negroponte, en su obra Un mundo digital, afirma que lo
2
Lamarca Lapuente, María Jesus. Hipertexto, el nuevo concepto de documento en la cultura de la imagen.
Hipermedia/Multimedia. Tesis doctoral. Universidad Complutense de Madrid. Fecha de actualización:
10/12/2009.
[Fecha
de
consulta:
03/01/2010].
http://www.hipertexto.info/documentos/hipermedia.htm
Disponible
en
Internet:
3
“multimedia” no es una combinación de medios sino de un único medio: lo
digital (bits de información).
Mutimedia e hipermedia, son dos conceptos diferentes, el último engloba al
primero. “Hipermedia es un nuevo medio. Es la síntesis de hipertexto
multimedial, que comparte usos y características tanto del hipertexto como del
multimedia, más una serie de propiedades que le son propias” 3.
La estructura de un hipermedia es la misma que la de un hipertexto, formado
por nodos que se conectan mediante enlaces. La única diferencia es que los
nodos contienen elementos de diferentes medios o morfologías. El usuario
puede, a través de recursos hipermediales, interactuar de manera más sencilla
y “amigable”, dentro de un soporte digital u on-line. La World Wide Web es el
máximo exponente de la interconexión (mediante hipertexto) de contenidos
hipermediales a través, también, de interfaces multimediales e hipermediales.
En resumidas cuentas, el “hipertexto” es texto en formato no secuencial,
compuesto de nodos y enlaces que los interconectan; “multimedia” es toda
aquella unión de diferentes medios o morfologías de la información, como
texto, gráficos, audio, vídeo, otros recursos audiovisuales, etc.; e “hipermedia”
es hipertexto aplicado a la multimedia.
Aunque existe una diferencia clara entre los conceptos, es frecuente utilizarlos
indistintamente. El término “hipertexto” se ha generalizado y se utiliza
indistintamente para referirse al hipertexto en sentido estricto como al
“hipertexto multimedial”, es decir, “hipermedia". Un ejemplo del uso indiferente
(y en este caso argumentación) de “hipertexto” e “hipermedia” es la definición
que realiza el World Web Consortium del “hipertexto multimedia” en Hypertext
Terms y lo define de la siguiente forma: "Hipermedia e hipertexto tienden a
usarse uno en lugar del otro. Media no es más que texto que incluye gráficos,
sonido y vídeo.” 4
3
4
Ibid.
Ibid.
4
2.2
SISTEMAS OPERATIVOS
Un sistema operativo es un programa que actúa como intermediario entre el
usuario y el hardware de un ordenador y su propósito es proporcionar un
entorno en el cual el usuario pueda ejecutar programas. El objetivo principal de
un sistema operativo es lograr que el sistema de computación se use de
manera cómoda, y el objetivo secundario es que el hardware del ordenador se
emplee de manera eficiente.
Un sistema operativo (SO) es un software especial, la base, la matriz de un
terminal. El SO despierta al ordenador y hace que reconozca a la CPU, la
memoria, el teclado, el sistema de vídeo y las unidades de disco. Cuando un
ordenador se enciende, lo primero que hace es llevar a cabo un autodiagnóstico
llamado Auto Prueba de Encendido (Power On Self Test, POST). Durante la
POST, la computadora identifica todo su hardware y busca un SO para arrancar
(boot).
Un sistema operativo es el programa que oculta la verdad del hardware y
presenta una interfaz simple orientada al archivo. La función del SO es la de
presentar al usuario con el equivalente de una máquina ampliada o máquina
virtual que sea más fácil de programar que el hardware implícito.
Es una parte importante de casi cualquier sistema de computación, junto con el
hardware,
los
programas
de
aplicación
y
los
usuarios.
Las funciones principales de los sistemas operativos son: aceptar todos los
trabajos y conservarlos hasta su finalización; interpretar comandos que
permiten al usuario comunicarse con el ordenador; controlar los recursos;
manejar los dispositivos de E/S (organiza los archivos en diversos dispositivos
de almacenamiento); llevar a cabo el manejo de errores; administrar la manera
en que se reparten los procesos y definir el orden; evitar que las acciones de un
usuario afecten el trabajo del hardware; y establecer el costo por utilizar
determinados recursos.
La primera era de los SSOO (Sistemas Operativos) llegó en 1945. Hasta 1950,
los primeros sistemas eran grandes máquinas operadas por programadores
5
especializados.
Durante
la
década
siguiente
(1950-1960)
los
avances
tecnológicos permitieron que el hardware mejorase, y a su vez el software, con
la creación de compiladores, ensambladores, cargadores y manejadores de
dispositivos.
Así llegaron, en los 60, los primeros Sistemas Operativos Multiprogramados,
que administraban la memoria, gestionaban el uso de la CPU y administraban el
uso de los dispositivos de E/S. Has que a mediados de los 60 aparece Multics
(Multiplexed Information and Computing Service), un sistema operativo
multiusuario/multitarea desarrollado por los laboratorios Bell de AT&T y Unix,
que se convirtió en uno de los pocos SSOO escritos en un lenguaje de alto
nivel. En 1969 lo abandonaron para comenzar a crear el sistema UNIX.
El problema principal es que el usuario debía conocer un complejo lenguaje de
control para realizar sus trabajos; ocupaban grandes espacios de memoria
principal y secundaria, así como tiempo de procesador consumido.
A finales de los 60 se comenzó a trabajar en la realización de un software
potente que permitiera al usuario interactuar con la máquina, pero de forma
sencilla e intuitiva.
MVS (Multiple Virtual Storage) fue el sistema operativo más usado en los
modelos de mainframes, desarrollado por IBM y lanzado al mercado por
primera vez en 1974. CP/M (Control Program/Monitor), desarrollado por Gary
Kildall para el microprocesador 8080/85 de Intel y el Zilog Z80, salió al mercado
en 1976, y fue el SO más usado en los PC de esta década.
Finalmente, tras casi diez años de trabajo en el campo de los SSOO, llegó la
revolución: un cambio muy significativo en la filosofía de la relación entre
usuario y tecnología. En la década de los 80, con la creación de los circuitos
LSI, empezó el auge de los ordenadores personales. En éstos se dejó un poco
de lado el rendimiento y se buscó que el sistema operativo fuera “amigable”,
surgiendo menús, e interfaces gráficas. Esto reducía la rapidez de las
aplicaciones, pero se volvían más prácticos y simples para los usuarios.
Un avance importante que se estableció a mediados de 1980 fue el desarrollo
de redes de PC que utilizaban sistemas operativos en red y sistemas operativos
distribuidos. MS-DOS (Micro Soft Disk Operating System), escrito por Microsoft
para IBM PC y otras computadoras que utilizaban la CPU Intel 8088 y sus
6
sucesores, y UNIX, que dominaba en los ordenadores personales que hacían
uso del Motorola 68000; fueron los sistemas predominantes.
En enero de 1984 Mac lazó oficialmente el ordenador Macintosh, que incluía su
sistema operativo Mac OS cuya características novedosas era una GUI (Graphic
User Interface) multitareas y el “mouse”. Provocó diferentes reacciones entre
los usuarios acostumbrados a la línea de comandos y algunos tachando el uso
del mouse como juguete.
Las innovaciones de Mac tuvieron rápida respuesta por parte de Windows que a
mediados de los 80 comienza a crear un sistema operativo que llegaría a todas
las casas de Occidente. En principio solo era una interfaz gráfica del MS-DOS,
pero acabó constituyéndose como un SO completo: el Windows 95. Años
después se hizo el Windows 98 que era el más eficaz de esa época, al que le
seguiría Windows ME (Windows Millenium Edition) aproximadamente entre el
año 1999. Un año después se crearía el sistema operativo de Windows 2000.
Después le seguiría el sistema operativo más utilizado en la actualidad,
Windows XP. El más reciente es Windows 7 que salió al mercado el 22 de
Octubre del 2009, dejando atrás al Windows Vista, que tuvo innumerables
críticas durante el poco tiempo que duró en el mercado.
En contraposición a Mac y Windows se encuentra el otro SO más utiliza en la
actualidad: Linux y sus múltiples variantes. En 1991 aparece la primera versión
del núcleo de GNU/Linux, creado por Linus Torvalds y un sinfín de
colaboradores a través de Internet. La diferencia básica frente a sus
competidores actuales es que se trata de un software libre; todo el código
fuente puede ser utilizado, modificado y redistribuido libremente por cualquiera
bajo los términos de la GPL (Licencia Pública General de GNU) y otras licencias
libres. Desde su aparición el software ha sido modificado por muchos usuarios
creando versiones diferentes como Debian, Ubuntu, Linspire, Mandriva,
Knoppix, Fadore Core y una infinidad de sistemas operativos en constante
modificación.
7
2.3 EL NACIMIENTO Y DESARROLLO DE LA WWW
World Wide-Web (abreviado Web; escrito también WWW o incluso W3)
significa algo así como red (o telaraña) de alcance mundial y vino a ser la
llegada de vías de acceso sencillas y homogéneas a la red capaces de gestionar
conexiones no lineales. Es decir, que desde cualquier terminal conectado a
Internet fuese posible acceder a recursos en formato electrónico de otro
ordenador también conectado, de forma simple.
El año cero de la World Wide Web fue 1990. Tim Berners-Lee usó un NeXTcube
como el primer servidor web del mundo, escribió el primer navegador web,
(WorldWideWeb) y creó las primeras páginas web (que describían el proyecto y
funcionaban como directorio). Finalmente, el 6 de agosto de 1991 fue la fecha
del debut de la web como un servicio disponible públicamente en Internet.
El concepto, subyacente y crucial, del hipertexto tiene sus orígenes en viejos
proyectos de la década de los 60, como el Proyecto Xanadu de Ted Nelson y el
sistema on-line NLS de Douglas Engelbart. Los dos estaban a su vez inspirados
por el sistema Memex (basado en microfilm), de Vannevar Bush.
Si bien podemos considerar a Tim Berners-Lee como el arquitecto de la Web,
las ideas intrínsecas de su funcionamiento tienen sus orígenes medio siglo
atrás, cuando el prestigioso científico norteamericano Vannevar Bush publicó en
The Atlantic Monthly de julio de 1945 un artículo denominado As we may think
(Como nosotros pensamos) donde describía un curioso dispositivo al cual
llamaba Memex (Memoria Extendida) que almacenaba gran cantidad de
información que el usuario podía consultar con cierta rapidez y flexibilidad
mediante vínculos que las unían en forma no secuencial. Se trataba de una
especie de escritorio futurista en el que se guardarían, microfilmados, los libros,
actas, ficheros, etc. Cada elemento de información se visualizaría en pantalla
tecleando su código mnemotécnico correspondiente y se podrían registrar las
conexiones observadas entre elementos distintos.
Bush entendía que un ordenador podría llegar a realizar asociaciones no
lineales de ideas, al igual que la mente humana, y profetizaba que algún día, el
usuario de la red podría crear su propia enciclopedia a través de hipervínculos.
Sin duda, Bush fue un visionario para su época. Hablamos del año 1945, donde
sus ideas no eran técnicamente realizables. Ni lo eran aún en 1965, cuando
8
otro visionario, Ted Nelson, las ordenó conceptualmente. Fue Nelson quien
acuñó el término hipertexto para referirse a "un cuerpo de material escrito o
gráfico interconectado de un modo complejo que no se puede representar
convenientemente sobre el papel; puede contener anotaciones, adiciones y
notas de los estudiosos que lo examinan" 5. El concepto de hipertexto es la base
de la web que conocemos hoy en día. En una explicación más que sencilla
podríamos decir que el lector (el usuario) examina los nodos de una red, y pasa
de unos a otros siguiendo las conexiones (links, en inglés). Hipermedia es otro
término
que,
aunque
relacionado
con
el
anterior,
posee
algunas
especificaciones. Se denomina hipermedia a los nodos que contiene sonido,
imagen o contenido multimedia. Dos años más tarde Nelson presentó en
sociedad su software Xanadú que posibilitaba la creación de textos no lineales
ni secuenciales, siguiendo la estela de lo que había denominado hipertexto. El
proyecto no llegó a cuajar hasta los años 80 con la llegada de los primeros
ordenadores personales.
El gran avance de Tim fue unir hipertexto e Internet. En el proceso, desarrolló
un sistema de identificadores únicos globales para los recursos web y también
el Uniform Resource Identifier (URI) 6.
A finales de la década de los ochenta internet se había convertido en el mayor
almacén de datos que jamás hubiese existido, pero también el más caótico.
Formatos incompatibles, programas distintos, protocolos heterogéneo, etc. Eran
problemas de la red que plasmaban la necesidad de simplificar el acceso,
hacerlo más sencillo y homogéneo. La WWW no fue la primera herramienta con
este objetivo. WAIS, desarrollado a partir de 1989 por un grupo de empresas,
intentó acotar y manejar la red pero sólo fue capaz de generar una solución
parcial: “los datos debían indexarse con el nuevo software y distribuirse por
medio de un nuevo protocolo, es decir, había que realizar un trabajo de
adaptación de lo ya existente al nuevo sistema” 7. El sistema Gopher de la
Universidad de Minnesota, ampliamente difundido desde 1991, aportó algo más
5
Adell, Jordi. Bellver, Carles. 2004 (Apud. Nelson, T.H). NELSON, T. H. (1965). A File Structure for the
Complex, The Changing and The Indeterminate. ACM 20th National Conference.
6
Identificador de Recurso Uniforme, es un sistema universal para referenciar recursos en la Web.
7
Adell, Jordi. Bellver, Carles. Internet como Telearaña: el Word Wide Web. Universitat Jaume I. Castell.
Fecha de publicación: 2004. [Fecha de
http://www.uv.es/biblios/mei3/Web022.html
consulta:
17/01/2010].
Disponible
en
internet:
9
al WAIS. Su objetivo, al igual que el de la web, fue crear un interface unificado
para el acceso a la información de la red. Con Gopher, a través de un sistema
simple de ventanas (o de menús) se accede a todo tipo de archivos sin
preocuparse por su localización específica.
En los comienzos de la web, ViolaWWW fue un navegador bastante popular que
estaba basado en el concepto de la herramienta hipertextual del software de
Mac denominado HyperCard. Sin embargo, el punto de inflexión de la World
Wide Web comenzó con la introducción del navegador web Mosaic en 1993, un
navegador gráfico desarrollado por un equipo del NCSA en la Universidad de
Illinois en Urbana-Champaign (NCSA-UIUC), dirigido por Marc Andreessen.
Funding
para
Mosaic
vino
del
High-Performance
Computing
and
Communications Initiative, un programa de fondos iniciado por el entonces
gobernador Al Gore. Desde entonces la comunidad de usuarios de Internet
creció de forma exponencial.
Se podría decir que World Wide Web en español vendría siendo algo así como
Red Global Mundial. Una red basada en un sistema de documentos de
hipertexto y/o hipermedios enlazados y accesibles a través de Internet. Una
explicación básica y sencilla sería decir que el funcionamiento de la WWW se
basa en un navegador web mediante el cual cualquier usuario puede visualizar
sitios web; y que estas páginas web pueden contener texto, imágenes, videos u
otros contenidos multimedia, y el internauta puede navegar a través de ellos a
través de hiperenlaces.
Según el propio TimBL, la Web es un sistema hipermedial, ya que la web
permite manejar información multimedia y navegar a través de ella; distribuido,
ya que es un sistema compuesto por miles de servidores localizados en cientos
de ciudades del mundo que están interconectadas entre sí; heterogéneo, ya
que reúne servicios y protocolos más antiguos (como Gopher, los News, FTP, e
inclusive el correo electrónico); y colaborativo, ya que cualquier persona, en
cualquier parte del mundo, puede agregar información a la Web para que luego
pueda ser consultada por el resto de los usuarios.
10
3.
CONCEPTOS CLAVE
3.1 Internet
3.2 Funcionamiento de la Web: HTML y TCP/IP
3.3 W3C
3.1
Internet
Internet
es
un
conjunto
descentralizado
de
redes
de
comunicación
interconectadas que utilizan la familia de protocolos TCP/IP, garantizando que
las redes físicas heterogéneas que la componen funcionen como una red lógica
única, de alcance mundial. Sus orígenes se remontan a 1969, cuando se
estableció la primera conexión de computadoras, conocida como ARPANET,
entre tres universidades en California y una en Utah, Estados Unidos.
Uno de los servicios que más éxito ha tenido en Internet ha sido la World Wide
Web (WWW, o "la Web"), hasta tal punto que es habitual la confusión entre
ambos términos. La WWW es un conjunto de protocolos que permite, de forma
sencilla, la consulta remota de archivos de hipertexto. Ésta fue un desarrollo
posterior (1990) y utiliza Internet como medio de transmisión.
Internet es una red de redes, redes de ordenadores y equipos físicamente
unidos mediante cables o redes inalámbricas que conectan puntos de todo el
mundo.
3.2 Funcionamiento de la Web: HTML y TCP/IP
Las siglas HTML y TCP/IP definen el lenguaje y la familia protocolos necesarios
para el funcionamiento de la World Wide Web. Es necesario, por tanto, conocer
estos conceptos para comprender cómo se ha creado y desarrollado la Web, su
importancia, su futuro y sobre todo, cómo TimBL llegó en el momento
adecuado para unificar los dos principales elementos que constituyen la Web: el
HTML y el HTTP de TCP/IP.
11
HTML, siglas de HyperText Markup Language (“Lenguaje de Marcas de
Hipertexto”), es el lenguaje de marcado predominante para la construcción de
páginas web y que tiene como principal función permitir el salto de una página
a otra en un mismo documento o hacia otro. Es usado para describir la
estructura y el contenido en forma de texto, así como para complementar el
texto con objetos tales como imágenes. HTML se escribe en forma de
"etiquetas", rodeadas por corchetes angulares (<,>). HTML también puede
describir, hasta un cierto punto, la apariencia de un documento, y puede incluir
un script (por ejemplo Javascript), el cual puede afectar el comportamiento de
navegadores web y otros procesadores de HTML.
HTML también es usado para referirse al contenido del tipo de MIME text/html
o todavía más ampliamente como un término genérico para el HTML, ya sea en
forma descendida del XML (como XHTML 1.0 y posteriores) o en forma
descendida directamente de SGML (como HTML 4.01 y anteriores).
Por convención, las extensiones utilizadas son .htm o .html para marcar las
direcciones URL (“Recurso de Identificación Uniforme”) que trabajan con este
lenguaje. En resumen HTML es un lenguaje comúnmente utilizado para la
publicación de hipertexto en la Web y desarrollado con la idea de que cualquier
persona o tipo de dispositivo pueda acceder a la información en la Web. HTML
utiliza etiquetas que marcan elementos y estructuran el texto de un documento.
La familia de protocolos de Internet es un conjunto de protocolos de red en los
que se basa Internet y que permiten la transmisión de datos entre redes de
ordenadores. En ocasiones se le denomina conjunto de protocolos TCP/IP, en
referencia a los dos protocolos más importantes que la componen: Protocolo de
Control de Transmisión (TCP) y Protocolo Interno (IP), que fueron los dos
primeros en definirse, y que son los más utilizados de la familia. El TCP/IP es la
base de Internet, y sirve para enlazar ordenadores que utilizan diferentes
sistemas operativos, sobre redes de área local (LAN) y área extensa (WAN).
TCP/IP (Transmision Control Protocol o Protocolo de Control de Transmisión) es
el protocolo que fragmenta los datos en paquetes de información. Después,
estos paquetes son enviados a la red. El IP es el protocolo más básico de
Internet, y provee todos los servicios necesarios para el transporte de datos.
Cualquier otro protocolo de Internet se basa en IP o le sirve de base.
12
El Protocolo de Control de Transmisión (TCP) “(…) permite a un ordenador
enviar a otro una corriente continua de información rompiéndola en paquetes y
recomponiéndola al otro extremo, reenviando cualquier paquete que se haya
perdido en Internet. El TCP usa IP para enviar los paquetes y a los dos se les
denomina TCP/IP.” 8 Así de simplificado lo explica Tim en Tejiendo la Red.
Existen tantos protocolos en este conjunto que llegan a ser más de 100
diferentes, entre ellos se encuentra el popular HTTP (HyperText Transfer
Protocol), que es el que se utiliza para acceder a las páginas web, además de
otros como el ARP (Address Resolution Protocol) para la resolución de
direcciones, el FTP (File Transfer Protocol) para transferencia de archivos, y el
SMTP (Simple Mail Transfer Protocol) y el POP (Post Office Protocol) para
correo electrónico, TELNET para acceder a equipos remotos, entre otros.
El TCP/IP fue desarrollado por Vint Cerf y Bob Kahn y demostrado por primera
vez en 1972 por el Departamento de Defensa de los Estados Unidos,
ejecutándolo en ARPANET, una red de área extensa de dicho departamento. El
TCP/IP se remonta pocos años después de la creación de Internet y continúa
vigente más de 25 años después.
Como punto y aparte cabe reunir las claves y conceptos básicos para el
entendimiento del funcionamiento de la WWW. La Web puede tener dos
caminos de navegación. Acceder a páginas web mediante una dirección URL 9
que el usuario conoce y puede escribir directamente en el navegador (Mozilla,
Firefox, Google Chrome, Amaya, Epiphany, Galeon, Internet Explorer,
Konqueror, Lynx, Netscape Navigator, Opera, Safari, Seamonkey, Shiira, Maik
Navigator, Flock, Arora, K-Meleon), o a través de enlaces de hipertexto desde
buscadores u otras páginas. Una vez el ordenador recibe la orden de búsqueda
el navegador comienza una serie de comunicaciones, transparentes para el
usuario, para obtener los datos de la página y visualizarla.
El primer paso consiste en traducir el nombre del servidor de la URL en una
dirección IP usando la base de datos distribuida de Internet conocida como
DNS. Esta dirección IP es necesaria para contactar con el servidor web y poder
enviarle paquetes de datos.
8
9
Ibid, p.228
Localizador Uniforme de Recursos. El término proviene de URI (Identificador Universal de Recursos) que
define la dirección de cualquier página o documento en la Web.
13
El segundo paso es enviar una petición HTTP 10 al servidor Web solicitando el
recurso. En el caso de una página web típica, primero se solicita el texto
HTML 11 y luego es inmediatamente analizado por el navegador y, si es el caso,
este hace peticiones adicionales para los gráficos y otros ficheros que formen
parte de la página. Y finalmente renderiza la página tal y como se describe en
el código HTML, el CSS y otros lenguajes web.
Este es el protocolo general de funcionamiento de la web, pero si un usuario
accede de nuevo a una página después de un pequeño intervalo, es probable
que no se vuelvan a recuperar los datos del servidor web de esta forma. Por
defecto, los navegadores, algunos buscadores como Google, Yahoo o AltaVista
y firewalls de empresa, almacenan en una caché del disco duro local todos los
recursos web a los que el usuario va accediendo. De esta forma el navegador
reconoce la versión almacenada y esta se reutiliza en el paso de renderización
para agilizar la página. Aunque también cabe señalar que existen excepciones,
como el caso de ciertas páginas que tiene restringida la memorización, como en
el caso de páginas de bancos o ciertas páginas personales.
3.3 W3C
El W3C es un organismo internacional de estandarización de tecnologías Web
dirigido conjuntamente por el Instituto Tecnológico de Massachusetts (MIT), el
ERCIM francés y la Universidad de Keio en Japón. Es un consorcio internacional
donde las organizaciones miembros, personal a tiempo completo y el público en
general, trabajan conjuntamente para desarrollar estándares Web. La misión
del W3C, según su creador y actual director, es: “Guiar la Web hacia su máximo
potencial a través del desarrollo de protocolos y pautas que aseguren el
crecimiento futuro de la Web.” 12
El W3C trata de alcanzar su objetivo principalmente a través de la creación de
Estándares Web y Pautas. Desde 1994, el W3C ha publicado más de ciento diez
10
Protocolo de Transferencia de Hipertexto, especifica cómo se comunican el navegador y el servidor
entre ellos.
11
12
Lenguaje de Marcado de Hipertexto, define la estructura y contenido de documentos de hipertexto.
W3C. ¿Qué es el Consorcio World Wide Web (W3C)? [Fecha de consulta: 19/01/10]. Disponible en
Internet: http://www.w3c.es/Consorcio/
14
estándares, denominados Recomendaciones del W3C. El W3C también está
involucrado en tareas de educación y difusión, y en el desarrollo de software,
sirviendo a su vez como foro abierto de discusión sobre la Web. El W3C luchara
para que las tecnologías Web más importantes sean compatibles entre sí y
permitan que cualquier hardware y software, utilizado para acceder a la Web,
funcione conjuntamente y evitar así la fragmentación del mercado (e
implícitamente la fragmentación de la Web). A este objetivo lo denominan
"interoperabilidad Web".
Entre las iniciativas globales del W3C se encuentra la de mantener sus
asociaciones con organizaciones nacionales, regionales e internacionales en
todo el mundo para establecer una cultura de participación global en el
desarrollo de la World Wide Web. Las operaciones realizadas por el W3C
cuentan con el apoyo financiero procedente de las tasas de los Miembros, becas
de investigación, y otros recursos de financiación públicos y privados, así como
de los Programas de Ayudas. La gestión de estas operaciones se realiza de
forma conjunta en el Laboratorio de Ciencias de la Computación e Inteligencia
Artificial del MIT (CSAIL) en los Estados Unidos, el Consorcio Europeo para la
Investigación en Informática y Matemáticas (ERCIM), en Francia y la
Universidad de Keio, en Japón. El Consorcio tiene también Oficinas Mundiales
en países de todo el mundo. Estas oficinas trabajan con sus comunidades Web
regionales para promocionar las tecnologías del W3C en los idiomas locales,
ayudar a ampliar la base geográfica del W3C y fomentar la participación
internacional en las Actividades del W3C.
15
4. TEJIENDO
LA RED
TimBL nos descubre en este libro el origen de la Red, desde su revolucionaria
introducción y la creación de las siglas WWW, HTML y HTTP, hasta su opinión
sobre el futuro desarrollo de este medio.
Narra en primera persona todo lo que le influyó en la creación de la World Wide
Web. Desde los orígenes de Internet a la mejora en los ordenadores
personales de diferentes marcas y desde el lenguaje de hipertexto a la
profusión de múltiples navegadores y sistemas operativos.
Toda acción o acciones provienen de personas que las realizan. Y éstas
poseen una vida particular que de una manera u otra influyen en esas
acciones. Esto también forma parte del resumen de esta obra, donde una de
las principales bazas es la biografía capitulada y paralela de TimBL y la WWW.
Desde niño hasta su primer proyecto, el Enquire en el CERN, pasando por la
Universidad. Toda su vida ha estado girando en torno al concepto del aspecto
conectivo de la información. En este libro su vida es tan importante como los
acontecimientos que rodean a las tecnologías y las redes.
Tim escribe sobre el proyecto Xanadu y la idea de hipertexto de Ted Nelson,
así como de otros antecedentes y cómo trabajó a escondidas en el CERN
durante años creando el proyecto de la mano de Robert Cailliau y algún que
otro ayudante. También narra detalladamente cómo tuvo que luchar para que
creyesen en él y en su propuesta, cómo recorrió varios congresos y reuniones
de empresas de hipertexto –sin éxito- y cómo finalmente creó, en el CERN, el
primer servidor Web de la historia: el info.cern.ch.
La Web tuvo que crear herramientas para universalizarse. Escribir en lenguajes
comunes para todos los ordenadores, construir “pasarelas” a otros servicios de
Internet o crear un navegador modo-línea son algunos ejemplos de cómo la
Web trabajó para llegar al mayor número de personas posibles.
Tim creó un grupo de trabajo en Internet que se llamó Engineerin Task Force
(IETF- “Destacamento de Ingeniería de Internet”) que fue decisivo para
promover el flujo de ideas, en la comunidad Web, sobre el funcionamiento de
éstas. En el libro nos habla de cómo poco a poco el círculo fue aumentando
entorno a la Web.
La proliferación de empresas relacionadas con la web, sus fusiones y
estrategias empresariales así como el deseo de apoderarse o manejar la Web
16
es otro de los temas que Tim trata en esta obra. Al igual que adjunta
información sobre sistemas de navegación, protocolos en Internet y la historia
de los navegadores como Erwise, ViolaWWW, Midas, Arena, Lynx 2.0., Cello,
Navipress o Mosaic.
Finalmente opina sobre la privacidad en Internet, la confianza en la Web y lo
que ésta ha significado social y comunicativamente. Al mismo tiempo que
defiende un futuro mejor de la Web (la Web Semántica) a través de las
recomendaciones del Consorcio W3C creado en 1994 entre el CERN y el MIT, y
que él mismo dirige.
17
5. Resumen
y citas de la obra
Capítulo 1: Preguntar en el interior acerca de cualquier cosa (págs.1-6)
“Preguntar en el interior acerca de cualquier cosa” (Enquire within upon
everything) fue el nombre que recibió el primer programa de software que creó
Tim Berners-Lee. Este título, especialmente significativo en la filosofía Web,
proviene de un libro que Tim tenía en su casa cuando era un niño y que “servía
como portal a un mundo de información acerca de todo” 13. Este símil le sirvió
como punto de partida para los primitivos bocetos mentales de la World Wide
Web. Desde niño, influenciado en gran medida por sus padres -que eran
matemáticos y programadores informáticos-, pensaba que los ordenadores
podrían llegar a realizar asociaciones al azar, al igual que un cerebro humano.
He aquí el “quit” de todo su trabajo.
Se licenció en Física, en 1976, por la Universidad de Oxford y trabajó como
ingeniero de software en Plessey Telecomunications y en D.G. Nash Ltd. Pero
no fue hasta 1980 cuando brotaron sus ideas acerca de la que hoy conocemos
por la Web. Con el proyecto Enquire, su primer programa tipo Web, para uso
personal, basado y dirigido a relacionar las direcciones y departamentos del
CERN, el concepto madre de WWW
vio la luz: “Supongamos que toda la
información almacenada en ordenadores de todas partes esté unida entre sí
(…). Supongamos que pueda programar mi ordenador para crear un espacio en
el que cualquier cosa pueda relacionarse con cualquier cosa.” 14
La Web surgió gracias a las influencias, ideas y logros de muchos visionarios,
investigadores, informáticos, matemáticos y físicos que Tim Bernes-Lee recogió
y fusionó en los noventa. En 1945, Vannevar Bush escribió acerca de una
máquina -a la que llamó Memex-, que podía realizar y seguir referencias
cruzadas entre documentos microfilmados. Veinte años más tarde, Ted Nelson
escribió acerca de las “Máquinas literarias”, capaces de escribir en un nuevo
formato no lineal, es decir, texto vinculado mediante nexos de unión con otros
muchos a través de citas. Un formato que denominó hipertexto y que estaba
inmerso en un proyecto mucho más amplio donde toda la información del
13
Berners-Lee, Tim (1999). Tejiendo la Red. El inventor del World Wide Web nos descubre su origen.
Madrid: Siglo XXI de España Editores. p.1
14
Ibid, p.4
18
mundo se podría publicar en hipertexto: el proyecto Xanadu. También en los
sesenta e influenciado por el concepto de hipertexto, Doug Engelbart mostró un
espacio de trabajo en cooperación llamado NLS (oN Line System) e inventó el
ratón, primitivo, por aquel entonces. Los siguientes avances en los setenta y
ochenta en el campo de Internet y la conexión global entre todos los
ordenadores del mundo, fue el impulso necesario para que Tim Berners-Lee
creara la WWW. Como él mismo afirma, llegó “(…) en el momento justo,
interesado, cuando el hipertexto e Internet habían visto ya la luz. La tarea que
me correspondía era hacer que casaran” 15.
Capítulo 2: Enredos, enlaces y redes (págs. 8-22)
El Enquire fue su primer trabajo en el campo de las relaciones de nodos en
redes, incluso escribió un manual e cuatro páginas donde se hablaba de lo útil
que sería utilizar un programa de ordenador que llevase a la tecnología, los
círculos y las flechas que se podían escribir sobre una servilleta.
En el Enquire la única forma de crear un nuevo nodo sería a partir de un
antiguo nodo y para hacerlo se debía escribir la relación que estos dos tenían
entre sí. TimBL decidió también que en este programa existiesen vínculos
“internos” que serían bidireccionales y otros unidireccionales, los “externos”. El
programa jamás vio la luz y desapareció cuando TimBL dejó el CERN por
primera vez. Dos años después, en 1983, volvió como ayudante de
programación y en su tiempo libre empezó a escribir otro programa de
relaciones. “Desde un punto de vista extremo, el mundo puede considerarse
como sólo un conjunto de conexiones, nada más” 16, con esta filosofía nació el
Tangle (Enredo). Un programa para descifrar secuencias de caracteres y crear
nodos de relación, que se quedó en una fase primitiva pero que significó, para
TimBL, una pequeña incursión en su “deseo de representar el aspecto conectivo
de la información” 17.
En 1984 el CERN había crecido y paralelamente el mundo informático que lo
rodeaba. Nuevas generaciones de ordenadores, nuevos sistemas operativos,
lenguajes de programación y variados protocolos de redes malvivían en el
microcosmos de las montañas de Suiza. Para facilitar la comunicación entre
15
Ibid, p.6
Ibid, p.12
17
Ibid, p.13
16
19
todos los ordenadores y redes Tim comenzó un nuevo programa: el RPC (“de
llamada remota”). Y volvió a reescribir el Enquire, aunque esta vez no
programó los vínculos externos y no se podía conectar de forma externa con las
estructuras de relaciones cerradas de los internos. Pero rápidamente, se dio
cuenta de que aquello no funcionaba y comenzó a pensar en un proyecto más
global. La idea era utilizar “los vínculos externos del Enquire con hipertexto y
los esquemas de interconexión que había desarrollado para el RPC” 18, desde un
sistema descentralizado y fácil de utilizar. Cada nodo tendría una dirección de
referencia y todos existirían en el mismo espacio no jerarquizado, un espacio
que denominó “espacio de la información” 19. Mike Sendall, su jefe en el CERN,
le aconsejó que si quería que aquello saliese adelante tendría que presentar
una propuesta. Y fue entonces cuando se puso manos a la obra.
Para que su idea cuajara necesitaba una red para comunicarse indirectamente,
y ahí estaba Internet, que funcionaba desde los setenta y que en los 80
conectaba, en EEUU, muchas Universidades. Una gran red de redes, como
Internet, era lo que necesitaba. Internet descomponía los datos en paquetes a
través de dos protocolos: IP (Internet Protocol) y TCP (Transmission Control
Protocol), el software los etiquetaba y después de ser enviados a otro terminal
vía telefónica o por cable, eran descifrados por el software gracias
a las
etiquetas. El e-mail, también existía, pero la información enviada entre
personas no tenía un espacio permanente para existir y al que poder acceder.
Lo que Tim pretendía crear era un lugar el que permanecer. La odisea comenzó
incorporando al RPC un código para que funcionase mediante IP/TCP y
desarrollo un sistema de hot buttons (botones calientes) en forma de ayuda
online del programa. En 1989 decidido a presentar la propuesta tenía presente
como tenía que vender el proyecto en el CERN: “Podemos crear una base
común para comunicación a la vez que permitimos a cada sistema mantener su
individualidad. De eso se trata esta propuesta, y el hipertexto global es lo que
les permitirá hacerlo. Lo único que tienen que hacer es fabricar una dirección
para documento o pantalla que haya en sus sistemas, y el resto es fácil”. A
finales de marzo de 1989 entregó la propuesta a Mike Sendall y lo volvió a
hacer en 1990, ya que no había recibido respuesta.
18
19
Ibid, p.15
Ibid, p.16
20
Mientras siguió trabajando en el proyecto en un nuevo ordenador, el NeXT, y
comenzó a pensar en un nombre. Mesh (“Malla”), Mine of Information (MOI“Mina de Información”) y The Information Mine, fueron denominaciones que le
pasaron por la cabeza, pero finalmente acabó llamándolo World Wide Web (en
una traducción no demasiado exacta, “Telearaña de alcance mundial”), porque
prometía un sistema potencialmente global.
Capítulo 3: info.cern.ch (págs.23-31)
Robert Calliu, fue de los pocos convencidos en el CERN acerca de la WWW, y
ayudó a TimBL a rehacer la propuesta para que tuviese más efecto. Acudieron
a la Conferencia Europea sobre Tecnologías de Hipertexto (ECHT) pero no
tuvieron demasiada suerte. Tim estaba buscando
un mundo cambiante de
hipertextos en páginas en continuo movimiento. Una filosofía que tampoco
consiguió el apoyo de la empresa Electronic Book Technology. Aunque en el
CERN se mantenía el credo de “Compra, no fabriques”, TimBL no contaba con
la ayuda para poder comprar nada y tuvo que fabricarlo el mismo. Escribió, en
primera instancia, el cliente del Web, es decir, el programa para crear, navegar
y editar páginas de hipertexto. Después, transformó el texto en hipertexto y
creo el Protocolo de Transferencia de Hipertexto (HTTP), el lenguaje que los
ordenadores usarían para comunicarse por internet, y el Identificador de
Recursos Universal (URI), el esquema para direcciones de documentos. Así
como el Lenguaje Markup de Hipertexto (HTML), que describe cómo formatear
páginas que contengan vínculos de hipertexto. En segunsa instancia, escribió el
primer servidor del Web: el software que contiene páginas web en una parte
de un ordenador y permite a otros acceder a ellas; al que llamó “info.cern.ch”.
Ya funcionaba, el siguiente paso fue crear la primera página Web, en esta se
explicaba todo lo relativo al proyecto. Pero por el momento la WWW solo
funcionaba en NeXT, se necesitaba un navegar muy básico para que pudiese
funcionar en cualquier sistema operativo. Nicolla Pellow, una estudiante de
matemáticas que por cuestiones de la vida estaba interna en el CERN, se puso
a trabajar en ello.
Mientras Tim hizo que la información que se transmitía por protocolo FTP (File
Transfer Protocol) por Internet estuviese disponible también para la Web, y
convenció a Brend Pollerman para convertir el viejo listín telefónico del CERN en
21
hipertexto. La World Wide Web comenzó a funcionar de forma primitiva en el
núcleo del CERN, instalado, gracias al navegador básico (modo-línea 20) de
Nicola, en muchos de sus ordenadores. Todavía faltaba lo mejor, que realmente
la Web se volviese mundial. Tim parecía leer el futuro cuando pensaba que “si
cualquier persona que estuviera en el Web pudiera hacer eso, entonces un
único vínculo de hipertexto podría conducir a un enorme mundo sin límites.” 21.
Capítulo 4: Protocolos (págs. 33-48)
“(…) los ordenadores no se comunicaban unos con otros. La existencia del Web
marcaría el fin de una era de frustración.” 22, ansioso Tim tuvo que definir las
pocas reglas básicas y comunes del “protocolo” que permitiría a un ordenador
hablar con otro. Para que la Web funcionase eras necesarios (en orden
decreciente de importancia) los identificadores de recursos universales (URI’s),
el Protocolo de Transferencia de Hipertexto (HTTP) y el Lenguaje Markup de
Hipertexto (HTML).
La Web, desde sus orígenes, nunca fue un lugar físico ni un objeto u
organización que controlaba absolutamente nada. La Web siempre fue un
espacio virtual donde la información podía coexistir.
Frente a otros protocolos como el FTP, para archivos, y el NNT, para network
news, el HTTP era un protocolo sencillo con la única función de leer hipertexto
en páginas web lo más rápido posible (el objetivo era una décima de segundo
aproximadamente).
La clave de la Web de Tim era (y es) la dirección URI, con esta dirección
cualquier cosa puede ser enviado a un servidor y encontrado por un navegador.
La URI incorpora toda la información necesaria para que el sistema funcione:
antes de las dos barras se sitúa el protocolo de comunicaciones que usa el
servidor (HTTP, FTP o cualquier otro), después la dirección de la página (el
servidor), y tras la barra simple cualquier documento específico de éste.
En Mayo de 1991, tras muchos intentos porque la WWW fuera aceptada dentro
y fuera del CERN, Louise Addis, bibliotecaria del Centro del Acelerador Lineal
Standford (SLAC) tutelada por Paul Kunz puso en marcha el primer servidor
20
Ibid, p.28. Navegador “Modo-línea”, recibió este nombre como símil de lo simple que debería ser dicho
navegador. El símil estaba justificado porque los teletipos y los primeros terminales de ordenador
operaban mostrando una línea de texto de cada vez.
21
Ibid, p.31
22
Ibid, p.33
22
Web fuera de Europa. A partir de entonces, Robert Calliu y TimBL intensificaron
la promoción dentro del CERN. Hasta el momento la WWW para NeXT, el
navegador modo-línea y el servidor básico para cualquier ordenador, seguían
sin ser suficientes para que el CERN reaccionase, así que TimBL tomó la
importante decisión de hacer público en varios grupos de noticias de internet su
sistema. Entre estos grupos, el más importante era alt.hypertext y los emails
empezaron a llegar con dudas y comentarios sobre el servidor web. Con toda
esta información que Tim recibía a su email fue completando el info.cern.ch
convirtiéndolo en un directorio de páginas web conectadas por hipervínculos.
Meses más tardes, la comunidad de NeXT y de hipertexto creció hasta el punto
de necesitar un grupo de noticias que compartiesen información exclusiva de la
Web. De esta forma se puso en marcha comp.infosystems.www. Otro pequeño
paso para aumentar la difusión de la Web se dio cuando Tim abrió un servidor
vía Telnet público en info.cern.ch. Telnet era un protocolo que ya existía,
funcionaba en Internet y permitía a cualquier persona que se registrase en
info.cern.ch vía Telnet acceder directamente al navegador modo-línea. La
WWW continuaba creciendo.
Nicola fue sustituida en el trío por Jean-François Groff, y llevó a cabo, junto a
Tim, la transformación del lenguaje objective-C en lenguaje C que, aunque
menos potente, era más común. Cuando Jean-François terminó su período de
voluntario tuvo que abandonar el CERN, debido a políticas internas, y montó la
primera consultoría de diseño Web (infodesign.ch) en Ginebra.
En octubre del 91 continuaban los esfuerzos por hacer arrancar la Web, Robert
y Tim instalaron dos “pasarelas” (gateways) a dos populares servicios de
Internet: una al sistema de ayuda en línea del sistema operativo VAX/VMS de
Digital, y otra al WAIS de Brewster Khale para bases de datos. Y también se
puso en marcha una lista de correo en línea, como si de un foro se tratase para
la creciente comunidad Web: [email protected]
En el empeño por llegar a la comunidad del hipertexto viajaron a EEUU. La
presentación en Hypertext 91 de San Antonio fue una auténtica odisea pero
consiguieron demostrar el navegador modo-línea y dos años más tarde todos
los proyectos que se presentaron a la conferencia tendrían algo que ver con la
Web.
23
Capítulo 5: Globalización (págs. 49-61)
Para normalizar por separado cada una de las tres especificaciones
fundamentales de la Red: las direcciones URI, el protocolo HTTP y el lenguaje
HTML; Tim decidió crear un grupo de trabajo en la Internet Engineerin Task
Force (IETF- “Destacamento de Ingeniería de Internet”).
Para que la Web creciese, se necesitaban clientes PC, Macintosh y Unix. Y para
ellos se necesitaba un navegador. En 1992, desde la Universidad de Tecnología
de Helsinki apareció un proyecto de doctorado muy interesante, era un
navegador para Unix que utilizara X-Windows, denominado Otherwise, pero
simplemente se quedó en eso, un proyecto.
Otro estudiante, esta vez de la Universidad de Berkeley, también creó un
navegador de señalar-cliquear para Unix, denominado Viola. El navegador Web
recibió el nombre de ViolaWWW y marcó un temprano estándar de navegación
y consulta para aquellos terminales que utilizaban Unix.
La Web que Tim había ideado se difuminaba: la “(…) Web que yo había
diseñado para que fuese un medio de toda clase de información, desde lo muy
local hasta lo muy global, creció decididamente en dirección de lo muy global, y
también como medio de publicación, pero menos como medio de
colaboración” 23.
Pronto numerosas empresas utilizaron la Web para uso interno e inventarían el
término intranet. Mientras Robert comenzó a diseñar un navegar para
Macintosh con la ayuda de Nicola al que llamaron Samba. Se trajo además, a
Henrik Frystyk Nielsen y Ari Luotonen para que trabajasen en el sistema. Lo
mejoraron y “productivizaron” los esfuerzos de todo el equipo.
En esta época (1992) apareció el primero de los muchos servidores de mapas
web que estaban por llegar: el servidor Steve Putz de Xerox PARC. Ese verano
Tim se tomó una largas vacaciones (un “extenso viaje de obligaciones” 24) y fue
entonces cuando, tras varias reuniones y discusiones con el grupo de IETF, el
término UDI/URI (Identificador Universal de Documentos, Identificador
Universal de Recursos) se modificó, para pasar a ser denominado URL
(Localizador Uniforme de Recursos). Localizador en vez de identificador, ya que
las URIs podían ser cambiadas constantemente; documentos por recursos,
porque en la web podían encontrarse muchas cosas más que simples
23
24
Ibid, p.53
Ibid, p.56
24
“documentos”; y uniforme por universal, ya que era demasiado pretencioso
hablar de algo “universal”.
Mientras Erwise y ViolaWWW competían como navegadores para el sistema XWindows en Unix, Tony Johnson, del SLAC, presentó otro navegador para X
llamado Midas.
El viaje de Tim del verano del 92 terminó con la visita a Ted Nelson que había
inventado Xanadu hacía veinticinco años.
Capítulo 6: Navegando (págs. 64-69)
En Enero de 1993 el número de servidores crecía al mismo tiempo que los
nuevos navegadores. Erwise, ViolaWWW, Midas y Samba seguían funcionando,
pero apareció el Arena 25, el Lynx 2.0. 26, el Cello 27 y el Mosaic, y la
competitividad entre todos ellos aumentó. El Arena era un navegador que
abogaba por utilizar el HTML para efectos visuales y gráficos; el Lynx 2.0., por
su parte adaptaba a la web el Lynx original, un navegador “modo-pantalla” que
permitía navegar hacia delante y atrás en un mismo documento; mientras que
Mosaic llegó a ser el más completo. Mosaic (1993) fue creado por Marc
Andreessen y Eric Bina, provenientes del Centro Nacional de Aplicaciones
Superinformáticas (NCSA) de la Universidad del Illinois. Era fácil de descargar e
instalar y su filosofía era que lo utilizase el mayor número de gente posible,
esto lo convirtió en el navegador por excelencia para las personas menos
familiarizadas con Internet y la Web. Hasta el momento era el navegador con
mayor repercusión social y mediática, la NCSA pretendía que Mosaic “se
comiese” a la Web, y TimBL estaba preocupado por ello.
Este mismo año la Universidad de Minnesota decidió privatizar el software del
servidor Ghoper. Esta decisión trajo consecuencias decisivas para el mundo de
la Web e Internet: la industria abandonó Ghoper y comenzó la lucha por la
liberalización o la privatización de determinados softwares. TimBL había pedido
que la WWW tuviese una Licencia Pública General (PGL) 28, pero ante el
panorama naciente el CERN y el propio creador de la Web decidieron no atarla,
“permitir a todo el mundo el uso del protocolo y el código web gratuitamente,
25
Ibid, p. 63, Creado por Dave Raggett, de Hewlett-Packard en Brisol.
Ibid, p. 64. Creado por Lou Montulli en Marzo de 1993, a partir del navegador de hipertexto Lynx, de la
Universidad de Kansas.
27
Ibid, p. 65. Creado por Tome Bruce, Instituto de Información Legal en la Universidad de Cornell.
28
Ibid, p. 69. Creada por Richard Stallman para su Free Software Foundation (FSF).
26
25
crear un servidor o un navegador, repartirlo o venderlo, sin ningún royalty ni
otras cargas”. 29
Capítulo 7: Cambios. (págs. 71-84)
La proporción de visitas de visitas al servidor info.cern.ch seguía creciendo. De
10 visitas al día en el verano de 1991, a 1.000 en el de 1992 y 10.000 al año
siguiente. La Web aumentaba y la NCSA ponía en circulación el Mosaic para
Unix, Windows y Mac.
La reunión que organizó Dale Dougherty (de O’Reilly Associates) con unas
veinticinco personas importantes en el desarrollo de la Web desde sus inicios,
en la que se habló de grupo, asociación, consorcio, y en definitiva, del futuro. El
Digital Equipment Corporation buscando un organismo que vigilase a la Web. Y
la Webcore 30 del CERN, la Comisión Europea y el Fraunhofer Gesellschaft.
Sirvieron para que TimBL se diera cuenta de que un consorcio era necesario
para ayudar a todas las partes a trabajar conjuntamente, evitar que alguna
empresa intentara controlarlo todo o incluso privatizarlo, y ver las cosas desde
una situación neutral.
En 1994 O’Reilly Associates llevó Internet y la Web a los hogares con “Internet
en una caja”: “El producto de O’Reilly lo reunía todo. Lo único que tenía que
hacer el usuario era instalarlo en su ordenador y pagas las tarifas telefónicas
por su conexión a Internet.” 31.
Pero pronto sería desbancado por las
compañías locales de telefonía, que comenzaron a proporcionar también el
software necesario.
Mientras Navisoft Inc. puso en marcha un navegador/editor para PC y Mac, que
se conoció como Navipress. Las personas podían ahora navegar y editar en
HTML al mismo tiempo, sin necesidad de otros programas o descargas
innecesarias. En paralelo Marc Andreessen se unió a Enterprise Integration
Technology (EIT), se asoció con Jim Clark (un hombre de negocios) y juntos
fundaron Mosaic Communication Corp. Rápidamente contrataron a Lou Montulli
(de Lynx), al equipo principal del Mosaic y comenzaron a comercializar un
nuevo navegador: Netscape 32.
29
Ibid, p.69.
Ibid, p.74. Webcore: El primer proyecto basado en la UE para difundir información tecnológica a través
de los países del antiguo bloque soviético en Europa.
31
Ibid, p.76.
32
Ibid, p.77.
30
26
La Conferencia de Mayo de 1994 en el CERN acerca de la World Wide Web fue
decisiva para plantearse, definitiva la creación de un consorcio: el CERN y el
MIT fueron los fundadores. Mike Sendall, Robert Cailliau se unieron a François
Fluckiger y dirigirían el consorcio desde el CERN. TimBL lo haría desde el MIT:
“Abandoné Ginebra para ir al MIT. A América. Al Consorcio del World Wide
Web. Y a un nuevo papel como contribuyente a la evolución del Web” 33.
Capítulo 8: Consorcio (págs. 85-96)
En Abril de 1994 Bill Gates decidió que la versión de Windows 95 de Microsoft
incluiría un software para acceder a Internet. Mosaic Communication se cambió
el nombre porque el NCSA les impedía continuar usando su nombre comercial
(Mosaic). Tim y compañía decidieron bautizar al Consorcio con el nombre de
World Wide Web Consortium, resumiendo, W3C 34.
Cualquier organización; comercial, educativa o gubernamental, fuese lucrativa o
no, podía pertenecer al W3C. La única restricción era la cuota de 50.000$ para
miembros de pleno derecho y de 5.000$ para miembros afiliados. El propósito
principal era “conducir a la WWW a lo más alto” 35. Y las funciones eran
desarrollar especificaciones técnicas abiertas; permanecer en el puesto más alto
que controlase a millones de empresas, investigadores e usuarios; y apoyar las
innovaciones en tecnología de la información.
Un nuevo servidor del creador de la Web se hizo espacio en la red,
http://www.w3.org, mientras que el CERN continuaba con el clásico
info.cern.ch.
TimBL narra en su libro que, en diciembre de 1994,
“en tres cortos días,
tuvieron lugar grandes acontecimientos que alterarían para siempre el futuro
del Web: los miembros del Consorcio se reunieron por primera vez; Netscape
lanzó la versión comercial de su navegar; y el CERN decidió después de todo no
hospedar la página W3C en su servidor.” 36.
33
Ibid, p.83
Ibid, p.87
35
Ibid, p.88
36
Ibid, p.91. El nuevo navegador de Netscape se llamó Navigator 1.0.
34
27
Capítulo 9: Competitividad y Consenso (págs. 98-114)
Windows 95 de Microsoft apareció y causó una gran controversia entre el
mundo comercial de software. Quiso comprar Netscape para utilizarlo como
navegar de su SO (sistema operativo), pero la propuesta fracasó. La compañía
Compaq comenzó a comercializar el primer navegador que acompañaba al
hardware: el Navigator.
Por su parte, Sun Microsystems introdujo un nuevo lenguaje de programación
denominado Java para crear programas de aplicaciones que se conocieron
como applets, estos podían enviarse entre ordenadores mediante Internet y
funcionaban en las páginas web, pero algún caso se necesitaba cierta
programación en el cliente. El Java era un lenguaje orientado hacia los objetos,
una técnica más potente que el HTML de la WWW. Rápidamente Nestcape se
dio cuenta de su importancia, compró Java y lo incorporó a la nueva versión de
Navigator.
AOL (America Online) compró Navisoft, la empresa que había creado el único
navegar/editor del mercado (Navipress) y le cambió de nombre: AOLpress.
Mientras, Netscape tomó una decisión que cambiaría su rumbo, y las finanzas
de las empresas de la Red, para siempre. Decidió hacerse pública, se lanzó en
bolsa y los resultados fueron espectaculares, la IPO (“Oferta Pública Inicial”)
que consiguió fue la más alta de la historia. Significó un vuelco comercial para
la web y se popularizó que internet y la WWW era un gran negocio.
Bill Gates se lo tomó como una guerra personal y anunció que su compañía iba
a “abarcar y extender”. Con “abarcar” se refería a compatibilizar su software
con el resto de software web y con “extender”, que una vez alcanzase su cuota
de mercado se encargaría de hacer que los sistemas de otros pareciesen
incompatibles.
El consorcio W3C comenzó a definirse cada vez más, atendía a cuestiones
políticas, sociales pero también tecnológicas y, sobre todo, empresariales. Las
decisiones se tomaban teniendo en cuenta la opinión de todos los miembros, se
consolidó como foro de discusión y difusor de propuestas de recomendación.
Llegó 1996 y con él cambios en cuanto a navegadores. El Navigator 2.0. (de
Netscape) incluía un email fácil de usar y aplicaciones Java. Microsoft se asoció
con AOL y AOLpress murió.
28
Fue entonces cuando surgió un problema gravísimo para la web, el W3C, la
comunidad web, y en definitiva para la sociedad en general. La pornografía en
Internet que podía ser accesible para niños y adolescentes provocó que los
EEUU quisiesen censurar la red. El Acta de Decencia de la Comunicación se
aprobó ante un tribunal pero fue recurrida por grupos pro-derechos civiles y
finalmente se rechazó por anticonstitucional. El Consorcio optó por presentar
una solución: la Plataforma para la Selección de Contenidos en Internet (PICS).
Con este sistema los padres podrían ejecutar una selección de páginas nocivas
y la Web seguiría siendo libre.
Compañías de Japón y la zona del Pacífico formaban un amplio número dentro
del consorcio y fue necesario crear una Sede en la Universidad de Keio (Japón).
Mientras la industria web crecía y creía. El consorcio luchaba para una mejora
del lenguaje HTML y por las páginas multimedia. Con este objetivo dentro del
consorcio Dave Raggett utilizaba el navegador Arena con figuras insertadas,
Marc Andreessen utiliza imágenes en Mosaic y Hakon Lie diferentes estilos,
fuentes y formateos.
Windows 98 vino acompañado inseparablemente de Explorer 4.0, y caminaba
en el límite de la ley debido al decreto de acuerdo que prohibía la integración
de productos -por posible violación de las leyes antimonopolio-. Netscape se
convirtió en software libre, su código fuente se hacía completamente público,
modificable por cualquier usuario. TimBL pensaba con respecto a esta situación
que “Microsoft era más grande que Netscape, pero Netscape esperaba que la
comunidad web fuese más grande que Microsoft.” 37
El consorcio desarrolló su propio conjunto de herramientas web: código Amaya,
servidor Apache y servidor de fuente abierta Jigsaw, completamente públicos.
Ya que en la propia constitución del consorcio se estipula que “todo el software
que produce apoyo a su trabajo será disponible al público” 38.
37
38
Ibid, p.111
Ibid, p.114
29
Capítulo 10: Una red de gente (págs. 115-132)
Tim en este capítulo hace una mención más que especial a las repercusiones
sociales de la Web. Específicamente Tim defiende que la creación y diseño de la
Web tiene una raíz muy profunda en su aspecto social. La Web nació para
trabajar en grupos de personas y no como un juguete técnico. Pero no se
puede negar que la tecnología afecta a la sociedad y con el paso de los años
cada vez más.
En cuanto al propósito generalizado por parte de las empresas, los gobiernos y
la propia sociedad de querer “controlar” la Web, Tim BL asegura que son
cuestiones de trasfondo que viven detrás de un tema mucho más importante,
que es definitiva la propia “telaraña”. “Los éxitos de las empresas y el triunfo de
las organizaciones no son importantes para nuestro futuro como usuarios web
tanto como las cuestiones fundamentales sociotécnicas que pueden construir o
destruir el Web”. 39
Sin duda al hablar de Web es imprescindible hablar también de grupo, de
equipo y de confianza. Pero cuanto mayor es el grupo la cuestión de confianza
decae; y la Web es un grupo de muchos grupos interconectados entre sí con
otros grupos (y así sucesivamente…) y esto repercute en la confianza. Una
tecnología eficiente en este campo es la criptografía de clave pública (PKC), un
sistema
que permite codificar
información y
utilizar una clave para
descodificarla.
Paralelamente Tim también hace un punto y aparte en este capítulo para hablar
de los “dominios”. Y con ello me refiero a que plasma tanto el problema de la
“dominación” de ciertos grupos con ciertas cosas y también los propios
dominios (en lenguaje informático) como la fiebre del oro de .com.
IANA (Autoridad de Números Asignados de Internet) era un organismo que se
encargó durante la expansión de Internet de la delegación de nombre de
dominio consiguiendo que esta fuera justa, imparcial y lo más libre de ataduras
posible. El dominio era para el que primero llegase, pero con la muerte de John
Postel (creador y director) en 1998, EEUU decidió privatizar el organismo y la
lucha por nombres de dominio cortos y reconocibles estalló.
TimBL también habla de las cuatro capas que componen la estructura de la
tecnología de la red: los medios de transmisión, el hardware del ordenador, el
39
Ibid, p.116
30
software y la Web (el contenido). “El medio de transmisión conecta el hardware
en el escritorio de una persona, el software hace funcionar el acceso al web y
los sitios web, mientras que el propio web es sólo el contenido informativo que
existe gracias a las otras tres capas”. 40 Muchas compañías han jugado a tener
más poder en alguna de estas capas, como los acuerdos de empresas de líneas
telefónica y TV, o los proveedores de contenidos. Pero verdadero problema de
monopolización se daría si las fusiones y ampliaciones de empresa se diesen en
sentido vertical en algunas de las capas.
Por último destaca la importancia el hipertexto (unidad básica de la
construcción de la Web) y el “derecho a vincular”. Tras explicar las diferencias
básicas entre vínculos “normales” y vínculos “incorporados” adjunta su propia
valoración sobre tres mitos importantes con respecto a los hipervínculos y el
discurso libre.
En contra a las personas que defienden que el hipertexto infringe el copyright
de otra obra al ser citada, afirma que la capacidad de cita es derecho
fundamental del libre discurso. Frente a los que opinan que se debería pagar al
autor de la página u obra citada por referenciarla y hacer, implícitamente, que
tu obra aumente de valor; defiende que la gente que cita mediante hipertexto
no está robando absolutamente nada ya que el hipertexto les conduce a otra
página, la del propio autor. Y por último defiende la privacidad por medio de
autorizaciones si uno no quiere que le referencien o hagan público (o más
público) su contenido.
Capítulo 11: Privacidad (págs. 133-144)
El usuario de la Web debe contar con apoyo (técnico) para poder tener
confianza en la misma. En la Web todo queda registrado, las Cookies es un
código que muchas empresas utilizan para rastrear lo que un usuario concreto
navega, favorece en algunos casos a la propia persona pero en muchos otros
atenta contra su privacidad. El anonimato y la identidad bien definida son dos
polo opuestos pero ninguno de los dos se da al cien por cien en la Web. El
consorcio W3C lucha por conseguir llevar adelante el Proyecto de Plataforma
por las Preferencias en Privacidad (P3P) para que cualquier propietario de un
40
Ibid, p.121
31
ordenador pueda definir sus exigencias y que nadie las pudiese perturbar sin su
consentimiento.
La criptografía de clave pública (PKC) ofrece conseguir cuatro aspectos básicos
de seguridad: autenticidad, confidencialidad, integridad de mensajes y
honorabilidad. La calve pública de cualquier ordenador se puede cifrar para que
sólo acceda a su contenido las personas que sepan una clave privada asociada
a la pública. Un ejemplo es la Secure Stockets Layer, que se puede visualizar en
la URL de un navegador ya que comienza por el “prefijo” https://. ¿Cuál es el
problema? Que estos sistemas de encriptación sirven para la seguridad de
comunicación entre personas y contenidos privados pero no para asegurar que
un servidor es quien dice que es. Para esto se utiliza lo que se denomina firma
digital y que el W3C proyecta que se utilice en todos los documentos para
asegurar la autoría de los mismo.
La principal razón por la que no se utilizan estos sistemas son los bloqueos
gubernamentales por temor de no poder vigilar las conversaciones privadas y
de esta forma vigilar posibles complots terroristas. El W3E aboga por una Web
de Confianza, el sueño de la Web del futuro.
Capítulo 12: Mente a mente (págs. 145-162)
La Web Semántica, donde los ordenadores conectados a la red sean capaces de
analizar todos los datos de la Web, sean contenidos, vínculos o transacciones
entre personas y ordenadores; es la Web que TimBL había ideado en un
principio. Ahora, sigue pensando que será la filosofía de la Web del futuro.
La primera cuestión que no escapa al concepto de Web Semántica es la
independencia de localización. Es decir, que la tecnología sea lo más
transparente posible para que el usuario pueda interactuar con la información
sin estar atado a ciertas herramientas para acceder a ella.
El lenguaje Web del futuro será el XML, donde la información queda mejor
definida y se convierte en “extensible”. Un lenguaje nuevo que no sustituye al
HTML sino al SGML, sobre el que estaba construido el HTML. El XHTML es la
conjugación de los dos lenguajes contemporáneos de navegación.
La Web ha sufrido durante todos los años 90 y principios del siglo XXI grandes
cambios en su apariencia. Ahora es el momento de que todo siga creciendo
como con el uso de imágenes Scalable Vector Graphics, basada en XML; el
32
Vistual Reality Modeling Language (VRML) para tridimensionalidad; o el
Synchronized Multimedia Integration Language (SMIL) destinado a la
integración de contenidos hipermediales.
La creación de herramientas que le hagan todavía más fácil a las personas la
creación de páginas mediante HTML llegó a su culmen con los CSS (Cascading
Style Sheets), hojas de estilo para transformar objetos sencillos y texto en
HTML o XML.
Capítulo 13: Las máquinas y el Web (págs. 163-185)
TimBL insiste en que el primer paso para comenzar a crear la Web Semántica
es colocar datos “entendibles” por las máquinas dentro de la Web y que ellas
crearán la “magia”.
Basándose en la idea de Metadatos el Consorcio W3C está desarrollando un
lenguaje nuevo denominado RDF (Resource Description Framework), que
añade al XML información acerca de los datos y sus relaciones, dejando todo el
razonamiento expuesto y permitiendo ser modificado cuando las relaciones
hayan cambiado o los documentos se hayan metamorfoseado. TimBL
pronostica que la máquina se volverá inteligente en la Web. Que los
ordenadores aprenderán a describir, luego a suponer y finalmente a razonar,
mediante lenguajes de deducción que se lo expliquen. El campo de la
representación del conocimiento aglutina varios proyectos que han intentado
almacenar significados interrelacionados en un ordenador y ahora es el
momento de que la Web conozca “personalmente” a todo aquello que contiene.
Capítulo 14: Tejiendo la Red (págs. 186-195)
“¿Podrá el futuro Web cambiar el modo en que la gente trabaja junta (…)?
¿Puede usarse para cambiar el mundo?(…)” 41. TimBL deja, en este último
capítulo, sobre todo, una perspectiva optimista en cuanto al futuro de la Web.
No duda que la Web semántica salga adelante y triunfe, al igual que lo hizo la
World Wide Web, será un cambio lento pero la Web se perfeccionará, la
tecnología le ayudará a crecer y mejorar para servir las necesidades e
inquietudes del hombre.
41
Ibid, p.185
33
6. Conclusiones
La frase “renovarse o morir” es lo que mejor define el día en el que vivimos.
Las nuevas tecnologías no sólo nos facilitan la vida sino que son utilizadas por
todos nosotros como recursos de primera necesidad. Occidente no puede
separarse de los móviles de alta tecnología, Ipods y reproductores mp3,
ordenadores portátiles, cámaras de fotos y video digital, e Internet. Muchas
personas no pueden ni siquiera pasar varios días sin conectarse a la red, mirar
su email y visitar sus páginas personales o comerciales favoritas. La Web ha
conseguido que Internet
haya llegado al usuario medio, a todas nuestras
casas, a todos nuestros amigos y que ahora todos podamos navegar
fácilmente, sin conocimientos previos sobre programación por ejemplo.
Entenderla, amarla, pero sobre todo, utilizarla y explotarla. ¿A quién? A la Web.
Estos son los sentimientos que Tejiendo la Red inculca a quien la lee. Tim se
convierte en esta obra en un autobiografista, “auto” de si mismo y “auto”
también de una porción de su mente que se viene conociendo mundialmente
como World Wide Web. Retrata el pasado, presente y futuro de la Web y
expresa su opinión sobre la (no)confianza, la censura, la privacidad y el poder
en la red por excelencia.
No solo es un libro detallado de la historia de la Web, es una obra que posee
muchos rasgos personales que el autor ha dejado ver conscientemente. Sin
duda sorprende como uno de los mayores inventores de la historia, que ha
conseguido cambiar la condición de la vida moderna de una forma tan
desmesurada, se pare a detallar ejemplos cotidianos para relacionarlos con
conceptos tecno-sociológicos muy complejos. Este detalle, en mi sincera
opinión, es el mayor hándicap de Tejiendo la Red. Es decir, poder leer cómo
una celebridad te explica a ti, cómo lo hizo, con quién contó, qué pudo
conseguir y qué no, y cuál es su opinión sobre todos estos acontecimientos.
Dejando de lado los conceptos que se hayan podido conocer o entender mejor
tras esta lectura y análisis de Tejiendo la Red. Este trabajo de recerca a
significado una amplitud de mente y una reflexión de lo que la Web ha llegado
conseguir en un periodo tan corto de vida. Vale la pena viajar por la mente del
creador de aquello que no existe en ningún lugar físico, construido para y por
nosotros y que continúa creciendo sin límites.
34
BIBLIOGRAFÍA y webgrafía
BERNERS-LEE, Tim (1999). Tejiendo la Red. El inventor del World Wide Web
nos descubre su origen. Madrid: Siglo XXI de España Editores.
CARRETERO, Jesús (2001). Sistemas operativos: una visión aplicada. Madrid:
McGraw-Hill.
-
ADELL, Jordi. BELLVER, Carles. Internet como Telearaña: el Word Wide
Web.
Universitat
Jaume
I.
Castell.
<http://www.uv.es/biblios/mei3/Web022.html>
[en
[publicación:
línea]
2004].
[consulta: 17/01/2010].
-
DE VICENTE, Jose Luis. Los personajes del navegante. Científico:
Inventor de la World Wide Web. Tim Berners-Lee. [en línea]
<http://www.elmundo.es/navegante/personajes/bernerslee.html>
[Consulta: 17/01/2009].
-
LAMARCA, María Jesús. Hipertexto, el nuevo concepto de documento en
la cultura de la imagen. Hipermedia/Multimedia. Tesis doctoral.
Universidad
Complutense
de
Madrid.
[en
línea]
<http://www.hipertexto.info/documentos/hipermedia.htm>
[actualización: 10/12/2009]. [consulta: 03/01/2010].
-
W3C. ¿Qué es el Consorcio World Wide Web (W3C)? [en línea]
<http://www.w3c.es/Consorcio.html> [consulta: 19/01/10].
35
Descargar