Introducción

Anuncio
Introducción
Según el desarrollo de la comunicación en el mundo es importante reconocer como se ha desarrollado y cuales
son sus avances técnicos, novedosos y sobre todo de rapidez y eficacia, sea esta una de las principales cosas
que se deben tomar en cuanta al haber encontrado formas nuevas de comunicación en tiempos cortos y sobre
todo en ahorro de nivel económico, por lo que el desarrollo histórico del Internet es en la actualidad es una red
global de equipos informáticos que se comunican mediante un lenguaje común. Al conectarse a este sitio Web
a lo que se llama conexión. Y es similar al sistema de teléfonos internacional: donde nadie posee ni controla
todo el conjunto, pero está conectado de forma que funcione como una gran red.
Hoy en la actualidad, hay entre treinta y cuarenta millones de personas que tienen acceso a Internet.
El World Wide Web (el Web o WWW) proporciona una interfaz gráfica por la que es fácil desplazarse para
buscar documentos en Internet. Estos documentos, así como los vínculos entre ellos, componen una red de
información. Para lo que nos servirán y ayudarán a establecer una mejor opción en la comunicación y
determinar los campos de acción y así poder establecerlos llevando a cabo nuestra propia satisfacción en la
investigación.
Por eso en el presente ensayo podemos determinar algunos de los medios y elementos que son necesarios para
poder incrementar medios de información en las investigaciones y así entender, contactar y llevar a cabo una
buena investigación.
El Internet es un recurso sofisticado, por su estructura y por su manejo, pero a su ves es el recurso utilizado
por las empresas para mantener una mejor comunicación con sus clientes y en el mismo mercado; en las
escuelas también es el medio en el que se les proporciona a los estudiantes información de investigación en
temas específicos y sobre todo de comunicación con otros estudiantes mediante el uso del E−Mail.
Origen del Internet
El Internet nació mas o menos 20 años, como una red del "US Derpartament of Defense", llamada el
ARPAnet. El ARPAnet fue una red experimental diseñada para investigaciones militares y en particular para
investigaciones sobre como construir redes que pudieran resistir daños parciales y continúen funcionando.
En el modelo ARPAnet, la comunicación ocurre siempre entre un computador origen y otro destino. Se asume
que la red como tal es una red inestable, de tal forma que cualquier porción de la red podría desaparecer en el
momento más inesperado debido a causas externas.
Las computadoras interconectadas son las que tendrían la responsabilidad de asegurar la comunicación que se
hubiera establecido. Estas concepciones pueden resultar raras, pero la historia ha demostrado que muchas de
estas estuvieron correctas. Aunque la Organización para la estandarización Internacional estuvo dedicando
varios años al diseño de un standard para redes de computadoras, la gente no pudo esperar. Los responsables
del desarrollo del Internet, respondiendo a las presiones del mercado, empezaron a colocar su software en
cada tipo de computador existente.
Casi 10 años después, las redes LAN y las estaciones de trabajo hicieron su aparición. Muchas de estas
estaciones de trabajo el Berkeley Unix, que incorporaban por defecto los módulos para interconexión IP. Esto
creó una nueva demanda; más que interconectar un simple grupo de computadores, las organizaciones querían
interconectar al ARPAnet todas sus redes LAN. Esto permitiría a todas las computadoras de las LANS
acceder a las facilidades de la red ARPAnet. A finales de los 80 la NSF creó cinco centros equipados con
supercomputadoras. Hasta ese momento, las computadoras más rápidas en el mundo estaban disponibles solo
1
para que estos recursos estuvieran al alcance de cualquier investigador académico. Solo cinco centros de
cómputos fueron creados debido a sus altos costos de mantenimientos, sin embargo el mantenerlos
interconectados creaba un problema de comunicación.
Es así como el NSF decide construir su propia red, basada e tecnología IP del ARPAnet. Esta red interconectó
los cinco centros de la NFS con las líneas telefónicas de 56 Kbps. Se decide crear adicionalmente redes
regionales donde las instituciones interconectadas se unirán a algunos de los cinco centros de cómputos de la
NSF en un solo punto. Con esta configuración, cualquier computador podría eventualmente comunicarse con
cualquier otro redireccionado la conversación a través de los computadores vecinos interconectados.
Las supercomputadoras distribuidas en cinco centros de la NSF permitieron a los sitios interconectados,
compartir una gran cantidad de información no relacionada al centro precisamente. El tráfico de la red se
incremento, sobrecargando los computadores que los interconectaban. En 1987, un contrato para administrar i
renovar la red fue realizado con la empresa Merit Network Ink; que implemento la red educacional de
Michigan conjuntamente con IBM y MCI. La antigua red fue remplazada con líneas telefónicas más veloces y
con computadoras más rápidas para controlarla.
Este crecimiento y renovación de la NSFnet continua hasta nuestros días. En la actualidad, el Internet no solo
está conformado por redes interconectadas usando el protocolo IP, sino recientemente redes basadas en
protocolos diferentes al IP han desarrollado módulos que las integran con las redes IP tradicionales.
Leonard Kleinrock en el MIT publicó el primer documento sobre teoría de conmutación de conjunto de bits en
julio 1961 y el primer de libro en el tema en 1964. Kleinrock convenció a Roberts de la viabilidad teórica de
comunicaciones usando los paquetes más bien que los circuitos, que era un paso de progresión importante a lo
largo del camino hacia establecimiento de una red del ordenador. El otro paso de progresión dominante era
hacer que los ordenadores hablan junto. Explorar esto, en 1965 que trabajaba con Thomas Merrill, Roberts
conectó el ordenador TX−2 en masa. al Q−32 en California con una línea telefónica de marcado manual de la
velocidad baja que crea la red de ordenadores de la primera ancho−área (al menos pequeña) construida
siempre. El resultado de este experimento era la realización que los ordenadores compartidos el tiempo
podrían trabajar bien junta, programas que se ejecutaban y los datos el extraer como necesario en la máquina
remota, pero que era totalmente inadecuado el sistema de teléfono con conmutador de circuito para el trabajo.
La convicción de Kleinrock de la necesidad de la conmutación de conjunto de bits fue confirmada.
En último 1966 Roberts fue a DARPA a desarrollar el concepto de la red de ordenadores y a juntar
rápidamente su plan para el " ARPANET ", publicándolo en 1967. En la conferencia donde él presentó el
papel, había también un documento sobre un concepto de la red del paquete del Reino Unido de Donald
Davies y Roger Scantlebury de NPL. Scantlebury dijo a Roberts sobre el trabajo de NPL tan bien como el de
Paul Baran y otros en el RAND. El grupo del RAND había escrito gf en los militares en 1964. Sucedió que el
trabajo en MIT (1961−1967), en el RAND (1962−1965), y en NPL (1964−1967) tenía todo procedió en
paralelo sin cualesquiera de los investigadores que sabían sobre el otro trabajo. La palabra " paquete " fue
adoptada del trabajo en NPL y la velocidad de línea propuesta que se utilizará en el diseño de ARPANET fue
aumentada a partir de 2,4 kbps a 50 kbps. 5
En agosto de 1968, después de Roberts y del DARPA financió a comunidad había refinado la estructura total
y las especificaciones para el ARPANET, un RFQ release/versión por DARPA para el desarrollo de uno de
los componentes dominantes, los interruptores de paquete llamados los procesadores de Interface Message
(IMP's). El RFQ fue ganado en diciembre de 1968 por un grupo dirigido por Frank Heart en el perno Beranek
y Newman (BBN). Mientras que el equipo del BBN trabajó en el IMP's con Bob Kahn que desempeñaba un
papel importante en el diseño arquitectónico total de ARPANET, la topología y la economía de la red fueron
diseñadas y optimizadas por Roberts que trabajaba con la carta franca de Howard y su equipo en la
corporación del análisis de red, y el sistema de la medida de la red fue preparado por el equipo de Kleinrock
en UCLA.
2
Debido al desarrollo temprano de Kleinrock de la teoría de conmutación de conjunto de bits y de su foco en
análisis, diseño y la medida, su centro de la medida de la red en UCLA fue seleccionado para ser el primer
nodo en el ARPANET. Todo el esto vino junto en septiembre de 1969 en que el BBN instaló el primer IMP
en UCLA y el primer ordenador huesped fue conectado. El proyecto de Doug Engelbart sobre el " aumento de
la intelecto humana " (que NLS incluido, un sistema temprano del hypertext) en el instituto de investigación
de Stanford (SRI) proporcionó a un segundo nodo. SRI utilizó el Network Information Center, conducido por
Elizabeth (Jake) Feinler y las funciones el incluir tales como vectores el mantener del nombre de ordenador
principal a asociar de direccionamiento así como un directorio del RFC's. Un mes más adelante, cuando SRI
fue conectado con el ARPANET, el primer mensaje del ordenador principal−a−ordenador principal fue
enviado del laboratorio de Kleinrock a SRI. que dos más nodos fueron agregados en Santa UC Barbara y
universidad de Utah. Estos dos nodos pasados incorporaron proyectos de la visualización de la aplicación, con
la cañada Culler y Burton frito en los métodos el investigar del UCSB para la visualización de funciones
matemáticas usando visualizaciones del almacenaje para ocuparse del problema de restaure concluído la red, y
la personalización de Roberto e Ivan Sutherland en los métodos el investigar de Utah de representaciones
TRIDIMENSIONALES concluído la red. Así, antes de fin de 1969, cuatro ordenadores huesped fueron
conectados juntos en el ARPANET inicial, y el florecimiento Internet estaba de la tierra. Incluso en este
primero tiempo, debe ser observado que la investigación del establecimiento de una red incorporó el trabajo
sobre la red subyacente y el trabajo sobre cómo utilizar la red. Esta tradición continúa a este día.
Los ordenadores fueron agregados rápidamente al ARPANET durante los años siguientes, y el trabajo
procedió en terminar el protocolo funcionalmente completo de Host−to−Host y el otro software lógica de red.
En diciembre de 1970 el grupo de funcionamiento de la red (NWG) que trabajaba bajo S. Crocker acabó el
protocolo inicial de ARPANET Host−to−Host, llamado el protocolo del control de la red (NCP). Pues el
ARPANET localiza terminado poniendo NCP en ejecución durante el período 1971−1972, los utilizadores de
la red finalmente podrían comenzar a desarrollar aplicaciones.
En octubre 1972 de Kahn ordenado una demostración grande, muy acertada del ARPANET en la conferencia
internacional de la comunicación del ordenador (ICCC). Ésta era la primera demostración pública de esta
nueva tecnología de red al público. Era también en 1972 que la aplicación " caliente " inicial, correo
electrónico, fue introducida. En el rayo de marcha Tomlinson en el BBN escribió el mensaje básico del email
envía y leyó el software lógica, motivado por la necesidad de los reveladores de ARPANET de un mecanismo
fácil de la coordinación. En julio, Roberts amplió su utilitario escribiendo al primer email programa utilitario
a la lista, selectivamente leyó, clasifía, lo remite, y responde a los mensajes. Allí del email sacado como la
aplicación de la red más grande por concluído una década. Éste era un harbinger de la clase de actividad que
vemos en el World Wide Web hoy, a saber, el crecimiento enorme de todas las clases de tráfico de la "
gente−a−gente ".
Cómo funciona Internet
Internet es un conjunto de redes locales conectadas entre sí a través de un ordenador especial por cada red,
conocido como gateway. Las interconexiones entre gateways se efectúan a través de diversas vías de
comunicación, entre las que figuran líneas telefónicas, fibras ópticas y enlaces por radio. Pueden añadirse
redes adicionales conectando nuevas puertas. La información que debe enviarse a una máquina remota se
etiqueta con la dirección computerizada de dicha máquina.
Los distintos tipos de servicio proporcionados por Internet utilizan diferentes formatos de dirección
(Dirección de Internet). Uno de los formatos se conoce como decimal con puntos, por ejemplo 123.45.67.89.
Otro formato describe el nombre del ordenador de destino y otras informaciones para el encaminamiento, por
ejemplo 'mayor.dia.fi.upm.es'. Las redes situadas fuera de Estados Unidos utilizan sufijos que indican el país,
por ejemplo (.es) para España o (.ar) para Argentina. Dentro de Estados Unidos, el sufijo anterior especifica el
tipo de organización a que pertenece la red informática en cuestión, que por ejemplo puede ser una institución
educativa (.edu), un centro militar (.mil), una oficina del Gobierno (.gov) o una organización sin ánimo de
3
lucro (.org).
Una vez direccionada, la información sale de su red de origen a través de la puerta. De allí es encaminada de
puerta en puerta hasta que llega a la red local que contiene la máquina de destino. Internet no tiene un control
central, es decir, ningún ordenador individual que dirija el flujo de información. Esto diferencia a Internet y a
los sistemas de redes semejantes de otros tipos de servicios informáticos de red como CompuServe, America
Online o Microsoft Network.
Conexión con Internet
Para acceder a los recursos de Internet lo primero que necesitas es conectar el ordenador a la red. Esto se
puede hacer mediante conexiones temporales o permanentes. Un proveedor de servicios te dará acceso a
Internet. La localización donde el proveedor tiene el equipamiento para conectar al cliente es el punto de
acceso. A continuación encontrarás los métodos más comunes y efectivos para conectarte.
Acceso Dial−Up
El coste de acceso a Internet vía módem es relativamente bajo. Funciona con una línea telefónica analógica
standard y ofrece una velocidad de conexión de hasta 33.6 Kbps. Las conexiones por módem están pensadas
para las conexiones temporales a Internet.
Si eliges este tipo de conexión, necesitas un módem y una línea telefónica.
Tipos de conexión con Internet
Los tipos de conexiones que se describen es posible que en otros países los servicios de Internet que se
proporcionan a través de los proveedores de servicios de Internet varíen considerablemente. Puede que
observe otras diferencias, dependiendo de la naturaleza del hardware, el contenido que haga disponible desde
su sitio y otras variables.
Los servidores con poca carga de trabajo pueden usar conexiones Frame Relay o RSDI (ISDN). Los
servidores con tráfico medio pueden usar una línea T1 o una fracción de línea T1. Las grandes organizaciones
que prevén gran tráfico en Internet pueden necesitar varias líneas T1 completas o fraccionadas, o incluso
líneas T3 para poder dar servicio a miles de usuarios.
RDSI Red Digital de Servicios Integrados
Una línea RDSI es muy parecida a una línea telefónica standard, excepto que es totalmente digital y ofrece
una velocidad de conexión mucho más alta, hasta de 128 Kbps.
Las líneas RDSI están pensadas para ser usadas por pequeñas empresas y personas que necesitan usar Internet
en su vida profesional.
Si eliges una conexión por RDSI, lo primero que hace falta es una línea telefónica RDSI y un adaptador
RDSI.
También se puede comprar un paquete integrado que incluya línea RDSI, hardware, software y soporte
técnico. Si ya tienes una red local (LAN) en tu oficina y quieres dar acceso a Internet a varios ordenadores,
también se puede usar una configuración multipunto.
Este tipo de solución es más económico que la solución "tradicional" con router y cortafuegos.
Conexión permanente
4
Frame Relay
Este tipo de conexión permite un enlace de comunicación permanente dedicado entre dos localizaciones. El
ordenador conecta directamente con la red (frame network) que actúa como un nodo donde también está
conectado el proveedor que establece la conexión a Internet. En este caso, el nodo es compartido por todos los
clientes que usan la red. Por este motivo la conexión puede ser más lenta que si se usa otro tipo de conexión
permanente como una línea dedicada. La velocidad de una conexión Frame Relay varia de 56 Kbps a T1 (1,5
Mbps). La conexión es más cara cuanto más rápida sea.
Una línea Frame Relay es muy recomendable. En particular, para sitios con un nivel de tráfico medio y correo
electrónico de mucho tráfico.
Línea dedicada
Una línea dedicada opera de manera similar a la tecnología Frame Relay con la gran diferencia de que la
conexión es punto a punto. Es decir, no existe un nodo que actúe de intermediario, sino que es una línea sólo
para el tráfico del usuario. El resultado es una conexión más rápida, menos fallos y mayor seguridad. La
velocidad de las líneas dedicadas varía de 56 Kbps a T3 (4,5 Mbps). Si se puede pagar, una línea dedicada es
desde luego la mejor elección para una conexión permanente a Internet.
Correo Electrónico (e−mail)
El usuario de Internet puede enviar y recibir mensajes de cualquier otro usuario de la red. Es más, puede
enviar mensajes a otros sistemas de correo que estén conectados a Internet.
Sin embargo el Correo Electrónico no sólo significa mensajes personales, sino cualquier cosa que se pueda
almacenar en un archivo se puede enviar, como por ejemplo un programa fuente o una foto escaneada.
Conexión Remota
Se puede efectuar una conexión, mediante telnet, a cualquier ordenador dentro de Internet, con lo que
pasaríamos a utilizar ese equipo como si estuviéramos delante de él. Como es lógico para efectuar este
proceso la mayoría de las veces se requiere disponer de una cuenta y una palabra de acceso (password).
Servicio Finger
La mayoría de los ordenadores en Internet tienen una utilidad que permite buscar información sobre un
usuario en particular. Este servicio es conocido como finger.
FTP
Este servicio permite copiar archivos de un ordenador a otro. El servicio FTP Anónimo es un servicio público
por el cual una organización pone a disposición de todo el mundo una serie de archivos. Para acceder es
habitual el uso del identificador de usuario anonymous, sin necesidad de clave. Mediante este procedimiento
se pueden obtener muchos programas, ya sean de dominio público o soportados por el usuario.
Servidores Archie
El papel de estos servidores es ayudar a localizar donde se encuentra la información que se necesita.
Supongamos que buscamos un programa dado, entonces se puede utilizar un servidor Archie para que nos
indique los servidores de FTP que almacenan ese archivo.
5
Internet Relay Chat
La utilidad IRC permite establecer conexiones entre ordenadores, a través de Internet, para intercambiar
mensajes de forma interactiva. Se puede tomar parte en conversaciones públicas con un gran número de
personas. Normalmente se organizan sobre distintos temas o ideas. Alternativamente se puede utilizar IRC
para una conversación privada.
Gopher
Gopher proporciona una serie de menús desde los que se puede acceder a cualquier tipo de información
textual, incluyendo la que proporcionan otros recursos de Internet. Hay muchos sistemas Gopher, cada uno
tiene la información que las personas que lo administran localmente han decidido compartir. La mayoría de
los sistemas Gopher están conectados entre sí.
Verónica
Verónica es una herramienta que permite mantener la pista de muchos menús de Gopher alrededor del mundo.
Se puede utilizar Verónica para realizar una búsqueda y localizar todas las opciones de menú que tienen
ciertas palabras clave. El resultado es un menú con todo lo que se ha encontrado.
Servidores Wais
Proporcionan otra forma de búsqueda de información que se encuentra dispersa en la red. A Wais se le dice en
que base de datos ha de hacer la búsqueda, buscando cada palabra en cada artículo de las bases de datos
indicadas. Desde esta lista es posible decirle a Wais que muestre cualquiera de los artículos elegidos.
Que ventajas ofrece Internet?
Son muchas las ventajas que Internet nos ofrece, podríamos llenar páginas enteras de bondades, pero
trataremos de citar las principales.
Acceso Global: Uno ingresa a la red a través de una llamada telefónica o una línea alquilada directa a Internet
y el acceso a la información no posee un costo de comunicación extra para la información este donde este
esta, que puede ser localmente o en otro país.
Acercamiento con los clientes: Mediante Internet y el correo electrónico, se tiene llegada a personas e
información dentro y fuera de las empresas que para realizarlo por medio de otras tecnologías en algunos
casos se tornaría imposible (Ej. Gtes de empresas, foros de discusión etc.).
Relaciones mediante hiperlinks: Con el solo click de un botón paso de un
servidor de información a otro en forma transparente y gráfica.
Bajo Costo: El costo es relativamente bajo, ya que se abona el costo de una llamada local y el de un ISP que
puede oscilar entre $30 a $45 mensuales en promedio, dependiendo del tipo de servicio (10 horas de
navegación o tarifa plana).
¿Qué es TCP/IP ?
Como se ha visto, Internet está construida sobre una colección de redes que cubren el mundo. Estas redes
conectan diferentes tipos de ordenadores, y de alguna forma ha de existir algún protocolo que las una, que es
conocido como TCP/IP.
6
Para garantizar que un conjunto de ordenadores pueden trabajar juntos, los programadores hacen sus
programas según protocolos estándares. Un protocolo es una serie de reglas que describen técnicamente, cómo
deben hacerse determinadas tareas. Por ejemplo, un protocolo ha de describir el formato que ha de tener un
mensaje. Todos los programas de correo de Internet lo seguirán cuando preparen un mensaje para su envío a
la red.
TCP/IP es el nombre común de una colección de más de 100 protocolos que nos permiten conectar
ordenadores y redes. El nombre viene de dos protocolos importantes, TCP (Transmission Control Protocol) e
IP (Internet Protocol).
Dentro de Internet la información se transmite en pequeños trozo de información, denominados paquetes. Por
ejemplo si enviamos un mensaje extenso de correo electrónico, TCP divide este mensaje en paquetes, cada
uno marcado con un número de secuencia y con la dirección del destinatario, además de incluir información
de control de errores.
Estos paquetes se envían a la red, donde el trabajo de IP es transportarlos hasta el equipo remoto, en el otro
extremo TCP recibe los paquetes y comprueba si hay errores, una recibidos todos, basándose en los números
de secuencia reconstruye el mensaje original.
El partir los datos en paquetes tiene beneficios importantes. Primero, permite utilizar en Internet las mismas
líneas de comunicación a varios usuarios simultáneamente. Otra ventaja es que cuando algo va mal, sólo tiene
que retransmitirse un paquete, en lugar del mensaje completo. Esto incrementa la velocidad.
En resumen se puede decir que Internet depende de miles de redes y millones de ordenadores, y que TCP/IP
es el pegamento que mantiene todo unido.
Otros tipos de conexiones
Cable Modem
El "Cable Modem" es un dispositivo que permite el acceso a alta velocidad a Internet y a Intranets, asimismo,
brinda servicios de transporte de datos, empleando para ello la red de televisión por cable (CATV). La
mayoría de los Cable Modems son dispositivos externos que se conectan por un lado a la red de televisión por
cable, mientras que por el otro se conectan a la PC del usuario.
Cualquier persona que navega por Internet utilizando los medios convencionales puede constatar las
velocidades de transmisión relativamente bajas para el manejo de páginas Web el alto contenido multimedia y
VRML (fotografías, gráficos, vídeos digitalizados, etc.). La tecnología de los Cable Modems permite acceder
a Internet rápidamente en cualquier momento, lo que implica navegar instantáneamente, eliminándose la
frustración diaria de un típico navegante en Internet.
Ventajas :
− Alta velocidad de acceso y navegación (puede llegar a los MegaBytes por segundo).
− Rápido tiempo de conexión.
− Libera el empleo de las líneas telefónicas (toda la comunicación se realiza por la red CATV).
− La tecnología de Cable Modems ofrece una amplia gama de velocidades compartidas por los usuarios
dependiendo de la tecnología empleada, la arquitectura de red y tráfico. En la dirección de bajada (desde
Internet al usuario) pueden alcanzar velocidades de hasta 40mbps, mientras que en la dirección opuesta (desde
7
el usuario a Internet) las velocidades pueden llegar a los 10Mbps.
Por otro lado, la velocidad real que las computadoras personales pueden manejar actualmente dependen de
dos cuellos de botella, uno de ellos es el acceso a la red, la cual es a través de una tarjeta Ethernet 10BaseT, y
el otro lo determina el procesador y el bus interno de la PC utilizada, lo cual limita a las PCs a una velocidad
típica tope de acceso de 1.5Mbs a 3Mbps, si tomamos como ejemplo un acceso RDSI de 128 Kbps, se estará
logrando velocidades reales 12 veces mayores.
El hecho de utilizar la palabra "modem" para describir a este dispositivo de comunicaciones "Cable Modem",
puede generar cierta confusión pues puede asociarse a la típica imagen de un modem de línea telefonía. Este
es un modem en el sentido real del término pues modula y demodula señales, aunque posee funcionalidades
más complejas tales como ser un dispositivo sintonizador, un codificador/decodificador, un bridge, un
ruteador, una tarjeta de red, un agente SNMP y también un concentrador de red.
World Wide Web
El Proyecto World Wide Web nació en respuesta a la necesidad que la comunidad científica internacional
tenía de nuevos sistemas de distribución de la información. Este fue uno de los objetivos que se planteó Tim
Berners−Lee (ingeniero británico) cuando en 1989 presentó a sus superiores del CERN la propuesta original
para el proyecto World Wide Web.
El CERN es el Laboratorio Europeo de Física de Partículas que, sito en Ginebra, es financiado por 19 países
de la UE. El WWW (como también se le llama) se pensó como un medio de distribución de la información
entre equipos investigadores geográficamente dispersos, en concreto, para la comunidad de físicos de altas
energías vinculados al CERN. Se pretendía que los recursos disponibles en formato electrónico, que residían
en distintas computadoras conectadas a la red, y que fuesen accesibles para cada investigador desde su propia
terminal de forma clara y simple, sin necesidad de aprender varios programas distintos. Además debería
posibilitarse el salto entre elementos de información conexos. Todos los recursos existentes deberían
integrarse en una red hipertextual gestionada por computadoras.
Las primeras versiones de WWW (para uso interno del CERN) estuvieron listas en 1991. Ese año también, el
sistema se abrió ya a Internet y, desde entonces, para acceder al World Wide Web no se requiere más que un
terminal conectado a Internet. La máxima facilidad de uso y el máximo rendimiento se alcanzan con una
pantalla gráfica (modelos Next o Macintosh, un X−Terminal o un PC con tarjeta gráfica).
Así, el sistema nos ofrece hipertextos (imágenes y textos vinculados). Las palabras que van subrayadas y las
imágenes recuadradas son links que nos conducen a otros nodos. Para hacerlo, basta situar el puntero del ratón
encima de ellos y pulsar el botón. Recordamos que el servidor de información de llegada puede ser otro
hipertexto o también un servidor no hipertextual integrado en la red: un servidor Gopher, un grupo de news,
una búsqueda en una base de datos Wais, etc.
El éxito del World Wide Web (algo así como "telaraña mundial") ha sido espectacular, pasando en el año 93
de 50 a 500 servidores de información. En el 94 ya se contabilizaban por miles y en la actualidad se calcula
que existen más de 5 millones de páginas Web. En España había, en 1994, trece servidores WWW; el primero
fue el del Departamento de Educación de la Universidad Jaume I. Existen Web's de todos los tipos, de
universidades, empresas, organizaciones...
Desde hace casi un año, el líder en investigación y desarrollo del núcleo del Web es el MIT (Massachusetts
Institute of Technology) de Boston, EEUU. La Unión Europea decidió, a través del Convenio WWW (en el
que también participa el instituto francés INRIA), el traspaso de toda la información disponible en el CERN al
MIT, justificando el acuerdo por la marcha del inventor del Web, Tim Berners−Lee al citado instituto
norteamericano.
8
En resumen, el Internet pasó del caos inicial al Wais, creado por un grupo de empresas en 1989. Más tarde
apareció el Gopher (Universidad de Minessota, 1991) que constaba de ventanas simples y utilizaba FTP y
Wais. Finalmente, a finales de 1990 el WWW fue inventado en el CERN.
Arquitectura del world wide web
El WWW responde a un modelo "cliente − servidor". Se trata de un paradigma de división del trabajo
informático en el que las tareas se reparten entre un número de clientes que efectúan peticiones de servicios de
acuerdo con un protocolo, y un número de servidores que responden a estas peticiones. En el Web los clientes
demandan hipertextos a los servidores. Para desarrollar un sistema de este tipo ha sido necesario:
a)Un nuevo protocolo que permite saltos hipertextuales, es decir, de un nodo origen a otro de destino, que
puede ser texto, imágenes, sonido, animaciones, vídeo, etc. Este protocolo se denomina HTTP (Hyper Text
Transfer Protocol) y es el lenguaje que hablan los servidores.
b)Inventar un nuevo lenguaje para representar hipertextos que incluyera información sobre la estructura y
formato de representación y, especialmente, indicara el origen y destinos de los saltos de hipertexto. Este
lenguaje es el HTML (Hyper Text Markup Languaje).
c)Idear una forma de codificar las instrucciones para los salto hipertextuales de un objeto a otro de la Internet
(algo vital dado el caos anterior).
d)Desarrollar aplicaciones cliente para todo tipo de plataformas y resolver el problema de cómo se accede a la
información que está almacenada, y que ésta sea disponible a través de los diversos protocolos (FTP, HTTP,
WAIS...) y que representen a su vez información multiformato (texto, imágenes, animaciones, etc.). Con este
fin aparecen varios clientes, entre los que destacan MOSAIC del NCSA (Universidad de Chicago) y
NETSCAPE Navigator de Netscape Communications Corporation.
HTTP
El HTTP es el protocolo de alto nivel del World Wide Web que rige el intercambio de mensajes entre clientes
y servidores del Web. Se trata de un protocolo genérico orientado a objetos que no mantiene la conexión entre
transacciones.
Se diseñó especialmente para entender las exigencias de un sistema Hipermedia distribuido como es el World
Wide Web. Sus principales características son:
Ligereza: reduce la comunicación entre clientes y servidores a intercambios discretos, de modo que no
sobrecarga la red y permite saltos hipertextuales rápidos. Generalidad: puede utilizarse para transferir
cualquier tipo de datos (según el estándar MIME sobre el tráfico multimedia que incluye también los que se
desarrollen en el futuro)
Extensibilidad: contempla distintos tipos de transacciones entre clientes y servidores y el futuro desarrollo de
otros nuevos. Según Berners−Lee (1993) el esquema básico de cualquier transacción HTTP entre un cliente y
un servidor es el siguiente:
Conexión: El cliente establece una conexión con el servidor a través del puerto 80 (puerto estándar), u otro
especificado. * Petición: El cliente envía una petición al servidor. *Respuesta: El servidor envía al cliente la
respuesta (es decir, el objeto demandado o un código de error). * Cierre: Ambas partes cierran la conexión. La
eficiencia del HTTP posibilita la transmisión de objetos multimedia y la realización de saltos hipertextuales
con gran rapidez. La Figura 3 muestra una página Web con su correspondiente dirección HTTP.
9
URL
Los URL (Uniform Resource Locator) son "localizadores" de direcciones dentro de la red, que relacionan un
servicio con un servidor. Constituyen la herramienta esencial del Web, ya que permiten la localización y
conexión con cualquier servidor y recurso del Internet.
Impacto social
Aunque la interacción informática todavía está en su infancia, ha cambiado espectacularmente el mundo en
que vivimos, eliminando las barreras del tiempo y la distancia y permitiendo a la gente compartir información
y trabajar en colaboración. El avance hacia la 'superautopista de la información' continuará a un ritmo cada
vez más rápido. El contenido disponible crecerá rápidamente, lo que hará más fácil encontrar cualquier
información en Internet. Las nuevas aplicaciones permitirán realizar transacciones económicas de forma
segura y proporcionarán nuevas oportunidades para el comercio. Las nuevas tecnologías aumentarán la
velocidad de transferencia de información, lo que hará posible la transferencia directa de 'ocio a la carta'. Es
posible que las actuales transmisiones de televisión generales se vean sustituidas por transmisiones específicas
en las que cada hogar reciba una señal especialmente diseñada para los gustos de sus miembros, para que
puedan ver lo que quieran en el momento que quieran.
El crecimiento explosivo de Internet ha hecho que se planteen importantes cuestiones relativas a la censura. El
aumento de las páginas de Web que contenían textos y gráficos en los que se denigraba a una minoría, se
fomentaba el racismo o se exponía material pornográfico llevó a pedir que los suministradores de Internet
cumplieran voluntariamente unos determinados criterios. En 1996 se aprobó en Estados Unidos la Ley para la
Decencia en las Comunicaciones, que convirtió en delito el que un suministrador de servicios transmitiera
material indecente a través de Internet. La decisión provocó inmediatamente una reacción indignada de
usuarios, expertos del sector y grupos en favor de las libertades civiles, que se oponían a ese tipo de censuras.
La ley fue impugnada y posteriormente suspendida en junio de 1996 por un comité de jueces federales. El
comité describió Internet como una conversación planetaria continua que merecía la máxima protección frente
a la injerencia gubernamental. Probablemente, la decisión del comité será recurrida ante el Tribunal Supremo
de Estados Unidos.
La censura en Internet plantea muchas cuestiones. La mayoría de los servicios de la red no pueden vigilar y
controlar constantemente lo que dice la gente en Internet a través de sus servidores. A la hora de tratar con
información procedente de otros países surgen problemas legales; incluso aunque fuera posible un control
supranacional, habría que determinar unos criterios mundiales de comportamiento y ética.
Comercialización de la tecnología
Comercialización del Internet implicada no solamente el desarrollo de los servicios de red competitivos,
privados, pero también del desarrollo de los productos comerciales que ponen la tecnología en ejecución
Internet. En los años 80 tempranos, las docenas de vendedores incorporaban el TCP/IP en sus productos
porque consideraron a compradores para ese acercamiento al establecimiento de una red. Desafortunadamente
faltaron la información verdadera sobre cómo la tecnología fue supuesta para trabajar y cómo los clientes
planearon en usar este acercamiento al establecimiento de una red. Mucho sierra él como agregación del
fastidio que tuvo que ser pegada encendido a sus propias soluciones propietarias del establecimiento de una
red: SNA, DECNet, Netware, NetBios. El DoD había asignado el uso por mandato del TCP/IP en muchas de
sus compras pero dio poco ayuda a los vendedores con respecto cómo construir productos útiles del TCP/IP.
En 1985, reconociendo esta carencia de la disponibilidad de la información y del entrenamiento apropiado,
Dan Lynch en la cooperación con el IAB dispuesto para sostener un taller de tres días para que TODOS LOS
vendedores vengan aprende sobre cómo el TCP/IP trabajó y lo que todavía no podría hacer bien. Los
altavoces vinieron sobre todo de la comunidad de investigación de DARPA que se había convertido estos
10
protocolos y les había utilizado en trabajo cotidiano. Cerca de 250 personal del vendedor vino escuchar 50
inventores y experimentadores. Los resultados eran sorpresas en ambas caras: sorprendieron encontrar que
fueran los inventores así que abierto sobre las cosas de la manera trabajó (y qué todavía no lo hicieron trabajo)
y los inventores estuvieron satisfechos para escuchar los nuevos problemas que no habían considerado, pero
eran descubiertos a los vendedores por los vendedores en el campo. Así una discusión de dos maneras fue
formada que tiene duró por concluído una década.
Después de dos años de las conferencias, guías, reuniones del diseño y talleres, un acontecimiento especial fue
ordenado que invitó a esos vendedores que productos ejecutaron el receptor de papel del TCP/IP bastante para
venir juntos en un sitio por tres días de mostrar de cómo está bien trabajaron todo juntos y también se
ejecutaron concluído el Internet. En septiembre de 1988 la primera demostración comercial de Interop fue
llevada. 50 compañías hechas cortar a 5.000 ingenieros de organizaciones potenciales del cliente vinieron
considerar si toda trabajó como fue prometido. . Por qué? Porque los vendedores trabajaron extremadamente
difícilmente para asegurarse de que cada uno los productos interoperated con todos los otros productos −
incluso con los de sus competidores. La demostración comercial de Interop ha crecido inmenso desde
entonces y se sostiene hoy en 7 localizaciones alrededor del mundo cada año a una audiencia concluído de
250.000 personas que vengan aprender qué productos trabajan con uno a de una manera inconsútil, aprenden
sobre los últimos productos, y discuten la última tecnología.
En paralelo a los esfuerzos de la comercialización que fueron destacados por las actividades de Interop, los
vendedores comenzaron a assistir a las reuniones del IETF que fueron celebradas 3 o 4 veces al año de
discutir las nuevas ideas para las extensiones de la habitación del protocolo del TCP/IP. Comenzando con
algunos cientos asistentes sobre todo de la academia y pagados por el gobierno, estas reuniones ahora exceden
a menudo a mil asistentes, sobre todo de la comunidad del vendedor y pagado por los asistentes ellos mismos.
Este grupo self−selected desarrolla la habitación del TCP/IP de una manera mutuamente cooperativa. La
razón es así que útil es que está abarcada de todos los tenedores de apuestas: investigadores, utilizadores del
extremo y vendedores.
La dirección de la red proporciona a un ejemplo de la interacción entre la investigación y las comunidades
comerciales. En el principio del Internet, el énfasis estaba en definir y poner los protocolos en ejecución que
alcanzaron el interoperation. Mientras que la red creció más grande, llegó a estar claro que alguna vez los
procedimientos hoc del anuncio usados para manejar la red no escalarían. La configuración manual de
vectores fue substituida por algoritmos automatizados distribuidos, y herramientas mejores fueron ideadas
para aislar incidentes. En 1987 llegó a estar claro que un protocolo era necesario que permitiría los elementos
de la red, tales como las rebajadoras, para ser manejado remotamente de una manera uniforme. Varios
protocolos para este propósito fueron propuestos, incluyendo el Simple Network Management Protocol o el
SNMP (diseñado, pues su nombre sugeriría, para la simplicidad, y derivado de una oferta anterior llamada
SGMP), los DOBLADILLOS (un diseño más complejo de la comunidad de investigación) y CMIP (de la
comunidad de la OSI). Una serie de reunión condujo a las decisiones que los DOBLADILLOS serían
retirados como candidato a la estandardización, para ayudar a resolver el conflicto, pero que iría el trabajo
sobre el SNMP y CMIP adelante, con la idea que el SNMP podría ser una solución y un CMIP más a corto
plazo un acercamiento de más largo plazo. El mercado podría elegir el que encontró más conveniente. El
SNMP ahora se utiliza casi universal para la gerencia basada red.
En los últimos años, hemos visto una nueva fase de la comercialización. Originalmente, los esfuerzos
comerciales abarcaron principalmente los vendedores que proporcionaban a los productos básicos del
establecimiento de una red, y a abastecedores de servicio que ofrecían la conectividad y los servicios Internet
básicos. El Internet ahora casi se ha convertido en un servicio de la " materia ", y mucha de la última atención
ha estado en el uso de esta infraestructura de información global para la ayuda de otros servicios comerciales.
Esto ha sido acelerada enormemente por la adopción extensa y rápida de browsers y de la tecnología del
World Wide Web, no prohibiendo a utilizadores el acceso fácil a la información conectada a través del globo.
Los productos están disponibles para facilitar el aprovisionamiento de esa información y muchos de los
11
últimos progresos de la tecnología se han dirigido que proporcionaban a servicios informativos cada vez más
sofisticados encima de las comunicaciones de datos Internet básicas.
Historia del futuro
De octubre el 24 de 1995, el FNC pasó unánimemente una resolución que definía el término Internet. Esta
definición fue desarrollada en la consulta con los miembros de las comunidades de las derechas de
característica Internet e intelectual. RESOLUCIÓN: El Federal Networking Council (FNC) conviene que el
lenguaje siguiente refleja nuestra definición del término " Internet ". " Internet " refiere al sistema de
información global que −− (i) es conectado lógicamente junto por un espacio de direccionamiento global
único basado en el Internet Protocol (IP) o su extensions/follow−ons subsecuente; (ii) puede utilizar
comunicaciones usando la habitación del protocolo del control Protocol/Internet de la transmisión (TCP/IP) o
su extensions/follow−ons subsecuente, y/o el otro IP−compatible protocola; y (iii) proporciona, utiliza o las
marcas accesibles, público o privado, los servicios del alto nivel acodados en las comunicaciones e
infraestructura relacionada descrita adjunto.
El Internet ha cambiado mucho en las dos décadas desde que vino en existencia. Fue concebida en la era del
reparto del tiempo, pero ha sobrevivido en la era de ordenadores personales, del servidor de cliente y del
par−a−par que computaba, y del ordenador de red. Fue diseñada antes de que existiera LANs, pero ha
acomodado esa nueva tecnología de red, tan bien como la atmósfera más reciente y los servicios cambiados
marco. Fue previsto como utilizar un rango de funciones del fichero que compartía y remote login al recurso
que compartía y colaboración, y ha spawn/generado el correo electrónico y más recientemente el World Wide
Web. Pero el más importante, comenzó como la creación de una venda pequeña de investigadores dedicados,
y ha crecido para ser un éxito comercial con mil millones de dólares de la inversión anual.
Uno no debe concluir que el Internet ahora ha acabado cambiar. El Internet, aunque una red en nombre y
geografía, es una criatura del ordenador, no de la red tradicional de la industria del teléfono o de la televisión.
, él debe de hecho, continuar cambiando y desarrollarse a la velocidad de la industria del ordenador si debe
seguir siendo relevante. Ahora está cambiando para proporcionar a los nuevos servicios tales como transporte
en tiempo real, para utilizar, por ejemplo, secuencias audio y video. La disponibilidad del establecimiento de
una red penetrante (es decir, el Internet) junto con computar y comunicaciones comprables de gran alcance en
la forma portable (es decir, ordenadores de computadora portátil, paginadores de dos vías, PDAs, teléfonos
portátiles), está haciendo posible un nuevo paradigma de computar y de comunicaciones nómadas.
Esta evolución nos traerá nuevas aplicaciones − el teléfono Internet y, fomentan levemente hacia fuera, la
televisión Internet. Se está desarrollando para permitir formas más sofisticadas de la recuperación de la
tasación y de coste, un requisito quizás doloroso en este mundo comercial. Está cambiando para acomodar
otra generación de las tecnologías de red subyacentes con diversos características y requisitos, del acceso
residencial de banda ancha a los satélites. Los nuevos modos del acceso y de las nuevas formas de servicio
spawn/generarán las nuevas aplicaciones, que alternadamente conducirán la evolución adicional de la red sí
mismo.
Presionar la pregunta para el futuro del Internet no es cómo la tecnología cambiará, pero cómo el proceso del
cambio y de la evolución sí mismo será manejado. Mientras que este papel describe, la configuración del
Internet ha sido conducida siempre por un grupo de la base de diseñadores, pero la forma de ese grupo ha
cambiado mientras que el número de partidos interesados ha crecido. Con el éxito del Internet ahora ha venido
una proliferación de los tenedores de apuestas − tenedores de apuestas con un económico así como una
inversión intelectual en la red. Ahora vemos, en los discusiones concluido el control del espacio y de la forma
de los direccionamientos del IP de la generación siguiente, una lucha del Domain Name para encontrar la
estructura social siguiente que dirigirá el Internet en el futuro. La forma de esa estructura será más dura de
encontrar, dado the.large.number.of tenedores de apuestas en cuestión. En el mismo tiempo, la industria lucha
para encontrar el análisis razonado económico para la inversión grande necesitada para el crecimiento futuro,
12
por ejemplo para aumentar el acceso residencial a una tecnología más conveniente. Si no son los tropiezos
Internet, él porque faltamos para la tecnología, la visión, o la motivación. Será porque no podemos fijar una
dirección y marchar colectivamente en el futuro.
Conclusiones y sugerencias
Ciertamente la comunicación ha tenido sus avances y sobre todo se ha dejado llevar por las diferentes etapas
de la tecnología, estamos viviendo en un mundo de hipertensión y de grandes avances, por es que se hace
necesaria la comunicación dentro del ámbito escolar y no escolar, como por ejemplo en las empresas, o en los
diferentes grupos sociales siempre se ha tenido como parte de la planeación bien estructurada una asimilación
concreta de crecimiento en las diferentes etapas del desarrollo de la investigación, por eso que se da un
crecimiento en la comunicación y a su ves llevamos con las diferentes etapas un camino de tecnologías que
día a día nos dan mayores facilidades de integración entre los diferentes momentos de la vida personal o
comunitaria, creo saber que es de suma importancia conseguir objetivos concretos de los cuales nos vamos
sirviendo y nos hacemos cada ves más independientes de esos medios de comunicación, saber que en cuestión
de segundos tenemos información de cualquier lado del mundo con solo conectarse con una computadora que
contenga los requisitos para una buena comunicación.
La sugerencia que doy como estudiante es que no solo a la gente que está interesada por aprender un medio
sofisticado de comunicación se le den oportunidades de investigar, sino que se hable de la importancia que
tiene el avance tecnológico, pues somos hijos del tiempo de la tecnología y así poder comprender los medios
utilizados en la comunicación a nivel mundial y sobre todo del trabajo realizado por gente que trata de hacer
más fácil la comunicación.
Bibliografía
−BRENDAN P. Kehoe; INTERNET DEL ARTE AL ZEN; 1ª. Edición; México 1995.
−Medios Electrónicos, Online Organic, Inc; http://home.microsoft.com/intl/es/tutorial; 1996 Microsoft
Corporation.
−MEDIOS ELECTRÓNICOS, ONLINE SERVICES; http://www.uam.es/docencia/; 1996; Madrid.
−Medios Electrónicos, TELNET; Servicio de Ayuda; 1996.
−Medios Electrónicos, Información de línea en computadora; Hewlett Packard, 1997.
13
Descargar