Informe

Anuncio
REPUBLICA BOLIVARIANA DE VENEZUELA
INSTITUTO UNIVERSITARIO DE TECNOLOGIA
“DR. CRISTOBAL MENDOZA”
EXTENSION MÉRIDA
INFORME DE PASANTIAS REALIZADO EN LA
UNIDAD DE INFRAESTRUCTURA DEL
DEPARTAMENTO DE LA RED DE DATOS DE LA
UNIVERSIDAD DE LOS ANDES (REDULA)
Autor: Rodríguez Zambrano Ivohe
Mérida, Septiembre del 2008
INTRODUCCIÓN
La Red de Datos de la Universidad de los Andes (RedULA), es la red
académica pionera en el país por su infraestructura organizativa y la más
grande a nivel Nacional con aproximadamente 50 Km. De Fibra Óptica y
la red inalámbrica más extensa, ambas distribuidas en todos los
alrededores de la Ciudad de Mérida que día a día va creciendo
tecnológicamente para el mejor desempeño del servicio en teleinformática
que prestan a toda la comunidad Universitaria del Estado Mérida.
Los aportes que ha brindado al resto de Instituciones de educación
superior en el área de teleinformática y por la incorporación masiva del
personal joven calificado, hacen de esta una de las redes piloto nacional
de redes académicas y ha sido laboratorio de estrategias y desarrollos
teleinformáticas.
Inicialmente surgió como proyecto ante el CDCHT, madurando a través
de los años hasta lograr su posición como Dependencia en el CCA. A lo
largo de su historia ésta se ha organizado adquiriendo personalidad y
firmeza en cada una de sus metas planteadas en cuanto a Redes se
refiere, es por ello que se ha convertido en una Entidad importante tanto
en el área académica como laboral de la Universidad de los Andes.
La Red de Datos de la ULA, es una red de área metropolitana (MAN) y de
tal forma está constituida por redes locales (LAN). En RedULA se utilizan
las ultimas tecnologías de redes, y estas son implantadas por personal
altamente calificado en áreas tan complejas como La Informática,
Electrónica, Telecomunicaciones, Eléctrica, etc. De esta manera, se logra
satisfacer los servicios teleinformáticos que demanda la comunidad
universitaria en general.
En el desarrollo de este Informe de Pasantías Ocupacional, se describe
en forma general todas y cada una de las actividades elaboradas en el
período de pasantías, realizadas en la Red de Datos de la Universidad de
Los Andes (RedUla), específicamente en la unidad de Infraestructura,
situada en la Facultad de Ingeniería de la Universidad de los Andes
(ULA), Núcleo la Hechicera, Edif. “B” Piso 1 Ala Sur-Oeste, Mérida –
Venezuela. En las cuales se destacan la participación en proyectos tan
importantes como Territorio Digital, Fibra Óptica, Red Cableada y
prestando ayuda en el área de los Técnicos de Apoyo al Campo (TAC),
que consiste en dar soporte técnico a quien solicite los servicios y de esta
manera garantizar la conectividad interna y a Internet.
Con este trabajo de investigación se tiene la oportunidad de conocer una
metodología de trabajo que brinda la integración al aparato productivo de
la región, así como también, reafirmar capacidades de solución de
problemas técnicos y organizacionales.
La fase de ejecución del proceso de pasantías
corresponde a la praxis
vinculada a los conocimientos teórico – prácticos del alumno, partiendo de
la experiencia propia donde se desenvuelve, y conformada por la
institución educativa, el campo laboral y medios informales, teniendo
como base la formación académica que se imparte en el Instituto
Universitario de Tecnología Dr. Cristóbal Mendoza.
El Siguiente informe se encuentra estructurado por tres capítulos y
material complementario.
El primer capítulo se fundamenta en la importancia de REDULA como
empresa de redes y la importancia fundamental del período de pasantías.
El segundo capítulo define a REDULA como organización, desde sus
orígenes, ubicación, organigrama estructural y perspectivas generales y
especificas.
El tercer capítulo detalla cada una de las tareas realizadas durante las
doce semanas de estadía en la empresa.
Finamente, se complementa con imágenes de los trabajos realizados,
acompañado de un glosario de términos conformado por las palabras
técnicas que facilitan la comprensión del tema.
CAPITULO I
EL PROCESO DE LA PASANTÍA
Importancia y Justificación
Las pasantías profesionales permiten poner en practica todos los
conocimientos teóricos-prácticos adquiridos a lo largo de la carrera, lo que
la hace que esta sea fundamental para el desarrollo profesional del
estudiante además permite conocer cómo se desarrolla la vida en el área
industrial, así como también para el aprendizaje de nuevas técnicas y
destrezas. Durante esta etapa el pasante podrá obtener una preparación
previa, la cual le permitirá un mejor desempeño en el campo profesional.
Es muy importante destacar que las pasantías tienden a dejar un
gran aporte para la empresa, ya que quedan todas las labores realizadas
por el pasante, que de una manera u otra solucionan algunos problemas
que en ese momento no se han ejecutado. También benefician al
estudiante para que se especialice en diferentes áreas correspondientes a
la
carrera
como
Programación,
Mantenimiento,
Redes,
Sistemas
Operativos, entre otros.
En la actualidad es muy importante tener conocimiento como
profesional de todas las ramas que tiene esta carrera para tener un
espectro más amplio en la búsqueda de empleo, pero sabemos que
destacarse en todas es difícil, las pasantías permiten decidir cuál es en la
que mejor se desenvuelve.
El éxito de las pasantías depende del aprovechamiento que el
alumno le dé a la misma.
OBJETIVOS
OBJETIVO GENERAL
Aplicar los conocimientos teórico-practico adquiridos durante el periodo
académico en el campo laboral y así obtener el mejor desenvolvimiento
en el mismo.
OBJETIVOS ESPECIFICOS
•
Dar cumplimiento a las actividades asignadas por el Tutor Industrial
de la empresa.
•
Aplicar adecuadamente las normas y lineamientos establecidos por
REDULA, para el desarrollo de cualquier proyecto.
•
Conocer metodologías y herramientas actuales, para el diseño y
mantenimiento de redes informáticas acordes con las necesidades
y exigencias de la tecnología.
CAPITULO II
DESCRIPCIÓN DE LA EMPRESA
DEFINICIÓN - REDULA.
RedULA, es un organismo Universitario dedicado a la Investigación y
desarrollo en el Área de Redes de comunicaciones, así como encargado
de Supervisar y Coordinar la Infraestructura de la Red de Transmisión de
Datos de la Universidad de los Andes.
La Universidad de los Andes a través de RedULA ha desarrollado una
infraestructura de redes de computadoras que la sitúa en el lugar de
vanguardia dentro de las Instituciones Educativas del País. Esta empresa
cuenta con la presencia de un contingente humano de profesionales y
técnicos capacitados en el área tecnológica de punta. El crecimiento en
cuanto al número de usuarios y máquinas ha sido tan elevado en estos
últimos años, que ha llevado a que en la actualidad se tenga una
demanda altamente significativa del servicio, siendo este atendido
adecuadamente por el personal apropiado encargado de administrar las
distintas subredes universitarias, personal del proyecto ADMIRE.
RESEÑA HISTÓRICA
El origen de la Red se remonta en el año de 1981 cuando llegó al
laboratorio de Geofísica de la facultad de ciencias, allí se incorpora el
primer computador bajo el sistema operativo UNIX. Las ventajas de este
sistema operativo alentaron el deseo de quienes trabajan en laboratorios,
entre ellos el profesor José Gregorio Silva quien es piedra angular en el
proceso de desarrollo de la red de datos en la Universidad de los Andes.
Así después de muchos esfuerzos e inconvenientes, se logra adaptar este
sistema operativo como un estándar en varias dependencias de
investigación de la Universidad.
En el año 1985, se crea el laboratorio SUMA, (Sistema Unificado de Micro
computación
Aplicada),
el
cual
busca
unificar
los
servicios
de
computación en la facultad de ciencias, dando paso a la idea de Redes
que permitiera visualizar nuevos horizontes para la futura red académica.
Con el éxito que arrojo el funcionamiento de SUMA y la necesidad de
parte de los cómputos y visualización gráfica; se une un grupo de
profesores de la facultad de ciencias, economía, ingeniería, y del centro
de computación de la ULA para crear en 1987, el Consejo de
Computación Académico.
En el año 1987-1988 la Universidad de los Andes contaba con dos
grandes laboratorios. El laboratorio norte situado en la facultad de
ciencias y el laboratorio sur, en la facultad de ingeniería. La investigación
en ambos laboratorios creció, así como también creció la necesidad de
comunicarse continuamente. Ya se contaba con equipos modernos, pero
sin plataforma de comunicación. Así es como en 1991 nace el CDCHT,
quien logra interconectar las redes de área local de las Facultades de
Ciencia e Ingeniería, gracias a la central Telefónica Digital adquirida por la
Universidad. En 1992 se realiza la Conexión con la Red Académica
Nacional de CONICIT y con la Red Mundial INTERNET, se crea la "I
Escuela Latinoamericana de Redes" en la Facultad de Ciencias, en la que
participaron 15 expertos (USA, Finlandia, Italia, Brasil y Suiza) y 40
profesionales de América Latina (Argentina, Brasil, Colombia, México,
Nicaragua, Paraguay, Perú y Venezuela). En 1993 se realiza el primer
taller Regional donde el personal de RedULA participó como instructor, el
cual fue efectuado en Perú. En 1994 se realiza la Instalación de la
Infraestructura de Fibra Óptica. En 1995 se realiza la instalación en la
Facultad de Ingeniería de una Estación terrena VSAT, donada por la OEA
al CONICIT y transferida al SAICYT de Mérida por medio de la empresa
Bantel, se crearon 2 laboratorios Multimedia (LMM), se realizo la I Escuela
Latinoamericana de Redes, adiestrándose al personal responsable del
desarrollo de las Redes Académicas. En 1996 se entregaron los
proyectos de la troncal principal del Sector de Liria; la interconexión de las
facultades de Humanidades, Economía y Derecho; la Red de Área Local
para las oficinas de la PINA; Actualización de la Red de Área local de
PLANDES. En 1997 se crearon dos comisiones: comisión técnica, y
comisión estratégica de RedULA. Durante 1998 comienzan a tener
conectividad dependencias de la ULA que se encuentran fuera de los
sectores Universitarios tales como, Sector Hechicera: Facultad de
Arquitectura, conectividad y laboratorio de Pregrado y Postgrado, Redes
internas de la Facultad de Ciencias, Jardines Botánicos (200 nodos),
Sector de Ciencias de Salud: Facultad de Farmacia. Laboratorios de
pregrado (60 nodos).
Ya en el año de 1999 se concretan los proyectos de los siguientes
Sectores: Sector Hechicera: Facultad de Arquitectura. Facultad de
Ingeniería (Nueva Sede) (1400 nodos). Sector Ciencias de la Salud:
Facultad de Farmacia HULA (200 nodos).
Sector Tulio Febres Cordero: Facultad de Medicina (500 nodos). Redes
internas de: Laboratorio de Pregrado de las Facultades de: Geografía,
Arquitectura,
Medicina,
Humanidades
Publicaciones. Taller Gráfico (500 nodos).
(CODEPRE).
Consejo
de
MISIÓN
Proveer al mayor número de suscriptores, un servicio de calidad,
técnicamente confiable tanto en red cableada como inalámbrica, que les
proporcione una atención acorde con sus necesidades, que obtenga una
rentabilidad adecuada y que logre la mayor cobertura dentro de nuestra
área asignada.
VISIÓN
Prestar un servicio integral y eficiente, cuya calidad sea comparable a la
de las mejores empresas latinoamericanas.
FUNCIONES ESPECÍFICAS
•
Prestar asesoría en el diseño, instalación y mantenimiento de las
subredes de computadores de las distintas dependencias de la
ULA, así como también proyectar los planes de expansión para
garantizar el crecimiento de la red.
•
Velar por el buen funcionamiento de la red, de manera que se
resuelvan
eficientemente
los
problemas
operativos
y
de
emergencia.
•
Autorizar la interconexión a la red de cualquier dependencia interna
o externa de la ULA.
•
Producir la documentación necesaria para operar en la Red de la
ULA y en las diferentes Redes Internacionales, como también
asesorar en el uso de los recursos de RedULA.
•
Aprobar los diferentes proyectos que involucran a la Red
Universitaria y además establecer planificaciones de actividades de
la red e investigar en el área teleinformática y desarrollar servicios.
SERVICIOS QUE OFRECE
Dentro de los servicios que ofrece RedULA se encuentran:
•
Correo Electrónico.
•
Servicios de información a Usuarios (Finger).
•
Servicios de conexión de computadoras (Teinet).
•
Seriaos de transferencia de archivos (FTP).
•
Servicios de comunicación interactiva (Talk).
•
Red de acceso inalámbrico.
•
Servicio de atención a los usuarios.
DEFINICIÓN – INFRAESTRUCTURA
La Unidad de Infraestructura anteriormente llamada Telecom surge con la
necesidad de garantizar la operación y desarrollo de la plataforma física
de redes de computadoras, existentes en las diferentes facultades y
dependencias de la Universidad de los Andes.
RESEÑA HISTÓRICA
Es en el año 1999, cuando se conforma esta unidad, y para ese entonces
contaba con un personal de sólo dos integrantes que eran: un
Coordinador General de Telecom y un Técnico de Campo. Los proyectos
más importantes desarrollados en ese año fueron: LAN Sector Liria,
primer Proyecto de Cableado Estructurado elaborado implementado por
RedULA; implementación y activación de los backbone de Fibra
Multimodo (MMF) en el Sector Chorros de Milla y el Sector Tulio Febres
para interconectar las Redes de las Facultades de Geografía y Medicina a
la Red de Datos de la ULA y la instalación de la estación repetidora en la
banda de frecuencia de 2.4 Ghz. para la Red de Radio.
En el año 2000, se incorporan al personal tres Técnicos Especializados
en Telecomunicaciones y se nombran como asesores oficiales en el área
de Radio Enlaces y Enlaces de Fibra Óptica a los Profesores
pertenecientes al Dpto. De Electrónica y Comunicaciones Prof. Néstor
Ángulo Reina y Prof. Ermano Pietrosemoli respectivamente. Entre los
proyectos ejecutados para dicho período están: Enlace de Radio Hospital
Central de San Cristóbal (Núcleo Táchira) para la interconexión del área
de Postgrado de Medicina con RedULA; instalación y activación del
backbone MMF en la sede del Núcleo Táchira, para interconectar un 85%
de este con RedULA.
Desde el año 2001 hasta la actualidad, Telecom cuenta con una planta
técnica especializada organizada como sigue: un Coordinador Técnico
Telecom,
tres
Técnicos
Especializados
en
el
área
de
Telecomunicaciones, dos Técnicos de Soporte y 3 pasantes en áreas
afines a las telecomunicaciones. De igual forma esta unidad, asume el
control de la plataforma de enrutamiento (capa 3 según el Modelo de
Interconexión de Sistemas Abiertos (OSI)), así como el Soporte Técnico a
la plataforma de voz, vídeo y datos de la Universidad de los Andes.
OBJETIVOS
•
Garantizar operación las 24 horas y los 365 días al año de la
Plataforma Física de la Red de Datos de la Universidad de los
Andes.
•
Desarrollo de nuevas tecnologías en el área de telecomunicaciones
que permita garantizar el rendimiento y confiabilidad necesaria en
los servicios prestados por RedULA.
•
Asesoramiento para la gestión, desarrollo e implementación de
Proyectos de Telecomunicaciones y Teleinformática en la ULA.
VISIÓN
Ser pilarte fundamental y de referencia obligada en el desarrollo del Área
de Telecomunicaciones en las Universidades a nivel nacional y Sur
Americano.
FUNCIONES
•
Operación: Mantener el buen funcionamiento de cada unos de los
servicios que ofrece.
•
Desarrollo: de nuevas actividades que permitan mejorar cada uno
de los servicios prestados al cliente.
CAPITULO III
DESCRIPCIÓN DE LAS ACTIVIDADES
REALIZADAS EN LA EMPRESA
Semana I (01-05/09/08)
•
Familiarización con los el entorno de trabajo, organización de
actividades a realizar, conocimiento de sistema operativo
•
Manejo de Debían Linux
•
Manipulación de directorios, líneas de comandos
•
Investigación y manipulación de conceptos y comandos básico s
para el manejo optimo del sistema
Semana II (08-13/09/08)
•
Instalación del sistema operativo Debían Linux.
•
Se realizaron atención de fallas en la facultad de forestales
•
Se realizaron inspecciones de los centros de cargas de varias
facultades como farmacia, medicina, geografía y ingeniería, entre
otras-
Semana III (15-20/09/08)
•
Fue asignado la creación de una Página Web para la unidad de
infraestructura
•
Investigaciones
preliminares
sobre
software
y
hardware
implementarse para el buen funcionamiento de la aplicación Web.
Semana IV (22-27/09/08)
•
Diseño de la Estructura de la Página Web.
•
Trabajo con Bocetos para el diseño de contenidos.
•
Buscar y decir la información necesaria para el contenido
a
Semana V (29-04/10/08)
•
Definición del Diseño e Interfaz Grafica de Usuario
•
Diseño y Programación en el Lenguaje HTML
•
Corrección de Fallas
Semana VI (06-11/10/08)
•
Instalación del Servidor Web.
•
Pruebas y depuración de errores del servidor Web
•
Montaje de los archivos *.html y Corrección de Fallas
•
Continuar con el diseño y programación de las paginas restantes
Semana VII (13-18/10/08)
•
Montaje del sitio Web completo
•
Diseño y Programación de las animaciones Flash
•
Mostrar el sitio Web a Javier y demás involucrados en el proyecto
Semana VIII (18 – 24/10/08)
•
Corrección de errores o aplicación de sugerencias.
•
Montaje del sitio Web y publicación del Mismo.
FUNDAMENTACIÓN TEORICO – PRÁCTICO
Introducción a Linux
Linux es un sistema operativo, compatible Unix. Dos características muy
peculiares lo diferencian del resto de sistemas que podemos encontrar en
el mercado, la primera, es que es libre, esto significa que no tenemos que
pagar ningún tipo de licencia a ninguna casa desarrolladora de software
por el uso del mismo, la segunda, es que el sistema viene acompañado
del código fuente.
El sistema lo forman el núcleo del sistema (kernel) más un gran número
de programas / bibliotecas que hacen posible su utilización. Muchos de
estos programas y bibliotecas han sido posibles gracias al proyecto GNU,
por esto mismo, muchos llaman a Linux, GNU/Linux, para resaltar que el
sistema lo forman tanto el núcleo como gran parte del software producido
por el proyecto GNU.
Linux se distribuye bajo la GNU General Public License por lo tanto, el
código fuente tiene que estar siempre accesible y cualquier modificación ó
trabajo derivado tiene que tener esta licencia.
El sistema ha sido diseñado y programado por multitud de programadores
alrededor del mundo. El núcleo del sistema sigue en continuo desarrollo
bajo la coordinación de Linus Torvalds, la persona de la que partió la idea
de este proyecto, a principios de la década de los noventa. Hoy en día,
grandes compañías, como IBM, SUN, HP, Novell y RedHat, entre otras
muchas, aportan a Linux grandes ayudas tanto económicas como de
código.
Día a día, más y más programas y aplicaciones están disponibles para
este sistema, y la calidad de los mismos aumenta de versión a versión. La
gran mayoría de los mismos vienen acompañados del código fuente y se
distribuyen generalmente bajo los términos de licencia de la GNU General
Public License.
Más y más casas de software comercial distribuyen sus productos para
Linux y la presencia del mismo en empresas aumenta constantemente por
la excelente relación calidad-precio que se consigue con Linux.
Las arquitecturas en las que en un principio se puede utilizar Linux son
Intel 386-, 486-, Pentium, Pentium Pro, Pentium II/III/IV, IA-64, Amd 5x86,
Amd64, Cyrix y Motorola 68020,IBM S/390, zSeries, DEC Alpha, ARM,
MIPS, PowerPC, SPARC y UltraSPARC. Además no es difícil encontrar
nuevos proyectos portando Linux a nuevas arquitecturas.
Características más importantes de GNU/LINUX:
•
Multitarea: La palabra multitarea describe la habilidad de ejecutar
varios programas al mismo tiempo. LINUX utiliza la llamada
multitarea preeventiva,la cual asegura que todos los programas
que se estan utilizando en un momento dado seran ejecutados,
siendo el sistema operativo el encargado de ceder tiempo de
microprocesador a cada programa.
•
Multiusuario:Muchos usuarios usando la misma maquina al mismo
tiempo.
•
Multiplataforma: Las plataformas en las que en un principio se
puede utilizar Linux son 386-, 486-. Pentium, Pentium Pro, Pentium
II,Amiga y Atari, tambien existen versiones para su utilizacion en
otras plataformas, como amd64, Alpha, ARM, MIPS, PowerPC y
SPARC.
•
Multiprocesador: Soporte para sistemas con mas de un procesador
esta disponible para Intel, AMD y SPARC.
•
Funciona en modo protegido 386.
•
Protección de la memoria entre procesos, de manera que uno de
ellos no pueda colgar el sistema.
•
Carga de ejecutables por demanda: Linux sólo lee del disco
aquellas partes de un programa que están siendo usadas
actualmente.
•
Política de copia en escritura para la compartición de páginas entre
ejecutables: esto significa que varios procesos pueden usar la
misma zona de memoria para ejecutarse. Cuando alguno intenta
escribir en esa memoria, la página (4Kb de memoria) se copia a
otro lugar. Esta política de copia en escritura tiene dos beneficios:
aumenta la velocidad y reduce el uso de memoria.
•
Memoria virtual usando paginación (sin intercambio de procesos
completos) a disco: A una partición en el sistema de archivos, con
la posibilidad de añadir más áreas de intercambio sobre la marcha.
•
La memoria se gestiona como un recurso unificado para los
programas de usuario y para el caché de disco, de tal forma que
toda la memoria libre puede ser usada para caché y ésta puede a
su vez ser reducida cuando se ejecuten grandes programas.
•
Librerías compartidas de carga dinámica (DLL's) y librerías
estáticas.
•
Se realizan volcados de estado (core dumps) para posibilitar los
análisis post-mortem, permitiendo el uso de depuradores sobre los
programas no sólo en ejecución sino también tras abortar éstos por
cualquier motivo.
•
Compatible con POSIX, System V y BSD a nivel fuente.
•
Emulación de iBCS2, casi completamente compatible con SCO,
SVR3 y SVR4 a nivel binario.
•
Todo el código fuente está disponible, incluyendo el núcleo
completo y todos los drivers, las herramientas de desarrollo y todos
los programas de usuario; además todo ello se puede distribuir
libremente. Hay algunos programas comerciales que están siendo
ofrecidos para Linux actualmente sin código fuente, pero todo lo
que ha sido gratuito sigue siendo gratuito.
•
Control de tareas POSIX.
•
Pseudo-terminales (pty's).
•
Emulación de 387 en el núcleo, de tal forma que los programas no
tengan que hacer su propia emulación matemática. Cualquier
máquina que ejecute Linux parecerá dotada de coprocesador
matemático. Por supuesto, si el ordenador ya tiene una FPU
(unidad de coma flotante), esta será usada en lugar de la
emulación, pudiendo incluso compilar tu propio kernel sin la
emulación matemática y conseguir un pequeño ahorro de memoria.
•
Soporte para muchos teclados nacionales o adaptados y es
bastante fácil añadir nuevos dinámicamente.
•
Consolas virtuales múltiples: varias sesiones de login a través de la
consola entre las que se puede cambiar con las combinaciones
adecuadas de teclas (totalmente independiente del hardware de
video). Se crean dinámicamente y puedes tener hasta 64.
•
Soporte para varios sistemas de archivo comunes, incluyendo
minix-1, Xenix y todos los sistemas de archivo típicos de System V,
y tiene un avanzado sistema de archivos propio con una capacidad
de hasta 4 Tb y nombres de archivos de hasta 255 caracteres de
longitud.
•
Acceso transparente a particiones MS-DOS (o a particiones OS/2
FAT) mediante un sistema de archivos especial: no es necesario
ningún comando especial para usar la partición MS-DOS, esta
parece un sistema de archivos normal de Unix (excepto por
algunas restricciones en los nombres de archivo, permisos, y esas
cosas). Las particiones comprimidas de MS-DOS 6 no son
accesibles en este momento, y no se espera que lo sean en el
futuro. El soporte para VFAT, FAT32 (WNT, Windows 95/98) se
encuentra soportado desde la version 2.0 del nucleo y el NTFS de
WNT desde la version 2.2 (Este ultimo solo en modo lectura).
•
Soporte en sólo lectura de HPFS-2 del OS/2 2.1
•
Sistema de archivos de CD-ROM que lee todos los formatos
estándar de CD-ROM.
•
TCP/IP, incluyendo ssh, ftp, telnet, NFS, etc.
•
Appletalk.
•
Software cliente y servidor Netware.
•
Lan Manager / Windows Native (SMB), software cliente y servidor.
•
Diversos protocolos de red incluidos en el kernel: TCP, IPv4, IPv6,
AX.25, X.25, IPX, DDP, Netrom, etc
Debian GNU/Linux
Debían GNU/Linux es la principal distribución Linux del proyecto Debían,
que basa su principio y fin en el software libre.
Creada por el proyecto Debian en el año 1993, la organización
responsable de la creación y mantenimiento de la misma distribución,
centrado en el núcleo de Linux y utilidades GNU. Éste también mantiene y
desarrolla sistemas GNU basados en otros núcleos (Debían GNU/Hurd,
Debian GNU/NetBSD y Debian GNU/kFreeBSD).
Nace como una apuesta por separar en sus versiones el software libre del
software no libre. El modelo de desarrollo es independiente a empresas,
creado por los propios usuarios, sin depender de ninguna manera de
necesidades comerciales. Debian no vende directamente su software, lo
pone a disposición de cualquiera en Internet, aunque sí permite a
personas o empresas distribuir comercialmente este software mientras se
respete su licencia.
Características
Debían se caracteriza por:
•
La disponibilidad en varias arquitecturas.
•
Una amplia colección de software disponible. La versión 4.0 viene
con 18733 paquetes.
•
Un grupo de herramientas para facilitar el proceso de instalación y
actualización del software (APT, Aptitude, Dpkg, Synaptic, Dselect,
/etc/sources.list, etc).
•
Su compromiso con los principios y valores involucrados en el
movimiento del Software Libre.
•
No tiene marcado ningún entorno gráfico en especial, pudiéndose
instalar, ya sean: GNOME, KDE, Xfce, Enlightenment u otro.
Sistema de archivos
Los sistemas de archivos (filesystem en inglés), estructuran la
información guardada en una unidad de almacenamiento (normalmente
un disco duro) de una computadora, que luego será representada ya sea
textual o gráficamente utilizando un gestor de archivos. La mayoría de los
sistemas operativos poseen su propio sistema de archivos.
Lo habitual es utilizar dispositivos de almacenamiento de datos que
permiten el acceso a los datos como una cadena de bloques de un mismo
tamaño, a veces llamados sectores, usualmente de 512 bytes de longitud.
El software del sistema de archivos es responsable de la organización de
estos sectores en archivos y directorios y mantiene un registro de qué
sectores pertenecen a qué archivos y cuáles no han sido utilizados. En la
práctica, un sistema de archivos también puede ser utilizado para acceder
a datos generados dinámicamente, como los recibidos a través de una
conexión
de
red
(sin
la
intervención
de
un
dispositivo
de
almacenamiento).
Los sistemas de archivos tradicionales proveen métodos para crear,
mover, renombrar y eliminar tanto archivos como directorios, pero carecen
de métodos para crear, por ejemplo, enlaces adicionales a un directorio o
archivo (enlace duro en Unix) o renombrar enlaces padres (".." en Unix).
El acceso seguro a sistemas de archivos básicos puede estar basado en
los esquemas de lista de control de acceso o capacidades. Las listas de
control de acceso hace décadas que demostraron ser inseguras, por lo
que los sistemas operativos experimentales utilizan el acceso por
capacidades. Los sistemas operativos comerciales aún funcionan con
listas de control de acceso.
El servidor HTTP Apache es un software (libre) servidor HTTP de código
abierto para plataformas Unix (BSD, GNU/Linux, etc.), Windows,
Macintosh y otras, que implementa el protocolo HTTP/1.1[1] y la noción de
sitio virtual. Cuando comenzó su desarrollo en 1995 se basó inicialmente
en código del popular NCSA HTTPd 1.3, pero más tarde fue reescrito por
completo. Su nombre se debe a que Behelendorf eligió ese nombre
porque quería que tuviese la connotación de algo que es firme y enérgico
pero no agresivo, y la tribu Apache fue la última en rendirse al que pronto
se convertiría en gobierno de EEUU, y en esos momentos la
preocupación de su grupo era que llegasen las empresas y "civilizasen" el
paisaje que habían creado los primeros ingenieros de internet. Además
Apache consistía solamente en un conjunto de parches a aplicar al
servidor de NCSA. Era, en inglés, a patchy server (un servidor
"parcheado").
El servidor Apache se desarrolla dentro del proyecto HTTP Server (httpd)
de la Apache Software Foundation.
Apache presenta entre otras características mensajes de error altamente
configurables, bases de datos de autenticación y negociado de contenido,
pero fue criticado por la falta de una interfaz gráfica que ayude en su
configuración.
Apache tiene amplia aceptación en la red: desde 1996, Apache, es el
servidor HTTP más usado. Alcanzó su máxima cuota de mercado en 2005
siendo el servidor empleado en el 70% de los sitios web en el mundo, sin
embargo ha sufrido un descenso en su cuota de mercado en los últimos
años. (Estadísticas históricas y de uso diario proporcionadas por
Netcraft[2] ).
La mayoría de las vulnerabilidades de la seguridad descubiertas y
resueltas tan sólo pueden ser aprovechadas por usuarios locales y no
remotamente. Sin embargo, algunas se pueden accionar remotamente en
ciertas situaciones, o explotar por los usuarios locales malévolos en las
disposiciones de recibimiento compartidas que utilizan PHP como módulo
de Apache.
Internet
Es
un
conjunto
descentralizado
de
redes
de
comunicación
interconectadas, que utilizan la familia de protocolos TCP/IP, garantizando
que las redes físicas heterogéneas que la componen funcionen como una
red lógica única, de alcance mundial. Sus orígenes se remontan a 1969,
cuando se estableció la primera conexión de computadoras, conocida
como ARPANET, entre tres universidades en California y una en Utah,
EE. UU..
Uno de los servicios que más éxito ha tenido en Internet ha sido la World
Wide Web (WWW, o "la Web"), hasta tal punto que es habitual la
confusión entre ambos términos. La WWW es un conjunto de protocolos
que permite, de forma sencilla, la consulta remota de archivos de
hipertexto. Ésta fue un desarrollo posterior (1990) y utiliza Internet como
medio de transmisión.
Existen, por tanto, muchos otros servicios y protocolos en Internet, aparte
de la Web: el envío de correo electrónico (SMTP), la transmisión de
archivos (FTP y P2P), las conversaciones en línea (IRC), la mensajería
instantánea y presencia, la transmisión de contenido y comunicación
multimedia -telefonía (VoIP), televisión (IPTV)-, los boletines electrónicos
(NNTP), el acceso remoto a otras máquinas (SSH y Telnet) o los juegos
en línea.
File Transfer Protocol
En informática, FTP (File Transfer Protocol) es un protocolo de red para
la transferencia de archivos entre sistemas conectados a una red TCP,
basado en la arquitectura cliente-servidor. Desde un equipo cliente se
puede conectar a un servidor para descargar archivos desde él o para
enviarle archivos, independientemente del sistema operativo utilizado en
cada equipo.
El Servicio FTP es ofrecido por la capa de Aplicación del modelo de capas
de red TCP/IP al usuario, utilizando normalmente el puerto de red 20 y el
21. Un problema básico de FTP es que está pensado para ofrecer la
máxima velocidad en la conexión, pero no la máxima seguridad, ya que
todo el intercambio de información, desde el login y password del usuario
en el servidor hasta la transferencia de cualquier archivo, se realiza en
texto plano sin ningún tipo de cifrado, con lo que un posible atacante
puede capturar este tráfico, acceder al servidor, o apropiarse de los
archivos transferidos.
Para solucionar este problema son de gran utilidad aplicaciones como scp
y sftp, incluidas en el paquete SSH, que permiten transferir archivos pero
cifrando todo el tráfico.
Hypertext Transfer Protocol
El protocolo de transferencia de hipertexto (HTTP, HyperText Transfer
Protocol) es el protocolo usado en cada transacción de la Web (WWW).
HTTP fue desarrollado por el consorcio W3C y la IETF, colaboración que
culminó en 1999 con la publicación de una serie de RFC, siendo el más
importante de ellos el RFC 2616, que especifica la versión 1.1.
HTTP define la sintaxis y la semántica que utilizan los elementos software
de la arquitectura web (clientes, servidores, proxies) para comunicarse. Es
un protocolo orientado a transacciones y sigue el esquema peticiónrespuesta entre un cliente y un servidor. Al cliente que efectúa la petición
(un navegador o un spider) se lo conoce como "user agent" (agente del
usuario). A la información transmitida se la llama recurso y se la identifica
mediante un URL. Los recursos pueden ser archivos, el resultado de la
ejecución de un programa, una consulta a una base de datos, la
traducción automática de un documento, etc.
HTTP es un protocolo sin estado, es decir, que no guarda ninguna
información sobre conexiones anteriores. El desarrollo de aplicaciones
web necesita frecuentemente mantener estado. Para esto se usan las
cookies, que es información que un servidor puede almacenar en el
sistema cliente. Esto le permite a las aplicaciones web instituir la noción
de "sesión", y también permite rastrear usuarios ya que las cookies
pueden guardarse en el cliente por tiempo indeterminado.
navegador web
Un navegador web (del inglés, web browser) es una aplicación software
que permite al usuario recuperar y visualizar documentos de hipertexto,
comúnmente descritos en HTML, desde servidores web de todo el mundo
a través de Internet. Esta red de documentos es denominada World Wide
Web (WWW). Cualquier navegador actual permite mostrar o ejecutar
gráficos, secuencias de vídeo, sonido, animaciones y programas diversos
además del texto y los hipervínculos o enlaces.
La funcionalidad básica de un navegador web es permitir la visualización
de documentos de texto, posiblemente con recursos multimedia
incrustados. Los documentos pueden estar ubicados en la computadora
en donde está el usuario, pero también pueden estar en cualquier otro
dispositivo que esté conectado a la computadora del usuario o a través de
Internet, y que tenga los recursos necesarios para la transmisión de los
documentos (un software servidor web). Tales documentos, comúnmente
denominados páginas web, poseen hipervínculos que enlazan una
porción de texto o una imagen a otro documento, normalmente
relacionado con el texto o la imagen.
El seguimiento de enlaces de una página a otra, ubicada en cualquier
computadora conectada a la Internet, se llama navegación; que es de
donde se origina el nombre de navegador. Por otro lado, hojeador es una
traducción literal del original en inglés, browser, aunque su uso es
minoritario.
Hipertexto
En informática, es el nombre que recibe el texto que en la pantalla de una
computadora conduce a su usuario a otro texto relacionado. La forma más
habitual de hipertexto en documentos es la de hipervínculos o referencias
cruzadas automáticas que van a otros documentos (lexias). Si el usuario
selecciona un hipervínculo, hace que el programa de la computadora
muestre inmediatamente el documento enlazado. Otra forma de hipertexto
es el strechtext que consiste en dos indicadores o aceleradores y una
pantalla. El primer indicador permite que lo escrito pueda moverse de
arriba hacia abajo en la pantalla. El segundo indicador induce al texto a
que cambie de tamaño por grados.
Es importante mencionar que el hipertexto no esta limitado a datos
textuales, podemos encontrar dibujos del elemento especificado, sonido o
vídeo referido al tema. El programa que se usa para leer los documentos
de hipertexto se llama “navegador”, el "browser", "visualizador" o "cliente"
y cuando seguimos un enlace decimos que estamos navegando por la
Web.
El hipertexto es una de las formas de la hipermedia, enfocada en diseñar,
escribir y redactar texto en una media.
MySQL
Es un sistema de gestión de base de datos relacional, multihilo y
multiusuario con más de seis millones de instalaciones.[1] MySQL AB —
desde enero de 2008 una subsidiaria de Sun Microsystems— desarrolla
MySQL como software libre en un esquema de licenciamiento dual.
Por un lado se ofrece bajo la GNU GPL para cualquier uso compatible con
esta licencia, pero las empresas que quieran incorporarlo en productos
privativos pueden comprar a la empresa una licencia específica que les
permita este uso. Está desarrollado en su mayor parte en ANSI C.
Al contrario que proyectos como Apache, donde el software es
desarrollado por una comunidad pública y el copyright del código está en
poder del autor individual, MySQL es propiedad y está patrocinado por
una empresa privada, que posee el copyright de la mayor parte del
código.
Esto es lo que posibilita el esquema de licenciamiento anteriormente
mencionado. Además de la venta de licencias privativas, la compañía
ofrece soporte y servicios. Para sus operaciones contratan trabajadores
alrededor del mundo que colaboran vía Internet. MySQL AB fue fundado
por David Axmark, Allan Larsson, y Michael Widenius.
PHP
Es un lenguaje de programación interpretado, diseñado originalmente
para la creación de páginas web dinámicas. Es usado principalmente en
interpretación
del
lado
del
servidor
(server-side
scripting)
pero
actualmente puede ser utilizado desde una interfaz de línea de comandos
o en la creación de otros tipos de programas incluyendo aplicaciones con
interfaz gráfica usando las bibliotecas Qt o GTK+.
PHP es un acrónimo recursivo que significa PHP Hypertext Pre-processor
(inicialmente PHP Tools, o, Personal Home Page Tools). Fue creado
originalmente
por
Rasmus
Lerdof
en
1994;
sin
embargo
la
implementación principal de PHP es producida ahora por The PHP Group
y sirve como el estándar de facto para PHP al no haber una
especificación formal. Publicado bajo la PHP License, la Free Software
Foundation considera esta licencia como software libre.
PHP es un lenguaje interpretado de propósito general ampliamente usado
y que está diseñado especialmente para desarrollo web y puede ser
embebido dentro de código HTML. Generalmente se ejecuta en un
servidor web, tomando el código en PHP como su entrada y creando
páginas web como salida. Puede ser desplegado en la mayoría de los
servidores web y en casi todos los sistemas operativos y plataformas sin
costo alguno. PHP se encuentra instalado en más de 20 millones de sitios
web y en un millón de servidores, aunque el número de sitios en PHP ha
declinado desde agosto de 2005. Es también el módulo Apache más
popular entre las computadoras que utilizan Apache como servidor web.
La más reciente versión principal del PHP fue la versión 5.2.6 de 1 de
mayo de 2008.
Dreamweaver
Es la herramienta de diseño de páginas web más avanzada, tal como se
ha afirmado en muchos medios. Aunque sea un experto programador de
HTML el usuario que lo maneje, siempre se encontrarán en este
programa razones para utilizarlo, sobretodo en lo que a productividad se
refiere.
Cumple perfectamente el objetivo de diseñar páginas con aspecto
profesional, y soporta gran cantidad de tecnologías, además muy fáciles
de usar:
•
Hojas de estilo y capas
•
Javascript para crear efectos e interactividades
•
Inserción de archivos multimedia...
Además es un programa que se puede actualizar con componentes, que
fabrica tanto Macromedia como otras compañias, para realizar otras
acciones más avanzadas.
En resumen, el programa es realmente satisfatorio, incluso el código
generado es de buena calidad. La unica pega consiste en que al ser tan
avanzado, puede resultar un poco difícil su manejo para personas menos
experimentadas en el diseño de webs.
Dreamweaver ha evolucionado mucho en su versión 4, que incluye
soporte para la creación de páginas dinámicas de servidor en ASP, con
acceso a bases de datos (versión Ultradev) y una mayor integración con
otras herramientas de Macromedia como Fireworks.
Las hojas de estilo en cascada CSS
Son un lenguaje formal usado para definir la presentación de un
documento estructurado escrito en HTML o XML (y por extensión en
XHTML). El W3C (World Wide Web Consortium) es el encargado de
formular la especificación de las hojas de estilo que servirán de estándar
para los agentes de usuario o navegadores.
La idea que se encuentra detrás del desarrollo de CSS es separar la
estructura de un documento de su presentación.
Por ejemplo, el elemento de HTML <H1> indica que un bloque de texto es
un encabezamiento y que es más importante que un bloque etiquetado
como <H2>. Versiones más antiguas de HTML permitían atributos extra
dentro de la etiqueta abierta para darle formato (como el color o el tamaño
de fuente). No obstante, cada etiqueta <H1> debía disponer de la
información si se deseaba un diseño consistente para una página, y
además, una persona que lea esa página con un navegador pierde
totalmente el control sobre la visualización del texto.
Cuando se utiliza CSS, la etiqueta <H1> no debería proporcionar
información sobre como va a ser visualizado, solamente marca la
estructura del documento. La información de estilo separada en una hoja
de estilo, especifica cómo se ha de mostrar <H1>: color, fuente,
alineación del texto, tamaño, y otras características no visuales como
definir el volumen de un sintetizador de voz (véase Sintetización del
habla), por ejemplo.
La información de estilo puede ser adjuntada tanto como un documento
separado o en el mismo documento HTML. En este último caso podrían
definirse estilos generales en la cabecera del documento o en cada
etiqueta particular mediante el atributo "style".
Un servidor Web
Es un programa que implementa el protocolo HTTP (hypertext transfer
protocol). Este protocolo pertenece a la capa de aplicación del modelo
OSI y está diseñado para transferir lo que llamamos hipertextos, páginas
web o páginas HTML (hypertext markup language): textos complejos con
enlaces, figuras, formularios, botones y objetos incrustados como
animaciones o reproductores de música.
Es un programa que se ejecuta continuamente en un ordenador (también
se emplea el término para referirse al ordenador que lo ejecuta),
manteniéndose a la espera de peticiones por parte de un cliente (un
navegador web) y que responde a estas peticiones adecuadamente,
mediante una página web que se exhibirá en el navegador o mostrando el
respectivo mensaje si se detectó algún error.
Instalar un servidor web en nuestro PC nos permitirá, entre otras cosas,
poder montar nuestra propia página web sin necesidad de contratar
hosting, probar nuestros desarrollos vía local, acceder a los archivos de
nuestro equipo desde un PC remoto (aunque para esto existen otras
opciones, como utilizar un servidor FTP) o utilizar alguno de los
programas basados en web tan interesantes que están viendo la luz
últimamente. El problema de usar nuestro ordenador como servidor web
es que conviene tenerlo encendido permanentemente (para que esté
accesible de forma continua como la mayoría de los sitios webs), con el
consiguiente coste debido al consumo de electricidad (conviene tener en
cuenta que hay alojamientos web gratuitos, incluso sin publicidad y con
interesantes funciones).
Sin embargo, el hecho de que HTTP y HTML estén íntimamente ligados
no debe dar lugar a confundir ambos términos. HTML es un lenguaje de
marcas y HTTP es un protocolo.
Un servidor web se mantiene a la espera de peticiones HTTP por parte de
un cliente HTTP que solemos conocer como navegador. El cliente realiza
una petición al servidor y éste le responde con el contenido que el cliente
solicita. A modo de ejemplo, al teclear www.wikipedia.org en nuestro
navegador, éste realiza una petición HTTP al servidor de dicha dirección.
El servidor responde al cliente enviando el código HTML de la página; el
cliente, una vez recibido el código, lo interpreta y lo exhibe en pantalla.
Como vemos con este ejemplo, el cliente es el encargado de interpretar el
código HTML, es decir, de mostrar las fuentes, los colores y la disposición
de los textos y objetos de la página; el servidor tan sólo se limita a
transferir el código de la página sin llevar a cabo ninguna interpretación de
la misma.
Sobre el servicio web clásico podemos disponer de aplicaciones web.
Éstas son porciones de código que se ejecutan cuando se realizan ciertas
peticiones o respuestas HTTP. Hay que distinguir entre:
•
Aplicaciones en el lado del cliente: el cliente web es el encargado
de ejecutarlas en la máquina del usuario. Son las aplicaciones tipo
Java o Javascript: el servidor proporciona el código de las
aplicaciones al cliente y éste, mediante el navegador, las ejecuta.
Es necesario, por tanto, que el cliente disponga de un navegador
con capacidad para ejecutar aplicaciones (también llamadas
scripts).
Comúnmente,
los
navegadores
permiten
ejecutar
aplicaciones escritas en lenguaje javascript y java, aunque pueden
añadirse más lenguajes mediante el uso de plugins.
•
Aplicaciones en el lado del servidor: el servidor web ejecuta la
aplicación; ésta, una vez ejecutada, genera cierto código HTML; el
servidor toma este código recién creado y lo envía al cliente por
medio del protocolo HTTP.
Las aplicaciones de servidor muchas veces suelen ser la mejor opción
para realizar aplicaciones web. La razón es que, al ejecutarse ésta en el
servidor y no en la máquina del cliente, éste no necesita ninguna
capacidad añadida, como sí ocurre en el caso de querer ejecutar
aplicaciones javascript o java. Así pues, cualquier cliente dotado de un
navegador web básico puede utilizar este tipo de aplicaciones.
CONCLUSION
Las funciones a desarrollar por un Técnico Superior Universitario en
Informática, se enmarcan en un gran número de actividades, que
permiten de alguna manera optimizar los recursos informáticos existentes
y crear nuevos. En este marco y con relación a los objetivos planteados,
se puede decir que:
Que el proceso de pasantías permite la adquisición de nuevos
conocimientos, ya que, las exigencias propias de las actividades
desarrolladas así lo exigen; demostrando que es meta primordial, en el
período de pasantías se constituya en una etapa de mutua cooperación
entre el pasante y la empresa.
El nivel de conocimientos adquiridos en esta etapa sobre el diseño e
implementación de pagina Web, es más amplio.
Se cumplió con todas las actividades asignadas por la empresa,
respetando en todo momento la jerarquía y los límites de las
responsabilidades respectivas.
Finalmente en términos generales, las pasantías han reafirmado la
capacidad de adaptación, habilidades y destrezas así como la adquisición
de nuevos conocimientos en el área de Informática y se ha convertido en
una experiencia nueva y gratificante ya que se ha logrado tener la
oportunidad de poner en práctica los conocimientos adquiridos en la
realidad impuesta por el campo de trabajo.
RECOMENDACIONES
Finalmente, es conveniente destacar ciertos puntos que ayuden a mejorar
áreas comunes entre la Institución y la Empresa, como:
•
Crear programas educativos, cursos o talleres que permitan
incrementar conocimientos en áreas específicas como redes
cableadas e inalámbricas, manejo y administración de sistemas
operativos como Linux, detección y reparación de fallas o averías
de red; para que de esta faciliten un mejor desenvolvimiento del
estudiante en la empresa.
•
Se recomienda a la empresa rotar a los pasantes por cada uno de
los departamentos a fin de adquirir conocimientos de diversas
áreas.
BIBLIOGRAFÍA
1. la información fue adquirida por:
•
http://es.wikipedia.org/
•
http://www.cibernetia.com/manuales/instalacion_servido
r_web/1_conceptos_basicos.php
•
http://www.programacion.com/
•
http://www.desarrolloweb.com/
Descargar