REPUBLICA BOLIVARIANA DE VENEZUELA INSTITUTO UNIVERSITARIO DE TECNOLOGIA “DR. CRISTOBAL MENDOZA” EXTENSION MÉRIDA INFORME DE PASANTIAS REALIZADO EN LA UNIDAD DE INFRAESTRUCTURA DEL DEPARTAMENTO DE LA RED DE DATOS DE LA UNIVERSIDAD DE LOS ANDES (REDULA) Autor: Rodríguez Zambrano Ivohe Mérida, Septiembre del 2008 INTRODUCCIÓN La Red de Datos de la Universidad de los Andes (RedULA), es la red académica pionera en el país por su infraestructura organizativa y la más grande a nivel Nacional con aproximadamente 50 Km. De Fibra Óptica y la red inalámbrica más extensa, ambas distribuidas en todos los alrededores de la Ciudad de Mérida que día a día va creciendo tecnológicamente para el mejor desempeño del servicio en teleinformática que prestan a toda la comunidad Universitaria del Estado Mérida. Los aportes que ha brindado al resto de Instituciones de educación superior en el área de teleinformática y por la incorporación masiva del personal joven calificado, hacen de esta una de las redes piloto nacional de redes académicas y ha sido laboratorio de estrategias y desarrollos teleinformáticas. Inicialmente surgió como proyecto ante el CDCHT, madurando a través de los años hasta lograr su posición como Dependencia en el CCA. A lo largo de su historia ésta se ha organizado adquiriendo personalidad y firmeza en cada una de sus metas planteadas en cuanto a Redes se refiere, es por ello que se ha convertido en una Entidad importante tanto en el área académica como laboral de la Universidad de los Andes. La Red de Datos de la ULA, es una red de área metropolitana (MAN) y de tal forma está constituida por redes locales (LAN). En RedULA se utilizan las ultimas tecnologías de redes, y estas son implantadas por personal altamente calificado en áreas tan complejas como La Informática, Electrónica, Telecomunicaciones, Eléctrica, etc. De esta manera, se logra satisfacer los servicios teleinformáticos que demanda la comunidad universitaria en general. En el desarrollo de este Informe de Pasantías Ocupacional, se describe en forma general todas y cada una de las actividades elaboradas en el período de pasantías, realizadas en la Red de Datos de la Universidad de Los Andes (RedUla), específicamente en la unidad de Infraestructura, situada en la Facultad de Ingeniería de la Universidad de los Andes (ULA), Núcleo la Hechicera, Edif. “B” Piso 1 Ala Sur-Oeste, Mérida – Venezuela. En las cuales se destacan la participación en proyectos tan importantes como Territorio Digital, Fibra Óptica, Red Cableada y prestando ayuda en el área de los Técnicos de Apoyo al Campo (TAC), que consiste en dar soporte técnico a quien solicite los servicios y de esta manera garantizar la conectividad interna y a Internet. Con este trabajo de investigación se tiene la oportunidad de conocer una metodología de trabajo que brinda la integración al aparato productivo de la región, así como también, reafirmar capacidades de solución de problemas técnicos y organizacionales. La fase de ejecución del proceso de pasantías corresponde a la praxis vinculada a los conocimientos teórico – prácticos del alumno, partiendo de la experiencia propia donde se desenvuelve, y conformada por la institución educativa, el campo laboral y medios informales, teniendo como base la formación académica que se imparte en el Instituto Universitario de Tecnología Dr. Cristóbal Mendoza. El Siguiente informe se encuentra estructurado por tres capítulos y material complementario. El primer capítulo se fundamenta en la importancia de REDULA como empresa de redes y la importancia fundamental del período de pasantías. El segundo capítulo define a REDULA como organización, desde sus orígenes, ubicación, organigrama estructural y perspectivas generales y especificas. El tercer capítulo detalla cada una de las tareas realizadas durante las doce semanas de estadía en la empresa. Finamente, se complementa con imágenes de los trabajos realizados, acompañado de un glosario de términos conformado por las palabras técnicas que facilitan la comprensión del tema. CAPITULO I EL PROCESO DE LA PASANTÍA Importancia y Justificación Las pasantías profesionales permiten poner en practica todos los conocimientos teóricos-prácticos adquiridos a lo largo de la carrera, lo que la hace que esta sea fundamental para el desarrollo profesional del estudiante además permite conocer cómo se desarrolla la vida en el área industrial, así como también para el aprendizaje de nuevas técnicas y destrezas. Durante esta etapa el pasante podrá obtener una preparación previa, la cual le permitirá un mejor desempeño en el campo profesional. Es muy importante destacar que las pasantías tienden a dejar un gran aporte para la empresa, ya que quedan todas las labores realizadas por el pasante, que de una manera u otra solucionan algunos problemas que en ese momento no se han ejecutado. También benefician al estudiante para que se especialice en diferentes áreas correspondientes a la carrera como Programación, Mantenimiento, Redes, Sistemas Operativos, entre otros. En la actualidad es muy importante tener conocimiento como profesional de todas las ramas que tiene esta carrera para tener un espectro más amplio en la búsqueda de empleo, pero sabemos que destacarse en todas es difícil, las pasantías permiten decidir cuál es en la que mejor se desenvuelve. El éxito de las pasantías depende del aprovechamiento que el alumno le dé a la misma. OBJETIVOS OBJETIVO GENERAL Aplicar los conocimientos teórico-practico adquiridos durante el periodo académico en el campo laboral y así obtener el mejor desenvolvimiento en el mismo. OBJETIVOS ESPECIFICOS • Dar cumplimiento a las actividades asignadas por el Tutor Industrial de la empresa. • Aplicar adecuadamente las normas y lineamientos establecidos por REDULA, para el desarrollo de cualquier proyecto. • Conocer metodologías y herramientas actuales, para el diseño y mantenimiento de redes informáticas acordes con las necesidades y exigencias de la tecnología. CAPITULO II DESCRIPCIÓN DE LA EMPRESA DEFINICIÓN - REDULA. RedULA, es un organismo Universitario dedicado a la Investigación y desarrollo en el Área de Redes de comunicaciones, así como encargado de Supervisar y Coordinar la Infraestructura de la Red de Transmisión de Datos de la Universidad de los Andes. La Universidad de los Andes a través de RedULA ha desarrollado una infraestructura de redes de computadoras que la sitúa en el lugar de vanguardia dentro de las Instituciones Educativas del País. Esta empresa cuenta con la presencia de un contingente humano de profesionales y técnicos capacitados en el área tecnológica de punta. El crecimiento en cuanto al número de usuarios y máquinas ha sido tan elevado en estos últimos años, que ha llevado a que en la actualidad se tenga una demanda altamente significativa del servicio, siendo este atendido adecuadamente por el personal apropiado encargado de administrar las distintas subredes universitarias, personal del proyecto ADMIRE. RESEÑA HISTÓRICA El origen de la Red se remonta en el año de 1981 cuando llegó al laboratorio de Geofísica de la facultad de ciencias, allí se incorpora el primer computador bajo el sistema operativo UNIX. Las ventajas de este sistema operativo alentaron el deseo de quienes trabajan en laboratorios, entre ellos el profesor José Gregorio Silva quien es piedra angular en el proceso de desarrollo de la red de datos en la Universidad de los Andes. Así después de muchos esfuerzos e inconvenientes, se logra adaptar este sistema operativo como un estándar en varias dependencias de investigación de la Universidad. En el año 1985, se crea el laboratorio SUMA, (Sistema Unificado de Micro computación Aplicada), el cual busca unificar los servicios de computación en la facultad de ciencias, dando paso a la idea de Redes que permitiera visualizar nuevos horizontes para la futura red académica. Con el éxito que arrojo el funcionamiento de SUMA y la necesidad de parte de los cómputos y visualización gráfica; se une un grupo de profesores de la facultad de ciencias, economía, ingeniería, y del centro de computación de la ULA para crear en 1987, el Consejo de Computación Académico. En el año 1987-1988 la Universidad de los Andes contaba con dos grandes laboratorios. El laboratorio norte situado en la facultad de ciencias y el laboratorio sur, en la facultad de ingeniería. La investigación en ambos laboratorios creció, así como también creció la necesidad de comunicarse continuamente. Ya se contaba con equipos modernos, pero sin plataforma de comunicación. Así es como en 1991 nace el CDCHT, quien logra interconectar las redes de área local de las Facultades de Ciencia e Ingeniería, gracias a la central Telefónica Digital adquirida por la Universidad. En 1992 se realiza la Conexión con la Red Académica Nacional de CONICIT y con la Red Mundial INTERNET, se crea la "I Escuela Latinoamericana de Redes" en la Facultad de Ciencias, en la que participaron 15 expertos (USA, Finlandia, Italia, Brasil y Suiza) y 40 profesionales de América Latina (Argentina, Brasil, Colombia, México, Nicaragua, Paraguay, Perú y Venezuela). En 1993 se realiza el primer taller Regional donde el personal de RedULA participó como instructor, el cual fue efectuado en Perú. En 1994 se realiza la Instalación de la Infraestructura de Fibra Óptica. En 1995 se realiza la instalación en la Facultad de Ingeniería de una Estación terrena VSAT, donada por la OEA al CONICIT y transferida al SAICYT de Mérida por medio de la empresa Bantel, se crearon 2 laboratorios Multimedia (LMM), se realizo la I Escuela Latinoamericana de Redes, adiestrándose al personal responsable del desarrollo de las Redes Académicas. En 1996 se entregaron los proyectos de la troncal principal del Sector de Liria; la interconexión de las facultades de Humanidades, Economía y Derecho; la Red de Área Local para las oficinas de la PINA; Actualización de la Red de Área local de PLANDES. En 1997 se crearon dos comisiones: comisión técnica, y comisión estratégica de RedULA. Durante 1998 comienzan a tener conectividad dependencias de la ULA que se encuentran fuera de los sectores Universitarios tales como, Sector Hechicera: Facultad de Arquitectura, conectividad y laboratorio de Pregrado y Postgrado, Redes internas de la Facultad de Ciencias, Jardines Botánicos (200 nodos), Sector de Ciencias de Salud: Facultad de Farmacia. Laboratorios de pregrado (60 nodos). Ya en el año de 1999 se concretan los proyectos de los siguientes Sectores: Sector Hechicera: Facultad de Arquitectura. Facultad de Ingeniería (Nueva Sede) (1400 nodos). Sector Ciencias de la Salud: Facultad de Farmacia HULA (200 nodos). Sector Tulio Febres Cordero: Facultad de Medicina (500 nodos). Redes internas de: Laboratorio de Pregrado de las Facultades de: Geografía, Arquitectura, Medicina, Humanidades Publicaciones. Taller Gráfico (500 nodos). (CODEPRE). Consejo de MISIÓN Proveer al mayor número de suscriptores, un servicio de calidad, técnicamente confiable tanto en red cableada como inalámbrica, que les proporcione una atención acorde con sus necesidades, que obtenga una rentabilidad adecuada y que logre la mayor cobertura dentro de nuestra área asignada. VISIÓN Prestar un servicio integral y eficiente, cuya calidad sea comparable a la de las mejores empresas latinoamericanas. FUNCIONES ESPECÍFICAS • Prestar asesoría en el diseño, instalación y mantenimiento de las subredes de computadores de las distintas dependencias de la ULA, así como también proyectar los planes de expansión para garantizar el crecimiento de la red. • Velar por el buen funcionamiento de la red, de manera que se resuelvan eficientemente los problemas operativos y de emergencia. • Autorizar la interconexión a la red de cualquier dependencia interna o externa de la ULA. • Producir la documentación necesaria para operar en la Red de la ULA y en las diferentes Redes Internacionales, como también asesorar en el uso de los recursos de RedULA. • Aprobar los diferentes proyectos que involucran a la Red Universitaria y además establecer planificaciones de actividades de la red e investigar en el área teleinformática y desarrollar servicios. SERVICIOS QUE OFRECE Dentro de los servicios que ofrece RedULA se encuentran: • Correo Electrónico. • Servicios de información a Usuarios (Finger). • Servicios de conexión de computadoras (Teinet). • Seriaos de transferencia de archivos (FTP). • Servicios de comunicación interactiva (Talk). • Red de acceso inalámbrico. • Servicio de atención a los usuarios. DEFINICIÓN – INFRAESTRUCTURA La Unidad de Infraestructura anteriormente llamada Telecom surge con la necesidad de garantizar la operación y desarrollo de la plataforma física de redes de computadoras, existentes en las diferentes facultades y dependencias de la Universidad de los Andes. RESEÑA HISTÓRICA Es en el año 1999, cuando se conforma esta unidad, y para ese entonces contaba con un personal de sólo dos integrantes que eran: un Coordinador General de Telecom y un Técnico de Campo. Los proyectos más importantes desarrollados en ese año fueron: LAN Sector Liria, primer Proyecto de Cableado Estructurado elaborado implementado por RedULA; implementación y activación de los backbone de Fibra Multimodo (MMF) en el Sector Chorros de Milla y el Sector Tulio Febres para interconectar las Redes de las Facultades de Geografía y Medicina a la Red de Datos de la ULA y la instalación de la estación repetidora en la banda de frecuencia de 2.4 Ghz. para la Red de Radio. En el año 2000, se incorporan al personal tres Técnicos Especializados en Telecomunicaciones y se nombran como asesores oficiales en el área de Radio Enlaces y Enlaces de Fibra Óptica a los Profesores pertenecientes al Dpto. De Electrónica y Comunicaciones Prof. Néstor Ángulo Reina y Prof. Ermano Pietrosemoli respectivamente. Entre los proyectos ejecutados para dicho período están: Enlace de Radio Hospital Central de San Cristóbal (Núcleo Táchira) para la interconexión del área de Postgrado de Medicina con RedULA; instalación y activación del backbone MMF en la sede del Núcleo Táchira, para interconectar un 85% de este con RedULA. Desde el año 2001 hasta la actualidad, Telecom cuenta con una planta técnica especializada organizada como sigue: un Coordinador Técnico Telecom, tres Técnicos Especializados en el área de Telecomunicaciones, dos Técnicos de Soporte y 3 pasantes en áreas afines a las telecomunicaciones. De igual forma esta unidad, asume el control de la plataforma de enrutamiento (capa 3 según el Modelo de Interconexión de Sistemas Abiertos (OSI)), así como el Soporte Técnico a la plataforma de voz, vídeo y datos de la Universidad de los Andes. OBJETIVOS • Garantizar operación las 24 horas y los 365 días al año de la Plataforma Física de la Red de Datos de la Universidad de los Andes. • Desarrollo de nuevas tecnologías en el área de telecomunicaciones que permita garantizar el rendimiento y confiabilidad necesaria en los servicios prestados por RedULA. • Asesoramiento para la gestión, desarrollo e implementación de Proyectos de Telecomunicaciones y Teleinformática en la ULA. VISIÓN Ser pilarte fundamental y de referencia obligada en el desarrollo del Área de Telecomunicaciones en las Universidades a nivel nacional y Sur Americano. FUNCIONES • Operación: Mantener el buen funcionamiento de cada unos de los servicios que ofrece. • Desarrollo: de nuevas actividades que permitan mejorar cada uno de los servicios prestados al cliente. CAPITULO III DESCRIPCIÓN DE LAS ACTIVIDADES REALIZADAS EN LA EMPRESA Semana I (01-05/09/08) • Familiarización con los el entorno de trabajo, organización de actividades a realizar, conocimiento de sistema operativo • Manejo de Debían Linux • Manipulación de directorios, líneas de comandos • Investigación y manipulación de conceptos y comandos básico s para el manejo optimo del sistema Semana II (08-13/09/08) • Instalación del sistema operativo Debían Linux. • Se realizaron atención de fallas en la facultad de forestales • Se realizaron inspecciones de los centros de cargas de varias facultades como farmacia, medicina, geografía y ingeniería, entre otras- Semana III (15-20/09/08) • Fue asignado la creación de una Página Web para la unidad de infraestructura • Investigaciones preliminares sobre software y hardware implementarse para el buen funcionamiento de la aplicación Web. Semana IV (22-27/09/08) • Diseño de la Estructura de la Página Web. • Trabajo con Bocetos para el diseño de contenidos. • Buscar y decir la información necesaria para el contenido a Semana V (29-04/10/08) • Definición del Diseño e Interfaz Grafica de Usuario • Diseño y Programación en el Lenguaje HTML • Corrección de Fallas Semana VI (06-11/10/08) • Instalación del Servidor Web. • Pruebas y depuración de errores del servidor Web • Montaje de los archivos *.html y Corrección de Fallas • Continuar con el diseño y programación de las paginas restantes Semana VII (13-18/10/08) • Montaje del sitio Web completo • Diseño y Programación de las animaciones Flash • Mostrar el sitio Web a Javier y demás involucrados en el proyecto Semana VIII (18 – 24/10/08) • Corrección de errores o aplicación de sugerencias. • Montaje del sitio Web y publicación del Mismo. FUNDAMENTACIÓN TEORICO – PRÁCTICO Introducción a Linux Linux es un sistema operativo, compatible Unix. Dos características muy peculiares lo diferencian del resto de sistemas que podemos encontrar en el mercado, la primera, es que es libre, esto significa que no tenemos que pagar ningún tipo de licencia a ninguna casa desarrolladora de software por el uso del mismo, la segunda, es que el sistema viene acompañado del código fuente. El sistema lo forman el núcleo del sistema (kernel) más un gran número de programas / bibliotecas que hacen posible su utilización. Muchos de estos programas y bibliotecas han sido posibles gracias al proyecto GNU, por esto mismo, muchos llaman a Linux, GNU/Linux, para resaltar que el sistema lo forman tanto el núcleo como gran parte del software producido por el proyecto GNU. Linux se distribuye bajo la GNU General Public License por lo tanto, el código fuente tiene que estar siempre accesible y cualquier modificación ó trabajo derivado tiene que tener esta licencia. El sistema ha sido diseñado y programado por multitud de programadores alrededor del mundo. El núcleo del sistema sigue en continuo desarrollo bajo la coordinación de Linus Torvalds, la persona de la que partió la idea de este proyecto, a principios de la década de los noventa. Hoy en día, grandes compañías, como IBM, SUN, HP, Novell y RedHat, entre otras muchas, aportan a Linux grandes ayudas tanto económicas como de código. Día a día, más y más programas y aplicaciones están disponibles para este sistema, y la calidad de los mismos aumenta de versión a versión. La gran mayoría de los mismos vienen acompañados del código fuente y se distribuyen generalmente bajo los términos de licencia de la GNU General Public License. Más y más casas de software comercial distribuyen sus productos para Linux y la presencia del mismo en empresas aumenta constantemente por la excelente relación calidad-precio que se consigue con Linux. Las arquitecturas en las que en un principio se puede utilizar Linux son Intel 386-, 486-, Pentium, Pentium Pro, Pentium II/III/IV, IA-64, Amd 5x86, Amd64, Cyrix y Motorola 68020,IBM S/390, zSeries, DEC Alpha, ARM, MIPS, PowerPC, SPARC y UltraSPARC. Además no es difícil encontrar nuevos proyectos portando Linux a nuevas arquitecturas. Características más importantes de GNU/LINUX: • Multitarea: La palabra multitarea describe la habilidad de ejecutar varios programas al mismo tiempo. LINUX utiliza la llamada multitarea preeventiva,la cual asegura que todos los programas que se estan utilizando en un momento dado seran ejecutados, siendo el sistema operativo el encargado de ceder tiempo de microprocesador a cada programa. • Multiusuario:Muchos usuarios usando la misma maquina al mismo tiempo. • Multiplataforma: Las plataformas en las que en un principio se puede utilizar Linux son 386-, 486-. Pentium, Pentium Pro, Pentium II,Amiga y Atari, tambien existen versiones para su utilizacion en otras plataformas, como amd64, Alpha, ARM, MIPS, PowerPC y SPARC. • Multiprocesador: Soporte para sistemas con mas de un procesador esta disponible para Intel, AMD y SPARC. • Funciona en modo protegido 386. • Protección de la memoria entre procesos, de manera que uno de ellos no pueda colgar el sistema. • Carga de ejecutables por demanda: Linux sólo lee del disco aquellas partes de un programa que están siendo usadas actualmente. • Política de copia en escritura para la compartición de páginas entre ejecutables: esto significa que varios procesos pueden usar la misma zona de memoria para ejecutarse. Cuando alguno intenta escribir en esa memoria, la página (4Kb de memoria) se copia a otro lugar. Esta política de copia en escritura tiene dos beneficios: aumenta la velocidad y reduce el uso de memoria. • Memoria virtual usando paginación (sin intercambio de procesos completos) a disco: A una partición en el sistema de archivos, con la posibilidad de añadir más áreas de intercambio sobre la marcha. • La memoria se gestiona como un recurso unificado para los programas de usuario y para el caché de disco, de tal forma que toda la memoria libre puede ser usada para caché y ésta puede a su vez ser reducida cuando se ejecuten grandes programas. • Librerías compartidas de carga dinámica (DLL's) y librerías estáticas. • Se realizan volcados de estado (core dumps) para posibilitar los análisis post-mortem, permitiendo el uso de depuradores sobre los programas no sólo en ejecución sino también tras abortar éstos por cualquier motivo. • Compatible con POSIX, System V y BSD a nivel fuente. • Emulación de iBCS2, casi completamente compatible con SCO, SVR3 y SVR4 a nivel binario. • Todo el código fuente está disponible, incluyendo el núcleo completo y todos los drivers, las herramientas de desarrollo y todos los programas de usuario; además todo ello se puede distribuir libremente. Hay algunos programas comerciales que están siendo ofrecidos para Linux actualmente sin código fuente, pero todo lo que ha sido gratuito sigue siendo gratuito. • Control de tareas POSIX. • Pseudo-terminales (pty's). • Emulación de 387 en el núcleo, de tal forma que los programas no tengan que hacer su propia emulación matemática. Cualquier máquina que ejecute Linux parecerá dotada de coprocesador matemático. Por supuesto, si el ordenador ya tiene una FPU (unidad de coma flotante), esta será usada en lugar de la emulación, pudiendo incluso compilar tu propio kernel sin la emulación matemática y conseguir un pequeño ahorro de memoria. • Soporte para muchos teclados nacionales o adaptados y es bastante fácil añadir nuevos dinámicamente. • Consolas virtuales múltiples: varias sesiones de login a través de la consola entre las que se puede cambiar con las combinaciones adecuadas de teclas (totalmente independiente del hardware de video). Se crean dinámicamente y puedes tener hasta 64. • Soporte para varios sistemas de archivo comunes, incluyendo minix-1, Xenix y todos los sistemas de archivo típicos de System V, y tiene un avanzado sistema de archivos propio con una capacidad de hasta 4 Tb y nombres de archivos de hasta 255 caracteres de longitud. • Acceso transparente a particiones MS-DOS (o a particiones OS/2 FAT) mediante un sistema de archivos especial: no es necesario ningún comando especial para usar la partición MS-DOS, esta parece un sistema de archivos normal de Unix (excepto por algunas restricciones en los nombres de archivo, permisos, y esas cosas). Las particiones comprimidas de MS-DOS 6 no son accesibles en este momento, y no se espera que lo sean en el futuro. El soporte para VFAT, FAT32 (WNT, Windows 95/98) se encuentra soportado desde la version 2.0 del nucleo y el NTFS de WNT desde la version 2.2 (Este ultimo solo en modo lectura). • Soporte en sólo lectura de HPFS-2 del OS/2 2.1 • Sistema de archivos de CD-ROM que lee todos los formatos estándar de CD-ROM. • TCP/IP, incluyendo ssh, ftp, telnet, NFS, etc. • Appletalk. • Software cliente y servidor Netware. • Lan Manager / Windows Native (SMB), software cliente y servidor. • Diversos protocolos de red incluidos en el kernel: TCP, IPv4, IPv6, AX.25, X.25, IPX, DDP, Netrom, etc Debian GNU/Linux Debían GNU/Linux es la principal distribución Linux del proyecto Debían, que basa su principio y fin en el software libre. Creada por el proyecto Debian en el año 1993, la organización responsable de la creación y mantenimiento de la misma distribución, centrado en el núcleo de Linux y utilidades GNU. Éste también mantiene y desarrolla sistemas GNU basados en otros núcleos (Debían GNU/Hurd, Debian GNU/NetBSD y Debian GNU/kFreeBSD). Nace como una apuesta por separar en sus versiones el software libre del software no libre. El modelo de desarrollo es independiente a empresas, creado por los propios usuarios, sin depender de ninguna manera de necesidades comerciales. Debian no vende directamente su software, lo pone a disposición de cualquiera en Internet, aunque sí permite a personas o empresas distribuir comercialmente este software mientras se respete su licencia. Características Debían se caracteriza por: • La disponibilidad en varias arquitecturas. • Una amplia colección de software disponible. La versión 4.0 viene con 18733 paquetes. • Un grupo de herramientas para facilitar el proceso de instalación y actualización del software (APT, Aptitude, Dpkg, Synaptic, Dselect, /etc/sources.list, etc). • Su compromiso con los principios y valores involucrados en el movimiento del Software Libre. • No tiene marcado ningún entorno gráfico en especial, pudiéndose instalar, ya sean: GNOME, KDE, Xfce, Enlightenment u otro. Sistema de archivos Los sistemas de archivos (filesystem en inglés), estructuran la información guardada en una unidad de almacenamiento (normalmente un disco duro) de una computadora, que luego será representada ya sea textual o gráficamente utilizando un gestor de archivos. La mayoría de los sistemas operativos poseen su propio sistema de archivos. Lo habitual es utilizar dispositivos de almacenamiento de datos que permiten el acceso a los datos como una cadena de bloques de un mismo tamaño, a veces llamados sectores, usualmente de 512 bytes de longitud. El software del sistema de archivos es responsable de la organización de estos sectores en archivos y directorios y mantiene un registro de qué sectores pertenecen a qué archivos y cuáles no han sido utilizados. En la práctica, un sistema de archivos también puede ser utilizado para acceder a datos generados dinámicamente, como los recibidos a través de una conexión de red (sin la intervención de un dispositivo de almacenamiento). Los sistemas de archivos tradicionales proveen métodos para crear, mover, renombrar y eliminar tanto archivos como directorios, pero carecen de métodos para crear, por ejemplo, enlaces adicionales a un directorio o archivo (enlace duro en Unix) o renombrar enlaces padres (".." en Unix). El acceso seguro a sistemas de archivos básicos puede estar basado en los esquemas de lista de control de acceso o capacidades. Las listas de control de acceso hace décadas que demostraron ser inseguras, por lo que los sistemas operativos experimentales utilizan el acceso por capacidades. Los sistemas operativos comerciales aún funcionan con listas de control de acceso. El servidor HTTP Apache es un software (libre) servidor HTTP de código abierto para plataformas Unix (BSD, GNU/Linux, etc.), Windows, Macintosh y otras, que implementa el protocolo HTTP/1.1[1] y la noción de sitio virtual. Cuando comenzó su desarrollo en 1995 se basó inicialmente en código del popular NCSA HTTPd 1.3, pero más tarde fue reescrito por completo. Su nombre se debe a que Behelendorf eligió ese nombre porque quería que tuviese la connotación de algo que es firme y enérgico pero no agresivo, y la tribu Apache fue la última en rendirse al que pronto se convertiría en gobierno de EEUU, y en esos momentos la preocupación de su grupo era que llegasen las empresas y "civilizasen" el paisaje que habían creado los primeros ingenieros de internet. Además Apache consistía solamente en un conjunto de parches a aplicar al servidor de NCSA. Era, en inglés, a patchy server (un servidor "parcheado"). El servidor Apache se desarrolla dentro del proyecto HTTP Server (httpd) de la Apache Software Foundation. Apache presenta entre otras características mensajes de error altamente configurables, bases de datos de autenticación y negociado de contenido, pero fue criticado por la falta de una interfaz gráfica que ayude en su configuración. Apache tiene amplia aceptación en la red: desde 1996, Apache, es el servidor HTTP más usado. Alcanzó su máxima cuota de mercado en 2005 siendo el servidor empleado en el 70% de los sitios web en el mundo, sin embargo ha sufrido un descenso en su cuota de mercado en los últimos años. (Estadísticas históricas y de uso diario proporcionadas por Netcraft[2] ). La mayoría de las vulnerabilidades de la seguridad descubiertas y resueltas tan sólo pueden ser aprovechadas por usuarios locales y no remotamente. Sin embargo, algunas se pueden accionar remotamente en ciertas situaciones, o explotar por los usuarios locales malévolos en las disposiciones de recibimiento compartidas que utilizan PHP como módulo de Apache. Internet Es un conjunto descentralizado de redes de comunicación interconectadas, que utilizan la familia de protocolos TCP/IP, garantizando que las redes físicas heterogéneas que la componen funcionen como una red lógica única, de alcance mundial. Sus orígenes se remontan a 1969, cuando se estableció la primera conexión de computadoras, conocida como ARPANET, entre tres universidades en California y una en Utah, EE. UU.. Uno de los servicios que más éxito ha tenido en Internet ha sido la World Wide Web (WWW, o "la Web"), hasta tal punto que es habitual la confusión entre ambos términos. La WWW es un conjunto de protocolos que permite, de forma sencilla, la consulta remota de archivos de hipertexto. Ésta fue un desarrollo posterior (1990) y utiliza Internet como medio de transmisión. Existen, por tanto, muchos otros servicios y protocolos en Internet, aparte de la Web: el envío de correo electrónico (SMTP), la transmisión de archivos (FTP y P2P), las conversaciones en línea (IRC), la mensajería instantánea y presencia, la transmisión de contenido y comunicación multimedia -telefonía (VoIP), televisión (IPTV)-, los boletines electrónicos (NNTP), el acceso remoto a otras máquinas (SSH y Telnet) o los juegos en línea. File Transfer Protocol En informática, FTP (File Transfer Protocol) es un protocolo de red para la transferencia de archivos entre sistemas conectados a una red TCP, basado en la arquitectura cliente-servidor. Desde un equipo cliente se puede conectar a un servidor para descargar archivos desde él o para enviarle archivos, independientemente del sistema operativo utilizado en cada equipo. El Servicio FTP es ofrecido por la capa de Aplicación del modelo de capas de red TCP/IP al usuario, utilizando normalmente el puerto de red 20 y el 21. Un problema básico de FTP es que está pensado para ofrecer la máxima velocidad en la conexión, pero no la máxima seguridad, ya que todo el intercambio de información, desde el login y password del usuario en el servidor hasta la transferencia de cualquier archivo, se realiza en texto plano sin ningún tipo de cifrado, con lo que un posible atacante puede capturar este tráfico, acceder al servidor, o apropiarse de los archivos transferidos. Para solucionar este problema son de gran utilidad aplicaciones como scp y sftp, incluidas en el paquete SSH, que permiten transferir archivos pero cifrando todo el tráfico. Hypertext Transfer Protocol El protocolo de transferencia de hipertexto (HTTP, HyperText Transfer Protocol) es el protocolo usado en cada transacción de la Web (WWW). HTTP fue desarrollado por el consorcio W3C y la IETF, colaboración que culminó en 1999 con la publicación de una serie de RFC, siendo el más importante de ellos el RFC 2616, que especifica la versión 1.1. HTTP define la sintaxis y la semántica que utilizan los elementos software de la arquitectura web (clientes, servidores, proxies) para comunicarse. Es un protocolo orientado a transacciones y sigue el esquema peticiónrespuesta entre un cliente y un servidor. Al cliente que efectúa la petición (un navegador o un spider) se lo conoce como "user agent" (agente del usuario). A la información transmitida se la llama recurso y se la identifica mediante un URL. Los recursos pueden ser archivos, el resultado de la ejecución de un programa, una consulta a una base de datos, la traducción automática de un documento, etc. HTTP es un protocolo sin estado, es decir, que no guarda ninguna información sobre conexiones anteriores. El desarrollo de aplicaciones web necesita frecuentemente mantener estado. Para esto se usan las cookies, que es información que un servidor puede almacenar en el sistema cliente. Esto le permite a las aplicaciones web instituir la noción de "sesión", y también permite rastrear usuarios ya que las cookies pueden guardarse en el cliente por tiempo indeterminado. navegador web Un navegador web (del inglés, web browser) es una aplicación software que permite al usuario recuperar y visualizar documentos de hipertexto, comúnmente descritos en HTML, desde servidores web de todo el mundo a través de Internet. Esta red de documentos es denominada World Wide Web (WWW). Cualquier navegador actual permite mostrar o ejecutar gráficos, secuencias de vídeo, sonido, animaciones y programas diversos además del texto y los hipervínculos o enlaces. La funcionalidad básica de un navegador web es permitir la visualización de documentos de texto, posiblemente con recursos multimedia incrustados. Los documentos pueden estar ubicados en la computadora en donde está el usuario, pero también pueden estar en cualquier otro dispositivo que esté conectado a la computadora del usuario o a través de Internet, y que tenga los recursos necesarios para la transmisión de los documentos (un software servidor web). Tales documentos, comúnmente denominados páginas web, poseen hipervínculos que enlazan una porción de texto o una imagen a otro documento, normalmente relacionado con el texto o la imagen. El seguimiento de enlaces de una página a otra, ubicada en cualquier computadora conectada a la Internet, se llama navegación; que es de donde se origina el nombre de navegador. Por otro lado, hojeador es una traducción literal del original en inglés, browser, aunque su uso es minoritario. Hipertexto En informática, es el nombre que recibe el texto que en la pantalla de una computadora conduce a su usuario a otro texto relacionado. La forma más habitual de hipertexto en documentos es la de hipervínculos o referencias cruzadas automáticas que van a otros documentos (lexias). Si el usuario selecciona un hipervínculo, hace que el programa de la computadora muestre inmediatamente el documento enlazado. Otra forma de hipertexto es el strechtext que consiste en dos indicadores o aceleradores y una pantalla. El primer indicador permite que lo escrito pueda moverse de arriba hacia abajo en la pantalla. El segundo indicador induce al texto a que cambie de tamaño por grados. Es importante mencionar que el hipertexto no esta limitado a datos textuales, podemos encontrar dibujos del elemento especificado, sonido o vídeo referido al tema. El programa que se usa para leer los documentos de hipertexto se llama “navegador”, el "browser", "visualizador" o "cliente" y cuando seguimos un enlace decimos que estamos navegando por la Web. El hipertexto es una de las formas de la hipermedia, enfocada en diseñar, escribir y redactar texto en una media. MySQL Es un sistema de gestión de base de datos relacional, multihilo y multiusuario con más de seis millones de instalaciones.[1] MySQL AB — desde enero de 2008 una subsidiaria de Sun Microsystems— desarrolla MySQL como software libre en un esquema de licenciamiento dual. Por un lado se ofrece bajo la GNU GPL para cualquier uso compatible con esta licencia, pero las empresas que quieran incorporarlo en productos privativos pueden comprar a la empresa una licencia específica que les permita este uso. Está desarrollado en su mayor parte en ANSI C. Al contrario que proyectos como Apache, donde el software es desarrollado por una comunidad pública y el copyright del código está en poder del autor individual, MySQL es propiedad y está patrocinado por una empresa privada, que posee el copyright de la mayor parte del código. Esto es lo que posibilita el esquema de licenciamiento anteriormente mencionado. Además de la venta de licencias privativas, la compañía ofrece soporte y servicios. Para sus operaciones contratan trabajadores alrededor del mundo que colaboran vía Internet. MySQL AB fue fundado por David Axmark, Allan Larsson, y Michael Widenius. PHP Es un lenguaje de programación interpretado, diseñado originalmente para la creación de páginas web dinámicas. Es usado principalmente en interpretación del lado del servidor (server-side scripting) pero actualmente puede ser utilizado desde una interfaz de línea de comandos o en la creación de otros tipos de programas incluyendo aplicaciones con interfaz gráfica usando las bibliotecas Qt o GTK+. PHP es un acrónimo recursivo que significa PHP Hypertext Pre-processor (inicialmente PHP Tools, o, Personal Home Page Tools). Fue creado originalmente por Rasmus Lerdof en 1994; sin embargo la implementación principal de PHP es producida ahora por The PHP Group y sirve como el estándar de facto para PHP al no haber una especificación formal. Publicado bajo la PHP License, la Free Software Foundation considera esta licencia como software libre. PHP es un lenguaje interpretado de propósito general ampliamente usado y que está diseñado especialmente para desarrollo web y puede ser embebido dentro de código HTML. Generalmente se ejecuta en un servidor web, tomando el código en PHP como su entrada y creando páginas web como salida. Puede ser desplegado en la mayoría de los servidores web y en casi todos los sistemas operativos y plataformas sin costo alguno. PHP se encuentra instalado en más de 20 millones de sitios web y en un millón de servidores, aunque el número de sitios en PHP ha declinado desde agosto de 2005. Es también el módulo Apache más popular entre las computadoras que utilizan Apache como servidor web. La más reciente versión principal del PHP fue la versión 5.2.6 de 1 de mayo de 2008. Dreamweaver Es la herramienta de diseño de páginas web más avanzada, tal como se ha afirmado en muchos medios. Aunque sea un experto programador de HTML el usuario que lo maneje, siempre se encontrarán en este programa razones para utilizarlo, sobretodo en lo que a productividad se refiere. Cumple perfectamente el objetivo de diseñar páginas con aspecto profesional, y soporta gran cantidad de tecnologías, además muy fáciles de usar: • Hojas de estilo y capas • Javascript para crear efectos e interactividades • Inserción de archivos multimedia... Además es un programa que se puede actualizar con componentes, que fabrica tanto Macromedia como otras compañias, para realizar otras acciones más avanzadas. En resumen, el programa es realmente satisfatorio, incluso el código generado es de buena calidad. La unica pega consiste en que al ser tan avanzado, puede resultar un poco difícil su manejo para personas menos experimentadas en el diseño de webs. Dreamweaver ha evolucionado mucho en su versión 4, que incluye soporte para la creación de páginas dinámicas de servidor en ASP, con acceso a bases de datos (versión Ultradev) y una mayor integración con otras herramientas de Macromedia como Fireworks. Las hojas de estilo en cascada CSS Son un lenguaje formal usado para definir la presentación de un documento estructurado escrito en HTML o XML (y por extensión en XHTML). El W3C (World Wide Web Consortium) es el encargado de formular la especificación de las hojas de estilo que servirán de estándar para los agentes de usuario o navegadores. La idea que se encuentra detrás del desarrollo de CSS es separar la estructura de un documento de su presentación. Por ejemplo, el elemento de HTML <H1> indica que un bloque de texto es un encabezamiento y que es más importante que un bloque etiquetado como <H2>. Versiones más antiguas de HTML permitían atributos extra dentro de la etiqueta abierta para darle formato (como el color o el tamaño de fuente). No obstante, cada etiqueta <H1> debía disponer de la información si se deseaba un diseño consistente para una página, y además, una persona que lea esa página con un navegador pierde totalmente el control sobre la visualización del texto. Cuando se utiliza CSS, la etiqueta <H1> no debería proporcionar información sobre como va a ser visualizado, solamente marca la estructura del documento. La información de estilo separada en una hoja de estilo, especifica cómo se ha de mostrar <H1>: color, fuente, alineación del texto, tamaño, y otras características no visuales como definir el volumen de un sintetizador de voz (véase Sintetización del habla), por ejemplo. La información de estilo puede ser adjuntada tanto como un documento separado o en el mismo documento HTML. En este último caso podrían definirse estilos generales en la cabecera del documento o en cada etiqueta particular mediante el atributo "style". Un servidor Web Es un programa que implementa el protocolo HTTP (hypertext transfer protocol). Este protocolo pertenece a la capa de aplicación del modelo OSI y está diseñado para transferir lo que llamamos hipertextos, páginas web o páginas HTML (hypertext markup language): textos complejos con enlaces, figuras, formularios, botones y objetos incrustados como animaciones o reproductores de música. Es un programa que se ejecuta continuamente en un ordenador (también se emplea el término para referirse al ordenador que lo ejecuta), manteniéndose a la espera de peticiones por parte de un cliente (un navegador web) y que responde a estas peticiones adecuadamente, mediante una página web que se exhibirá en el navegador o mostrando el respectivo mensaje si se detectó algún error. Instalar un servidor web en nuestro PC nos permitirá, entre otras cosas, poder montar nuestra propia página web sin necesidad de contratar hosting, probar nuestros desarrollos vía local, acceder a los archivos de nuestro equipo desde un PC remoto (aunque para esto existen otras opciones, como utilizar un servidor FTP) o utilizar alguno de los programas basados en web tan interesantes que están viendo la luz últimamente. El problema de usar nuestro ordenador como servidor web es que conviene tenerlo encendido permanentemente (para que esté accesible de forma continua como la mayoría de los sitios webs), con el consiguiente coste debido al consumo de electricidad (conviene tener en cuenta que hay alojamientos web gratuitos, incluso sin publicidad y con interesantes funciones). Sin embargo, el hecho de que HTTP y HTML estén íntimamente ligados no debe dar lugar a confundir ambos términos. HTML es un lenguaje de marcas y HTTP es un protocolo. Un servidor web se mantiene a la espera de peticiones HTTP por parte de un cliente HTTP que solemos conocer como navegador. El cliente realiza una petición al servidor y éste le responde con el contenido que el cliente solicita. A modo de ejemplo, al teclear www.wikipedia.org en nuestro navegador, éste realiza una petición HTTP al servidor de dicha dirección. El servidor responde al cliente enviando el código HTML de la página; el cliente, una vez recibido el código, lo interpreta y lo exhibe en pantalla. Como vemos con este ejemplo, el cliente es el encargado de interpretar el código HTML, es decir, de mostrar las fuentes, los colores y la disposición de los textos y objetos de la página; el servidor tan sólo se limita a transferir el código de la página sin llevar a cabo ninguna interpretación de la misma. Sobre el servicio web clásico podemos disponer de aplicaciones web. Éstas son porciones de código que se ejecutan cuando se realizan ciertas peticiones o respuestas HTTP. Hay que distinguir entre: • Aplicaciones en el lado del cliente: el cliente web es el encargado de ejecutarlas en la máquina del usuario. Son las aplicaciones tipo Java o Javascript: el servidor proporciona el código de las aplicaciones al cliente y éste, mediante el navegador, las ejecuta. Es necesario, por tanto, que el cliente disponga de un navegador con capacidad para ejecutar aplicaciones (también llamadas scripts). Comúnmente, los navegadores permiten ejecutar aplicaciones escritas en lenguaje javascript y java, aunque pueden añadirse más lenguajes mediante el uso de plugins. • Aplicaciones en el lado del servidor: el servidor web ejecuta la aplicación; ésta, una vez ejecutada, genera cierto código HTML; el servidor toma este código recién creado y lo envía al cliente por medio del protocolo HTTP. Las aplicaciones de servidor muchas veces suelen ser la mejor opción para realizar aplicaciones web. La razón es que, al ejecutarse ésta en el servidor y no en la máquina del cliente, éste no necesita ninguna capacidad añadida, como sí ocurre en el caso de querer ejecutar aplicaciones javascript o java. Así pues, cualquier cliente dotado de un navegador web básico puede utilizar este tipo de aplicaciones. CONCLUSION Las funciones a desarrollar por un Técnico Superior Universitario en Informática, se enmarcan en un gran número de actividades, que permiten de alguna manera optimizar los recursos informáticos existentes y crear nuevos. En este marco y con relación a los objetivos planteados, se puede decir que: Que el proceso de pasantías permite la adquisición de nuevos conocimientos, ya que, las exigencias propias de las actividades desarrolladas así lo exigen; demostrando que es meta primordial, en el período de pasantías se constituya en una etapa de mutua cooperación entre el pasante y la empresa. El nivel de conocimientos adquiridos en esta etapa sobre el diseño e implementación de pagina Web, es más amplio. Se cumplió con todas las actividades asignadas por la empresa, respetando en todo momento la jerarquía y los límites de las responsabilidades respectivas. Finalmente en términos generales, las pasantías han reafirmado la capacidad de adaptación, habilidades y destrezas así como la adquisición de nuevos conocimientos en el área de Informática y se ha convertido en una experiencia nueva y gratificante ya que se ha logrado tener la oportunidad de poner en práctica los conocimientos adquiridos en la realidad impuesta por el campo de trabajo. RECOMENDACIONES Finalmente, es conveniente destacar ciertos puntos que ayuden a mejorar áreas comunes entre la Institución y la Empresa, como: • Crear programas educativos, cursos o talleres que permitan incrementar conocimientos en áreas específicas como redes cableadas e inalámbricas, manejo y administración de sistemas operativos como Linux, detección y reparación de fallas o averías de red; para que de esta faciliten un mejor desenvolvimiento del estudiante en la empresa. • Se recomienda a la empresa rotar a los pasantes por cada uno de los departamentos a fin de adquirir conocimientos de diversas áreas. BIBLIOGRAFÍA 1. la información fue adquirida por: • http://es.wikipedia.org/ • http://www.cibernetia.com/manuales/instalacion_servido r_web/1_conceptos_basicos.php • http://www.programacion.com/ • http://www.desarrolloweb.com/