Estudio, diseño e implementación de un Firewall C ARLOS G USTAVO M ORALES T EJEDA Septiembre 2002 Abstracto Los firewall son los componentes más importantes a la hora de proteger una red de datos, ya que se encargan de filtrar los datos que pasan a través de él. El objetivo de este TFC es crear un firewall de filtrado de paquetes bajo un entorno Unix. La dificultad reside en la programación a bajo nivel dentro del sistema operativo, en la que cualquier error de programación supone una parada del ordenador y porque toda modificación requiere compilar el kernel de nuevo y rebotar la máquina donde se está ejecutando el firewall Resumen Un firewall es el componente más importante a la hora de proteger una red de ordenadores. Es un sistema incorporado dentro del sistema operativo, encargado de filtrar los datos que pasan a través de él. El objetivo de este proyecto es hacer un estudio teórico de los firewalls en un entorno Unix-Linux, para luego poder diseñar e implementar uno. Así pues, esta memoria está dividida principalmente en dos partes: una parte teórica y una práctica. Dentro de la parte teórica hay un breve estudio de los protocolos TCP/IP, que son los protocolos que usan las redes de datos. El siguiente tema es una introcución a los firewalls, donde se narra las características y los posibles tipos de firewalls. Se hace un especial incapié en el filtrado de paquetes pues se le dedica un capítulo entero ya que es el tipo de firewall que se va a implementar. Los firewalls de filtrado de paquetes se basan en las cabeceras de los paquetes de datos para decidir si deben filtrarse. En el siguiente capítulo se repasa el sistema operativo Linux ya que la programación del firewall va muy ligado con este. Hay un resumen de sus características principales, de las herramientas que disponemos y del viaje que realiza un paquete desde que se captura en la misma tarjeta de red hasta que llega a las apliaciones de los usuarios. El último capítulo es un estudio del diseño, para poder modelar correctamente cualquier proyecto. La programación dentro del sistema operativo es muy compleja, llamado hacking del kernel, ya que es la parte que se encarga de controlar el ordenador, y cualquier fallo significa la parada absoluta del mismo, por eso se hace necesario poder averiguar que hace en todo momento el kernel mientras se está ejecutando. El siguiente capítulo aborda el diseño de la aplicación, que comprende tanto los esquemas del modelado como la explicación de como se ha programado el firewall. Después hay un capítulo llamado implementación del firewall, donde se explican los escenarios que se ha necesitado tanto para desarrollar como para probar los resultados finales. Los últimos capítulos comprenden las conclusiones, las líneas de futuro que pueden seguirse, el coste del proyecto y la bibliografía que se ha necesitado. Índice I Teoría 1 1. Introducción 1 2. TCP/IP 2 2.1. Introducción . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.1.1. Capas . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.1.2. Encapsulación . . . . . . . . . . . . . . . . . . . . . . . 2 2 4 2.2. IP: Internet Protocol . . . . . . . . . . . . . . . . . . . . . . . . . 2.2.1. Introducción . . . . . . . . . . . . . . . . . . . . . . . . 5 5 2.2.2. Cabecera IP . . . . . . . . . . . . . . . . . . . . . . . . . 2.3. UDP: User Datagram Protocol . . . . . . . . . . . . . . . . . . . 2.3.1. Introducción . . . . . . . . . . . . . . . . . . . . . . . . 6 9 9 2.3.2. Cabecera UDP . . . . . . . . . . . . . . . . . . . . . . . 2.4. TCP: Transmisión Control Protocol . . . . . . . . . . . . . . . . 9 10 2.4.1. Introducción . . . . . . . . . . . . . . . . . . . . . . . . 2.4.2. Cabecera TCP . . . . . . . . . . . . . . . . . . . . . . . 10 12 3. Introducción a los firewalls 3.1. ¿Qué es un Firewall? . . . . . . . . . . . . . . . . . . . . . . . . 15 15 3.2. Qué puede hacer . . . . . . . . . . . . . . . . . . . . . . . . . . 3.2.1. Donde localizar las decisiones . . . . . . . . . . . . . . . 16 16 3.2.2. Refuerza políticas . . . . . . . . . . . . . . . . . . . . . . 3.2.3. Registrar la actividad . . . . . . . . . . . . . . . . . . . . 3.2.4. Limita la exposición . . . . . . . . . . . . . . . . . . . . 16 16 16 3.3. Qué no puede hacer . . . . . . . . . . . . . . . . . . . . . . . . . 3.3.1. Dentro de la red . . . . . . . . . . . . . . . . . . . . . . . 17 17 3.3.2. Conexiones que no van a través de él . . . . . . . . . . . 3.3.3. Virus . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.4. Tipos de Firewalls . . . . . . . . . . . . . . . . . . . . . . . . . . 17 17 18 3.4.1. Filtrado de paquetes . . . . . . . . . . . . . . . . . . . . 18 3.4.2. Servicios proxy . . . . . . . . . . . . . . . . . . . . . . . 3.4.3. Combinación de técnicas . . . . . . . . . . . . . . . . . . 20 21 3.5. Arquitecturas Firewall . . . . . . . . . . . . . . . . . . . . . . . 3.5.1. Dual-Homed Host . . . . . . . . . . . . . . . . . . . . . 3.5.2. Screened Host . . . . . . . . . . . . . . . . . . . . . . . 21 22 23 3.5.3. Screened Subnet . . . . . . . . . . . . . . . . . . . . . . 3.5.4. Variaciones posibles . . . . . . . . . . . . . . . . . . . . 24 26 4. Filtrado de paquetes 28 4.1. Introducción . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.2. Características . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.3. Ventajas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28 29 30 4.3.1. Proteger toda la red . . . . . . . . . . . . . . . . . . . . . 4.3.2. Transparencia . . . . . . . . . . . . . . . . . . . . . . . . 30 31 4.3.3. Disponibilidad . . . . . . . . . . . . . . . . . . . . . . . 4.3.4. Latencia . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.4. Desventajas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31 31 32 4.4.1. Protocolos difíciles . . . . . . . . . . . . . . . . . . . . . 4.4.2. Polítcas que no pueden aplicarse . . . . . . . . . . . . . 32 33 4.4.3. Spoofing . . . . . . . . . . . . . . . . . . . . . . . . . . 4.5. Configuración . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.5.1. Bidireccionalidad . . . . . . . . . . . . . . . . . . . . . . 33 33 34 4.5.2. ’Inbound’ y ’Outbound’ . . . . . . . . . . . . . . . . . . 4.5.3. Permitir por defecto versus denegar por defecto . . . . . . 34 35 4.6. Que hacer . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35 4.6.1. Logging . . . . . . . . . . . . . . . . . . . . . . . . . . . 36 4.6.2. Paquetes ICMP . . . . . . . . . . . . . . . . . . . . . . . 37 4.7. Filtrado por dirección . . . . . . . . . . . . . . . . . . . . . . . 4.7.1. Introducción . . . . . . . . . . . . . . . . . . . . . . . . 4.7.2. Riesgos . . . . . . . . . . . . . . . . . . . . . . . . . . . 39 39 40 5. El Sistema Operativo Linux 5.1. Introducción . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42 42 5.1.1. Historia . . . . . . . . . . . . . . . . . . . . . . . . . . . 5.1.2. Linux . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42 45 5.1.3. Características . . . . . . . . . . . . . . . . . . . . . . . 5.2. El Kernel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5.2.1. Introducción . . . . . . . . . . . . . . . . . . . . . . . . 46 50 50 5.2.2. Modos . . . . . . . . . . . . . . . . . . . . . . . . . . . 5.2.3. Módulos . . . . . . . . . . . . . . . . . . . . . . . . . . 50 51 5.2.4. Procesos . . . . . . . . . . . . . . . . . . . . . . . . . . 5.2.5. Sincronización . . . . . . . . . . . . . . . . . . . . . . . 5.2.6. Comunicación entre procesos . . . . . . . . . . . . . . . 51 52 54 5.2.7. Control de la Memoria . . . . . . . . . . . . . . . . . . . 5.2.8. El código . . . . . . . . . . . . . . . . . . . . . . . . . . 54 55 5.2.9. Numeración . . . . . . . . . . . . . . . . . . . . . . . . 5.2.10. Compilación del núcleo . . . . . . . . . . . . . . . . . . 5.3. Herramientas . . . . . . . . . . . . . . . . . . . . . . . . . . . . 58 59 65 5.3.1. Editores de texto . . . . . . . . . . . . . . . . . . . . . . 5.3.2. Herramientas de desarrollo . . . . . . . . . . . . . . . . . 65 68 5.3.3. Navegación . . . . . . . . . . . . . . . . . . . . . . . . . 5.3.4. Manipuladores . . . . . . . . . . . . . . . . . . . . . . . 5.3.5. Control de versiones . . . . . . . . . . . . . . . . . . . . 69 72 74 5.4. Netfilter en los kernels 2.4 . . . . . . . . . . . . . . . . . . . . . 5.4.1. Ventajas . . . . . . . . . . . . . . . . . . . . . . . . . . . 79 80 5.4.2. Inconvenientes . . . . . . . . . . . . . . . . . . . . . . . 5.5. Viaje de un paquete . . . . . . . . . . . . . . . . . . . . . . . . . 5.5.1. Introducción . . . . . . . . . . . . . . . . . . . . . . . . 80 82 82 5.5.2. Tarjeta de red . . . . . . . . . . . . . . . . . . . . . . . . 5.5.3. Proceso de red . . . . . . . . . . . . . . . . . . . . . . . 5.5.4. Softirq para NET_RX . . . . . . . . . . . . . . . . . . . 82 84 85 5.5.5. Tratar los paquetes IP . . . . . . . . . . . . . . . . . . . . 85 6. Estudio del Diseño ( UML) 6.1. Introducción al UML . . . . . . . . . . . . . . . . . . . . . . . . 88 88 6.1.1. Historia . . . . . . . . . . . . . . . . . . . . . . . . . . . 88 6.1.2. Objetivos . . . . . . . . . . . . . . . . . . . . . . . . . . 6.1.3. Participantes en UML 1.0 . . . . . . . . . . . . . . . . . 89 90 6.1.4. Áreas conceptuales . . . . . . . . . . . . . . . . . . . . . 6.2. Diagramas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6.2.1. Diagramas estructurales . . . . . . . . . . . . . . . . . . 91 92 94 6.2.2. Diagramas de comportamiento . . . . . . . . . . . . . . . 6.3. Diagramas de Objetos . . . . . . . . . . . . . . . . . . . . . . . . 94 95 6.3.1. Oid (Object Identifier) . . . . . . . . . . . . . . . . . . . 6.3.2. Características alrededor de un objeto . . . . . . . . . . . 6.4. Diagramas de Clases . . . . . . . . . . . . . . . . . . . . . . . . 96 97 98 6.4.1. Relaciones entre clases . . . . . . . . . . . . . . . . . . . 99 6.5. Diagramas de Caso de Uso . . . . . . . . . . . . . . . . . . . . . 101 6.5.1. Actores . . . . . . . . . . . . . . . . . . . . . . . . . . . 102 6.6. Diagramas de Estado . . . . . . . . . . . . . . . . . . . . . . . . 103 6.6.1. Estado . . . . . . . . . . . . . . . . . . . . . . . . . . . . 103 6.6.2. Envío de mensajes . . . . . . . . . . . . . . . . . . . . . 104 6.6.3. Acciones . . . . . . . . . . . . . . . . . . . . . . . . . . 105 6.7. Diagramas de actividades . . . . . . . . . . . . . . . . . . . . . . 106 6.7.1. Notación . . . . . . . . . . . . . . . . . . . . . . . . . . 107 6.8. Diagramas de Interacción . . . . . . . . . . . . . . . . . . . . . . 108 6.8.1. Colaboración . . . . . . . . . . . . . . . . . . . . . . . . 109 6.8.2. Interacción . . . . . . . . . . . . . . . . . . . . . . . . . 110 6.8.3. Patrón . . . . . . . . . . . . . . . . . . . . . . . . . . . . 110 6.9. Diagramas de Componentes . . . . . . . . . . . . . . . . . . . . 110 6.9.1. Componentes . . . . . . . . . . . . . . . . . . . . . . . . 112 6.10. Diagramas de Despliegue . . . . . . . . . . . . . . . . . . . . . . 113 6.11. Los paquetes . . . . . . . . . . . . . . . . . . . . . . . . . . . . 114 II Práctica 117 7. Hacking del kernel 117 7.1. Introducción . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 117 7.2. Uso del debugador . . . . . . . . . . . . . . . . . . . . . . . . . 118 7.3. printk . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 120 7.4. Oops . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 122 7.5. Máquinas virtuales . . . . . . . . . . . . . . . . . . . . . . . . . 124 7.6. Debugando con dos máquinas . . . . . . . . . . . . . . . . . . . 125 8. Diseño de la aplicación 131 8.1. Esquemas UML . . . . . . . . . . . . . . . . . . . . . . . . . . . 131 8.1.1. Casos de uso . . . . . . . . . . . . . . . . . . . . . . . . 131 8.1.2. Diagramas de actividades . . . . . . . . . . . . . . . . . 132 8.1.3. Diagrama de secuencia . . . . . . . . . . . . . . . . . . . 135 8.2. Exclusión mutua . . . . . . . . . . . . . . . . . . . . . . . . . . 136 8.2.1. La importancia de los semáforos . . . . . . . . . . . . . . 136 8.2.2. Locks de lectura . . . . . . . . . . . . . . . . . . . . . . 136 8.2.3. Locks de escritura . . . . . . . . . . . . . . . . . . . . . 138 8.3. Filtrado de paquetes . . . . . . . . . . . . . . . . . . . . . . . . . 139 8.3.1. ip_input.c . . . . . . . . . . . . . . . . . . . . . . . . . . 140 8.3.2. ip_forward.c . . . . . . . . . . . . . . . . . . . . . . . . 141 8.3.3. ip_output.c . . . . . . . . . . . . . . . . . . . . . . . . . 142 8.3.4. El sk_buff . . . . . . . . . . . . . . . . . . . . . . . . . . 143 8.3.5. Operaciones . . . . . . . . . . . . . . . . . . . . . . . . . 144 9. Implementación del firewall 145 9.1. Desarrollo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 145 9.1.1. Debugar . . . . . . . . . . . . . . . . . . . . . . . . . . . 145 9.1.2. Semáforos . . . . . . . . . . . . . . . . . . . . . . . . . 146 9.2. Escenario . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 148 9.2.1. Hardware . . . . . . . . . . . . . . . . . . . . . . . . . . 149 9.2.2. Compilar kernel . . . . . . . . . . . . . . . . . . . . . . 149 9.2.3. Configurar el firewall . . . . . . . . . . . . . . . . . . . . 149 9.2.4. Configurar la red . . . . . . . . . . . . . . . . . . . . . . 151 9.2.5. Resultados . . . . . . . . . . . . . . . . . . . . . . . . . 151 10. Conclusiones 152 11. Líneas de futuro 154 12. Coste del trabajo 155 III Anexo A sk_buff 159 IV 162 Anexo B Coding Style 1 INTRODUCCIÓN Parte I Teoría 1. Introducción En construcción de edificios, un muro de fuego (firewall en inglés) se diseña para mantener el fuego separado de una parte de un edificio a otra. En teoría, un firewall de Internet sirve con el mismo propósito: previene de peligros de Internet a la red interna. El firewall protege la red filtrando toda la información que pasa a través de él y decidiendo si el tráfico se acepta según las políticas de seguridad. El firewall es el elemento más importante a la hora de asegurar una red, no es el único ni tampoco previene de todos los posibles ataques y peligros, pero es un componente básico. Siguiendo la comparativa de la construcción, el firewall hace la misma función que la puerta de nuestra casa, que solo deja pasar a las personas que tengan una llave que corresponda con la cerradura, al resto de personas no les dejará entrar. Igual que en cualquier casa tener una puerta muy segura no implica que sea segura, pueden haber otras amenazas como incendios, puertas traseras, etc. Pero una buena puerta sigue siendo el elemento más importante y un componente básico. El objetivo de este trabajo es construir un firewall desde cero. El firewall debe insertarse dentro del sistema operativo, filtrar los paquetes IPv4 según la dirección origen y destino, según el número de puerto origen y destino, según la interfaz y el sentido del paquete respecto esa misma interfaz. 1 2 TCP/IP 2. TCP/IP 2.1. Introducción Es fundamental explicar el conjunto de protocolos que nos sirven para comunicar varios equipos, ya que entendiendo cómo funciona sabremos qué políticas necesitamos para diseñar la seguridad en una red, bloqueando las transmisiones no deseadas, que al fin y al cabo es lo que hace un firewall. La suite de protocolos TCP/IP permite a ordenadores de todos los tipos, de diferentes fabricantes, corriendo sistemas operativos completamente diferentes comunicarse entre ellos. Lo que empezó a finales de los 1960 como un proyecto de investigación financiado por el gobierno en una red de ordenadores del tipo packet switching, se ha convertido en el protocolo de red más usado entre ordenadores. Es tal su relevancia que el firewall se construirá sólo y exclusivamente para redes IP. Hay muchas publicaciones que hablan de esta suite. Forman las bases para lo que es llamado la Internet mundial, o simplemente Internet, una wide area network (WAN) de varios millones de ordenadores que envuelven literalmente el globo. 2.1.1. Capas Los protocolos de red se desarrollan normalmente en capas, cada una de las capas es responsable para una faceta diferente de las comunicaciones. Una suite de protocolos como es el caso de TCP/IP, es la combinación de diferentes protocolos en varias capas, que normalmente se le considera un sistema de 4 capas o layers. 2 2 TCP/IP 2.1 Introducción Cada capa tiene diferentes responsabilidades. 1. La capa link, llamada normalmente data-link layer es la interfaz de red que incluye el driver del sistema operativo para la tarjeta de red. Juntos pueden tratar todos los detalles del hardware e interactuar físicamente con el cable o con el medio que se esté usando en cada caso. 2. Capa de red o Network Layer, se encarga del movimiento de paquetes a través de la red. Para el enrutado de paquetes se usa IP (Internet Protocol), ICMP (Internet Control Message Protocol) y el IGMP (Internet Group Managment Protocol). 3. La capa de transporte se encarga del flujo de datos entre dos ordenadores, para la capa de aplicaciones. En la suite de TCP/IP hay dos protocolos muy diferentes entre sí en la capa de transporte: TCP (Transmisión Control Protocol) y UDP (User Datagram Protocol). Para el caso de TCP este provee un flujo asegurado entre dos ordenadores. Se encarga de dividir los datos pasados desde las aplicaciones en trozos de tamaño correcto para la capa de red, aceptando los paquetes recibidos, marcando tiempos para asegurar que 3 2 TCP/IP 2.1 Introducción los paquetes de acknowledge enviados, entre otros. Al ser un flujo de datos asegurado la capa de aplicación puede ignorar estos detalles. En cambio UDP provee una forma mucho más simple de comunicarse. Este simplemente envía paquetes de datos llamados datagramas de un host a otro, pero no esta garantizado que los datagramas lleguen a la otra parte. Cualquier control debe añadirse en la capa de aplicación. 4. La última capa, la capa de aplicación trata los detalles del una aplicación en particular. Podemos encontrar dentro de todas las aplicaciones: telnet para hacer logins remotos, http para la web, ftp para transferir ficheros, smtp para enviar correo electrónico, etc Cada capa tiene uno o más protocolos para comunicarse con las capas vecinas del mismo nivel entre ordenadores. Un protocolo, por ejemplo el TCP permite comunicarse entre la parte del emisor y del receptor. IP es el protocolo principal en la capa de red. Es usado por los protocolos TCP y UDP. Cada dato de estos protocolos se transfiere a través de la capa de red usando el protocolo IP, este proceso se llama Encapsulación y se pasa a explicar en el siguiente punto. 2.1.2. Encapsulación Cuando una aplicación envía datos usando TCP, los datos son enviados abajo y los almacena en la pila del protocolo, y así sucesivamente a través de cada capa, hasta que son enviados como un conjunto de bits por la red. Cada capa o layer añade información a los datos, normalmente antecediendo a los datos o a veces añadiendo unos pocos datos al final. La unidad de datos que TCP envía a la pila de IP se llama un segmento TCP. La unidad de datos que envía IP en la capa 3 a la capa 2, la de red, se llama un datagrama IP. Y por último el flujo de bits que pasan por la red Ethernet se llaman frames. IP debe añadir algún tipo de identificador en la cabecera IP que genera para indicar a qué capa pertenece. Esto se trata guardando un valor del tamaño de 8 bits en su cabecera llamado campo de protocolo. Si el valor es 1 es para ICMP, si es 2 es para IGMP, 6 indica TCP y 17 es UDP. Esto nos será muy útil a la hora de bloquear los paquetes que no se deseen. 4 2 TCP/IP 2.2 IP: Internet Protocol De forma similar, todas las aplicaciones que usan TCP o UDP deben identificarse. La capa de transporte guarda un identificador en la cabecera que genera para identificar la aplicación. Ambos protocolos el TCP y el UDP usan números de puerto de 16 bits para identificar aplicaciones. Se guarda el puerto de origen y el de destino para identificarlos. Aunque no sea interesante para el proyecto del firewall también indicar que los frames de la capa de red que recibe el driver de la tarjeta Ethernet, tienen también un campo de 16 bits para indicar que capa del protocolo generó los datos. 2.2. IP: Internet Protocol 2.2.1. Introducción IP es la herramienta principal dentro de la suite TCP/IP. Todos los datos TCP, UDP, ICMP e IGMP son transmitidos como datagramas IP. Un dato importante es que el protocolo IP es un protocolo NO orientado a conexión (conectionless) y NO asegurado. Por no asegurado se entiende que el protocolo IP no garantiza la llegada a su destino de los datagramas. IP provee un servicio de mejor esfuerzo (best effort). Cuando algo va mal como por ejemplo un router no tiene más capacidad en los buffers de entrada, IP tiene un algoritmo para tratar el error muy sencillo: no hace caso del datagrama e intenta enviar un mensaje ICMP al origen. Ser un protocolo no orientado a conexión significa que IP no mantiene ningún estado de información de los datagramas consecutivos. Cada datagrama es tratado de forma separada de todos los otros datagramas. Significa que los datagramas pueden llegar de manera desordenada. Por ejemplo, si un equipo envía dos datagramas consecutivos al mismo destino, y cada uno va por un camino diferente pueden llegar en un orden distinto al de salida. El protocolo IP está diseñado para ser retransmitido para ser usado en sistemas interconectados en redes de comunicaciones packet-switched. Los hosts se identifican por una dirección fija, tanto los ordenadores destinos como los ordenadores origen, llamadas direcciones IP. Y como he comentado antes no hay mecanismos para el proceso de conexiones de control de flujo, secuencia de paquetes y otros mecanismos que se encuentran en protocolos orientados a conexión. 5 2 TCP/IP 2.2 IP: Internet Protocol Las funciones básicas del protocolo según la especificación RFC0791 son dos: direccionar y fragmentar. Para direccionar se usan las direcciones que se encuentran en la cabecera. La selección del camino para la transmisión se llama routing. Lo que interesa de todo esto para el firewall es que el protocolo IP trata a cada datagrama como una entidad independiente a cualquier otro datagrama. No hay conexiones ni circuitos virtuales. 2.2.2. Cabecera IP Dentro de la especificación RFC 791, publicada en septiembre del 1981 (http://www.ietf.org/rfc/rfc07 encuentra la especificación de la cabecera del datagrama. 0 15 16 version ip_v header length type of service ip_tos flags and fragment offset ip_off identificación 20 bytes cabecera time to live ip_ttl 31 total length ip_len protocolo ip_p header chacksum ip_sum dirección IP origen 32 bits ip_src dirección IP destino 32 bits ip_dst opciones (si las hay) datos Versión: 4 bits El campo de versión indica el formato de la cabecera de Internet. Esta cabecera corresponde a la versión 4. IHL: 4 bits Internet Header Lenght o tamaño de la cabecera, es el tamaño de la cabecera en palabras de 32 bits, tras la cual empiezan los datos. El valor mínimo de la cabecera es 5. TOS: 8 bits 6 2 TCP/IP 2.2 IP: Internet Protocol Type Of Service o tipo de servicio indica los parámetros para la calidad de servicio deseado. Estos parámetros suelen usarse para ser una guía del tipo de servicio que se está retransmitiendo en el datagrama. Tamaño total: 16 bits El tamaño total es el tamaño del datagrama, medido en octetos, incluyendo el tamaño de la cabecera y de los datos. El tamaño de 16 bits permite que el datagrama sea hasta 65.535 octetos. El tamaño de dichos datagramas es impracticable en la mayoría de redes y ordenadores. Todos los ordenadores tienen que estar preparados para aceptar datagramas de hasta 576 octetos.Si se quiere saber más sobre la configuración de LILO, hay que obtener la versión más reciente de servidor FTP favorito y siga las instrucciones que le acompañan Identificación: 16 bits Una valor de identificación asignado por el emisor para poder ensamblar los diferentes fragmentos de un datagrama. Flags: 3 bits 1. Bits de control: Bit 0: reservado. Tiene que ser cero. Bit 1: (DF) 1 = Don’t Fragment, 0 = May Fragment. Bit 2: (MF) 1 = More Fragments, 0 = Last Fragment. Fragment Offset : 13 bits Este campo indica a que parte del datagrama pertenece este fragmento. El tamaño del fragmento se mide en unidades de 6 octetos (64 bits). Para indicar el primer fragmento de un datagrama este campo tiene que ser cero. Time To Live: 8 bits 7 2 TCP/IP 2.2 IP: Internet Protocol Este campo indica el tiempo máximo que se le permite a un datagrama mantenerse en Internet. Si este valor contiene un valor de cero, entonces el datagrama tiene que ser destrozado. Este campo es modificado al procesar las cabeceras. Su tiempo está medido en unidades de segundo, pero cada módulo tiene que decrecer el valor de TTL como mínimo por uno incluso si se ha tardado menos de un segundo en procesar el datagrama. La intención es que los datagramas que no puedan ser entregados sean descartados. Protocolo: 8 bits Este campo indica el siguiente nivel del protocolo usado por el datagrama. Los valores ya se han comentado anteriormente. Y son 1 si es para ICMP, si es 2 es para IGMP, 6 indica TCP y 17 es UDP. Header Checksum: 16 bits Un checksum de solo la cabecera. Como hay campos en la cabecera que cambian (Ej. Time to live), este valor se recalcula y verifica cada vez que es procesada la cabecera.#howto El resultado del algoritmo de checksum es el complemento de 16 bits a uno con la suma de todas las palabras de 16 bits de la cabecera. Exceptuando el valor de checksum que tiene el valor de cero. Dirección origen: 32 bits Es la dirección IP origen de 32 bits. Dirección destino: 32 bits Es la IP del dispositivo destino, también de 32 bits. Opciones: variable Las opciones pueden o no aparecer en los datagramas. Deben ser implementados por todos los módulos IP. Lo que es opcional es su transmisión en cualquier datagrama, pero no su implementación. 8 2 TCP/IP 2.3 UDP: User Datagram Protocol 2.3. UDP: User Datagram Protocol 2.3.1. Introducción UDP es simple, orientado a datagrama, y está encuadrado en la capa de trasporte. Cada operación de envío por un proceso produce exactamente un datagrama UDP, lo que causa que sólo un datagrama IP sea enviado. Es diferente a un protocolo orientado a conexiones (stream-oriented protocol) como es el caso de TCP donde la cantidad de datos enviados por una aplicación puede tener pequeñas diferencias a lo que en realidad es enviado en un datagrama IP. En la siguiente figura se enseña la Encapsulación de un datagrama UDP en el datagrama IP. La especificación oficial de UDP es la RFC 768, publicada en Agosto del 1980, por J.Postel y se puede encontrar en (http://www.ietf.org/rfc/rfc0768.txt). UDP no provee una conexión fiable (no reliability): envía el datagrama que la aplicación escribe a la capa IP, pero no garantiza que llegue a su destino, es un protocolo que no está orientado a conexión. La falta de confianza hace pensar que deberíamos dejar de usar UDP y usar siempre el protocolo fiable como TCP. Pero lejos de eso UDP se usa para muchos protocolos, como pueden ser DNS, TFTP, BOOTP, SNMP y NFS entre otros. 2.3.2. Cabecera UDP Como se ha comentado anteriormente la cabecera y su especificaciones pueden encontrarse en el RFC 768. 0 32 15 16 Dirección origen Dirección destino ceros protocolo UDP length Datos Número de puerto origen: 16 bits 9 2 TCP/IP 2.4 TCP: Transmisión Control Protocol Identifica el proceso que envía el datagrama. Tanto este campo como el siguiente nos sirven para poner reglas de filtrado en el firewall. Número de puerto destino: 16 bits Identifica de la misma manera el proceso que debe recibir el datagrama. Este campo se usa para multiplexar los datagramas que llegan a la máquina y pasarlos a la aplicación que se necesita. La pila de IP ya se encarga de dividir los paquetes entre los TCP y los UDP, así que es el propio UDP quien mira el puerto destino y también implica que los puertos TCP y UDP son independientes entre ellos. Tamaño UDP: 16 bits Es el tamaño de la cabecera UDP y de los datos, la cantidad es en Bytes. El valor mínimo es 8 bytes (Como resultado de enviar los 8 bytes de la cabecera sin datos). Aunque este valor es redundante ya que este valor es el campo de tamaño que se encuentra en la cabecera IP menos el tamaño de la cabecera IP. Checksum: 16 bits Este checksum cubre tanto la cabecera UDP como sus datos. A diferencia del checksum de IP que solo cubre la cabecera de IP y no cubre los datos que contiene el datagrama. Tanto UDP como TCP cubren con sus checksum sus cabeceras y los datos. Para poder hacer el checksum puede añadirse un relleno para que cuadren las palabras de 16 bits. 2.4. TCP: Transmisión Control Protocol 2.4.1. Introducción La especificación original para TCP es la RFC 793, publicada por Postel en Septiembre de 1981 para DARPA (Defense Advanced Research Projects Agency). Aún estando TCP y UDP en la misma capa de transporte y usar la misma capa de red (IP), TCP provee un servicio completamente diferente al de UDP. TCP es un servicio orientado a conexión, fiable y un servicio de flujo de bytes (byte stream service). 10 2 TCP/IP 2.4 TCP: Transmisión Control Protocol Por el término orientado a conexión se entiende que dos aplicaciones usando TCP tienen que establecer una conexión entre ellos antes de poder intercambiar datos. Una analogía parecida es una llamada de teléfono: se marca, se espera que la otra parte responda a la llamada, decir un ’hola’ y quien es, tras ello comienza la conversación. Al decir que es fiable (reliability) se indica lo siguiente: 1. Los datos de la aplicación se separan en lo que TCP considera que es el mejor tamaño. Completamente diferente a UDP, donde cada vez que escribía la aplicación generaba un datagrama UDP de ese mismo tamaño. La unidad de información pasada por TCP a IP se llama segmento. 2. Cuando TCP envía un segmento mantiene un temporizador, esperando para que la otra parte envíe un segmento con su acuse de recibo (acknowledge). Si no se recibe el acuse de recibo tras esperar un rato, el segmento es retransmitido. 3. Cuando TCP recibe datos de la otra parte de la conexión este envía un acuse de recibo. Que no aunque no se envía inmediatamente pues sigue una estrategia. 4. TCP se encarga del checksum de su cabecera y de los datos. En el caso de recibir un segmento con su checksum erróneo TCP lo descarta y no envía ningún acuse de recibo. 5. Al encapsular TCP dentro de IP, y como los datagramas IP pueden llegar en desorden, los segmentos pueden llegar también en desorden. Se encarga también TCP de reordenarlos en caso de ser necesario, pasando los datos recibidos en el orden correcto a la aplicación. 6. Como un datagrama IP puede llegar duplicado, los segmentos TCP duplicados deben ser descartados. 7. TCP también mantiene un control del flujo de datos. Cada parte en la conexión TCP tiene el espacio del buffer de entrada finito. Lo que significa que TCP solo permite que la otra parte envíe los datos que tiene reservados. Esto 11 2 TCP/IP 2.4 TCP: Transmisión Control Protocol previene de que un ordenador rápido llene todos los buffers de un ordenador lento. Cuando hablamos de un servicio de flujo de bytes (byte stream service) nos referimos a que TCP envía un flujo de bytes a través de la conexión, no hay marcas que identifiquen cuando el emisor envió los datos. Significa que si una aplicación envía 20 bytes, luego envía otros 35 bytes seguido por otros 25 bytes, la aplicación de la otra parte no podrá identificar los tamaños de las diferentes escrituras, solo recibe 80 bytes en cuatro lecturas de 20 bytes, por ejemplo. Una parte pone un flujo de bytes a la pila TCP y este mismo flujo lo recibe la otra parte de la conexión. Además, TCP no interpreta el contenido de los bytes que envía. TCP no tiene ni idea si los datos corresponden a datos en binario, a caracteres ASCII, caracteres EBCDIC o lo que sea. La interpretación de los bytes retransmitidos es función de la aplicación que se encuentra en una capa superior a la de transporte de TCP. 2.4.2. Cabecera TCP Los segmentos TCP se envían mediante datagramas IP. La cabecera TCP sigue a la cabecera IP, añadiendo información específica para el protocolo TCP. 0 32 15 16 Puerto Origen Puerto Destino Número Secuencia Acknowledge Number Data Off Reserved | bits Ventana Opciones Padding Datos Puerto de origen: 16 bits Número de puerto de origen. 12 2 TCP/IP 2.4 TCP: Transmisión Control Protocol Puerto de origen: 16 bits Puerto destino que indica a qué aplicación va dirigido el segmento. Número de secuencia: 32 bits El número de secuencia del primer octeto de datos. En el caso de estar el bit de SYN presente el número de secuencia es el número inicial de secuencia (initial sequence number ISN)y el primer octeto de datos es ISN+1. Número de Acknowledgment: 32 bits Si el bit de control ACK está activo este campo contiene el valor del siguiente número de secuencia que se espera recibir. Y una vez se ha establecido la conexión siempre se envía. Data Offset: 6 bits Reservado para uso futuro. Debe ser cero. Bits de control: 6 bits (de izquierda a derecha) 1. URG: Urgent Pointer field significant. 2. ACK: Acknowledgment field significant. 3. PSH: Push Function. 4. RST: Reset the connection. 5. SYN: Synchronize sequence numbers. 6. FIN: No más datos por parte del emisor. Ventana (window): 16 bits El número de octetos de datos empezando por el número indicado en el campo de acknowledgment que el emisor del segmento esta esperando recibir. 13 2 TCP/IP 2.4 TCP: Transmisión Control Protocol Checksum: 16 bits El checksum se le aplica al cuerpo del mensaje y a parte de la cabecera, que incluye la dirección origen, la de destino, el protocolo y el tamaño del TCP. Puntero urgente: 16 bits Este campo indica el valor del puntero urgente como un offset positivo desde el número de secuencia en este segmento. Y apunta al número de secuencia del octeto seguido por los datos urgentes. Este campo solo es interpretado en segmentos con el bit de control URG activa. 14 3 INTRODUCCIÓN A LOS FIREWALLS 3. Introducción a los firewalls 3.1. ¿Qué es un Firewall? En construcción, un firewall se diseña para mantener el fuego separado de una parte de un edificio a otra. En teoría, un firewall de Internet sirve con el mismo propósito: previene de peligros de Internet a la red interna. Todo el tráfico que proviene de Internet o que sale de tu red interna pasa a través del firewall. Por esa razón, el firewall tiene la oportunidad de asegurarse que ese tráfico es aceptable. ¿Qúe significa ’aceptable’ para el firewall? Significa todo aquel tráfico que se hace y que cumple con las normas de seguridad del lugar. Las políticas son diferentes para cada uno, algunas son muy restrictivas y otras son más abiertas. Lógicamente hablando, un firewall, separa, restringe y analiza. Físicamente hablando se puede implementar de varias maneras, la mayoría de veces es un grupo de componentes hardware - un router, un ordenador, o una combinación de routers, ordenadores y redes con un software apropiado. Hay varias formas de configurar los equipos; la configuración dependerá de las políticas de seguridad, del dinero disponible y de las operaciones a realizar. Los firewalls tienen limitaciones y puntos débiles, entonces por qué instalar un firewall si no es invulnerable? Porque el firewall es la manera más efectiva de conectar una red a Internet y proteger la propia red. Internet presenta maravillosas oportunidades. Millones de personas están intercambiando información. Los beneficios son obvios: posiblidades de publicidad, servicio a cliente mejorado e información en general. Los riesgos también deberían ser obvios también: cualquiera de los millones de personas puede tener intenciones maliciosas contra tu red. ¿Cómo beneficiarse de las partes buenas de Internet sin saltarse lo malo? Simplemente conectando tu red con Internet y teniendo un control exhausto de que se intercambia. Un firewall es la herramienta para hacer eso, en la mayoría de situaciones es la herramienta más efectiva para hacerlo. 15 3 INTRODUCCIÓN A LOS FIREWALLS 3.2 Qué puede hacer 3.2. Qué puede hacer Los Firewalls pueden hacer mucho para tu seguridad. Estas son algunas de las ventajas: 3.2.1. Donde localizar las decisiones Todo el tráfico de entrada y salida tiene q pasar a través de este sitio. Un firewall concentra las medidas de seguridad en este lugar de chequeo: allá donde tu red se conecta a Internet. 3.2.2. Refuerza políticas Muchos de los servicios que la gente quiere de Internet son inherentemente inseguros. Un firewall es el policia del tráfico para estos servicios. Permite solo servicios ’aprovados’ para pasar a través de él y solo aquellos que se hayan configurardo. Un firewall puede reforzar las políticas de seguridad añadiendo políticas más complejas. Por ejemplo bloqueando una transferencia de ficheros desde una parte de nuestra red; controlando qué usuarios tienen acceso a que sistemas. Y dependiendo de la tecnologia del firewall, este puede ser mas o menos complejo para añadir estas políticas. 3.2.3. Registrar la actividad Como todo el tráfico pasa a través del firewall, el firewall provee un buen lugar para recoger una colección de información sobre los usos de los sistemas y redes. Puede recopilar qué ocurre entre la zona protegida y la red externa. 3.2.4. Limita la exposición Este es uno de los usos más relevantes de los firewalls. A veces un firewall se usa para mantener una sección de tu red separada de otra sección. Haciendo esto, se mantienen los problemas que puedan impactar en una sección separada del resto. En estos casos, una parte de la red puede ser más segura que otra, en otros casos una sección puede ser más sensible que otra. Cualquiera que sea lar 16 3 INTRODUCCIÓN A LOS FIREWALLS 3.3 Qué no puede hacer razón de la existencia de un firewall este limita el daño que puede hacer una red a otra. 3.3. Qué no puede hacer Los firewalls ofrecen una excelente protección, pero no son la solución única y completa para nuestra seguridad. Ciertos procesos estan fuera del control de nuestro firewall. Y se necesita otras métodos para protegerse de estos sucesos incorporando otras herramientas. Es necesario conocer cuales son los puntos débiles de los firewalls. 3.3.1. Dentro de la red Un firewall puede prohibir a un usuario de enviar información confidencial fuera de la red a través de la conexión a Internet. Pero el mismo usuario puede copiar los datos en un disco, imprimirlos y llevarselos fuera del edificio en un maletín. Si el atacante esta dentro de la red el firewall no puede hacer nada por ti. Dentro los usuarios pueden robar datos, dañar hardware y software, modificar programas sin siquiera pasar a través del firewall. Es necesario protegerse con medidas internas de seguridad. 3.3.2. Conexiones que no van a través de él Un firewall puede controlar el tráfico que pasa a través de él pero no puede hacer nada con el tráfico que no pasa a través de él. Por ejemplo, si hay otra conexión dial-in para conectarse a los sistemas detrás del firewall, este no tiene ninguna forma de proteger a los intrusos que usen ese modem. 3.3.3. Virus Los firewalls no pueden mantener a los viruses alejados de la red interna. Muchos firewalls escanean todo el tráfico entrante para determinar si este esta permitido, pero el escaneo de los datos son la mayoría de veces de solo las direcciones y puertos origen y destino, no para los detalles de los datos. Incluso los firewalls 17 3 INTRODUCCIÓN A LOS FIREWALLS 3.4 Tipos de Firewalls más sofisticados no son muy prácticos contra los viruses. Simplemente hay muchas maneras para esconder un virus entre otros datos. Determinar que existe un virus dado un paquete que pasa a través del firewall es muy difícil. La forma más práctica de defenderse de los virus es mantener un software de protección basado en los ordenadores, y educando de los posibles peligros a los usuarios y de como protegerse de ellos. 3.4. Tipos de Firewalls Existen principalmente dos formas de implementar los firewalls hoy día. Y esta división se centra en la forma de tratar los datos que pasan a través del firewall, una de las dos formas es menos exhaustiva, pero por eso es la solución más barata. El trabajo final de carrera no trata de firewalls proxy, pero estos suficientemente importantes como para comentarlos. 3.4.1. Filtrado de paquetes Los sistemas de filtrado de paquetes enrutan paquetes entre dos redes diferentes, pero lo hacen selectivamente. Permiten o bloquean cierto tipo de paquetes en un sentido o en el otro sentido, siguiendo las políticas de seguridad. El tipo de router usado en un filtrado de paquetes se conoce como screening router. Como se discute en el capítulo dedicado a TCP/IP cada paquete tiene unas 18 3 INTRODUCCIÓN A LOS FIREWALLS 3.4 Tipos de Firewalls cabeceras con cierta información. En esta información se encuentra: 1. dirección origen IP 2. dirección destino IP 3. protocolo (TCP, UDP o ICMP) 4. puerto origen TCP o UDP 5. puerto destino TCP o UDP 6. tipo de mensaje ICMP Además el router dispone de más información del paquete que no se reflejan en el paquete pero son igual de importante, sino más. 1. La interfaz por donde llega el paquete 2. La interfaz destino del paquete El hecho que cada uno de los servidores tenga cierto tipo de servicios nos indicará las reglas que debamos escoger en el firewall basándonos en la IP del servidor y del puerto, porque el puerto indica el tipo de conexciones (ej. puerto 22 TCP son conexion SecureSHell). Hay varias formas en las que podemos basar nuestras políticas, unas seria bloquear todas las conexiones provinentes de fuera de la red excepto las conexiones SMTP para recibir correo. Bloqueando todas las conexions de sistemas que desconfias, etc El screening router se situa entre la red interna e Internet. Esto le da una enorme responsabilidad al screening_router. No solo se encarga del rutado de los paquetes, sino que también se encarga de proteger el sistema. Si falla o se cae tras un ataque, la red interna está expuesta. Es más no puede proteger de operaciones a un servicio: si un servicio tiene operaciones inseguras. o si el servicio se provee con un servidor inseguro el filtraje de paquetes no puede protegerlo, ya que los paquetes pasarán indistintamente del contenido de los paquetes, ya sea maligno o no. 19 3 INTRODUCCIÓN A LOS FIREWALLS 3.4 Tipos de Firewalls Pero como mayor ventaja es que es un tipo de protección más barata, ya que puede tratar a más conexiones que un proxy con el mismo equipo hardware y además el programa no es complejo de realizar, comparado con el proxy, ya que como se ve a lo largo del trabajo final de carrera, no es un programa sencillo de implementar. 3.4.2. Servicios proxy Los servicios proxy son programas especializados que corren en un firewall: ya sea un host dual-homed con una interfaz en la red interna y otra en la red externa, o bien un host bastion que tiene acceso a Internet a través de otra maquina interna. Estos programas redireccionan los requests de los servicios que piden los usuarios (como sesiones FTP o sesiones SSH), las direccionan según las politicas de seguridad. Los proxies reemplazan las conexiones externas y actúan de gateway a esos servicios. Por esa razón se les conoce también como gateways del nivel de aplicación. Los sistemas proxy, permanecen más o menos de manera transparente entre el usuario dentro de la red y el servicio fuera de la red. En vez de hablar directamente uno con el otro cada uno de ellos habla con el proxy. Estos tratan las conexcion entre usuarios y los servicios de una manera transparente. 20 3 INTRODUCCIÓN A LOS FIREWALLS 3.5 Arquitecturas Firewall La transparencia es el mayor beneficio de los servicios proxy. Para el usuario, un proxy presenta la ilusión que esta tratando directamente con el servidor real. Para el servidor real, el proxy presenta la ilusión de que está tratando directamente con un usuario en el ordenador del proxy, en vez de ser el auténtico usuario en otro ordenador. Los servicios proxy son efectivos solo cuando se usan en conjunción con algún mecanismo que restringe las comunicaciones directas entre los ordenadores externos e internos. Si los hosts internos pueden comunicarse directamente con los hosts externos no hay razón alguna para tener un proxy. Un proxy es una solución software, deben usarse conjuntamente con un firewall. Los servidores proxy no solo redirecciona el tráfico de los usuarios a los servicios externos de Internet. Los servidores proxy controlan lo que estos hacen, porque escucha todo lo que hacen los usuarios y según las políticas de seguridad dejará pasar el contenido. Por ejemplo un proxy web puede bloquear todas las páginas web que contengan VBScript pues estos ejecutan programas que pueden llegar a ser muy peligrosos. Y todo de una manera transparente al usuario. 3.4.3. Combinación de técnicas La ’buena solución’ es aquella que no se basa en una única técnica, sino aquela que usa cuidadosamente la combinación de varias técnicas para resolver diferentes problemas. Los problemas que debes resolver dependen en qué servicios quieres proveer a los usuarios y qué nivel de riesto estas dispuesto a aceptar. Y las técnicas también dependen del dinero, tiempo y experiencia de la que dispones. Algunas protocolos se pueden tratar mejor con filtrado de paquetes como puede ser SMTP y SSH. Y otros servicios se tratan mejor con proxies como puede ser los servicios FTP, Gopher y HTTP. 3.5. Arquitecturas Firewall Esta sección describe una variedad de maneras de las que podemos disponer los firewalls, las redes de ordenadores o servidores y los routers. Dependiendo de la funcionalidad que le queramos dar a la red se escoge una u otra arquitectura. 21 3 INTRODUCCIÓN A LOS FIREWALLS 3.5 Arquitecturas Firewall 3.5.1. Dual-Homed Host La arquitectura para un firewall Dual-Homed Host es muy simple: el ordenador Dual-Homed Host se situa antes de la red a proteger, conectado directamente, entre la red interna e Internet. Esta arquitectura se construye alrededor del ordenador dual-homed host, es un ordenador que tiene al menos dos interfaces de red. Aún siendo capaz de enrutar paquetes IP de una a otra red, si se implementa una aquitectura Dual-Homed Host se restringe esta función de enrutaje. Lo que hace que los paquetes de una red no se conectan directamente a la otra red. Los sistemas dentro del firewall pueden comunicarse con el Dual-Homed Host, y los sistemas fuera del firewall (de Internet) puede comunicarse con el Dual-Homed Host, pero estos sistemas no pueden comunicarse entre ellos. El tráfico IP está completamente bloqueado. Todo tráfico hacia fuera lo debe originar el firewall. Esta arquitectura puede proveer un gran nivel de control. Ya que todos los paquetes se originan en el firewall. Se puede asegurar además que cualquier paquete dentro de la red interna que tenga la dirección origen con una IP externa es origen de algún tipo de problema de seguridad. La única manera que tienen la red interna de conectarse con el exterior es através de servicios proxy localizados en el firewall, y através de este servir de conexión. Pero presenta un inconveniente, y es que no todos los servicios pueden 22 3 INTRODUCCIÓN A LOS FIREWALLS 3.5 Arquitecturas Firewall pasarse por Proxy y lo que indica que los usuarios deberían tener cuentas de usuario en el firewall y conectarse al exterior desde él mismo. Lo que es incómodo para los usuarios y un posible agujero provinente de usuarios internos. 3.5.2. Screened Host En esta aquitectura se usa un router para conectar las redes internas y externas (Internet), pero se configura el router con filtrado de paquetes para que no se puedan conectar directamente las redes internas y externas, a no ser que sea a través del bastion host que hace la función de proxy. El host bastion se sitúa en la red interna. El filtraje de paquetes se hace en el Screened Host (router) que se configura para que el bastion host sea el único capaz de recibir conexiones externas. Cualquier sistema externo que intente acceder al sistema interno o a los servicios internos deberá hacerlo a través del bastion host. Por ello este host debe mantener un gran nivel de seguridad. Además el Screened Host usando el filtraje de paquetes indicará que conexiones se permiten desde la red interna al mundo externo, siguiendo las políticas de seguridad. Algunos de los servicios externos pueden hacerse bien directamente a traves del Screened Host o bien a través del bastion host mediante el proxy. Como esta arquitectura permite pasar paquetes de fuera a dentro de la red, puede parecer más inseguro que una arquitectura dual-homed host, que está di23 3 INTRODUCCIÓN A LOS FIREWALLS 3.5 Arquitecturas Firewall señada para que ningún paquete externo entre a la red interna. Pero en la arquitectura Screened Host es más fácil defender el router, que provee servicios muy limitados, comparado con el dual-homed host. Para la mayoría de propósitos, el Screened Host provee mejor seguridad y mejor usabilidad que la Dual-Homed host. Pero comparada con la arquitectura siguiente, hay desventajas. La mayor es que si un atacante llega a controlar el bastion host, entonces toda la red interna esta expuesta. El router también representa un único punto de fallo. Por eso mismo la siguiente arquitectura es más popular. 3.5.3. Screened Subnet La arquitectura Screened Subnet añade una capa de seguridad extra a la anterior arquitectura, añadiendo una red de perímetro o también perimeter network en inglés, que aisla la red interna de Internet. La topologia es situar un router conectado a Internet, tras el router una red con un host bastion haciendo las funciones proxy y conectado a la perimeter network, y en esa misma red se conecta otro router que da acceso a la red interna. ¿Por qué hacer esto? Por su propia naturaleza, los ordenadores bastion son las máquinas más vulnerables de la red. A pesar de todos los esfuerzos por mantenerlas protegidas, son las máquinas que se atacan principalmente, porque son ellas las que pueden atacarse. Si, en una arquitectura screened host, esta abierta a un ataque desde el host bastion, entonces el host bastion es un target muy jugoso, porque no hay defensas entre este y las otras máquinas. Si alguien rompiese la seguridad del bastion host en una arquitectura Screened Host entonces es como si le tocase el gordo, esta dentro de la misma red interna con todos los ordenadores indefensos. En cambio en una arquitectura Screende Subnet si penetra en el host bastion no puede dañar al resto de ordenadores, por estar aislado, sigue siendo peligroso porque puede instalar un snifer, pero no acceder directamente a la red interna. 24 3 INTRODUCCIÓN A LOS FIREWALLS 3.5 Arquitecturas Firewall La manera más simple de crear una arquitectura Screende Subnet es conectando dos routers a la red de perímetro (perimeter net). Una entre la perimeter net y la red interna, y otro entre la perimeter net y la conexión externa (normalmente Internet). Para romper dentro de la red interna con este tipo de arquitectura el atacante debería pasar através de los dos routers. Incluso si el atacante consiguiese romper el bastion host aun le quedaría pasar el router interno. A veces para ir más allá, se crean una serie de redes perimetrales entre el mundo externo y la red interior. Dependiendo de lo seguras y confiables que son los servicios que se ponen en cada perímetro. Los servicios más vulnerables se ponen en las redes externas y la red interna se pone al principio. Es un fallo de seguridad lo que voy a decir pero es tal mi confianza en esta topologia que no me importa decir que es así como tengo configurado los sistemas que están a mi cargo. Red perimetral La red perimetral es como he comentado antes, otra capa de seguridad, una red adicional entre las redes externas y la red interna que se trata de proteger. Si un atacante consigue romper dentro de una red perimetral puede conseguir atacar los servicios que se trate dentro de la red. Dentro de la red perimetral pueden ponerse 25 3 INTRODUCCIÓN A LOS FIREWALLS 3.5 Arquitecturas Firewall los servidores FTP y WWW, en caso de ser atacado y tener éxito el ataque pueden tener el acceso al ordendor y tras ello se puede acceder a la red perimetral pero no pasar a la red interna. Router interno El router interno (a veces llamado choke router en literatura inglesa) protege la red interna de Internet y de la red perimetral. Este router hace la mayoría del filtraje de paquetes. Permite que algunos servicios salir de la red interna a Internet. Estos servicios son los servicios que son mejor usar filtrado de paquetes que los proxies. Y los servicios que solo debe permitir ir al host bastion son aquellos que es mejor pasarlos por el proxy. También debe limitarse las conexiones permitidas para la red interna. 3.5.4. Variaciones posibles Se ha visto las principales configuraciones posibles, pero dependiendo del dinero disponible, las políticas de seguridad, de los intereses y servicios a dar, debemos disponer de una flexiblidad suficiente para configurar y combinar componentes firewall. Estas son las posibles variaciones, algunas las he usado y otras no he podido, debido principalmente al dinero. Varios hosts bastion Solo se ha hablado de un bastion host que sirviese para concentrar todos los servicios. Es una buena idea usar varios host en vez de uno, en nuestra configuración. Las razones pueden ser varias, para mejorar la redundancia, para mejorar la performance del sistema o simplemente para simplificar la administración de cada bastion host. También puede dividirse según la confianza que se tenga por los servicios a tratar, así se puede tener especial cuidado en aquello que puedan representar una amenza, así un servicio no puede comprometer otros. 26 3 INTRODUCCIÓN A LOS FIREWALLS 3.5 Arquitecturas Firewall Juntar el router externo con el interno Se pueden juntar el router interno con el externo en un único router, pero solo si se tiene un router suficiente capaz y flexible para hacerlo, hoy dia la mayoría de routers lo permiten. Tenemos la red perimetral conectada a una interficie del router y la red interna conectada a la otra interficie. Dentro de la perimeter Network podemos tener un bastion host haciendo las funciones de proxy, para tal caso hay que configurar en el router el filtrado de paquetes convenientemente. Esta arquitectura, igual que la screened host, hace del único router un punto vulnerable para comprometer a toda la red. En general los routers son fáciles de proteger, más que los servidores, pero igualmente no son impenetrables. 27 4 FILTRADO DE PAQUETES 4. Filtrado de paquetes 4.1. Introducción Como he comentado en la sección de introducción a los firewalls, el filtrado de paquetes es uno de los dos tipos de firewalls que existe, el otro sistema es el firewall proxy. Cada uno sube hasta un nivel concreto de la capa OSI. Mientras el primero solo trata hasta el nivel 3 de la capa OSI, donde se encuentran los paquetes y basa sus decisiones en la información que hay en la cabecera del paquete IP. La otra, los sistemas proxy, sube hasta en nivel de aplicación, pues debe basar sus decisiones en la información que hay en los datos del nivel más alto. El trabajo solo aborda el primer sistema, y es por eso que se profundiza más en este sistema: el filtrado de paquetes. El filtrado de paquetes es un mecanismo de seguridad que trabaja controlando los datos que vienen y van por la red. Es necesario tener claro los fundamentos que se han explicado en la sección TCP/IP para enteder correctamente este apartado. Al transferir información a través de la red, la información esta troceada en pequeñas piezas, cada una de ellas se envía separadamente. Rompiendo la información en partes permite a los sitemas compartir la red, enviando piezas por turnos. En las redes IP, que son las que trato en el trabajo, estas piezas de datos se llaman paquetes. Todos los datos que se transfieren a través de las redes IP se hace en forma de paquetes. Los equipos básicos que interconecta redes IP se llaman routers. Un router puede ser una pieza dedicada de hardware si otro propósito, o puede ser también un software que corre en un sistema de propósito general como un PC. Los paquetes atravesando una red viajan de un router a otro hasta llegar a su destino. Internet es en sí misma un red de redes. Los routers deciden el destino para cada paquete que reciven, tienen que decidir a dónde enviarlo basándose en el destino final del paquete. En general, un paquete no lleva ninguna otra información que la IP de destino para ayudar al router a tomar su decisión. El paquete dice al router donde quiere ir, pero no por donde lo debe enviar. Los routers se comunican entre ellos usando los ’protocolos de routing’ o ’protocolos de enrutaje’ según el idioma, como por ejemplo Routing 28 4 FILTRADO DE PAQUETES 4.2 Características Information Protocol (RIP) como uno de los más simples, o bien Open Shortest Path First (OSPF) para construir las tablas de enrutaje o tablas de routing, con las que determinan como enviar los paquetes a sus destinos. Cuando se enruta un paquete, el router compara la dirección de destino con las entradas que dispone en la tabla de routing y envía el paquete a través de la interfaz que se indica en la misma tabla. Muchas veces no hay una ruta específica para un destino en particular, entonces el router usa la ruta por defecto o también ’default gateway’ que es como yo lo conozco, y se envía a routers que están mejor conectados o a los routers que se supone pueden saber el destino. Al determinar como enviar un paquete a su destino, un router mira solo la dirección destino del paquete y se pregunta ’¿a donde debo enviar este paquete?’. pero además se considera la pregunta ’¿debo enviar este paquete?’ ya que o bien por la política de seguridad programa en el router es mejor descartar el paquete o bien porque a lo mejor el destino no es accesible y es mejor borrar el paquete para que deje de dar vueltas. Para la primera opción se usa lo que se llama filtrado de paquetes, para la segunda opción se trata el campo TTL (Time To Live). Nos concentraremos en el filtrado de paquetes, que es el objetivo de este trabajo final de carrera. 4.2. Características La principal ventaja del filtrado de paquetes es poder proveer, en un único sitio, protecciones para toda un red. Considerando el servicio Telnet como ejemplo. Si se prohibe el Telnet cerrando en servicio de telnet en todos los ordenadores, aún hay que tener cuidado y preocuparse por si alguien de la organización instala en una nueva máquina un servidor de Telnet. Por otra parte, si es telnet se desactiva desde el router, filtrando todos los paquetes que vayan a servir a tal propósito, se protege a la red desde el principio, si importar si hay alguien utilizando un servidor Telnet o no. Otra ventaja es que los routers suelen ser pocos, muchos menos que servidores, por eso se supone que se puede aplicar un mayor control concentrando la seguridad en ellos. Ciertas protecciones solo pueden proveerse con routers de filtrado de paquetes, y solo cuando se situan en ciertas localizaciones de la red. Por ejemplo, es una 29 4 FILTRADO DE PAQUETES 4.3 Ventajas buena idea parar todos los paquetes que tengan como dirección de origen una IP que pertenece a una máquina interna, porque lo más seguro que se esté intentando un ataque spoofing. En estos ataques, un atacante pretende suplantar a otra máquina ’amiga’ o conocida ocultando su identidad. La solución es bloquear todos los paquetes entrantes con una IP origen que pertenezca a la red interna. Este tipo de soluciones solo pueden hacerse con un router o firewall que tenga la opcción de filtrado de paquetes y que esté situado en el perímetro de la red. Y únicamente un router en esa loclización (por perímetro se entiende que conecta las dos redes a través de él) es capaz de reconocer un paquete así, mirando las direcciones origen de todos los paquetes que entren desde fuera de la red. 4.3. Ventajas Ya he comentado algunas en el punto anterior, pero aquí se listan todas ellas: 4.3.1. Proteger toda la red Como he comentado una de las claves dentro de las ventajas de un router con filtrado de paquetes es que un router único y estratégicamente situado puede ayudar a proteger toda un red. Si sólo hay un router que conecta tu red con Internet, 30 4 FILTRADO DE PAQUETES 4.3 Ventajas se gana facilidad a la hora de proteger la red, sea cual sea el tamaño de la red interna, si se hace correctamente en ese router externo que da conexión a Internet. 4.3.2. Transparencia Como diferencia al proxy, los sistemas con filtrado de paquetes no requieren ningún tipo de software ni configuración en las máquinas de los clientes, no requiere ningún tipo de enseñanza ni explicación a los usuarios. Cuando un router con filtrado de paquetes decide lanzar un paquete, este no se distinge de otro router normal sin esa aplicación. Los usuarios no sabrán que existe, a no ser que intenten hacer algo que esté prohibido (supuestamente por un problema de seguridad) según la política de seguridad que se le aplique al router con filtrado de paquetes. Esta transparencia significa que un router filtrando paquetes puede hacerse sin la cooperación y sin el conocimiento de los usuarios a los que se les da el servicio de conexión. La clave no es hacer cosas a urtadillas de los usuarios, a sus espaldas. Sino que la clave está en que puedes hacer filtrado de paquetes sin tener que enseñarles nada para que trabajen, y sin depender la seguridad en ellos para que algo funcione correctamente. Recuerdo que para protegerse de los virus es recomendable educarles, y es tedioso y aún así no siempre funciona. 4.3.3. Disponibilidad El filtrado de paquetes está disponible en la mayoría de hardware y software de los productos que hacen routing, ambos tanto comerciales como los distribuidos gratuitamente. La mayoría de routers también tienen capacidades de filtrado de paquetes. Es una ventaja pues tras diseñar una política de seguridad es muy probable que dispongamos de la capacidad de filtrado de paquetes por parte del router. 4.3.4. Latencia Si comparamos el filtrado de paquetes con los sitemas proxy tenemos que con la misma potencia en hardware se consigue menos latencia. Esto es debido a que el filtrado de paquetes solo tiene que llegar al nivel IP. Además las decisiones se 31 4 FILTRADO DE PAQUETES 4.4 Desventajas toman según una pequeña parte de los datos que transitan, la cabecera IP, y no es necesario investigar todos los datos de contenido de los datos que transitan. 4.4. Desventajas Dentro de las características de los sistemas de filtrado de paquetes encontramos también desventajas, y entre todas ellas tenemos que: 4.4.1. Protocolos difíciles Aunque la implementación de las políticas de seguridad sean perfectas, encontramos que hay ciertos protocolos que simplemente no se pueden tratar facilmente usando este tipo de sistemas, las razones pueden ser varias, como por ejemplo la forma de establecer las sesiones FTP o en las sesiones de teleconferencia que usan el protocolo H.323 pues hay varios origenes de la conexión, los protocolos basados en RPC como por ejemplo NFS y NIS/YP tampoco son fáciles de tratar. Ciertos protocolos, como por ejemplo FTP, H323 entre otros mantienen en sus conexiones unas sesiones características debido a que el cliente y servidor hacen los dos funciones de cliente y de servidor. Por ejemplo el File Transfer Protocol es uno de ellos, el cliente FTP se conecta al servidor FTP mediante TCP al puerto 21 por defecto, entonces cuando hay cualquier petición el servidor envía los datos mediante UDP saliendo del puerto 20. Estos datos lo más normal es que se hayan bloqueado en el firewall para proteger la red interna, porque no se puede dejar abierto ya que cualquier atacante lo usaría. La solución pasa por tener unas tablas indicando las sesiones que están en funcionamiento, y cuando se detecte un paquete con el bit de reset activado entonces quitar la sesion de las tablas. Entonces si el firewall ve que le llegan datos UDP de fuera hacia dentro comprueba que exista esa IP dentro de la tabla de sesiones y que el puerto origen sea el 20. En tal caso deja pasar los datos porque se trata de una conexión FTP que ha inciado alguien dentro de la red que se está protegiendo. 32 4 FILTRADO DE PAQUETES 4.5 Configuración 4.4.2. Polítcas que no pueden aplicarse La información que un paquete da al router que filtra los paquetes no es suficiente para según que política de seguridad. Por ejemplo, los paquetes indican de que ordenador provienen pero no de que usuario. Por eso, no se pueden hacer restricciones en usuarios específicos, sino que a las máquinas que estos usan normalmente. De igual forma, los paquetes dicen a que puerto van pero no a qué aplicación, cuando se hacen restricciones por portocolo se hacen por el número de puerto, esperando que nadie este ejecutando el mismo servicio en un puerto que no se le asigna por defecto. La gente de dentro de la organización que tengan control sobre sus máquinas pueden hacer cambios en este sentido de un manera fácil. 4.4.3. Spoofing Ya he nombrado antes los ataques spoofing, los números IP del origen pueden modificarse y para asegurarse de que el emisor es quien dices ser tiene que usarse otras técnicas, en el mismo nivel de la torre OSI como por ejemplo IPSec o bien en niveles superiores de la torre OSI, por encima del nivel de transporte, como puede ser Secure SHell conocido como SSH, que intercambia claves de los servidores y no se basa únicamente en las IP’s de las dos partes para crear una sesión. 4.5. Configuración Para configurar un router con filtrado de paquetes, lo primero es decidir qué servicios se va a permitir y qué servicios se van a prohibir, entonces se traduce las decisiones en reglas para los paquetes. En realidad, probablemente no importa los detalles de los paquetes. Lo importante para cada uno es hacer el trabajo bien y que funcione. Por ejemplo, si se quiere recibir correo de Internet, al jefe no le importa si los paquetes los tratan el fantasma del ordenador eso es irrelevante, para él solo quiere recibir el correo. Esto puede causar que se hagan unas reglas poco restrictivas, y así funcione el correo que tanto le interesa al jefe. Pero que funcione no significa que esté bien hecho. Y es que traducir “quiero recibir correo de Internet” en un grupo de reglas bien hechas requiere entender como funciona 33 4 FILTRADO DE PAQUETES 4.5 Configuración y seguir un conjunto de reglas. A continuación paso a explicar concepto que son necesarios tener en mente a la hora de traducir decisiones sobre los servicios en reglas para paquetes. 4.5.1. Bidireccionalidad Los protocolos en su mayoría son bidireccionales; casi siempre son las dos partes las que envían datos, una enviando un comando o una petición, y la otra parte enviando la respuesta del comando o retornando otros datos. Cuando se planea crear las reglas para el filtrado de paquetes es necesario recordad que los paquetes tienen doble sentido. Por ejemplo, no tienen ningún sentido dejar enviar los comandos en el Telnet y permitir que los paquetes salgan, pero en cambio prohibir que los resultados de los comandos no puedan verse prohibiendo el retorno de los paquetes. Por otra parte, no ayuda si se bloquea solo la mitad de la conexión. ya que muchos ataques pueden conseguirse si el atacante puede enviar paquetes a la red, incluso si el atacante no obtiene ninguna respuesta. Es posible porque las respuestas pueden ser predecidas, y permite a los atacantes mantener una conversación sin necesitar ver las respuestas. Por ejemplo, si las respuestas son predecibles, pero no pueden ver las respuestas porque no se permite retornar los datos, puede que no se permita conseguir datos directamente, por ejemplo cuando no pueden ver el fichero de /etc/passwd directamente, pero pueden mandar un comando para enviar un email a ellos mismos con una copia del mismo fichero. 4.5.2. ’Inbound’ y ’Outbound’ Una significa tráfico entrante, inbound, y outbound significa tráfico saliente o hacia fuera. Cuando se planea una estrategia de filtrado de paquetes, se necesita tener especial cuidado por que se entiende por ’inbound’ y ’outbound’. Hay que distinguir claramente que se entiende por paquetes entrantes ’inbound’ y los paquetes salientes ’outbound’, y por otroa parte los servicios inbound y los servicios outbound. Un servicio outbound o saliente (por ejemplo un servicio Telnet) tiene paquetes salientes (los comandos) y paquetes entrantes (las respuestas de la pantalla). Aunque la mayoría de la gente piense habitualmente en términos de ser34 4 FILTRADO DE PAQUETES 4.6 Que hacer vicios, hay que pensar claramente en términos de paquetes cuando se trata con el filtrado de paquetes. Cuando se habla de filtrado de paquetes, lo más importante es la dirección de los paquetes y no de los servicios. 4.5.3. Permitir por defecto versus denegar por defecto Este punto es epecialmente importante a la hora de configurar las reglas de filtrado de paquetes. Se distinguen entre dos tipos de reglas, se puede escoger o bien poner las políticas de seguridad con una regla de negado por defecto (todo aquello que no se expresa específicamente que está permitido se niega) o bien la regla de permitir por defecto (todo aquello que no se especifica específicamente como prohibido se permite). Desde el punto de vista de seguridad, es mucho más seguro tomar la actitud de que las cosas están negadas por defecto. Y las reglas de configuración deben reflejarlos. Es necesario empezar por la posición de negar todo y después poner las reglas que permitan solo los protocolos que se permiten, entender las implicaciones que tiene en la seguridad es sumamente importante. La posición de negarlo todo por defecto es mucho más segura y mucho más efectiva que permitirlo todo por defecto, lo que indica que permitiendo todo por defecto e intentando bloquear aquellas cosas que sabes que dan problemas. La realidad es que con esa aproximación, nunca se sabe todos los posibles problemas, porque siempre aparece nuevos problemas y por lo tanto nunca se completa el trabajo. Hablando de manera práctica, la negación de todo significa que las reglas de filtrado deben ser una lista pequeña de las cosas que se permiten, seguido de un negado por defecto que cubra todo el resto de paquetes. Luego pasaré a explicar como deben ser estas reglas. 4.6. Que hacer Una vez un PC con filtrado de paquetes haya terminado de examinar un paquete, ¿qué hacer con el paquete? Principalmente hay dos opciones siempre basándose en el las reglas de configuración: 1. Pasará el paquete. Si el paquete pasa el criterio de filtrado, el router pasará 35 4 FILTRADO DE PAQUETES 4.6 Que hacer el paquete allá donde indique la tabla de routing, que la dirección que debe seguir, como si fuera un router normal sin el filtrado de paquetes comportándose de manera transparente. 2. Eliminar el paquete. La otra acción obviamente es eliminar el paquete si falla en los criterios con que se ha configurado el filtrado. Sea unos u otros el tipo de paquetes, el filtrado de paquetes debe suministrar dos herramientas básicas para el correcto funcionamiento, la primera es hacer un log de los paquetes que le hayamos indicado que haga y la otra es devolver paquetes ICMP indicando el tipo de error en caso de no dejar pasar el paquete. 4.6.1. Logging Independientemente de si se deja pasar o no el paquete, puede querer el administrador que se guarde la acción que se acaba de tratar. Especialmente cuando hay paquetes que se han eliminado, porque al ir en contra de las reglas de filtrado de paquetes se puede tratar de un ataque y es necesario tener constancia de ello. No se recomienda a su vez hacer un log de todos los paquetes que pasan por el filtrado de paquetes, pues fácilmente se sobresaturarían los discos además de relentizar de manera drástica el ordenador. Pero si es necesario para cierto grupo de paquetes. Por ejemplo, puede ser interesante mantener un log de los paquetes TCP que indiquen comienzo de conexión hacía un servicio Telnet de un router específico, así se guarda las conexiones que se hayan realizado para una posible configuración. Aunque no todos las aplicaciones comerciales y no comerciales de filtrado de paquetes dejan hacer un log a los paquetes permitidos en mi aplicación sí se puede. Dependiendo de la implementación del filtrado de paquetes hay diferentes formas de hacer log. Algunos guardarán solo la información específica sobre el paquete, otros en cambio guardarán el paquete entero para un posterior estudio. Generalmente, el filtrado de paqutes necesitará configurarse para hacer el log a otra parte mediante el servicio de syslog, que es independiente a la aplicación. Porque es interesante no tener únicamente una copia de la provinencia de un ataque si el firewall se ha visto comprometido, pues es fácil eliminarlo y parecer que no ha habido tal ataque. 36 4 FILTRADO DE PAQUETES 4.6 Que hacer 4.6.2. Paquetes ICMP Si un paquete es eliminado, el router debe o no enviar un paquete ICMP de error indicando qué ha pasado. Enviando un paquete ICMP de error tiene un efecto en el equipo emisor para indicarle que no vuelva a enviar otro paquete, lo que ahorra algo en el tráfico de la red y algo de tiempo al usuario que le ha sido negado el acceso, ya que al recibir un código de error ICMP el host del usuario no debe reintentar y para inmediatamente, si no recibe ninguno puede tardar varios minutos esperando una respuesta. Hay dos grupos relevante de códigos ICMP a escoger: 1. Los códigos de ’destino inalcanzable’ o ’destination unreachable’ en particular el de ’ordenador inalcanzable’ o ’host unreachable’ y el código de ’red inalcanzable’ o ’network unreachable’ según el idioma. Los diseñadores del primer grupo de códigos de error ICMP diseñaron este grupo de ’host unreachable’ y el de ’network unreachable’, para indicar algún problema serio en la red: el host o red destino ha caido o algo que en el único camino al host o red ha caido. Estos errores se tratan devolviendo uno de estos errores en paquetes ICMP desde el router que haya descubierto el problema. Si cualquier máquina recibe un ’host unreachable’ para un host dado, asumirá que el host se encuentra completamente inalcanzable y cerrará todas las conexiones hacia él, incluso si las otras conexiones se permitireron por el filtrado de paquetes. Por eso hay que tener cuidado a la hora de enviar este tipo de errores. 2. Los códigos de ’destino administrativamene inalcanzable’ o ’destination administratively unreachable’ en particular dentro de este grupo el de ’ordenador administrativamente inalcanzable’ o en inglés ’host administratively unreachable’ y el código de ’red administrativamente inalcanzable’ o como se encuentra en la literatura inglesa ’network administratively unreachable’. Indican que el destino puede ser accedido porque no ha caido pero que no se deja pasar ningún paquete debido a la configuración del sistema y que todo paquete a ese destino se ha bloqueado. Este segundo grupo de errores que pueden retornar un administrativamente inalcanzable se añadieron 37 4 FILTRADO DE PAQUETES 4.6 Que hacer hace unos años al grupo de mensajes ICMP, específicamente para dar a los sistemas de filtrado de paquetes algo que poder retornar cuando eliminaban un paquete. Muchos sistemas pueden no reconocer estos códigos, aunque tampoco deben causar ningún problema, porque los sistemas que reciben un código que no entienden simplemente deben ignorarlo, que significa que es como si no se hubiera enviado ningún mensaje. Pero que no haga caso al mensaje es útil de manera que al recibir este mensaje el sistema no se verá afectado. ¿Cúal es la correcta? De los dos grupos de mensajes a retornar, si retornamos uno del primer grupo ’host unreachable’ o bien el de ’network unreachable’ es técnicamente incorrecto, recordar que los hosts puede o puede que no sean alcanzables, de acuerdo con la política de filtrado de paquetes, dependiendo a qué host está intentando acceder y a qué servicio. También hay que recordar que este tipo de códigos pueden causar en muchos sistemas una reacción excesiva, como por ejemplo cerrando todas las conexciones que ya están abiertas hacia ese host o red en cuestión. Si devolvemos un ’host administratively unreachable’ o un ’network administratively unreachable’ se advierte que el paquete que está siendo filtrado al destino desde ese origen. Estos códigos teóricamente, no deberían de tener una respuesta excesiva al llegar al ordenardor que intentaba originar la conexión. Hay otras consideraciones, por ejemplo, generando y retornando códigos de error ICMP necesita un cierto tiempo y esfuerzo por parte del router o firewall con el software de filtrado de paquetes. Un atacante podría montarse un ataque de denegación de servicio o denial of service según se diga, saturando el router con paquetes que debería rechazar, generando paquetes con códigos de error ICMP. Lo que se trata de proteger no es el ancho de banda de la red, sino la cantidad de carga sobre la CPU en el router o firewall en cuestión, y mientras está generando paquetes ICMP no está tratando paquetes entrantes. Por otra parte si no se retorna códigos de error ICMP puede causar un exceso de tráfico en la red, pues el emisor puede intentar e intentar enviar paquetes que han sido eliminados. Este tráfico no debería de ser mucho, pues el número de paquetes bloqueados por el sistema de filtrado tiende a ser una fracción del total de paquetes procesados. En caso de no 38 4 FILTRADO DE PAQUETES 4.7 Filtrado por dirección ser así es muy posible que se esté bajo un ataque de DoS o denegación de servicio. Por otra parte, retornando paquetes con códigos de error ICMP para cada paquete que viola las políticas de filtrado, estás dando información a un atacante y un camino para probar el sistema de filtrado. Observando los paquetes que retorna una respuesta ICMP, un atacante puede descubrir que tipo de paquetes violan o no violan las políticas de seguridad. En tales casos no se debería dar esa información, porque simplifica enormemente el trabajo del atacante. El atacnte conoce que paquetes no genera errores ICMP van a alguna parte, y puede concentrarse en esos servicios para empezar a atacar, donde muy posiblemente haya vulnerabilidades, a no ser que esté todo bien configurado y actualizado. En cambio si no se retorna esa información con los códigos de error ICMP el atacante necesita más tiempo para averiguar la misma información, si acaso lo consigue. Devolviendo los códigos de error ICMP se acelera los ataques, si reciben errores ICMP por algo no tienen q esperar el timeout. Como conclusión, lo más seguro parece que es no retornar ningún código de error ICMP a los paquetes eliminados. Si se puede lo que es interesante es poder retornar paqutes con códigos de error ICMP a los sistemas internos, para que no esperen al timeout y por otra parte no retornarlo a los sitemas externos. Aún así si no se ofrece tal posibilidad se debe configurar el sistema para que esté permitido los paquetes inbound ICMP y estar prohibido los paquetes outbound con códigos de error ICMP. 4.7. Filtrado por dirección 4.7.1. Introducción La forma más simple, aunque no la más común, es el filtrado de paquetes filtrando según la dirección. Filtrando de esta forma termite restringir el flujo de paquetes basado en la dirección origen y/o destino de los paquetes, sin cosiderar el protocolo que tratan. Este tipo de filtrado puede ser usado para permitir o no cierto flujo entre unos hosts internos a unos hosts externos, por ejemplo, por ejemplo se puede prever un ataque de spoofing, simplemente prohibiendo paquetes inbound con una dirección origen que sea igual a una dirección válida dentro de la red a proteger. 39 4 FILTRADO DE PAQUETES 4.7 Filtrado por dirección Por ejemplo vamos a decir que se quieren prohibir este tipo de ataques, se debería especificar esta regla: Dirección Inbound @ origen interna @ destino any Acción deny Donde pone que la dirección es interna se refiere a cualquier número IP de algún host de dentro de la red. En el router que haya entre la red interna e Internet, se podría aplicar en cualquier interfaz con paquetes inbound esta regla. Cuando se habla de inbound ser refiere a la red interna que debemos proteger. 4.7.2. Riesgos Antes lo he comentado, no es seguro fiarse de las direcciones origen en las cabeceras IP ya que pueden suplantarse, pueden modificarse. Solo en caso de que se use algún tipo de autentificación criptográfica entre tú y el host al que se quiere hablar, no sabes si el que te está hablando es quien dice ser u otra máquina que pretende ser ese. Como he dicho antes hay que montarse algo usar otras técnicas, ya sea en el mismo nivel de la torre OSI como por ejemplo IPSec o bien en niveles superiores de la torre OSI, por encima del nivel de transporte, como puede ser Secure SHell conocido como SSH, que intercambian claves de los servidores y no se basa únicamente en las IP’s de las dos partes para crear una sesión, sino que usan encriptado. Hay dos tipos de ataques que se basan en esta forma de ataque de ataques spoofing: los que se necesitan solo modificar la dirección origen y los de ’man in the middle’, que ademas hay que mirar que se retorna. 40 4 FILTRADO DE PAQUETES 4.7 Filtrado por dirección El primer ataque spoofing que se conoce se le atribuye a Kevin Mitnick uno de los hackers más conocidos. El atacante envía paquetes que pretenden suplantar la identidad de algún ordenador al que se le tiene algún tipo de confianza, esperando que el ordenador atacante pueda usar esa confianza ataca al ordenador objetivo. Puede ser que el atacante no le importe retornar ningún paquete de la máquina atacada, ya que el resultado de los comandos enviados son predevibles, entonces no necesita estar en el camino de retorno entre el ordenador atacado y el ordenador que suplanta la información. En cambio es al contrario si se desea saber que le retorna al ordenador suplantado, ya que habrá que situarse entre medio para que cuando le devuelva los paquetes el ordenador atacado al suplantado se puedan leer pero este es el segundo tipo de ataques. Ya que las respuestas se enviarán al ordenador suplantado y no al atacante. También hay que tener una consideración, que el ordenador suplantado recibirá paquetes de conexiones que no entiende y de las que no participa, bogus connections como se le llama en inglés, entonces este ordenador envía paquetes con el bit de reset activado para terminar dichas conexiones. Lo que es malo para el atacante, pero es fácil de remediar, ya que se puede suplantar una máquina que no exista, destrozando a la máquina real mediante un ataque, inundando a la máquina suplantada, modificando la ruta entre la máquina atacada y la suplantada o bien usando ataques donde no sea importante el bit de reset. 41 5 EL SISTEMA OPERATIVO LINUX 5. El Sistema Operativo Linux 5.1. Introducción 5.1.1. Historia A finales de los 40’s el uso de computadoras estaba restringido a aquellas empresas o instituciones que podían pagar su alto precio, y no existían los sistemas operativos. En su lugar, el programador debía tener un conocimiento y contacto profundo con el hardware, y en el infortunado caso de que su programa fallara, debía examinar los valores de los registros y páneles de luces indicadoras del estado de la computadora para determinar la causa del fallo y poder corregir su programa, además de enfrentarse nuevamente a los procedimientos de apartar tiempo del sistema y poner a punto los compiladores, ligadores, etc; para volver a correr su programa, es decir, enfrentaba el problema del procesamiento serial ( serial processing ). La importancia de los sistemas operativos nace históricamente desde los 50’s, cuando se hizo evidente que el operar una computadora por medio de tableros enchufables en la primera generación y luego por medio del trabajo en lote en la segunda generación se podía mejorar notoriamente, pues el operador realizaba siempre una secuencia de pasos repetitivos, lo cual es una de las características contempladas en la definición de lo que es un programa. Es decir, se comenzó a ver que las tareas mismas del operador podían plasmarse en un programa, el cual a través del tiempo y por su enorme complejidad se le llamó "Sistema Operativo". Así, tenemos entre los primeros sistemas operativos al Fortran Monitor System ( FMS ) e IBSYS. Posteriormente, en la tercera generación de computadoras nace uno de los primeros sistemas operativos con la filosofía de administrar una familia de computadoras: el OS/360 de IBM. Fue este un proyecto tan novedoso y ambicioso que enfrentó por primera vez una serie de problemas conflictivos debido a que anteriormente las computadoras eran creadas para dos propósitos en general: el comercial y el científico. Así, al tratar de crear un solo sistema operativo para computadoras que podían dedicarse a un propósito, al otro o ambos, puso en evidencia la problemática del trabajo en equipos de análisis, diseño e implantación 42 5 EL SISTEMA OPERATIVO LINUX 5.1 Introducción de sistemas grandes. El resultado fue un sistema del cual uno de sus mismos diseñadores patentizó su opinión en la portada de un libro: una horda de bestias prehistóricas atascadas en un foso de brea. Surge también en la tercera generación de computadoras el concepto de la multiprogramación, porque debido al alto costo de las computadoras era necesario idear un esquema de trabajo que mantuviese a la unidad central de procesamiento más tiempo ocupada, así como el encolado o ’spooling’ de trabajos para su lectura hacia los lugares libres de memoria o la escritura de resultados. Sin embargo, se puede afirmar que los sistemas durante la tercera generación siguieron siendo básicamente sistemas de lote. En la cuarta generación la electrónica avanza hacia la integración a gran escala, pudiendo crear circuitos con miles de transistores en un centímetro cuadrado de silicio y ya es posible hablar de las computadoras personales y las estaciones de trabajo. Surgen los conceptos de interfaces amigables intentando así atraer al público en general al uso de las computadoras como herramientas cotidianas. Se hacen populares el MS-DOS y UNIX en estas máquinas. También es común encontrar clones de computadoras personales y una multitud de empresas pequeñas ensamblándolas por todo el mundo. Para mediados de los 80’s, comienza el auge de las redes de computadoras y la necesidad de sistemas operativos en red y sistemas operativos distribuidos. La red mundial Internet se va haciendo accesible a toda clase de instituciones y se comienzan a dar muchas soluciones ( y problemas ) al querer hacer convivir recursos residentes en computadoras con sistemas operativos diferentes. Para los 90’s el paradigma de la programación orientada a objetos cobra auge, así como el manejo de objetos desde los sistemas operativos. Las aplicaciones intentan crearse para ser ejecutadas en una plataforma específica y poder ver sus resultados en la pantalla o monitor de otra diferente (por ejemplo, ejecutar una simulación en una máquina con UNIX y ver los resultados en otra con DOS ). Los niveles de interacción se van haciendo cada vez más profundos. LINUX hace su aparicion a principios de la decada de los noventa, era el año 1991 y por aquel entonces un estudiante de informatica de la Universidad de Helsinki, llamado Linus Torvalds empezo, -como una aficion y sin poderse imaginar a lo que llegaría este proyecto, a programar las primeras líneas de código 43 5 EL SISTEMA OPERATIVO LINUX 5.1 Introducción de este sistema operativo llamado LINUX. Aquí está el primer mensaje que Linus Torvalds mandó al grupo de noticias comp.os.minix: From:[email protected] (Linus Benedict Torvalds) Newsgroup: comp.os.minix Subject: GCC-1.40 and a posix question Message-ID: 1991Jul13, [email protected] Date: 3 Jul 91 10:00:50 GMT Hello netlanders, Due a project I’m working on (in minix), I’m interested in the posix standard definition. Could somebody please point me to a (preferably) machine-readable format of the latest posix rules? Ftp-sites would be nice. Linux Torvalds [email protected] Y aquí el que le siguió, este mensaje es considerado por muchos como el comienzo de Linux: From:[email protected] (Linus Benedict Torvalds) Newsgroup: comp.os.minix Subject: What would you like to see most in minix? Summary: small poll for my new operating system Message-ID: 1991Aug25, [email protected] Date: 25 Aug 91 20:57:08 GMT Organization: University of Helsinki. Hello everybody out there using minixI’m doing a (free) operating system (just a hobby, won’t be big and professional like gnu) for 386(486) AT clones. This has been brewing since april, and is starting to get ready. I’d like any feedback on things people like/dislike in minix; as my OS resembles it somewhat (same physical layout of the 44 5 EL SISTEMA OPERATIVO LINUX 5.1 Introducción file-sytem due to practical reasons) among other things. I’ve currently ported bash (1.08) an gcc (1.40), and things seem to work. This implies that i’ll get something practical within a few months, and I’d like to know what features most people want. Any suggestions are we but I won’t promise I’ll implement them :-) Linux Torvalds [email protected] Este comienzo estuvo inspirado en MINIX, un pequeño sistema Unix desarrollado por Andy Tanenbaum. Las primeras discusiones sobre Linux fueron en el grupo de noticias comp.os.minix, en estas discusiones se hablaba sobre todo del desarrollo de un pequeño sistema Unix para usuarios de Minix que querían más. Linus nunca anunció la version 0.01 de Linux (agosto 1991), esta versión no era ni siquiera ejecutable, solamente incluía los principios del núcleo del sistema, estaba escrita en lenguaje ensamblador y asumía que uno tenía acceso a un sistema Minix para su compilación. El 5 de octubre de 1991, Linus anunció la primera versión "Oficial" de Linux, -version 0.02. Con esta versión Linus pudo ejecutar Bash (GNU Bourne Again Shell) y gcc (El compilador GNU de C) pero no funcionaba mucho más. En este estado de desarrollo ni se pensaba en los términos soporte, documentación, distribución, etc. Después de la versión 0.03, Linus saltó en la numeración hasta la 0.10, más y más programadores a lo largo y ancho de Internet empezaron a trabajar en el proyecto y después de sucesivas revisiones, Linus incrementó el número de versión hasta la 0.95 (Marzo 1992). Más de un año después (diciembre 1993) el núcleo del sistema estaba en la versión 0.99 y la versión 1.0 no llegó hasta el 14 de marzo de 1994. La serie actual del núcleo es la 2.4.x y sigue avanzando día a día con la meta de perfeccionar y mejorar el sistema. En el momento de escribir este documento la versión actual del kernel es la 2.4.19. 5.1.2. Linux En la página web del kernel de Linux (www.kernel.org) se encuentra esta descripción, que creo que explica en pocas palabras qué es Linux. 45 5 EL SISTEMA OPERATIVO LINUX 5.1 Introducción < <Linux is a clone of the operating system Unix, written from scratch by Linus Torvalds with assistance from a loosely-knit team of hackers across the Net. It aims towards POSIX and Single UNIX Specification compliance. It has all the features you would expect in a modern fully-fledged Unix, including true multitasking, virtual memory, shared libraries, demand loading, shared copy-on-write executables, proper memory management, and TCP/IP networking. Linux was first developed for 32-bit x86-based PCs (386 or higher). These days it also runs on (at least) the Compaq Alpha AXP, Sun SPARC and UltraSPARC, Motorola 68000, PowerPC, PowerPC64, ARM, Hitachi SuperH, IBM S/390, MIPS, HP PA-RISC, Intel IA-64, DEC VAX, AMD x86-64 and CRIS architectures. Linux is easily portable to most general-purpose 32- or 64-bit architectures as long as they have a paged memory management unit (PMMU) and a port of the GNU C compiler (gcc). > >[LT1] 5.1.3. Características Esta es una lista de las principales características que tiene Linux: 1. Todo el código fuente está disponible, incluyendo el núcleo completo y todos los drivers, las herramientas de desarrollo y todos los programas de usuario; además todo ello se puede distribuir libremente. Hay algunos programas comerciales que están siendo ofrecidos para Linux actualmente sin código fuente, pero todo lo que ha sido gratuito sigue siendo gratuito. 2. Multitarea: La palabra multitarea describe la habilidad de ejecutar varios programas al mismo tiempo. Linux utiliza la llamada multitarea preeventiva, la cual asegura que todos los programas que se están utilizando en un momento dado serán ejecutados, siendo el sistema operativo el encargado de ceder tiempo de microprocesador a cada programa mediante el scheduler. 3. Multiusuario: Permite tener muchos usuarios usando la misma máquina al mismo tiempo, pero a cada uno de ellos le da la sensación de tener la máquina para ellos únicamente. 46 5 EL SISTEMA OPERATIVO LINUX 5.1 Introducción 4. Multiplataforma: Las plataformas en las que en un principio se diseñó utilizar Linux son 386-, 486-. pero luego vinieron toda la familia Pentium y seguidores que pertenecen a la familia i386 que son PC’s de 32 bits, Amiga y Atari, también existen versiones para otras plataformas, como Alpha de Compaq, ARM, MIPS, PowerPC tanto de 32 como de 64 bits, Sun SPARC, UltraSPARC, el último procesador de Intel el IA-64, y muchos otros más. 5. Multiprocesador: Soporte para sistemas con más de un procesador está disponible para Intel y SPARC. 6. Funciona en modo protegido. 7. Tiene protección de la memoria entre procesos, de manera que uno de ellos no pueda colgar el sistema. 8. Carga de ejecutables por demanda: Linux sólo lee del disco aquellas partes de un programa que están siendo usadas actualmente. 9. Política de copia en escritura para la compartición de páginas entre ejecutables: esto significa que varios procesos pueden usar la misma zona de memoria para ejecutarse. Cuando alguno intenta escribir en esa memoria, la página (4Kb de memoria) se copia a otro lugar. Esta política de copia en escritura tiene dos beneficios: aumenta la velocidad y reduce el uso de memoria. 10. Memoria virtual usando paginación (sin intercambio de procesos completos) a disco: A una partición o un archivo en el sistema de archivos, o ambos, con la posibilidad de añadir más áreas de intercambio sobre la marcha. Un total de 16 zonas de intercambio de 128Mb de tamaño máximo pueden ser usadas en un momento dado con un límite teórico de 2Gb para intercambio. Este límite se puede aumentar con el cambio de unas cuantas líneas en el código fuente, que lo está haciendo Oracle, para su distribución. 11. La memoria se gestiona como un recurso unificado para los programas de usuario y para el caché de disco, de tal forma que toda la memoria libre puede ser usada para caché y ésta puede a su vez ser reducida cuando se ejecuten grandes programas. 47 5 EL SISTEMA OPERATIVO LINUX 5.1 Introducción 12. Librerías compartidas de carga dinámica (como los ficheros so de Solaris o los ficheros DLL’s de windows) y librerías estáticas. 13. Se realizan volcados de estado (core dumps) para posibilitar los análisis post-mortem, permitiendo el uso de depuradores sobre los programas no sólo en ejecución sino también tras abortar éstos por cualquier motivo. 14. Compatible con POSIX, System V y BSD a nivel fuente. Control de tareas POSIX. 15. Emulación de iBCS2, casi completamente compatible con SCO, SVR3 y SVR4 a nivel binario. 16. Emulación de 386 en el núcleo, de tal forma que los programas no tengan que hacer su propia emulación matemática. Cualquier máquina que ejecute Linux parecerá dotada de coprocesador matemático. Por supuesto, si el ordenador ya tiene una FPU (unidad de coma flotante), esta será usada en lugar de la emulación, pudiendo incluso compilar tu propio kernel sin la emulación matemática y conseguir un pequeño ahorro de memoria. 17. Soporte para muchos teclados nacionales o adaptados y es bastante fácil añadir nuevos dinámicamente. 18. Consolas virtuales múltiples: varias sesiones de login a través de la consola entre las que se puede cambiar con las combinaciones adecuadas de teclas (totalmente independiente del hardware de video). Se crean dinámicamente y puedes tener hasta 64. Dispone también de Pseudo-terminales (pty’s). 19. Soporte para varios sistemas de archivo comunes, incluyendo minix-1, Xenix y todos los sistemas de archivo típicos de System V, y tiene un avanzado sistema de archivos propio con una capacidad de hasta 4 Tb y nombres de archivos de hasta 255 caracteres de longitud. Está el sistema de archivos ext-3, ext-2 y el ReiserFS como los sitemas de archivo más comunes. Acceso transparente a particiones MS-DOS (o a particiones OS/2 FAT) mediante un sistema de archivos especial: no es necesario ningún comando especial para usar la partición MS-DOS, esta parece un sistema de archivos normal 48 5 EL SISTEMA OPERATIVO LINUX 5.1 Introducción de Unix (excepto por algunas restricciones en los nombres de archivo y permisos). Las particiones comprimidas de MS-DOS 6 no son accesibles en este momento, y no se espera que lo sean en el futuro. JFS o Journalist File System para Linux, hecho por IBM. El soporte para VFAT, FAT32 (WinNT, Windows 95/98/ME) se encuentra soportado desde la version 2.0 del nucleo y el NTFS de WinNT / Win2000 / WinXP desde la version 2.2. Este último solo en modo lectura, se puede hacer escrituras pero no es recomendado. También dispone de un sistema de archivos especial llamado UMSDOS que permite que Linux sea instalado en un sistema de archivos DOS. Soporte en sólo lectura de HPFS-2 del OS/2 2. Sistema de archivos de CD-ROM que lee todos los formatos estándar de CD-ROM. 20. Incluidas en el núcleo tenemos una gran cantidad de protocolos de red como por ejemplo: TCP/IP tanto IPversion 4 como IPversion6. Appletalk compatible con redes Apple. Software cliente y servidor Netware. IPX, AX.25, X.25, DDP, Netrom, etc. 21. Dispone de servidores para protocolos HTTP (Apache Web Server, khttpd, etc), FTP (transferencia de ficheros: wu-ftpd, proftpd, etc), SMTP (transferencia de correo: Postfix, Sendmail, Qmail, etc), NFS, SMB entre otros muchos. Lan Manager / Windows Native (SMB) es un software cliente y servidor, para poder compartir ficheros e impresoras en redes Microsoft 1 con funciones de servidor como funciones de cliente. 22. Sistemas de multicomputación. Soporte para MPI y PVM, directamente o con sistemas como Beowulf. LVS (Linux Virtual Server), etc 23. Y otras tantas virtudes de este Sistema Operativo que mantiene la comunidad de Internet y empresas como Oracle, Sun Microsystems, IBM, CompaqHP, Dell etc a parte de las propias empresas de cada distribución como Red Hat, Debian, Suse, etc que entre todas y todos dan soporte a este sistema operativo. Aunque la mejor virtud son los miles de programas a través de Internet distribuidos gratuitamente o con licencias de libre distribución. Visitando páginas web se 1 Microsoft es marca registrada de Microsoft Corporation 49 5 EL SISTEMA OPERATIVO LINUX 5.2 El Kernel pueden encontrar miles de aplicaciones que ya están hechas y al disponer del código fuente pueden mejorarlas. También existe una gran comunidad que resuelve cualquier problema que pueda surgir al kernel. Las respuestas a los problemas de seguridad han demostrado ser más rápidas que muchas empresas. 5.2. El Kernel 5.2.1. Introducción El Kernel puede verse como el corazon del sistema operativo, cargado en la memoria RAM cuando se enciende el ordenador y permanece en funcionamiento hasta que este se apaga. Tiene principalmente dos responsabilidades: 1. Servir a los requerimientos de programación a bajo nivel (por ejemplo tratando las interrupciones hardware). 2. Proveer un entorno a los procesos, que son las instancias en ejecución de los programas o threads. Se dice que el kernel de Linux es monolítico, que es como un gran ejecutable, que consiste de muchos componentes divididos lógicamente. 5.2.2. Modos El Kernel puede trabajar en dos modos: usuario o kernel. La mayoría de las ejecuciones de programas de los usuarios se hacen en modo usuario o ’user mode’ como se dice en inglés. Este modo de ejecución no tiene acceso directo a las estructuras de datos del kernel o a los equipos hardware. Puede cambiarse a modo kernel de varias formas: 1. Un programa hace una llamada al sistema o ’system call’, por ejemplo cuando una función de una libreria hace una petición al kernel. 2. Una señal de excepción provinente de la CPU, que son condiciones que requieren especial atención, por ejemplo en una división por cero. 50 5 EL SISTEMA OPERATIVO LINUX 5.2 El Kernel 3. Una interrupción que se hace hacia la CPU provinente de algún equipo hardware indicando que requiere su atención, como por ejemplo cada vez que apretamos cualquier tecla desde el teclado. El kernel se pasa la mayoría del tiempo en el modo kernel ejecutándose detrás de los procesos de usuario. Además hay muchos threads que se están ejecutando detrás del propio kernel en modo kernel, que se encargan de hacer las actividades necesarias para mantener en funcionamiento al sistema operativo. Una vez que todas las operaciones pendientes en modo kernel se han completado y tratado, el kernel vuelve al modo usuario otra vez. 5.2.3. Módulos El kernel es capaz de cargar dinámicamente porciones adicionales de código (módulos) mientras se está ejecutando, para mejorar su funcionalidad. Por ejemplo, hay módulos que pueden añadir soporte para sistemas de ficheros que no es necesario que estén cargados siempre. Cuando la funcionalidad proveida por el módulo ya no se necesita más, el módulo puede ser descargado, liberando memoria. 5.2.4. Procesos Un proceso es una instancia de un programa en ejecución. Cada proceso tiene: 1. Un estado, ya sea ’running’ (ejecutándose en el procesador), ’sleeping’ (durmiendo, un proceso que está esperado que un evento se termine), ’runnable’ o ’ready’ (listo para ser ejecutado y esperado en la cola de procesos), ’stopped’ (parado ya sea por una señal de control o porque están haciendole un trace) o zombie (zombie el proceso esta apunto de ser eliminado). 2. Un contexto, una copia con todos los registros de la CPU que indican el estado del proceso (PC, SP, PSW, registros de propósito general, registros de coma flotante y regsitros para el control de memoria) 3. Un descriptor de procesos, es una estructura de datos del tipo task_struct que guarda toda la información relacionada con un proceso. 51 5 EL SISTEMA OPERATIVO LINUX 5.2 El Kernel El kernel se encarga de poner un entorno multiprogramable, lo que indica que se puede tener muchos procesos activos a la misma vez. Cada proceso dispone de los recursos hardware disponibles para él, y es el kernel el encargado de controlar que los recursos se comparten correctamente. Multiprogramming implica que todos los procesos que están en la cola de procesos esperando tendrán su oporturnidad para ejecutarse en la CPU en turnos. El proceso que ’controla’ la CPU en un instante de tiempo se le llama ’current’ porque es el programa que esta corriendo en ese momento. El proceso que se encarga de decidir quien es el que pasa a estado ready o un estado de ejecutandose es el scheduler o ’context switch’, porque se encarga de cambiar el contexto actual. El cometido de este es guardar el contexto actual del proceso ejecutándose (una foto del estado de la CPU en ese momento) y cargar el contexto de algún proceso que este esperando para ser ejecutado, o un proceso con el estado de ready. Los cambios de contexto solo pueden hacerse cuando el kernel está en modo usuario, así que en el modo kernel no pueden hacerse cambios de contexto inmediatamente por eso se le llama non-preemptive. Cada proceso de usuario se ejecuta en su propio espacio de usuario, una porción asignada del total de memoria disponible. Espacios de usuario (o partes de él) pueden compartirse entre procesos si se pide, o bien automáticamente si el kernel lo cree apropiado. La separación del espacio de direcciones hace que un proceso no pueda interferir con una operación de otro proceso o del sistema operativo. Además de los procesos normales de usuario ejecutándose en el sistema, hay varios threads del kernel que se crean al iniciar el sistema y que corren permanentemente en modo kernel, encargandose de funciones de mantenimiento del kernel. 5.2.5. Sincronización El kernel es reentrante, varios procesos pueden estar ejecutándose en modo kernel a la vez. Por supuesto, en un sistema con solo un procesador solo un proceso puede ejecutarse, porque el resto de procesos están bloqueados esperando en una cola. Ejemplo: un proceso pide leer un fichero, el sistema virtual de ficheros el ’Virtual File System’ traduce la petición en una operación de bajo nivel del disco y lo pasa al controlador del disco, por detrás del proceso. En vez de esperar hasta que la operación de escritura a disco se haya completado, miles de ciclos de CPU 52 5 EL SISTEMA OPERATIVO LINUX 5.2 El Kernel más tarde, el proceso da voluntariamente a la CPU después de hacer la petición y el kernel permite que otro proceso esperando pueda ejecutarse en la CPU y este a su vez puede entrar en el modo kernel. Cuando una operación a disco se a completado (señalado por una interrupción de hardware), el proceso actual da la CPU al que trata las interrupciones (el interrupt handler) y el proceso original se despierta, siguiendo su estado a donde lo había dejado. Para poder implementar un kernel reentrante, hay que tener especial cuidado para asegurar la consistencia de las estructuras de datos del kernel. Si un proceso modifica un contador de otro proceso esperando sin que este lo sepa, el resultado puede ser potencialmente desastroso. Hay que seguir los siguientes pasos para preever este tipo de sucesos: 1. Un proceso solo puede reemplazar a otro en modo kernel si ha dejado voluntariamente la CPU, dejando las estructuras de datos en un estado consistente, de ahí que se le llame al kernel ’non-preemptive’. 2. Hay que deshabilitar las interrupciones en regiones críticas, donde el código tiene que completarse sin ninguna interrupción, y asegurarse luego de volver a habilitarlas. 3. El uso de spin locks y semáforos de control para acceder a estructuras de datos. Los semáforos consisten en un contador inicializado a uno, una lista de procesos esperando para acceder a la estructura de datos y dos métodos atómicos llamados up() y down() que incrementan y decrementean el contador respectivamente. Cuando se accede a una estructura protegida por un semáforo, se llama a la función down(), si el valor del contador es cero o positivo (no negativo vaya), entonces el acceso está garantizado, si no es así y el acceso esta negado significa que está bloqueado y que el proceso se añade a la lista del semáforo de procesos esperando. De forma parecida, cuando un proceso ha terminado de tratar los datos de la estructura, llama a la función up() y el siguiente proceso de la lista consigue acceder. Hay que tomar precauciones, porque hay que asegurarse que no hay deadlocks entre varios procesos, en el caso de que controlen varios recursos. Si cada uno está 53 5 EL SISTEMA OPERATIVO LINUX 5.2 El Kernel esperado un recurso controlado por otro proceso y este a su vez esta esperando un recurso controlado por el primer proceso se dice que existe un deadlock o ’abrazo de la muerte’ porque se esperan infinitamente hasta que uno de los dos deje el otro recurso, pero al estar los dos en un estado de espera jamás lo harán. Si se quiere profundizar en deadlocks buscar por Internet el problema de los filósofos que cenan o dicho en inglés ’The dining Philosophers Problem’ o en cualquier libro de sistemas operativos. 5.2.6. Comunicación entre procesos Una señal es un mensaje corto, enviado entre dos procesos o entre el kernel y un proceso. Hay dos dipos de señales que se usan para notificar eventos a del sistema a los procesos: Eventos asíncronos. Por ejemplo SIGTERM, enviado cuando se usa el Ctrl-C del teclado. Errores o excepciones síncronas. Por ejemplo SIGSEGV cuando un proceso intenta acceder a una dirección ilegal. Hay cerca de 20 señales diferentes definidas en el estandart POSIX, algunas de ellas pueden ser ignoradas. Algunas señales no pueden ser ignoradas y no son tratadas siquiera por el proceso mismo. Linux usa el sistema V o ’System V’ de comunicación entre procesos llamado en inglés Inter-Process-Comunication (IPC). 5.2.7. Control de la Memoria Linux usa memoria virtual, un nivel de abstracción entre los pedidos de memoria por parte de los procesos y las direcciones físicas de la memoria. Así hace posible lo siguiente: 1. Permite que muchos procesos corran incluso cuando la suma de toda la memoria exceda la RAM física disponible. 2. Hace posible también un espacio de direcciones contigua, independiente a la organizacioón de la memoria física. 54 5 EL SISTEMA OPERATIVO LINUX 5.2 El Kernel 3. Paginado, porciones de datos o código que solo necesitan cargarse en memoria cuando se ejecutan o son accedidos y pueden intercambiarse a disco cuando no son necesarios. 4. Imágenes compartidas de programas y librerias, haciendo un uso más eficiente de la memoria. 5. Recolocación de los programas en memoria de forma completamente transparente. El espacio de direcciones se divide en porciones de 4kBytes llamadas páginas, las cuales forman la unidad básica de todas las transacciones de la memoria virtual. Como la suma total de direcciones de memoria excede a lo que hay en la memoria RAM, solo un grupo de todas las páginas disponibles se guardan en la RAM a la vez. Aún así, un página tiene que estar presente en la RAM para poder acceder a ella ya sea para leer o guardar datos como para ejecutar programas. Como cualquier página puede volver a ponerse en cualquier página física, el kernel tiene que llevar el control de donde estan las páginas usadas. Y además hacer la conversión de direcciones lógicas en direcciones físicas. En el hardware Intel x86, Linux usa dos nivels de paginación (aunque internamete usa tres niveles para mejorar la portabilidad) para reducir la cantidad de memoria usado pora las tablas de paginación. Para convertir una dirección lógica en una física, las tablas se consultan en este orden: Page Global Directory luego la Page Table para conseguir el número de página y el offset de la página. Por eso una dirección lógica se divide en tres partes: Directorio, Tabla y Offset. Como se puede direccionar un espacio de 4GBytes (usando 32 bits) y se usa una página del tamaño de 4kB, los 10 bits más significativos de la dirección apuntan al directorio, los 10 siguientes bits apuntan a la tabla (de ahí que se requiera identificar la página) y los 12 siguientes bits, los menos significativos, nos marcan el offset dentro de la página. 5.2.8. El código El código fuente del kernel está hecho de alrededor de dos millones de líneas de código. Puede parecer muy intimidatorio, pero es importante recordar que muy 55 5 EL SISTEMA OPERATIVO LINUX 5.2 El Kernel poca gente entiende todos los subsitemas y el código asociados a ellos en profundidad. Se puede mejorar la productividad simplemente sabiendo donde buscar el código específico. Paso a comentar qué se puede encontrar en el código fuente y donde va cada cosa. Para empezar es necesario bajarse la última versión del kernel de http://www.kernel.org la versión actual es la 2.14.19. Pero es recomendable visitar la página web, ya que seguro que hay nuevas actualizaciones. (bash)$ wget http://www.kernel.org/pub/linux/kernel/v2.4/linux-2.4.19.tar.gz Tras ello se descomprime y se accede al directorio: (bash)$tar xvzf linux-2.4.19.tar.gz (bash)$cd linux-2.4.19 (bash)$dir direcciones total 248 drwxr-xr-x 18 carlosm grp 4096 Aug -rw-r--r--rw-r--r-drwxr-xr-x 1 carlosm 1 carlosm 28 carlosm grp grp grp 18691 Aug 3 02:39 COPYING 79410 Aug 3 02:39 CREDITS 4096 Feb 25 19:41 Documentation/ drwxr-xr-x drwxr-xr-x 39 carlosm 45 carlosm grp grp 4096 Feb 25 4096 Feb 25 drwxr-xr-x drwxr-xr-x drwxr-xr-x 25 carlosm 2 carlosm 2 carlosm grp grp grp 4096 Aug 3 02:39 include/ 4096 Feb 25 2002 init/ 4096 Dec 21 2001 ipc/ drwxr-xr-x drwxr-xr-x -rw-r--r-- 2 carlosm 2 carlosm 1 carlosm grp grp grp 4096 Feb 25 2002 kernel/ 4096 Nov 22 2001 lib/ 41643 Aug 3 02:39 MAINTAINERS -rw-r--r-drwxr-xr-x 1 carlosm 2 carlosm grp grp 18710 Aug 3 02:39 Makefile 4096 Feb 25 2002 mm/ drwxr-xr-x -rw-r--r--rw-r--r-- 28 carlosm 1 carlosm 1 carlosm grp grp grp 4096 Feb 25 2002 net/ 14239 Aug 3 02:39 README 2815 Apr 6 2001 REPORTING-BUGS 56 3 02:39 arch/ 2002 drivers/ 2002 fs/ 5 EL SISTEMA OPERATIVO LINUX -rw-r--r-drwxr-xr-x 1 carlosm 4 carlosm grp grp 5.2 El Kernel 9291 Aug 4096 Aug 3 02:39 Rules.make 3 02:39 scripts/ Todo este enjambre de ficheros está organizado lógicamente en una estructura de directorios. Documentation: Información sobre plataformas y devices específicos igual que información general sobre el kernel. arch: Código específico para cada arquitectura: i386, sparc, alpha, arm, cris, ia64, mips, mips64, parsic, ppc (PowerPC 32bits), ppc64(PowerPC 64bits), s390, s390x, sparc, sparc64. drivers: Código para cada device específico: tarjeta de sonido, tarjeta ethernet, etc fs: Código para los sistemas de ficheros o ’Filesystems’: ext2, ext3, vfat, etc include: Todos los ficheros de cabecera separado en subdirectorios de acuerdo con el tipo fichero y su función. init: Todo el código asociado con el proceso de arranque e inicialización. IPC: Código de la comunicación entre procesos o Inter Process Communication: implementación de la memoria compartida, etc kernel: El código del núcleo del kernel, la parte más importante de Linux son solo 396KBytes y 31 ficheros: scheduling, señales, printk, fork, softirq, contextos, tiempo, cargador de módulos, etc lib: Librerías relacionadas con el kernel, por ejemplo descompresión de la imagen del kernel, funciones de lock, etc mm: Memory Managment todos los ficheros con el código de trato de memoria. net: Todo el código relacionado con la red. Aquí es donde le meteré mano para crear el firewall. scripts: Scripts relacionados con el kernel, como por ejemplo el patch-kernel. 57 5 EL SISTEMA OPERATIVO LINUX 5.2 El Kernel El mejor lugar para empezar leyendo el código depende de las motivaciones que tenga cada uno, yo por mi parte fui directamente al directorio net, al directorio kernel y al directorio include, el resto de directorios casi no los he visitado, pero claro mi intención es construir un firewall, cada uno tendrá sus motivos. Si por ejemplo, se desea escribir un driver para un hardware que todavía no está soportado, en ese caso se empieza leyendo el código para los drivers más parecidos que ya están implementados. Dicen los hackers del kernel que la mejor forma de introducirse a la programación del kernel es escribiendo drivers, ahí queda eso para los interesados. En cambio si lo que se desea es escribir un nuevo sistema de ficheros la idea es buscar dentro del directorio fs algo que se parezca a lo que queremos implementar. Si en cambio se desea jugar con la programación dentro del kernel haced lo que yo hice que fue probando en la inicialización del sistema, en init/main.c, específicamente en la función start_kernel() o bien ojeando los ficheros que hay en el directorio kernel. 5.2.9. Numeración Si se desea hacer cambios e introducir código en el kernel para contribuir en el desarrollo, es importante entender el ciclo de desarrollo adoptado por la comunidad del kernel de Linux. Paso a comentar el proceso de desarrollo: Series estables Las series estables tienen el número de versión con teóricamente casi ningún bug para ser arreglado o ninguna mejora para hacer. La mayoría de distribuciones usan estas series, y si no se quiere uno aventurar encontrando bugs y fallos es recomendable usar estas releases para trabajar. Las peores series que hay se marcan con una extensión de ’-dontuse’ (don’t use: no usar) en el nombre del fichero. Estas son por ejemplo las 2.0, 2.2.x y las 2.4.x que son números pares y a medida que van saliendo nuevas versiones se va aumentando el número de la serie, ahora las últimas versiones estables para 2.0 es la 2.0.39 para la serie de kernels 2.2 se terminó con la 2.2.22 y ahora mismo (a la hora de escribir este documento) la última versión estable del kernel de Linux es la 2.4.19, la anterior fue la 2.4.18 y la 58 5 EL SISTEMA OPERATIVO LINUX 5.2 El Kernel siguiente a la actual se supone será la 2.4.20, que hasta que salga esta van apareciendo unos prepatchs que muestra las actualizaciones, que se llaman los parches intermedios, que normalmente se le añade ’-pre’ más el número de versión del prepatch. Series inestables Los kernels inestables contienen menos código probado y los cambios entre las series son más grandes. Sirven para provar los nuevos drivers, las mejoras experimentales y los algoritmos más inovadores. La última versión beta del kernel de Linux es la 2.5.38. Generalmente, es muy mala idea ejecutar un kernel inestable en un sistema que está en producción. Lo recomendado es tener un ordenador dedicado para hacer el testing con kernels inestables. Parches intermedios Entre dos releases de kernels estable e inestable, hay varias releases intermedias que intentan testear un pequeño número de cambios a la vez. Estas releases tienen o bien la extensión -preXX o bien la extensión -YYXX, donde XX es el número de la versión incrementada y el YY son las iniciales de quien lo mantiene, por ejemplo -ac12 indica incrementalmente la extensión de Alan Cox. Al parche intermedio actual está numerado como 2.4.20-pre7. 5.2.10. Compilación del núcleo Si se va a modificar el núcleo es necesario luego compilarlo e instalarlo en la máquina. Al hacer el firewall, cada vez que modificaba cualquier cosa también tenía que compilar e instalarlo, así que es una parte importante del proceso. No es necesario compilar el núcleo en la misma máquina en la que va a correr el kernel, yo lo que hago personalmente es que de todas las máquinas que tengo la más rápida es la encargada de hacer la compilación, y luego se pasa la imagen al ordenador. Es recomendable descomprimir el kernel en el directorio /usr/src y tener cada versión en su directorio de forma ordenada. por regla general se pone la versión 59 5 EL SISTEMA OPERATIVO LINUX 5.2 El Kernel actual, la que va a correr en el sistema, en el directorio /usr/src/linux. Pero es solo una recomendación, no es necesario que sea así. En el caso de ser una versión nueva, sin haberse compilado ninguna vez, no es necesario hacer un ’make clean’, para más adelante antes de hacer nada es recomendable hacerselo, así se elimina código compilado que puede molestar. Vayamos a la compilación: Primero descompilar el kernel. tar xvzf lnux-x.y.z.tar.gz El x.y.z corresponde a la versión actual del kernel, que corresponde al fichero bajado. En caso de tener la extensión .bz2 es necesario descomprimirlo primero y luego hacerle un tar mediante la orden siguiente: bz2cat linux-x.y.z.tar.bz2 | tar xvf Después de bajarse la última versión del kernel y descomprimirlo es necesario entrar dentro del mismo directorio y empezar a configurar. Entrar en el directorio que se acaba de descompilar, y ahora es hora de configuar el kernel con todas los módulos, drivers y opciones que queramos o necesitamos incluirle al kernel. Dependiendo de lo que estemos usando se configurará de una manera o de otra. Existe principalmente tres maneras de configurar el kernel: 1. make config 2. make menuconfig 3. make xconfig Cada una de ellas dependiendo de si disponemos X windows o si solo podemos usar un menu basado en texto con la consola. Yo uso preferiblemente las XWindos en mi entorno de trabajo (no en los servidores), así que uso la tercera opción. make xconfig Aparecerá entonces un menú con todas las preguntas que debemos responder, agrupadas por temas. A cada una de las preguntas se debe responder con un ’y’ 60 5 EL SISTEMA OPERATIVO LINUX 5.2 El Kernel o bien con un ’n’, la primera es para aceptar esa parte de código y la segunda para no incluirlo. Puede haber en el caso de los drivers por ejemplo, una tercera opción ’m’ que significa ’module’ y es para compilar el módulo pero no se incluye directamente en el kernel, sino que como un módulo cargable. Es como decir quizás lo uso. Igualmente cada una de las opciones tiene un ’si no entiede lo que quiere decir ponga un ...’ si o no, en cada caso particular. Para hacer este paso es necesario saber unas cuantas cosas del sistema, como por ejemplo que tipo de tarjeta de red disponemos, que tipo de tarjeta de video, y esas cosas, porque sino dificilmente os funcionará por ejemplo la tarjeta de red. Para una información más detallada de cada grupo de opciones leer el Kernel-HOWTO, donde aparece mucho más detallado. Cuando se termina de configurar, se preparará las dependencias en poco tiempo, a menos que su PC sea muy lento. También será necesario hacer un make clean, para borrar todos lo ficheros objeto y otras cosas que las versiones anteriores han dejado, se recomienda hacerlo cada vez que se recompile el kernel. make dep make clean Después de preparar dependencias, puede ejecutar ‘make zImage’ o ‘make zdisk’ (esta es la parte que tarda más tiempo). ‘make zImage’ compilará el núcleo y lo dejará comprimido en arch/i386/boot/zImage junto a otros ficheros. Con ‘make zdisk’ el nuevo núcleo se copiará además en el disquete que esté puesto en la disquetera “A:”. ‘zdisk’ es interesante para probar núcleos; si explota (o simplemente no hace nada) se quita el disquete de la disquetera y podrá arrancar el núcleo antiguo. Además sirve para arrancar si borró accidentalmente el núcleo del disco duro. También puede usarlo para instalar nuevos sistemas simplemente volcando el contenido de un disco en otro. Los núcleos recientes están comprimidos, con una ‘z’ comenzando su nombre. Un núcleo comprimido se descomprime automáticamente al cargarse el sistema. make zImage Existen más makes, por ejemplo con ‘make mrproper’ hará una limpieza mucho más ’intensa’. Esta suele hacer falta cuando se actualiza (parchea) el núcleo. Pero 61 5 EL SISTEMA OPERATIVO LINUX 5.2 El Kernel esta opción borra también su fichero de configuración del núcleo, así que guarde una copia del correspondiente fichero .config si cree que le interesa. La opción ‘make oldconfig’ intentará configurar el núcleo con un fichero de configuración anterior. Aunque a partir del 2.0.xx no es necesario, make recuerda la última configuración. Para evitar todo el proceso del ‘make config’. Si no se ha compilado anteriormente el núcleo o no se tiene un fichero de configuración anterior, no se debe elegir pues se instalará la configuración por defecto. Una vez que tenga un nuevo núcleo que parezca funcionar como desea, será el momento de instalarlo. Casi todo el mundo utiliza LILO (LInux LOader) para esto. Con ’make zlilo’ se instalará el núcleo ejecutando LILO, quedando listo para rearrancar, pero esto solo funcionará si LILO está bien configurado para su sistema: el núcleo es /vmlinuz, LILO está en /sbin y la configuración de LILO (/etc/lilo.conf) es coherente con lo anterior. Pero no es difícil hacerlo paso a paso, además se puede compilar un kernel en un ordenador más potente y luego pasarlo a otro sistema, en tal caso no funciona. El fichero de configuración será como éste: image = /vmlinuz label = Linux root = /dev/hda1 ... La línea ’image =’ apunta al núcleo instalado actualmente. Casi siempre es /vmlinuz. ‘label’ es el identificador usado para seleccionar qué sistema arrancar, y ’root’ es el disco o partición a usar para el directorio raíz. Ahora se copia el fichero zImage, que se ha creado antes, que normalmente está en arch/i386/boot y se llama bzImage. Copiar el fichero este y nombrarlo de alguna manera para reconocerlo y no confundirlo con otras versiones del kernel. Por ejemplo vmlinuz-x.y.z, donde x.y.z es la versión actual del kernel compilado. Copiarlo al directorio /boot, para tenerlo todo bien ordenado. cp arch/386/boot/bzImage /boot/vmlinuz-versionactual Y entrar en el fichero /etc/lilo/config o bien /etc/lilo.conf según la distribución, para la configuración del LILO. 62 5 EL SISTEMA OPERATIVO LINUX 5.2 El Kernel vim /etc/lilo.conf Allí añadir las líneas necesarias para la nueva versión del kernel que acabamos de compilar. Nombrar con el label al nuevo sistema. image = /vmlinuz label = Linux root = /dev/hda1 ... image=/boot/bzImage-versionactual label=miNuevoLinux root=/dev/hda1 # Atencion!! read-only En donde pone /dev/hda1 hay que asegurarse de poner el nombre bien, en este ejemplo tenemos /dev/hda1 que corresponde a la partición primera del primer disco duro. Pero no significa que sea así en todos, en mi disco duro por ejemplo el directorio raiz corresponde a la quinta partición. Por eso en mi sistema tengo /dev/hda5. Pero también podría estar en el disco duro scsi, por lo que sería /dev/sda5. Bueno tener cuidado porque sino pegará una petada increhible. Tras haber incluido estas líneas en el fichero de configuración del LILO, es necesario ejecutarlo para que tenga efecto la nueva configuración. Esto se hace de la siguiente manera: lilo Para arrancar uno de los antiguos núcleos, se copia las líneas anteriores incluyendo ‘image = xxx’ al principio del fichero de configuración de LILO, y se cambia ‘image = xxx’ por ‘image = yyy’ donde ‘yyy’ es el nombre de camino completo al fichero de la copia de seguridad guardada. También es necesario cambiar ‘label = zzz’ por ‘label = linux-backup’ y reejecute LILO. Puede ser que necesite poner una línea en el fichero con ‘delay=x’ donde x son las centésimas de segundo que LILO esperará antes de arrancar con la primera opción, de modo que pueda interrumpirse (con la tecla SHIFT) y seleccionarse qué núcleo desea arrancar (tecleando la etiqueta (label) asignada). 63 5 EL SISTEMA OPERATIVO LINUX 5.2 El Kernel La órdenes make modules; make modules_install compilarán los módulos que hayamos seleccionado, y los instalarán. No olvidar ejecutar depmod -a en cuanto hayamos arrancado con dicho núcleo. En caso de que estemos compilando por segunda vez una misma versión de núcleo, y hayamos variado el número de módulos a compilar, es posible que la ejecutar make dep nos encontremos con un mensaje de error; esto se debe a que los antiguos módulos que no hayamos compilado ahora no son borrados. Pueden borrarse tranquilamente. Y ya está, reiniciar el sistema y escoger la nueva versión en la lista que muestra el lilo. Y lo lógico es que todo funcione correctamente. Pero ¿qué pasa si hay problemas? El principal problema es que no se haya ejecutado el comando lilo. Para esos casos lo mejor que puede hacerse ahora es arrancar con un disquete, preparar otro disquete para arrancar Linux, con ’make zdisk’ se hace uno fácilmente, aunque debíamos haberlo hecho antes si es el mismo sistema con el que compilamos el kernel y el que nos da el problema (mucho cuidado en esos casos, en serio). Necesita saberse qué sistema de ficheros raíz (/) tiene, dónde está y su tipo (por ejemplo, ext2 o minix). También hay que saber dónde están los ficheros de /usr, en otra partición. En nuestro ejemplo, / (el directorio raíz) es /dev/hda1, y el sistema con las fuentes del núcleo es /dev/hda3, montado como /usr normalmente (que es donde tenemos /usr/src que estaba el kernel compilado). Ambos son sistemas ext2. La imagen compilada estará en el sistema de las fuentes. La idea es que si hay un fichero zImage correcto, puede salvarse en un disquete. En primer lugar, arranque con un disquete de instalación o de rescate, y monte el sistema de ficheros que contenga el núcleo a usar: mkdir /mnt mount -t ext3 /dev/hda3 /mnt Tener en cuenta que los sistemas de ficheros con los actuales kernels es el ext3 pero puede ser también un reiserfs o bien un ext2, según el caso. Si mkdir le dice que el directorio ya existe, no hay problema. Ahora, pase al directorio donde está el núcleo compilado. De esta forma tenemos que /mnt + /usr/src/linux/arch/i386/boot /usr = /mnt/src/linux/arch/i386/boot 64 5 EL SISTEMA OPERATIVO LINUX 5.3 Herramientas Ponga un disco con formato en la unidad “A:” (que no sea el disquete con el que ha arrancado) y copie el núcleo a él: cd /mnt/usr/src/linux/arch/i386/boot dd if=zImage of=/dev/fd0 rdev /dev/fd0 /dev/hda1 Vaya a / y desmonte el sistema de ficheros: cd / umount /mnt/usr Ahora puede rearrancar el sistema desde el disquete. ¡No olvides ejecutar LILO! Hay otra alternativa. Si el núcleo está en el directorio raíz (por ejemplo /vmlinuz), puede usarlo para un disquete de arranque. Suponiendo las condiciones anteriores, haríamos los cambios siguientes en el ejemplo anterior: /dev/hda3 por /dev/hda1 (el sistema raíz), /mnt/src/linux por /mnt, y ‘if=zImage’ por ‘if=vmlinuz’. El resto puede ignorarse. Usar LILO con discos grandes (de más de 1024 cilindros) puede dar problemas. Le recomendamos que lea el mini-HOWTO sobre LILO para más información. 5.3. Herramientas Esta sección pretende explicar las herramientas fundamentales para el desarrollo del kernel. Tenemos que son necesarios los editores de texto, programas para desarrollo, para navegar por el código y para debugar. Las herramientas de debugar se explican en el siguiente apartado. 5.3.1. Editores de texto Hay una gran cantidad para escoger editores de texto. Cada uno es partidario de uno, se han hecho debates para saber qué editor es el mejor para trabajar en la programación del kernel. Entre los que está la discusión es entre el editor vim y el emacs. Pues explicaré ambos por encima, aunque yo soy de los partidarios del vim. 65 5 EL SISTEMA OPERATIVO LINUX 5.3 Herramientas vim Como todo sistema UNIX, Linux también tiene el editor vi disponible, y sino el vim (vi-improved que viene a decir el vi-mejorado) con algún contenido extra. Las razones para usar vim en la programación dentro del kernel son: 1. Integra de una forma limpia los ctags. Si se hacen tags en el directorio del código del kernel, se puede acceder rápidamente a las funciones y a las definiciones de las variables usando las teclas Ctr-] mientras el cursor está sobre la función o variable en cuestión. 2. El auto-completado de los nombres de variables y funciones puede ahorrar el tiempo evitando errores de deletreo. Esto es especialmente interesante cuando se programa el kernel ya que la mayoría de nombres son bastante largos. Así que al usar esta herramienta, solo hay que escribir la primera parte de la variable o de la función y apretar Ctrl+P repetidamente mientras va buscando todos los posibles matches. 3. Es rápido de cargarse. 4. Ocupa poco y deja más memora para la recompilación del kernel. 5. Altamente configurable. Entre otras cosas, los comandos que se accionan con las teclas se pueden volver a mapear fácilmente. Es muy útil si se encuentra algún comando que se usa mucho y tiene una combinación de teclas incómoda. 6. Está integrado con el cscope. Para hacer búsquedas rápidas del código. 7. Muchas veces se puede encontrar este fántastico programa en discos de arranque de rescate los llamados ’rescue boot disk’. 8. Los accesos directos del teclado hace que se requiera muy poco movimiento de manos, al menos si no se ha modificado el mapeado. Probablemente la mejor forma de aprender los fundamentos más básicos del vim sea leer el vim-HOWTO que se puede encontrar en http://www.tldp.org/HOWTO/VimHOWTO.html 66 5 EL SISTEMA OPERATIVO LINUX 5.3 Herramientas emacs Como el vi, el emacs está en muchos sistemas y tiene también muchos fans. Las razones para usar emacs en la programación del kernel son varias: 1. Tiene gran cantidad de librerías para mejorar la productividad. 2. Buena integración con los etags. 3. También integra búsquedas con grep y cscope. 4. Integración con gdb, muy útil a la hora de debugar código. 5. Las teclas de uso pueden ser más intuituvas, por ejemplo no es necesario tener que entrar en ningún modo para empezar a escribir inmediatamente en un documento. Y es por eso que es el editor preferido por aquellos que no les gusta hacer las cosas tan formales. Los inconvenientes que tiene son también varios. 1. Se usa mucho la tecla Ctrl. Se recomienda mapear las teclasl Ctrl a otra, como por ejemplo Caps-Lock. 2. Es un gran paquete, no es recomendable para sistemas con espacio limitado en el disco duro. 3. Tarda más en cargarse en sistemas más modestos. 4. Necesita más memoria, así que deja menos memoria a la hora de recompilar el kernel. 5. Dicen que los etags son inestables y que les dan core dumpeds muy frecuentemente. La mejor manera de trabajar con el emacs es trabajando con el tutorial, el cual puede accederse accediendo al emacs y apretando las teclas Ctr+h y luego t. 67 5 EL SISTEMA OPERATIVO LINUX 5.3 Herramientas 5.3.2. Herramientas de desarrollo make El programa make es fundamental y básico. Es el que se usa para determinar qué partes de un proyecto con muchos ficheros código fuente necesitan ser reconstruidos. Solo aquellos ficheros de código que hayan sido modificados serán reconstruidos antes del final de la fase lincaje. Esta propiedad es una gran mejora para el programador del kernel, porque una vez el kernel está construido recompilarlo para incluir los cambios tarda muchísimo menos que si tuviera que hacerlo todo. El make trabaja con un fichero makefile, es un fichero que contiene todas las relaciones y dependencias entre ficheros fuente, entre junto con los comandos necesarios para construirlos y compilarlos. En cada directorio del kernel se encuentra un fichero makefile, incluyendo el fichero raíz. Cuando se invoca el comando ’make dep’ o ’make bzImage’ o bien el ’make modules’, make opera desde el nivel más alto y trabaja recursivamente con todos los ficheros makefile de cada uno de los subdirectorios, dependiendo de las opciones con que se incluyeron en el paso de configuración. lclint Algunos errores de programas se pueden resolver al principio del ciclo de desarrollo, ahorrando tiempo y esfuerzo. Puede que no importe este tipo de programas cuando se analiza código normal, con programas de menor envergadura, pero los bugs en el kernel son más difíciles de tratar y pueden hacer aparecer problemas muy serios. Además mientras un usuario, está más o menos acostumbrado a que se pare o haga core dumps un cliente de correo por ejemplo, pero lo que no está acostumbrado y no puede acostumbrarse es a que el sistema operativo se congele o peor aún que pierda datos. lclint es un programa que puede ser usado para checkear el código C de manera estática, que significa hacer checks o comprobaciones antes que se haya compilado o ejecutado. Como lint, lclint puede ser ejecutado para recoger errores comunes de C. Sin embargo, lcint puede hacer mucho más para ti, pero para ello hay que aprender a como usarlo anotando en el código comentarios de una manera espe- 68 5 EL SISTEMA OPERATIVO LINUX 5.3 Herramientas cífica. En resumen, lclint puede dar facilidad a la hora de comprobar errores antes de pasar el compilador. Para averiguar más información buscar en la página http://lclint.cs.virginia.edu/. 5.3.3. Navegación Una de las actividades que más se hace cuando se empieza a programar con el kernel es navegar arriba y abajo por todo el código, al menos hasta que uno se familiariza con la gran cantidad de código fuente. Hay herramientas que facilitan esta navegación. grep grep se usa para encontrar líneas que concuerden con un patron dado. Es una herramienta muy útil para localizar de una forma rápida definiciones de variables o de funciones. Por ejemplo queremos buscar todas los ficheros que contengan la palabra sk_buff, para averiguar la estructura de datos que se guarda en los buffers sk. Pues se ejecuta el comando siguiente: grep -nH ’sk_buff’ -r * > fichero_salida_grep Este comando busca recursivamente (-r) por todos los ficheros y directorios (*) del árbol de código e imprime todos los los nombre de ficheros (-H) y el número de línea (-n) donde aparece sk_buff, el resultado de la búsqueda es recomendable volcarlo a un fichero para luego poder navegarlo. El resultado de la búsqueda anterior es muy larga, debido a que es una estructura de los datos que recibimos por las tarjetas de red y cada driver tiene una, además de ser la estructura dentro del kernel de los datos que se reciben. Aún así aquí pongo el resultado de unas cuantas líneas: net/bluetooth/hci_core.c:1028:int hci_send_acl(struct hci_conn *conn, struct sk_buff *skb, __u16 flags) net/bluetooth/hci_core.c:1031: struct sk_buff *list; 69 5 EL SISTEMA OPERATIVO LINUX 5.3 Herramientas net/bluetooth/hci_core.c:1074:int hci_send_sco(struct hci_conn *conn, struct sk_buff *skb) net/bluetooth/hci_core.c:1140: struct sk_buff *skb; net/bluetooth/hci_core.c:1168: struct sk_buff *skb; cscope cscope permite navegar por por el código de forma parecida a como lo hace grep, pero es más inteligente y provee una interfaz mucho más bonita para trabajar. Se puede buscar por definiciones, usos, strings, etc Antes de poder usar cscope se necesita construir un fichero índice. Puede hacerse con el comando cscope -b -R -k En el directorio raíz de la aplicación. -b para construir el índice, -R para buscar recusrivamente a través del árbol de directorios y -k para indicar que estamos usando el kernel para navegar, esto asegura que se incluye los ficheros de forma correcta al generar el índice. Darse cuenta que el índice debería construirse a partir de un árbol limpio y recién descomprimido, así que es recomendable guardar una copia del fichero .config y ejecutar un ’make mrproper’ en el directorio raíz del código fuente. Para empezar a trabajar con una sesión cscope, usar el comando cscope -d con lo que se consigue entrar en un menú parecido a este: Cscope version 15.3 Press the ? key for help Find this C symbol: Find this global definition: Find functions called by this function: 70 5 EL SISTEMA OPERATIVO LINUX 5.3 Herramientas Find functions calling this function: Find this text string: Change this text string: Find this egrep pattern: Find this file: Find files #including this file Arriba de la pantalla se usa para mostrar los resultados de las búsquedas, mientras que la torre de abajo se usa para insertar comandos; Por ejemplo, suponiendo que se quiere encontrar la definición de la estructura de datos _system_type. Usando las teclas con las flechas se mueve el cursor para encontrar esta definición global en ’Find this global definition’: escribir la estructura de datos que queremos buscar. Si todo funciona correctamente cscope abre el editor configurado, usando la variable de entorno EDITOR, y se mostrará la seción apropiada del fichero en cuestión. Por ejemplo queremos encontrar la definición de super_block. Siguiendo los pasos comentados antes veríamos la siguiente salida por pantalla: Global definition: super_block File Line 0 vxfs_extern.h 44 struct super_block; 1 super.c 265 int (*test)(struct super_block *, 2 udfdecl.h 3 fs.h 4 fs.h 5 udf_fs_sb.h struct buffer_head *); 52 struct super_block; 688 struct super_block 936 struct super_block *(*read_super) (struct super_block *, void *, int ); 71 __u32 (*s_partition_func)(struct super_block *, __u32, __u16, __u32); Find this C symbol: Find this global definition: Find functions called by this function: Find functions calling this function: Find this text string: 71 5 EL SISTEMA OPERATIVO LINUX 5.3 Herramientas Change this text string: Find this egrep pattern: Find this file: Find files #including this file: Esta vez, cscope ha encontrado más de una definición posible. Así que se verá la lista de cada una de las definiciones en su contexto y apretando uno de los números que se mestran en la lista, o bien usando la tecla Tabulador para moverse de uno a otro por la pantalla y con las teclas de dirección seleccionar una definición. Al salir del editor se vuelve al cscope. Apretando otra vez el Tabulador podemos retornar al área de comandos. Para salir del cscope apretar un simple Ctrl+d. La documentación para el cscope está disponible en la red en la página del cscope: http://cscope.sourceforge.net/ 5.3.4. Manipuladores diff Diff es un programa que se usa para comparar dos ficheros y luego listar las diferencias entre ellos. Cuando se usa en modo unified, con la opción -u, para comparar dos ficheros, el original y el modificado, y así se crean los parches o patchs: diff -u linux-2.4.19/drivers/char/keyboard.c linux/drivers/char/keyboard.c > Donde el directorio linux-2.4.19 está el original, y en el árbol del directorio linux tenemos todos los cambios que se van haciendo. La idea de distribuir solo ideas y modificaciones es mucho más inteligente y a la vez eficiente que distribuir ficheros enteros o árboles de directorios con código fuente. El proceso anterior se puede usar cuando tenemos solo un fichero modificado, pero que pasa si tenemos muchos ficheros modificados y queremos producir un patch. Pues es lo mismo pero ahora hay que cambiar las opcciones del programa diff: diff -urN linux-2.4.19 linux > my_hefty_kernel_patch 72 5 EL SISTEMA OPERATIVO LINUX 5.3 Herramientas Darse cuenta que generalmente se usa el direcotrio raíz para generar patches por ejemplo si se tiene el kernel descomprimido en /usr/src se tiene el directorio modificado en el /usr/src/linux y el limpio, sin modificaciones, en /usr/src/linux-2.4.19. Si se quiere generar un patch y enviarlo a la liasta de distribución del kernel de linux la Linux Kernel Mailing List, hay que asergurarse de seguir las instrucciones correctamente y exactamente como dicen en el FAQ que puede encontrarse en http://www.tux.org/lkml/. patch patch es un programa que se usa para aplicar parches, producidas por el programa diff, a un fichero o a un directorio de código fuente. es necesario entrar por ejemplo, si se va a pasar del kernel linux-2.4.18 al linux-2.4.19 habría que hacer los siguiente: cd linux-2.4.18 patch -p1 patch-2.4.19 Esto produce un upgrade o mejora del directorio 2.4.18 al 2.4.19. La opción -p1 se usa en el directorio raíz de todos los nombres de ficheros que indica en el patch. Se podría aplicar el parche desde un directorio más abajo, pero eso significa que se debería tner todos los directorios nombrados de la misma manera que en el ordenador donde se creó el patch o parche. Algunos parches se distribuyen en ficheros comprimidos para ahorrar ancho de banda. Se puede ahorrar fichero de descompresión del patch si se aplica de la siguiente manera: bzip2 -dc /usr/src/patch-2.4.19.bz2 | patch -p1 Reemplazar bzip2 por tar o gzip según se creó el fichero. Una script que está incluido en el directorio del código fuente del kernel que es muy útil, se usa para generer de manera semi automática el proceso de upgrade del directorio aplicando sucesivos parches: linux/scripts/patch-kernel. Leer el script para ver qué es lo que hace y cómo se usa, las instrucciones están puestas entre los comentarios al principio del fichero. En el caso de querer quitar un parche que se aplicado con anterioridad es necesario escribir la siguiente orden, con la orden de -R (remove): 73 5 EL SISTEMA OPERATIVO LINUX 5.3 Herramientas bzip2 -dc /usr/src/patch-2.4.19.bz2 | patch -R -p1 5.3.5. Control de versiones RCS Cualquier desarrollo del trabajo es un proceso incremental, particularmente si se está en la fase de debugación. Siempre se inenta mantener de todos los cambios hechos en el proceso suando alguna forma de control de revisiones, así si hubiera un cambio erroneo se podría volver al rebés facilmente. Una forma muy básica de revisión de control del sistema puede hacerse simplemente haciendo una copia backup de un fichero antes de hacer cambios importantes, pero esta aproximación tiende a ser muy ineficiente rápidamente, sobre todo en el caso de estar modificando varios ficheros a la vez. Las soluciones son varias, entre ellas tenemos RCS y CVS. El primero de ellos el RCS es el hermano pequeño de CVS. CVS en cambio es genial para proyectos grandes con muchos contribuidores y programadores, pero es demasiado trabajo para proyectos pequeños donde solo hay un programador o unos pocos. Por eso una de las ventajas que tiene RCS es la simplicidad. Primero se debe crear un directorio llamado RCS en el mismo directorio que donde están los ficheros de código fuente. mkdir RCS Luego introducir o como dicen los ingleses hacer el ’check in’ del fichero, por ejemplo para el fichero ’some-file.c’ hacer: ci -u some-file.c Tras ello se pedirá insertar una breve descripción. Por defecto, RCS borra el fichero de trabajo al hacer el check in, así que es interesante poner la opción -u para comprobar automáticamente si existe un fichero igual, y no borrarlo automáticamente. Es recomendable hacerlo así con todos los ficheros que se introduzcan. Hacer algunos cambios en uno de los ficheros que se hayan introducido. Luego intentar hacer el check in del fichero en cuestión, se mostrará un lista de cambios y el número de versión se verá incrementado. 74 5 EL SISTEMA OPERATIVO LINUX 5.3 Herramientas Suponer que se ha hecho unos cambios erroneos y se quiere volver hacia atrás, y revertir a una versión buena que sabíamos que funcionaba correctamente, por ejemplo la versión 1.4, entonces hacer el check out del fichero usando este comando: co -l -r1.4 some-file.c La opción -l hace un lock del fichero y te da permisos de escritura para modificarlo, sino solo se tiene permisos de lectura. RCS guarda el fichero inicial y solo las diferencias que existe entre versiones, ahorrando espacio de disco. Para saber más información sobre RCS, ver las páginas man de: rcs, ci, co, rcsintro, rcsdiff, rcsclean, rcsmerge, rlog, rcsfile y el ident. La página web donde se puede bajar el software de forma gratuita y donde se encuentran el tutorial está en http://www.gnu.org/software/rcs/rcs.html. CVS Mientras que el RCS es bueno para proyectos donde se usa un pequeño número de ficheros, pero se convierte inútil para ficheros más grandes donde hay un gran número de contribuidores donde haya más de un desarrollador. CVS es particularmente la mejor idea, además es el programa más usado en la comunidad de Internet, donde casi todos los proyectos, incluido el del kernel, se llevan usando CVS. CVS tiene muchos comandos que están incluidos en el propio cvs, estos se llaman sub-comandos del cvs. Ambos a los comandos cvs y a los subcomandos se les puede pasar opciones, pero la posición dentro de la línea de comandos debería ser así: $ cvs [cvs options] sub-command [sub-command options] Aquí paso una breve lista de los subcomandos disponibles: add: este comando añade un nuevo fichero al control de código. Es necesario hacer un check in del fichero suando cvs ci después de este comando ara que tenga efecto el cambio. 75 5 EL SISTEMA OPERATIVO LINUX 5.3 Herramientas ci o bien commit: ci que significa check in tiene la misma función que commit, estos comandos harán el check in de los cambios que se hayan hecho a la copia local de un fichero en cuestión. Después de introducir este comando, cualquier update o check out del fichero que está en el repostorio se verán los cambios que has hecho con el ci. Se puede especificar con la opción -m ’mensaje’ la opción de proveer un mensaje describiendo el cambio. Cuando se introducen (check in) los cambios y la copia local de los ficheros no son actualizados, cvs mostrará un mensaje informándote de esto mismo. En este caso, hay que hacer un update de los ficheros y entonces hacer un check in con los cambios. Para comprobar los cambios in todos los ficheros modificados en el directorio de trabajo, hay que ejecutar el siguiente comando desde desde la raíz del directorio de trabajo: cvs -q ci -m ’mensaje bla bla bla’ co o bien checkout: Este comando hace una copia local de todos los ficheros en un módulo que están en el servidor cvs. Primero, creará un subdirectorio con el mismo nombre que el módulo, entonces copiará los ficheros al subdirectorio. diff: Este comando mostrará las diferencias entre la copia local y el fichero que nos hemos bajado anteriormente del repositorio. Antes he hablado de como usar este comando. history: Este comando printa la información sobre el repositorio cvs. Por defecto, este comando solo muestra información que te pertenece a ti. Si se usa la opción -a (all) mostrará la información de todos los usuarios. La siguiente línea es útil para ver los cambios históricos. cvs history -a -o # Show checked out files$ cvs history -a -T # Show all tags$ cvs history -a -e # Show all information import: Este comando podrá un proyecto existente dentro del repositorio. 76 5 EL SISTEMA OPERATIVO LINUX 5.3 Herramientas cvs import -m "blah blah ..." directory vendorTag releaseTag log: Este comando printará los mensajes que se especificaroon en cada uno de los ficheros que se introdujeron (check in). remove: Este comando borrará un fichero del control de código. Si tras hacer esto se hace un check out de un módulo, no se encontrará copia de este fichero. Aún así, si hacen un check out de una versión anterior del módulo, se podrá recuperar esa versión anterior de ese fichero. tag: Para hacerles un tag a los ficheros en el directorio de trabajo actual, se debe ejecutar la siguiente línea de comandos cvs -q tag NombreDelTag update: Este comando hará un update de la copia local de los ficheros de un módulo. Para cualqier fichero que se le haga el update, se printa el nombre prededido con una ’U’. Así se permite imprimir los nombres de los ficheros que se han modificado. Por ejemplo, aquellos que son diferente de la copia del repositorio y entonces preceden con una ’M’. Para listar los documentos que se han modificado dentro del directorio de trabajo actual, se debe ejecutar la siguiente orden desde la raíz del directorio de trabajo: cvs -q update El repositorio de cvs se debe especificar usando la opción -d en el comando cvs o también se puede hacer con la variable de entorno CVSROOT. Por ejemplo de la primera forma sería: cvs -d pathName login Y de la segunda manera se escribiría: export CVSROOT=pathName$ cvs login 77 5 EL SISTEMA OPERATIVO LINUX 5.3 Herramientas En el caso que el repositorio estuviera en el mismo sistema, la opción es muy simple y solo habría que escribir el path al repositorio, por ejemplo /usr/src/cvs, y se haría de la siguiente manera: export CVSROOT=/usr/local/cvs Pero en el caso que el repositorio esté en otro sistema, que es lo más normal, y lo que sucede con el kernel de Linux, en la especificación del repositorio debe incluirse el método de acceso, el nombre del usuario y el nombre del servidor donde está localizado el repositorio. Cada uno de estos items, el método de acceso, el nombre del usuario y el nombre del servidor, y el path del repositorio en el servidor, deben estar separados por dos puntos. Y entre el nombre de usuario y el del servidor debe ir una arroba ’@’. Se hace de la siguiente manera: export CVSROOT=:accessMethod:userName@serverName:pathName Por ejemplo para Linux Top of Tree, versión 2.4, debemos usar el siguiente comando. Este respositorio es una copia (mirror) que se actualiza cada 30 minutos. export CVSROOT=:pserver:[email protected]:/vger$ cvs loginPassword: cvs$ cd some-directory # Por ejemplo, /usr/local/src$ cvs -z3 co linux Y para hacer un update del código fuente hay que usar la siguiente orden: cd some-directory/linux$ cvs -z3 update -d Esta es solo una presentación del CVS, que es muy extenso, para más información dirigirse a la página oficial del proyecto CVS: http://www.cvshome.org/ Y aquí termina la selección de aplicaciones para poder trabajar dentro del kernel. 78 5 EL SISTEMA OPERATIVO LINUX 5.4 Netfilter en los kernels 2.4 5.4. Netfilter en los kernels 2.4 Como ya comenté un firewall está integrado dentro del sistema operativo. La cuestión es que a la hora de diseñar el actual sistema de filtrado de paquetes, el Netfilter, Rusty Russell compaginaba su trabajo con Alan Cox. Los dos se mantenían en contacto para realizar el nuevo sistema que hay en los kernels 2.4. Este trabajo conjunto hace que el sistema de captura de paquetes comentado antes y el sistema Netfilter estén muy relacionados. Es por eso que el proyecto se verá influenciado por este sistema, ya que hay unos puntos concretos por donde se asegura que pasan todos los sk_buffs de entrada. Y es esa razón la que hace que sea importante entender correctamente como funciona este sistema y luego decidir donde insertar las funciones que se encargan de capturar los datos guardados en estructuras sk_buff para hacerles luego el filtrado. El sistema actual de filtrado de paquetes pone 5 tipos diferentes de hooks o ganchos: PRE_ROUTING ROUTE IP_POST_ROUTING IP_FORWARD ROUTE IP_LOCAL_IN IP_LOCAL_OUT Usuario Hooks del sistema anterior A la izquierda es donde los paquetes llegan, tras pasar por unos chequeos de sanidad (no truncado, IP checksum correcto, no se ha recivido en modo promiscuo, etc), se pasan a uno de los hooks de netfitler el gancho de NF_IP_PRE_ROUTING. Luego los datos entran en el código de routing, donde se decide a dónde se envía los paquetes, si se destina a otra interfaz o si es para un proceso local. El código de routing puede eliminar aquellos paquetes que no tengan una ruta disponible. Si se destina para el ordenador en sí, se le llama a la función del netfilter y se marca como que ha entrado por el hook NF_IP_LOCAL_IN. Si se destina a pasar a otra interfaz entonces entrará dentro del netfilter y se le marcará como que ha entrado 79 5 EL SISTEMA OPERATIVO LINUX 5.4 Netfilter en los kernels 2.4 por el tercer hook, el NF_IP_FORWARD. Entonces el hook del netfilter pasa por el cuarto hook, el NF_IP_POST_ROUTING antes de pasarse a la tarjeta de red donde se enviará al cable. Existe todavía un quinto hook, el NF_IP_LOCAL_OUT los datos pasan por aquí si se han creado localmente. Esta es la forma que tiene el actual sistema para capturar los paquetes, pero ¿es el mismo sistema que quiero utilizar yo? pues no, es lógico que este influenciado, todos los firewalls trabajan de una forma parecida, pero tiene inconvenientes y también sus ventajas. 5.4.1. Ventajas La principal característica es que tiene 5 hooks, cuando antes en los kernels 2.2 solo tenía 3 hooks. Bueno entonces ellos (Rusty Russell principalmente) habrán creido que es mejor. Y es que de esta forma se controla perfectamente a un paquete. En los firewalls anteriores se filtraba al paquete tanto cuando llega, como cuando pasa por el forward y cuando salía. Ahora además se controla cuando los paquetes van dirigidos a algún programa del sistema o cuando lo ha generado alguien del sistema. Eso añade control y hace que se puede poner políticas de seguridad para controlar caballos de troya o rootkits que se puedan instalar dentro del sistema. Es una mejora sustancial respecto a los antiguos kernels. Pero esta mejora de control se puede plantear también como un problema. Y es una de las razones por las que me propuse hacer este firewall. 5.4.2. Inconvenientes El principal inconveniente es que un paquete pasa por muchos hooks, pasa muchas veces por todas las políticas del firewall y cada vez que se pasa por un hook se comprueba para cada una de las políticas y las sesiones abiertas si cumple o no, si se elimina el paquete o no. La intención es tener un control completo de los paquetes que pasan por el sistema, y esa es la mayor ventaja, pero se pierde en tiempo, que un paquete pase por tres filtros o incluso si se inserta un firewall proxy puede llegar a pasar por cuatro filtros tiene un coste en tiempo. Rusty Russell insertó la idea de hacer una cache para los paquetes, y dentro de la estructura sk_buff se ha añadido nuevos datos, como puede leerse en include/linux/skbuff.h: 80 5 EL SISTEMA OPERATIVO LINUX 5.4 Netfilter en los kernels 2.4 struct sk_buff { ... ... #ifdef CONFIG_NETFILTER /* Can be used for communication between hooks. */ unsigned long /* Cache info */ nfmark; __u32 nfcache; /* Associated connection, if any */ struct nf_ct_info *nfct; #ifdef CONFIG_NETFILTER_DEBUG unsigned int nf_debug; #endif #endif /*CONFIG_NETFILTER*/ ... } Donde añade una cache para cada paquete, y así, cuando se pasa por un filtro se marca que cosas se ha hecho en la cache y luego en los otros filtros no vuelve a hacer los mismos chequeos. Es contradictorio poner tantos filtros para luego tener que montar un sistema por encima para saltárselos. Otro inconveniente de este sistema es que es una topología está pensada para hacer funciones de firewall y a la vez de servidor. Hay tres encargados de mirar el filtrado de paquetes para los que llegan, para los que pasan por el router y para los que se van. Y hay los otros dos hooks que nos sirve para controlar si hay troyanos. La idea está bien, pero un firewall tiene que ser solo eso, un firewall, no se le debe poner ningún servicio en él, tiene que ser unordenador bastión y el único servicio que debe tener es el de SSH para hacer conexiones remotamente y poder administrarlo. Sin servicios en el firewall, no es necesario montar los dos hooks restantes para controlar los troyanos. Por definición un firewall tiene que ser un equipo rápido y con pocos o ningún servicio disponible. 81 5 EL SISTEMA OPERATIVO LINUX 5.5 Viaje de un paquete 5.5. Viaje de un paquete 5.5.1. Introducción Tras hacer las respectivas pruebas, tras compilar el kernel, insertadar pequeños programas dentro del kernel, después de debugar para ver como funciona el proceso de debugar y de tener los esquemas de como funcionará el firewall. Es la hora de averiguar donde se debe poner el filtrado de paquetes dentro del kernel. La documentación [WS1] habla de unos ficheros ip_input.c donde trata los paquetes IP de entrada, un ip_forward.c donde se hace el forward de una interfaz de entrada a otra de salida y del fichero ip_output.c que se encarga de tratar todos los paquetes que salen del ordenador. En dicha documentación [WS1] aparece como se trata la información y los datos. Pero en el libro de Stevens se trata un sistema Unix, que teóricamente debe ser igual en un sistema Linux. Se trata de averiguar como viaja un paquete cualquiera por el sistema operativo, y allá donde se crea que es mejor insertar el firewall. Y la idea es coger el paquete y pasarlo compararlo con las políticas de seguridad. Que es un paquete bueno, pues se deja donde estaba y que continue su viaje por la capa OSI del sistema operativo. Que es malo, entonces se borra, dar cuenta de ello al sistema operativo y hacer un log si el usuario lo cree conveniente. 5.5.2. Tarjeta de red La tarjeta ethernet es un dispositivo hardware del nivel 1 y 2 de la capa OSI, es una tarjeta con sus chips, circuitos y microcontroladores. Esta tiene una dirección particular, que siempre es diferente para cada una de las tarjetas de red que hay en el mundo. Esta dirección es la MAC. La tarjeta está siempre escuchando los paquetes que pasan por su interfaz, cuando ve un paquete cuya dirección MAC corresponde a la suya propia, o bien un paquete con una dirección de broadcast (FF:FF:FF:FF:FF:FF para las Ethernet) entonces empieza a leer los datos y los carga en su memoria. Cuando termina de leer todo el paquete, la tarjeta genera una petición de interrupción. La rutina que se encarga de servir la interrupción y que trata la petición es parte del driver de la tarjeta, que es parte del sistema operativo en sí, el cual 82 5 EL SISTEMA OPERATIVO LINUX 5.5 Viaje de un paquete ejecuta con las interrupciones deshabilitadas las siguientes operaciones: 1. Crear una nueva estructura sk_buff, dedinida en el fichero include/linux/skbuff.h, la cual representa la visión que tiene el sistema operativo de un paquete. 2. Vuelca los datos de información del buffer de la tarjeta de red en la nueva estructura creada sk_buff, algunos drivers usando la DMA. 3. Llama a la función netif_rx(), que es la función que se encarga de recibir los datos de la tarjeta de red. 4. Al terminar la función netif_rx(), el sistema operativo vuelve a activar las interrupciones y termina el servicio de interrupción. La función netif_rx() prepara el kernel para el siguiente paso de la recepción. Pone la información del sk_buff dentro de lo cola de paquetes de entrada para que la CPU pueda tratarlo y marca la NET_RX softirq (que es una interrupción por software que luego hablaré de ellas) para que pueda ser tratada, y esto se hace mediante la llamada a la función __cpu_raise_softirq( ), definida dentro del fichero include/linux/interrupt.h. En el caso de que la cola este llena de paquetes este último paquete se descarta y se pierde. Luego si tenemos una cola para cada CPU, ambos procesadores pueden procesar los datos (es una de las mejoras del nuevo kernel al añadir softirqs) lo que hace que la recepción de paquetes sea concurrente en máquinas Multiprocesador. Si se desea ver un driver de una Ethernet en acción, se puede mirar algún driver sencillo como por ejemplo en el fichero drivers/net/8390.c. La rutina de servico que trata la interrupción se llama ei_interrupt( ), y llama a la función ei_recive( ), la cual hace lo siguiente: 1. Crea una nueva estructura sk_buff mediante la función dev_alloc_skb( ). Y vuelca los datos con la función skb_put( skb, pkt_len). 2. Lee el paquete del buffer de la tarjeta con la función ei_block_input( ) y señaliza el protocolo con skb->protocol= eth_type_trans(skb,dev) 3. Llama a la función netif_rx( ) comentada antes. 83 5 EL SISTEMA OPERATIVO LINUX 5.5 Viaje de un paquete 4. Y vuelca todos los datos, según el contador rx_pkt_count vuelca diez paquetes consecutivamente. Se puede hechar una ojeada a otros ejemplos mucho más complejos como pueden ser los driver de cualquier tarjeta 3COM, por ejemplo los ficheros 3c59x.c, donde usa transferencia por DMA para mover el paquete desde la memoria de la tarjeta al sk_buff. 5.5.3. Proceso de red La función netif_rx( ) es muy importante, se encarga de recibir los paquetes de una tarjeta de red mediante el driver y en cola para que pueda ser tratado por niveles superiores de la capa OSI dentro del sistema operativo. Actúa de puente para todos los paquetes que se recogen entre los diferentes drivers de todas las tarjetas de red, y haciendo de entrada a los protocolos. Al estar esta función en un contexto de interrupción tiene que ser rápida y corta. No puede hacer ningún chequeo del tamaño o cualquier otra compleja función, ya que el sistema está potencialmente perdiendo paquetes mientras se está ejecutando el netif_rx( ). Así lo que hace la función es basicamente seleccionar la cola del paquete de un array llamando a softnet_data, el índice del cual se basa en la CPU donde se está ejecutando. Enconces luego comprueba el estado de la cola, identificando uno de los cinco posibles estados de congestión: NET_RX_SUCCESS (sin congestión), NET_RX_CN_LOW, NET_RX_CN_MOD, NET_RX_CN_HIGH (baja, moderada y alta congestión, respectivamente) o bien NET_RX_DROP (el packet se pierde debido a una congestión crítica). Es un proceso para defenderse de los ataques DoS, donde una sobrecarga de los paquetes puede llegar a cargar el kernel de tal manera que no funcione. Aunque bajo condiciones normales, el paqute se inserta en la cola (__skb_queue_tail( )) y la función __cpu_raise_softirq( ) se llama. La última función hace que se ejecute el softirq. Cuando la función netif_rx( ) termina, retornando un valor que indica la congestión actual al driver. En este punto, el contexto de la interrupción ha terminado y el paquete está listo para ser enviado a los protocolos superiores. Este proceso ha cambiado completamente en la versión del kernel 2.4 donde se basan los softirqs, 84 5 EL SISTEMA OPERATIVO LINUX 5.5 Viaje de un paquete antes cuando los kernels eran de versión 2.2 se basaba en la mitad inferior (donde no se podía trabajar en paralelo) 5.5.4. Softirq para NET_RX Tras recibir el paquete se inserta en una cola para ser procesado posteriormente. Este proceso se hace llamando a la función net_rx_action( ). Esta función desempila el primer paquete (Sk_buff) de la cola actual de la CPU y ejectua a través de dos listas de funciones para su proceso según el protocolo. Estas listas se llaman ptype_all y ptype_base y contienen respectivamente, los handlers del protocolo para para paquetes genéricos y para paquetes de tipo específico. Los ’protocol handlers’ se registran ellos mismos, o bien al iniciarse el kernel o bien cuando un tipo de socket es creado, declarando qué tipo de protocolo pueden tratar. Para hacer esto se llama a la función dev_add_pack( ) dentro del fichero net/core/dev.c, el cual añade una estructura de tipo del paquete (include/linux/netdevice.h) conteniendo un puntero a la función será llamada cuando un paquete de ese tipo se reciba. Tras el registro, cada estructura de un handler se pone o bien en la lista ptype_all, para el tipo ETH_P_ALL, o bien en la lista ptype_base para otros tipos ETH_P_*. Así lo que hace la softirq par la NET_RX es llamar a la secuencia de funciones registradas en las dos listas para tratar al paquete que es de un tipo de protocolo específico. Si la cola contiene más de un paquete, la función net_rx_action( ) hace un bucle para poder tratar el máximo número de paquetes que hayan sido procesados. Cuando la función net_rx_action( ) termina y deja una cola no vacía, la NET_RX_SOFTIRQ se activa otra vez para permitir el proceso de los paquetes para más tarde. 5.5.5. Tratar los paquetes IP Este proyecto solo se encarga de paquetes IP versión 4, en el caso de que se hiciese para otro protocolo, como por ejemplo IPv6 se debería buscar otro tipo de handler. Para IPv4 la función se llama ip_rcv( ) y se encuentra en el fichero net/ipv4/ip_input.c, este es apuntada a las listas antes comentadas cuando se arranca el sistema, mediante la función ip_init( ), dentro de net/ipv4/ip_output.c. 85 5 EL SISTEMA OPERATIVO LINUX 5.5 Viaje de un paquete Obviamente, como era de esperar el tipo de protocolo registrado para IP es el ETH_P_IP. tcp_input.c igmp.c udp.c sk_buff ip_input.c tcp_output.c sk_buff sk_buff ip_output.c sk_buff sk_buff Driver Tarjeta de red Se trata mediante netif_rx Cable de Red Por eso, ip_rcv( ) se llama dentro de net_rx_action( ) durante el proceso de un softirq, cuando un paquete del tipo ETH_P_IP se desempila. Esta función se encarga de hacer los chequeos iniciales al paquete IP, los cuales tratan de verificar la integridad del mismo: IP checksum y tamaño de la cabecera. Si el paquete parece correcto, se llama a la función ip_rcv_finish( ). Es aquí mismo donde se introducirá la función de cualquier firewall. Hay que asegurarse de no compilar el Netfilter cuando se compile el kernel con mi programa, sino se cae en el error de tener dos filtrados de paquetes. La función ip_rcv_finish( ), que se encuentra dentro de ip_input.c, se encarga de hacer el rutado de IP. Se encarga de comprobar si el paquete debe ser retransmitido a otra máquina o si el destino es el host actual. Es aquí donde habría que incluir los procesos de routing. Si se envía a otra máquina se envía a la interfaz correspondiente, y si el destino final es la propia máquina se envía a los protocolos superiores. Todo esto se hace en la función ip_route_input( ), llamada al principio de ip_rcv_finish( ), la cual determina cual es el siguiente paso. Si el destino es la propia máquina, entonces se llama a la función ip_locl_deliver( ). Esta función se encarga de reensamblar los diferentes paquetes IP, en el caso que el datagrama esté fragmentado, y entonces llama a la función ip_local_deliver_finish( ). 86 5 EL SISTEMA OPERATIVO LINUX 5.5 Viaje de un paquete Si el destino es otra máquina el proceso entonces se envía a la función net/ipv4/ip_output.c que será donde se pase el chequeo de todos los paquetes que salgan del ordenador. Para diferenciar las dos llamadas a cada una de las funciones se le pasará si es de entrada o de salida. Dependiendo de donde se llame, si es desde ip_input.c se le marcará al paquete como de entrada, que se llama desde ip_output.c es de salida. Se puede profundizar más dentro de los protocolos del siguiente nivel (TCP, UDP e ICMP) pero el proyecto no trata los paquetes a tan alto nivel. Como se explicó en las secciones de teoría de filtrado de paquetes. 87 6 ESTUDIO DEL DISEÑO ( UML) 6. Estudio del Diseño ( UML) 6.1. Introducción al UML 6.1.1. Historia El "Unified Modelling Languaje" (UML) provee a los analistas y arquitectos de sistemas que trabajan en el diseño y análisis de objetos de un lenguaje consistente para especificar, visualizar, construir y documentar los artefactos de un sistema de software, así también es útil para hacer modelos de negocios. Esta especificación es la evolución del las tres anteriores tecnologías orientadas a objetos lideres (Booch, OMT y OOSE). El UML es la unión de estos lenguajes de modelos y aún mas ya que incluye expresiones adicionales para manejar problemas de modelaje que los métodos anteriores no cubrían plenamente. El desarrollo de el UML empezó en octubre de 1994 cuando Grady Booch y Jim Rumbaugh de Rational Software Corporation iniciaron su trabajo para unificar los métodos de Booch y OMT. Debido a que los métodos Booch y OMT ya habían madurado independientemente y eran reconocidos como métodos líderes en el desarrollo orientado a objetos, Booch y Rumbaugh unieron fuerzas para forjar una unificación completa de los dos métodos. Una versión preliminar 0.8 de el "método unificado" fue dad a conocer en octubre de 1995. Poco después, Ivar Jacobson y su compañía "Objectory" se unieron a Rational y a su trabajo de unificación, uniendo el método OOSE (Object Oriented software engineering). El Nombre de Objectory es ahora dado mayormente para describir a el Proceso que acompaña al UML el "Rational unified process". 88 6 ESTUDIO DEL DISEÑO ( UML) 6.1 Introducción al UML 6.1.2. Objetivos Los objetivos de la unificación fueron: el mantenerlo simple, el quitar elementos de los lenguajes de Booch, OMT y OOSE que no funcionaran en la práctica, el añadir elementos de otros métodos que fueran más efectivos y el inventar nuevas construcciones solamente cuando la solución existente no estuviera disponible. UML es un lenguaje de modelado de propósito general que pueden usar todos los modeladores. No tiene propietario y está basado en el común acuerdo de gran parte de la comunidad informática. UML no pretende ser un método de desarrollo completo. No incluye un proceso de desarrollo paso a paso. UML incluye todos los conceptos que se consideran necesarios para utilizar un proceso moderno iterativo, basado en construir una sólida arquitectura para resolver requisitos dirigidos por casos de uso. Ser tan simple como sea posible pero manteniendo la capacidad de modelar toda la gama de sistemas que se necesita construir. UML necesita ser lo suficientemente expresivo para manejar todos los conceptos que se originan en un sistema moderno, tales como la concurrencia y distribución, así como también los mecanismos de la ingeniería de software, como son la encapsulación y componentes. Debe ser un lenguaje universal, como cualquier lenguaje de propósito general, pretende ser un estándar mundial. Varios nuevos conceptos existen en UML, incluyendo: 1. Mecanismos de extensión (estereotipos, valores marcados y restricciones), 2. Procesos y ramas de procesamiento 3. Distribución y concurrencia 4. Patrones y colaboración 5. Diagramas de actividad 6. Refinamiento (para manejar las relaciones entre los niveles de abstracción) 7. Interfaces y componentes 8. Un lenguaje para restricciones 89 6 ESTUDIO DEL DISEÑO ( UML) 6.1 Introducción al UML Aunque el UML define un leguaje preciso, no es una barrera para el desarrollo futuro en los conceptos de modelaje. Se han incorporado muchas técnicas líderes, pero se espera que técnicas adicionales influyan las versiones futuras del UML. Muchas técnicas avanzadas pueden ser definidas usando el UML como base. El UML puede ser extendido sin redefinir su núcleo. 6.1.3. Participantes en UML 1.0 La lista de participantes incluye grandes empresas de informática, con lo que se consigue no sólo que haya más intercambio de ideas sino que se cumpla en un defacto para todo el mundo. Lástima que no esté incluida ninguna empresa de Linux. 1. Rational Software (Grady Booch, Jim Rumbaugh y Ivar Jacobson) 2. Digital Equipment 3. Hewlett-Packard 4. i-Logix (David Harel) 5. IBM 6. ICON Computing (Desmond D’Souza) 7. Intellicorp and James Martin & co. (James Odell) 8. MCI Systemhouse 9. Microsoft 10. ObjecTime 11. Oracle Corporation. 12. Platinium Technology 13. Sterling Software 14. Taskon 90 6 ESTUDIO DEL DISEÑO ( UML) 6.1 Introducción al UML 15. Texas Instruments 16. Unisys 6.1.4. Áreas conceptuales Los conceptos y modelos de UML pueden agruparse en las siguientes áreas conceptuales: Estructura estática: Cualquier modelo preciso debe primero definir su universo, esto es, los conceptos clave de la aplicación, sus propiedades internas, y las relaciones entre cada una de ellas. Este conjunto de construcciones es la estructura estática. Los conceptos de la aplicación son modelados como clases, cada una de las cuales describe un conjunto de objetos que almacenan información y se comunican para implementar un comportamiento. La información que almacena es modelada como atributos; La estructura estática se expresa con diagramas de clases y puede usarse para generar la mayoría de las declaraciones de estructuras de datos en un programa. Comportamiento dinámico: Hay dos formas de modelar el comportamiento, una es la historia de la vida de un objeto y la forma como interactúa con el resto del mundo y la otra es por los patrones de comunicación de un conjunto de objetos conectados, es decir la forma en que interactúan entre sí. La visión de un objeto aislado es una maquina de estados, muestra la forma en que el objeto responde a los eventos en función de su estado actual. La visión de la interacción de los objetos se representa con los enlaces entre objetos junto con el flujo de mensajes y los enlaces entre ellos. Este punto de vista unifica la estructura de los datos, el control de flujo y el flujo de datos. Construcciones de implementación: Los modelos UML tienen significado para el análisis lógico y para la implementación física. Un componente es una parte física reemplazable de un sistema y es capaz de responder a las peticiones descritas por un conjunto de interfaces. Un nodo es un recurso computacional que define una localización durante la ejecución de un sistema. Puede contener componentes y objetos. 91 6 ESTUDIO DEL DISEÑO ( UML) 6.2 Diagramas Organización del modelo: La información del modelo debe ser dividida en piezas coherentes, para que los equipos puedan trabajar en las diferentes partes de forma concurrente. El conocimiento humano requiere que se organice el contenido del modelo en paquetes de tamaño modesto. Los paquetes son unidades organizativas, jerárquicas y de propósito general de los modelos de UML. Pueden usarse para almacenamiento, control de acceso, gestión de la configuración y construcción de bibliotecas que contengan fragmentos de código reutilizable. Mecanismos de extensión: UML tiene una limitada capacidad de extensión pero que es suficiente para la mayoría de las extensiones que requiere el ’dia a dia’ sin la necesidad de un cambio en el lenguaje básico. Un estereotipo es una nueva clase de elemento de modelado con la misma estructura que un elemento existente pero con restricciones adicionales. 6.2. Diagramas Un Modelo captura una vista de un sistema del mundo real. Es una abstracción de dicho sistema, considerando un cierto propósito. Así, el modelo describe completamente aquellos aspectos del sistema que son relevantes al propósito del modelo, y a un apropiado nivel de detalle. Un proceso de desarrollo de software debe ofrecer un conjunto de modelos que permitan expresar el producto desde cada una de las perspectivas de interés. El código fuente del sistema es el modelo más detallado del sistema (y además es ejecutable). Sin embargo, se requieren otros modelos. Cada modelo es completo desde su punto de vista del sistema, sin embargo, existen relaciones de trazabilidad entre los diferentes modelos. Un Diagrama es una representación gráfica de una colección de elementos de modelado, a menudo dibujada como un grafo conexo de arcos (relaciones) y vértices (otros elementos del modelo). Un diagrama no es un elemento semántico, un diagrama muestra representaciones de elementos semánticos del modelo, pero su significado no se ve afectado por la forma en que son representados. Un diagrama está contenido dentro de un paquete. 92 6 ESTUDIO DEL DISEÑO ( UML) 6.2 Diagramas La mayoría de los diagramas de UML y algunos símbolos complejos son grafos que contienen formas conectadas por rutas. La infomación está sobre todo en la topología, no en el tamaño o la colocación de los símbolos (hay algunas excepciones como el diagrma de secuencia con un eje métrico de tiempo). Hay tres clases importantes de relaciones visuales: conexión (generalmente de líneas a formas de dos dimensiones), contención (de símbolos por formas cerradas de dos dimensiones), y adhesión visual (un símbolo que está "cerca" de otro en un diagrama). Estas relaciones geométricas se reasignan a conexiones entre nodos en un gráfico en la forma analizada de la notación. La notación de UML está pensada para ser dibujada en superficies bidimensionales. Algunas formas bidimensionales son proyecciones de formas tridimensionales tales como cubos, pero todavía se representan como íconos en una superficie bidimensional. Hay cuatro clases de construcciones gráficas que se usan en la notación de UML: íconos, símbolos bidimensionales, rutas y cadenas. Un ícono es una figura gráfica con un tamaño y forma fijos. No se amplía para contener a su contenido. Los iconos pueden aparecer dentro de símbolos de área, como terminadores en las rutas o como símbolos independientes que puedan o no conectar con las rutas. Los símbolos de dos dimensiones tienen altura y anchura variables, y pueden ampliarse para permitir otras cosas tales como listas de cadenas o de otros símbolos. Muchos de ellos están divididos en compartimientos similares o de tipos diferentes. Las rutas se conectan con los símbolos, el arrastrar o suprimir uno de ellos afecta a su contenido y las rutas conectadas. Una ruta es una secuencia de segmentos de recta o de curva que se unen en sus puntos finales. Conceptualmente una ruta es una sola entidad topológica, aunque sus segmentos se pueden manipular gráficamente. un segemento no debería existir separado de su ruta. Las rutas siempre van conectdas en ambos extremos. Las cadenas presentan varias clases de información en una forma "no analizada", UML asume que cada uso de una cadena en la notación tiene una sintaxis por la cual pueda ser analizada la información del modelo subyancente. Las cadenas pueden existir como el contenido de un compartimiento, como elementos en las listas, como etiquetas unidas a los símbolos o a las rutas, o como elementos 93 6 ESTUDIO DEL DISEÑO ( UML) 6.2 Diagramas independientes en un diagrama. 6.2.1. Diagramas estructurales Se usan para visualizar, especificar, construir y documentar aspectos estáticos de un sistema. Que son el esqueleto e incluyen la existencia y ubicación de clases, interfaces, colaboraciones, componentes y nodos. Diagrama de clases: Representa las clases, interfaces y colaboraciones y relaciones entre ellas. Diagramas de objetos: Representa objetos y sus relaciones. SE usa para describir estructuras de datos. Diagramas de componentes: Muestra el conjunto de componentes y sus relaciones. Los diagramas de componentes se relacionan con los diagramas de clases dado que los componentes son grupo de clases, interfaces y colaboraciones. Diagramas de despliegue: Muestra conjunto de nodos y sus relaciones. Se usan para describir la vista de despliegue estática de una arquitectura. Se relacionan con los diagramas de componentes porque un nodo incluye normalmente uno o más componentes. 6.2.2. Diagramas de comportamiento Se usa para los aspectos dinámicos de un sistema. Que son las partes mutables como el flujo de mensajes a lo largo del tiempo el movimiento físico de componentes en una red. Diagramas de casos de uso: representas casos de uso, actores y sus relaciones. Diagramas de secuencia: Junto con los diagramas de colaboración representan a los diagramas de interacción, que resalta la ordenación temporal de los mensajes. Representa el conjunto de objetos y los mensajes enviados y recibidos entre ellos. 94 6 ESTUDIO DEL DISEÑO ( UML) 6.3 Diagramas de Objetos Diagramas de colaboración: Son diagramas de interacción que resalta la organización estructural de los objetos que envían y reciben sus mensajes. Representan los objetos enlazados unos con otros con sus mensajes enviados y recibidos. Diagramas de estado: Son máquinas de estados, con sus transiciones, eventos y actividades. Ayudan a modelar el comportamiento. Diagramas de actividades: Muestra el flujo de actividades. Muestran el flujo secuencial de actividades y los objetos que actúan y sobre los que actúa. 6.3. Diagramas de Objetos Objeto es una entidad discreta con límites bien definidos y con identidad, es una unidad atómica que encapsula estado y comportamiento. La encapsulación en un objeto permite una alta cohesión y un bajo acoplamiento. el Objeto es reconocido también como una instancia de la clase a la cual pertenece. La encapsulación presenta tres ventajas básicas: 1. Se protegen los datos de accesos indebidos 2. El acoplamiento entre las clases se disminuye 3. Favorece la modularidad y el mantenimiento Un objeto se puede ver desde dos perspectivas relacionadas: como una entidad de un determinado instante de tiempo que posee un valor específico (Un objeto puede caracterizar una entidad física -coche-) y como un poseedor de identidad que tiene distintos valores a lo largo del tiempo (abstracta -ecuación matemática-). Cada objeto posee su propia identidad exclusiva y se puede hacer referencia a él mediante una denominación exclusiva que permite accederle. El Modelado de Objetos permite representar el ciclo de vida de los objetos a través de sus interacciones. En UML, un objeto se representa por un rectángulo con un nombre subrayado. 1. Objeto = Identidad + Estado + Comportamiento 95 6 ESTUDIO DEL DISEÑO ( UML) 6.3 Diagramas de Objetos 2. El estado está representado por los valores de los atributos. 3. Un atributo toma un valor en un dominio concreto. La regla general para la notación de instancias consiste en utilizar el mismo símbolo geométrico que el descriptor. En la instancia se muestran los posibles valores pero las propiedades compartidas sólo se pone de manifiesto en el descriptor. La notación canónica es un rectángulo con tres compartimientos. En el primero va el nombre del objeto, en el segundo sus atributos y en el tercero sus operaciones. Este último puede ser omitido si así se prefiere. 6.3.1. Oid (Object Identifier) Cada objeto posee un oid. El oid establece la identidad del objeto y tiene las siguientes características: 1. Constituye un identificador único y global para cada objeto dentro del sistema. 2. Es determinado en el momento de la creación del objeto. 3. Es independiente de la localización física del objeto, es decir, provee completa independencia de localización. 96 6 ESTUDIO DEL DISEÑO ( UML) 6.3 Diagramas de Objetos 4. Es independiente de las propiedades del objeto, lo cual implica independencia de valor y de estructura. 5. No cambia durante toda la vida del objeto. Además, un oid no se reutiliza aunque el objeto deje de existir. No se tiene ningún control sobre los oids y su manipulación resulta transparente. Sin embargo, es preciso contar con algún medio para hacer referencia a un objeto utilizando referencias del dominio (valores de atributos). 6.3.2. Características alrededor de un objeto Estado: El estado evoluciona con el tiempo. Algunos atributos pueden ser constantes, el comportamiento agrupa las competencias de un objeto y describe las acciones y reacciones de ese objeto. Las operaciones de un objeto son consecuencia de un estímulo externo representado como mensaje enviado desde otro objeto. Persistencia: La persistencia de los objetos designa la capacidad de un objeto trascender en el espacio/tiempo, podremos después reconstruirlo, es decir, cogerlo de memoria secundaria para utilizarlo en la ejecución (materialización del objeto). Los lenguajes OO no proponen soporte adecuado para la persistencia, la cual debería ser transparente, un objeto existe desde su creación hasta que se destruya. Comunicación: Un sistema informático puede verse como un conjunto de objetos autónomos y concurrentes que trabajan de manera coordinada en la consecución de un fin específico. El comportamiento global se basa pues en la comunicación entre los objetos que la componen. Categorías de objetos: Pueden ser clasificado como Activos o Pasivos, como Cliente o Servidores, o bien como Agentes. 1. Objeto Activo: Posee un hilo de ejecución (thread) propio y puede iniciar una actividad. 97 6 ESTUDIO DEL DISEÑO ( UML) 6.4 Diagramas de Clases 2. Objeto Pasivo: No puede iniciar una actividad pero puede enviar estímulos una vez que se le solicita un servicio. 3. Cliente es el objeto que solicita un servicio. 4. Servidor es el objeto que provee el servicio solicitado. 5. Los agentes reúnen las características de clientes y servidores. Son la base del mecanismo de delegación. Introducen indirección: un cliente puede comunicarse con un servidor que no conoce directamente. Mensajes: La unidad de comunicación entre objetos se llama mensaje. El mensaje es el soporte de una comunicación que vincula dinámicamente los objetos que fueron separados previamente en el proceso de descomposición. Adquiere toda su fuerza cuando se asocia al polimorfismo y al enlace dinámico. Un estímulo causará la invocación de una operación, la creación o destrucción de un objeto o la aparición de una señal. Un mensaje es la especificación de un estímulo. 6.4. Diagramas de Clases El Diagrama de Clases es el diagrama principal para el análisis y diseño. Un diagrama de clases presenta las clases del sistema con sus relaciones estructurales y de herencia. La definición de clase incluye definiciones para atributos y operaciones. El modelo de casos de uso aporta información para establecer las clases, objetos, atributos y operaciones. El mundo real puede ser visto desde abstracciones diferentes (subjetividad). Mecanismos de abstracción: 1. Clasificación / Instanciación 2. Composición / Descomposición 3. Agrupación / Individualización 4. Especialización / Generalización 98 6 ESTUDIO DEL DISEÑO ( UML) 6.4 Diagramas de Clases La clasificación es uno de los mecanismos de abstracción más utilizados. La clase define el ámbito de definición de un conjunto de objetos, y cada objeto pertenece a una clase, Los objetos se crean por instanciación de las clases. Cada clase se representa en un rectángulo con tres compartimientos: nombre de la clase atributos de la clase operaciones de la clase Los atributos de una clase no deberían ser manipulables directamente por el resto de objetos. Por esta razón se crearon niveles de visibilidad para los elementos que son: 1. (-) Privado : Es el más fuerte. Esta parte es totalmente invisible (excepto para clases friends en terminología C++). 2. (#) Los atributos/operaciones protegidos están visibles para las clases friends y para las clases derivadas de la original. 3. (+) Los atributos/operaciones públicos son visibles a otras clases (cuando se trata de atributos se está transgrediendo el principio de encapsulación). 6.4.1. Relaciones entre clases Semánticamente todas las relaciones, incluidas la generalización, la asociación y la realización son tipos de dependecias. Pero tienen una semántica lo bastante importante como para justificar que se traten como distintos tipos de relaciones en UML. Es una decisión de diseño. La expericencia muestra que este enfoque mantiene un equilibrio entre dar importancia a los tipos importantes de relaciones y no sobrecargar al modelador con demasiadas opciones. Uno no se equivocará si modela la generalización, la asociación y la realización en primer lugar y luego ve las demás relaciones como tipos de dependencias. Relación de Dependencias: Relación de uso. Declara que un cambio en la especificación del elemento usado puede afectar al elemento que lo usa. Como puede verse en la imagen, la figura usa posicion 99 6 ESTUDIO DEL DISEÑO ( UML) 6.4 Diagramas de Clases Relación de Generalización: Relación "hereda_de" o bien "es_un_tipo_de". Entre una superclase o padre y una subclase o hijo. En la imagen tenemos que Rectángulo y Círculo heredan de Figura. Relación de Asociación: Relación estructural que especifica conexión entre dos objetos. Conexión entre dos objetos es una asociación binaria y entre n clases es una n-aria. Dentro de este grupo de relaciones tenemos relación de asociación por nombre, por rol, por multiplicidad y por agragación. Nombre: Describe la naturaleza de la asociación. En la figura un empleado trabaja para otra clase. Rol: Rol que se juega en una asosciación. Tenemos que una persona vista desde la fábrica es un empleado. 100 6 ESTUDIO DEL DISEÑO ( UML) 6.5 Diagramas de Caso de Uso Multiplicidad: Indica "cuantos" objetos en un extremo de la asociación pertenecen. En el ejemplo tenemos que una fábrica tiene un número indefinido de personas trabajando en ella. Agregación: Relación "tiene_un". Relacion entre objetos del mismo nivel pero con una relación todo/parte, uno es "parte" del "todo". 6.5. Diagramas de Caso de Uso Casos de Uso es una técnica para capturar información de cómo un sistema o negocio trabaja, o de cómo se desea que trabaje. No pertenece estrictamente al enfoque orientado a objeto, es una técnica para captura de requisitos. Los Casos de Uso (Ivar Jacobson) describen bajo la forma de acciones y reacciones el comportamiento de un sistema desde el p.d.v. del usuario. Permiten definir los límites del sistema y las relaciones entre el sistema y el entorno. 101 6 ESTUDIO DEL DISEÑO ( UML) 6.5 Diagramas de Caso de Uso Los Casos de Uso son descripciones de la funcionalidad del sistema independientes de la implementación. Comparación con respecto a los Diagramas de Flujo de Datos del Enfoque Estructurado. Los Casos de Uso cubren la carencia existente en métodos previos (OMT, Booch) en cuanto a la determinación de requisitos. Los Casos de Uso particionan el conjunto de necesidades atendiendo a la categoría de usuarios que participan en el mismo. Están basados en el lenguaje natural, es decir, es accesible por los usuarios. 6.5.1. Actores La misma persona física puede interpretar varios papeles como actores distintos, el nombre del actor describe el papel desempeñado. 1. Principales: personas que usan el sistema. 2. Secundarios: personas que mantienen o administran el sistema. 3. Material externo: dispositivos materiales imprescindibles que forman parte del ámbito de la aplicación y deben ser utilizados. 4. Otros sistemas: sistemas con los que el sistema interactúa. Los Casos de Uso se determinan observando y precisando, actor por actor, las secuencias de interacción, los escenarios, desde el punto de vista del usuario. Los casos de uso intervienen durante todo el ciclo de vida. El proceso de desarrollo estará dirigido por los casos de uso. Un escenario es una instancia de un caso de uso. UML define cuatro tipos de relación en los Diagramas de Casos de Uso. La Comunicación, la Inclusión, que es una instancia del Caso de Uso origen incluye también el comportamiento descrito por el Caso de Uso destino. «include» reemplazó al denominado «uses». La Extensión : el Caso de Uso origen extiende el 102 6 ESTUDIO DEL DISEÑO ( UML) 6.6 Diagramas de Estado comportamiento del Caso de Uso destino. «extend» y la Herencia : el Caso de Uso origen hereda la especificación del Caso de Uso destino y posiblemente la modifica y/o amplía. 6.6. Diagramas de Estado Muestra el conjunto de estados por los cuales pasa un objeto durante su vida en una aplicación, junto con los cambios que permiten pasar de un estado a otro. Los Diagramas de Estado representan autómatas de estados finitos, desde el p.d.v. de los estados y las transiciones. Son útiles sólo para los objetos con un comportamiento significativo. Cada objeto está en un estado en cierto instante. El estado está caracterizado parcialmente por los valores algunos de los atributos del objeto. El estado en el que se encuentra un objeto determina su comportamiento. Cada objeto sigue el comportamiento descrito en el Diagrama de Estados asociado a su clase. Los Diagramas de Estados y escenarios son complementarios, los Diagramas de Estados son autómatas jerárquicos que permiten expresar concurrencia, sincronización y jerarquías de objetos, son grafos dirigidos y deterministas. La transición entre estados es instantánea y se debe a la ocurrencia de un evento. 6.6.1. Estado Identifica un periodo de tiempo del objeto (no instantáneo) en el cual el objeto está esperando alguna operación, tiene cierto estado característico o puede recibir cierto tipo de estímulos. Se representa mediante un rectángulo con los bordes redondeados, que puede tener tres compartimientos: uno para el nombre, otro para el valor característico de los atributos del objeto en ese estado y otro para las acciones que se realizan al entrar, salir o estar en un estado (entry, exit o do, respectivamente). Eventos Es una ocurrencia que puede causar la transición de un estado a otro de un objeto. Esta ocurrencia puede ser una de varias cosas: 103 6 ESTUDIO DEL DISEÑO ( UML) 6.6 Diagramas de Estado Condición que toma el valor de verdadero o falso Recepción de una señal de otro objeto en el modelo Recepción de un mensaje Paso de cierto período de tiempo, después de entrar al estado o de cierta hora y fecha particular El nombre de un evento tiene alcance dentro del paquete en el cual está definido, no es local a la clase que lo nombre. 6.6.2. Envío de mensajes Además de mostrar y transición de estados por medio de eventos, puede representarse el momento en el cual se envían mensajes a otros objetos. Esto se realiza mediante una línea punteada dirigida al diagrama de estados del objeto receptor del mensaje. Transición simple Una transición simple es una relación entre dos estados que indica que un objeto en el primer estado puede entrar al segundo estado y ejecutar ciertas operaciones, cuando un evento ocurre y si ciertas condiciones son satisfechas. Se representa como una línea sólida entre dos estados, que puede venir acompañada de un texto con el siguiente formato: event-signature "[" guard-condition] "/" action-expression "^"send-clause event-signature es la descripción del evento que da lugar la transición, guardcondition son las condiciones adicionales al evento necesarias para que la transición ocurra, action-expression es un mensaje al objeto o a otro objeto que se ejecuta como resultado de la transición y el cambio de estado y send-clause son acciones adicionales que se ejecutan con el cambio de estado, por ejemplo, el envío de eventos a otros paquetes o clases. 104 6 ESTUDIO DEL DISEÑO ( UML) 6.6 Diagramas de Estado Transición interna Es una transición que permanece en el mismo estado, en vez de involucrar dos estados distintos. Representa un evento que no causa cambio de estado. Se denota como una cadena adicional en el compartimiento de acciones del estado. 6.6.3. Acciones Podemos especificar la solicitud de un servicio a otro objeto como consecuencia de la transición. Se puede especificar el ejecutar una acción como consecuencia de entrar, salir, estar en un estado, o por la ocurrencia de un evento. Generalización de Estados: Podemos reducir la complejidad de estos diagramas usando la generalización de estados. Distinguimos así entre superestado y subestados. Un estado puede contener varios subestados disjuntos. Los subestados heredan las variables de estado y las transiciones externas. La agregación de estados es la composición de un estado a partir de varios estados independientes. La composición es concurrente por lo que el objeto estará en alguno de los estados de cada uno de los subestados concurrentes. La destrucción de un objeto es efectiva cuando el flujo de control del autómata alcanza un estado final no anidado. La llegada a un estado final anidado implica la subida al superestado asociado, no el fin del objeto. Subestados Un estado puede descomponerse en subestados, con transiciones entre ellos y conexiones al nivel superior. Las conexiones se ven al nivel inferior como estados de inicio o fin, los cuales se suponen conectados a las entradas y salidas del nivel inmediatamente superior. 105 6 ESTUDIO DEL DISEÑO ( UML) 6.7 Diagramas de actividades Transacción Compleja Una transición compleja relaciona tres o más estados en una transición de múltiples fuentes y/o múltiples destinos. Representa la subdivisión en threads del control del objeto o una sincronización. Se representa como una línea vertical de la cual salen o entran varias líneas de transición de estado. Transición a estados anidados Una transición hacia un estado complejo (descrito mediante estados anidados) significa la entrada al estado inicial del subdiagrama. Las transiciones que salen del estado complejo se entienden como transiciones desde cada uno de los subestados hacia afuera (a cualquier nivel de profundidad). Transiciones temporizadas Las esperas son actividades que tienen asociada cierta duración. La actividad de espera se interrumpe cuando el evento esperado tiene lugar. Este evento desencadena una transición que permite salir del estado que alberga la actividad de espera. El flujo de control se transmite entonces a otro estado. 6.7. Diagramas de actividades Un estado de actividad representa una actividad: un paso en el flujo de trabajo o la ejecución de una operación. Un grafo de actividades describe grupos secuenciales y concurrentes de actividades. Los grafos de actividades se muestran en diagramas de actividades. Las actividades se enlazan por transiciones automáticas. Cuando una actividad termina se desencadena el paso a la siguiente actividad. Un diagrama de actividades es provechoso para entender el comportamiento de alto nivel de la ejecución de un sistema, sin profundizar en los detalles internos de los mensajes. Los parámetros de entrada y salida de una acción se pueden mostrar usando las relaciones de flujo que conectan la acción y un estado de flujo de objeto. 106 6 ESTUDIO DEL DISEÑO ( UML) 6.7 Diagramas de actividades Un grafo de actividades contiene estados de actividad que representa la ejecución de una secuencia en un procedimiento, o el funcionamiento de una actividad en un flujo de trabajo. En vez de esperar un evento, como en un estado de espera normal, un estado de actividad espera la terminación de su cómputo. Cuando la actividad termina, entonces la ejecución procede al siguiente estado de actividad dentro del diagrama. una transición de terminación es activada en un diagrama de actividades cuando se completa la actividad precedente. Los estados de actividad no tienen transiciones con eventos explícitos, peor pueden ser abortados por transiciones en estados que los incluyen. Un grafo de actividades puede contener también estados de acción, que son similares a los de actividad pero son atómicos y no permiten transiciones mientras están activos. Los estados de acción se deben utilizar para las operaciones cortas de mantenimiento. Un diagrama de actividades puede contener bifurcaciones, así como divisiones de control en hilos concurrentes. los hilos concurrentes representan actividades que se pueden realizar concurrentemente por los diversos objetos o personas. La concurrencia se representa a partir de la agregación, en la cual cada objeto tiene su propio hilo. Las actividades concurrentes se pueden realizar simultáneamente o en cualquier orden. Un diagrama de actividades es como un organigrama tradicional, excepto que permite el control de concurrencia además del control secuencial. 6.7.1. Notación Un estado de actividad se representa como una caja con los extremos redondeados que contiene una descripción de actividad. Las transacciones simples de terminación se muestran como flechas. Las ramas se muestran como condiciones de guarda en transiciones o como diamantes con múltiples flechas de salida etiquetadas. Una división o una unión de control se representa con múltiples flechas que entran o salen de la barra gruesa de sincronización. Cuando es necesario incluir eventos externos, la recepción de un evento se puede mostrar como un disparador en una transición, o como un símbolo especial que denota la espera de una señal. A menudo es útil organizar las actividades en un modelo según su responsa- 107 6 ESTUDIO DEL DISEÑO ( UML) 6.8 Diagramas de Interacción bilidad. Esta clase de asignación puede mostrarse organizando las actividades en regiones distintas separads por líneas en el diagrama. Debido a su aspecto, esto es conocido como Calles. Un diagrama de actividades puede mostrar el flujo de objetos como valores. Para un valor de salida, se dibuja una flecha con línea discontinua desde la actividad al objeto. Para un valor de entrada, se dibuja una flecha con línea discontinua desde el objeto a una actividad. 6.8. Diagramas de Interacción La vista de interacción describe secuencias de intercambios de mensajes entre los roles que implementan el comportamiento de un sistema. Un rol clasificador, o simplemente "un rol", es la descripción de un objeto, que desempeña un determinado papel dentro de una interacción, distinto de los otros objetos de la misma clase. Esta visión proporciona una vista integral del comportamiento del sistema, es decir, muestra el flujo de control a través de muchos objetos. La vista de interacción se exhibe en dos diagramas centrados en distintos aspectos pero complementarios: centrados en los objetos individuales y centrados en objetos cooperantes. Los objetos interactúan para realizar colectivamente los servicios ofrecidos por las aplicaciones. Los diagramas de interacción muestran cómo se comunican los objetos en una interacción. Existen dos tipos de diagramas de interacción: el Diagrama de Colaboración y el Diagrama de Secuencia. El Diagrama de Secuencia es más adecuado para observar la perspectiva cronológica de las interacciones, muestra la secuencia explícita de mensajes y son mejores para especificaciones de tiempo real y para escenarios complejos. El Diagrama de Colaboración ofrece una mejor visión espacial mostrando los enlaces de comunicación entre objetos, muestra las relaciones entre objetos y son mejores para comprender todos los efectos que tiene un objeto y para el diseño de procedimientos. El diagrama de Colaboración puede obtenerse automáticamente a partir del correspondiente diagrama de Secuencia (o viceversa). 108 6 ESTUDIO DEL DISEÑO ( UML) 6.8 Diagramas de Interacción Diagramas de Secuencia 1. Muestra la secuencia de mensajes entre objetos durante un escenario concreto 2. Cada objeto viene dado por una barra vertical 3. El tiempo transcurre de arriba abajo 4. Cuando existe demora entre el envío y la atención se puede indicar usando una línea oblicua Diagramas de Colaboración 1. Son útiles en la fase exploratoria para identificar objetos. 2. La distribución de los objetos en el diagrama permite observar adecuadamente la interacción de un objeto con respecto de los demás 3. La estructura estática viene dada por los enlaces; la dinámica por el envío de mensajes por los enlaces 6.8.1. Colaboración Es una descripción de una colección de objetos que interactúan para implementar un cierto comportamiento dentro de un contexto. Describe una sociedad de objetos cooperantes unidos para realizar un cierto propósito. Una colaboración contiene ranuras que son rellenadas por los objetos y enlaces en tiempo de ejecución. Una ranura de colaboración se llama Rol porque describe el propósito de un objeto o un enlace dentro de la colaboración. Un rol clasificador representa una descripción de los objetos que pueden participar en una ejecución de la colaboración, un rol de asociación representa una descripción de los enlaces que pueden participar en una ejecución de colaboración. Un rol de clasificador es una asociación que está limitada por tomar parte en la colaboración. Las relaciones entre roles de clasificador y asociación dentro de una colaboración sólo tienen sentido en ese contexto. En general fuera de ese contexto no se aplican las mismas relaciones. 109 6 ESTUDIO DEL DISEÑO ( UML) 6.9 Diagramas de Componentes Una Colaboración tiene un aspecto estructural y un aspecto de comportamiento. El aspecto estrucutral es similar a una vista estática: contiene un conjunto de roles y relaciones que definen el contexto para su comprtamiento. El comportamiento es el conjunto de mensajes intercambiados por los objetos ligados a los roles. Tal conjunto de mensajes en una colaboración se llama Interacción. Una colaboración puede incluir una o más interacciones. 6.8.2. Interacción Es el conjunto de mensajes intercambiados por los roles de clasificador a través de los roles de asociación. Un mensaje es una comunicaión unidireccional entre dos objetos, un flujo de objeto con la información de un remitente a un receptor. Un mensaje puede tener parámetros que transporten valores entre objetos. Un mensaje puede ser una señal (comunicación explícita entre objetos, con nombre y asíncrona) o una llamada (la invocación síncrona de una operación con un mecanismo para el control, que retorna posteriormente al remitente). Un patrón de intercambios de mensajes que se realizan para lograr un propósito específico es lo que se denomina una interacción. 6.8.3. Patrón Un patrón es una colaboración parametrizada, junto con las pautas sobre cuándo utilizarlo. Un parámetro se puede sustituir por diversos valores, para producir distintas colaboraciones. Los parámetros señalan generalmente las ranuras para las clases. El uso de un patrón se representa como una elipse de línea discontinua conectada con cada una de las clases por una línea discontinua, que se etiqueta con el nombre del rol. 6.9. Diagramas de Componentes Los diagramas de componentes describen los elementos físicos del sistema y sus relaciones. Muestran las opciones de realización incluyendo código fuente, binario y ejecutable. Los componentes representan todos los tipos de elementos software que entran en la fabricación de aplicaciones informáticas. Pueden ser 110 6 ESTUDIO DEL DISEÑO ( UML) 6.9 Diagramas de Componentes simples archivos, paquetes de Ada, bibliotecas cargadas dinámicamente, etc. Las relaciones de dependencia se utilizan en los diagramas de componentes para indicar que un componente utiliza los servicios ofrecidos por otro componente. Un diagrama de componentes representa las dependencias entre componentes software, incluyendo componentes de código fuente, componentes del código binario, y componentes ejecutables. Un módulo de software se puede representar como componente. Algunos componentes existen en tiempo de compilación, algunos en tiempo de enlace y algunos en tiempo de ejecución, otros en varias de éstas. Un componente de sólo compilación es aquel que es significativo únicamente en tiempo de compilación. Un componente ejecutable es un programa ejecutable. Un diagrama de componentes tiene sólo una versión con descriptores, no tiene versión con instancias. Para mostrar las instancias de los componentes se debe usar un diagrama de despliegue. Un diagrama de componentes muestra clasificadores de componentes, las clases definidas en ellos, y las relaciones entre ellas. Los clasificadores de componentes también se pueden anidar dentro de otros clasificadores de componentes para mostrar relaciones de definición. Un diagrama que contiene clasificadores de componentes y de nodo se puede utilizar para mostrar las dependencias del compilador, que se representa como flechas con líneas discontinuas (dependencias) de un componente cliente a un componente proveedor del que depende. Los tipos de dependencias son específicos del lenguaje y se pueden representar como estereotipos de las dependencias. El diagrama también puede usarse para mostrar interfaces y las dependencias de llamada entre componentes, usando flechas con líneas discontinuas desde los componentes a las interfaces de otros componentes. El diagrama de componente hace parte de la vista física de un sistema, la cual modela la estructura de implementación de la aplicación por sí misma, su organización en componentes y su despliegue en nodos de ejecución. Esta vista proporciona la oportunidad de establecer correspondecias entre las clases y los componentes de implementación y nodos. La vista de implementación se representa con los diagramas de componentes. 111 6 ESTUDIO DEL DISEÑO ( UML) 6.9 Diagramas de Componentes 6.9.1. Componentes Es una parte física reemplazable de un sistema que empaqueta su implementación y es conforme a un conjunto de interfaces a las que proporciona su realización. Algunos componentes tienen identidad y pueden poseer entidades físicas, que incluyen objetos en tiempo de ejecución, documentos, bases de datos, etc. Los componentes existentes en el dominio de la implementación son unidades físicas en los computadores que se pueden conectar con otros componentes, sustituir, trasladar, archivar, etc. Los componentes tienen dos características: Empaquetan el código que implementa la funcionalidad de un sistema, y algunas de sus propias instancias de objetos que contituyen el estado del sistema. Los llamados últimos componentes de la identidad, porque sus instancias poseen identidad y estado. Código: Un componente contiene el código para las clases de implementación y otros elementos. Un componente de código fuente es un paquete para el código fuente de las clases de implementación. Al gunos lenguajes de programación distinguen archivos de declaración de los archivos de método, pero todos son componentes. Un componente de código binario es un paquete para el código compliado. Una biblioteca del código binario es un componente. Cada tipo de componente contiene el código para las clases de implementación que realizan algunas clases e interfaces lógicas. La relación de realización asocia un componente con las clases y las interfaces lógicas que implementan sus clases de implementación. Las interfaces de un componente describen la funcionalidad que aporta. Cada operación de la interfaz debe hacer referencia eventualmente a un elemento de la implementación disponible en el componente. La estrucutra estática, ejecutable de una implementación de un sistema se puede representar como un conjunto interconectado de componentes. Las dependencias entre componentes significan que los elementos de la implementación en un componente requieren los serivios de los elementos de implemntación en otros componentes. Tal uso requiere que dichos elementos sean de visibilidad pública. 112 6 ESTUDIO DEL DISEÑO ( UML) 6.10 Diagramas de Despliegue Identidad: Un componente de identidad tiene identidad y estado. Posee los objetos físicos que están situados en él. Puede tener atributos, relaciones de composición con los objetos poseídos, y asociaciones con otros componentes. Desde este punto de vista es una clase. Sin embargo la totalidad de su estado debe hacer referencia a las instancias que contiene. Estructura: Un componente ofrece un conjunto de elementos de implementación, esto significa que el componente proporciona el código para los elementos. Un componente puede tener operaciones e interfaces. Un componente de identidad es un contenedor físico para las entidades físicas como bases de datos. Para proporcionar manejadores para sus elementos contenidos, puede tener atributos y asociaciones salientes, que deben ser implementadas por sus elementos de implementación. Este componente se representa con un rectángulo con dos rectángulos más pequeños que sobresalen en su lado izquierdo. Las operaciones e interfaces disponibles para los objetos exteriores se pueden representar directamente en el símbolo de clase. Estos son su comportamiento como clase. Los contenidos del subsistema se representan en un diagrama separado. Las dependencias de un componente con otros componentes o elementos del modelo se representan usando líneas discontinuas con la punta de flecha hacia los elementos del proveedor. Sí un componente es la realización de una interfaz, se representa con un círculo unido al símbolo del componente por un segmento de línea. 6.10. Diagramas de Despliegue Los Diagramas de Despliegue muestran la disposición física de los distintos nodos que componen un sistema y el reparto de los componentes sobre dichos nodos. La vista de despliegue representa la disposición de las instancias de componentes de ejecución en instacias de nodos conectados por enlaces de comunicación. Un nodo es un recurso de ejecución tal como un computador, un dispositivo 113 6 ESTUDIO DEL DISEÑO ( UML) 6.11 Los paquetes o memoria. Los estereotipos permiten precisar la naturaleza del equipo: Dispositivos Procesadores Memoria Los nodos se interconectan mediante soportes bidireccionales que pueden a su vez estereotiparse. Esta vista permite determinar las consecuencias de la distribución y la asignación de recursos. Las instancias de los nodos pueden contener instancias de ejecución, como instancias de componentes y objetos. El modelo puede mostrar dependencias entre las instancias y sus interfaces, y también modelar la migración de entidades entre nodos u otros contenedores. Esta vista tiene una forma de descriptor y otra de instancia. La forma de instancia muestra la localización de las instancias de los componentes específicos en instancias específicas del nodo como parte de una configuración del sistema. La forma de descriptor muestra qué tipo de componentes pueden subsistir en qué tipos de nodos y qué tipo de nodos se pueden conectar, de forma similar a una diagrama de clases, esta forma es menos común que la primera. 6.11. Los paquetes Los paquetes son elementos para organizar elementos en grupos. Imaginemos una aplicación con cientos de clases que se ven entre todas ellas, no hay forma de comprender una red de relaciones tan grande y desorganizado. Es un problema real para grandes sistemas (el acceso simple y no restringido no permite el crecimiento). Para estas situaciones se necesita algún tipo de empaquetamiento controlado para organizar las abstracciones. 114 6 ESTUDIO DEL DISEÑO ( UML) 6.11 Los paquetes Anidamiento Las abstracciones que organizan un modelo se llaman paquetes. Y los paquetes agrupan a otros paquetes organizándolos en forma de directorios. Se recomienda tener como límite dos o tres niveles de anidamiento. Al anidar un paquete (Menú) dentro de otro paquete (Ventana) se indica con el nombre del paquete anidado precedido por el nombre que lo contiene (Ventana::Menú). Por ejemplo el nombre de camino para el paquete Menú puede ser API::Ventana::Menú Importación La importación de un paquete hace que se pueda acceder a los elementos de ese paquete, pero el paquete importado no puede acceder a los elementos del otro. En UML una relación de importación se modela como una dependencia con el estereotipo import. Elementos extensibilidad Pueden añadirse valores etiquetados para añadir nuevas propiedades al paquete (como el autor, fecha creación, etc) y estereotipos para especificar categorías. Estos son: 1. facade: (fachada) Es un paquete que muestra solo unos objetos de otro paquete. Se usa para mostrar vistas simplificadas y diferentes que de otra forma serían vistas muy complejas, reduciendo el campo de visión según las funciones que vayan a usarse. 2. stub: Paquete tiene la función de proxy a otro paquete. 3. subsystem: Representa una parte independiente del sistema completo. 115 6 ESTUDIO DEL DISEÑO ( UML) 6.11 Los paquetes 4. system: Representa al sistema completo. 116 7 HACKING DEL KERNEL Parte II Práctica 7. Hacking del kernel 7.1. Introducción Programar en espacio del kernel ha sido siempre cosa de gurús, o al menos eso es lo que se piensa. Muy poca gente tiene el coraje, los conocimientos y la paciencia para trabajar con interrupciones, devices y con el siempre temido kernel panic. Cuando se escribe un programa en espacio de usuario, lo peor que puede pasar es un core dump. El programa hizo algo muy malo, así que el sistema operativo decide que el programa debe finalizar y hace un volcado de toda la memoria y la información del estado del proceso en forma de un fichero core. Los ficheros core pueden ser usados luego para debugar el programa y encontrar el problema que originó el core dumped. Pero cuando se programa dentro del kernel la cosa cambia, no hay ningún sistema operativo que pueda pararte de manera controlada, y decirte luego qué era lo que ha funcionado mal. Se supone que el kernel de Linux funciona correctamente y no debe controlar su propio código. A veces puede sobrevivir a un kernel panic, si lo que se ha hecho mal es relativamente benigno, este tipo de kernel panic se le suele llamar oopses, luego lo pasaré a explicar más detalladamente. Pero, no hay nada que pare al código de sobreescribir o acceder a localizaciones de la memoria de cualquiera dentro del espacio de direcciones del kernel. También, puede colgarse algún módulo, entonces el kernel se cuelga, técnicamente el thread se cuelga pero tiene las mismas repercusiones. Estos problemas pueden sonar un poco exagerados pero se tiene que tratar con mucho cuidado. Además si hay un kernel panic, raramente se sabe que demonios ha pasado, porque simplemente el sistema operativo deja de funcionar. La típica solución es mirar aquellos printk que creemos han causado el error, y esperar que podamos verlos al rebotar la máquina y no se hayan perdido. Y todo esto 117 7 HACKING DEL KERNEL 7.2 Uso del debugador asumiendo que no se ha corrompido el sistema de ficheros. Porque he llegado a perder un sistema de ficheros completo de una máquina virtual después de un triste kernel panic, supongo que debido a una mala inicialización de un puntero que sobreescribió algunas estructuras internas del ext2. La primera cosa que se aprende cuando se programa en dentro del kernel es que hay que mantener una copia de toda la programación en una máquina diferente, móntalo como sea, ya sea con NFS, con ftps, o con máquinas virtuales mientras esta no acceda directamente a una partición del ordenador donde se está trabajando. Los ficheros permanecen seguros en otra máquina. Aún así no se ahorra uno tiempo teniendo que hacer los e2fsck incluso para los sistemas ext3, después de un kernel panic. Así que, con todo esto no sorprende que poca gente haya entrado en la programación real del sistema operativo. 7.2. Uso del debugador El uso de un debugador está mal visto generalmente por gente como Linus Torvalds. Considerando lo que él mismo ha dicho en la lista de mailing del kernel de Linux: “ I’m afraid that I’ve seen too many people fix bugs by looking at debugger output, and that almost inevitably leads to fixing the symptoms rather than the underlying problems.” Linus Torvalds Dice que se debe usar el código fuente para resolver los problemas y los bugs del kernel. Además que resolviendo bugs mirando sólo el debugger se peca de arreglar los sintomas en vez de resolver el problema que está tras ellos. El uso de un debugador solamente no es suficiente, debe mirarse el código. Pero también hay que tener en cuenta que es necesario tener mucha experiencia programando, y resolviendo problemas que ya han visto antes. Es necesario llegar a la raíz del problema observando el código. Pero llegar a tener esta experiencia programando en el kernel requiere un uso inteligente del debugador. 1. Usar el debugador para recoger las evidencias alrededor del problema. 2. Estudiar el código y pensar qué está sucediendo. 118 7 HACKING DEL KERNEL 7.2 Uso del debugador 3. Intentar concentrasrse en las posibles causas de los síntomas que se ve en el debugador. Entonces pensar las posibles causas hasta la raíz del problema. Escibir una lista de posibilidades, poniéndolas en orden de parecido al problema y probándolas una a una. El proceso de clarificación de ideas escribiéndolas puede ser de gran ayuda. 4. Hasta que se tenga más experiencia, se debería usar el debugador para probar algunas ideas probando valores de variables. Por eso el debugador es una herramienta para estimular la razón, y el pensamiento lógico para averiguar que está sucediendo en el código. No hay que resolver los problemas para arreglar la salida del debugador. Y aquí hay una lista de las cosas que se deben hacer y las que no: Qué hacer: 1. Estudiar el código antes de empezar a jugar con el debugador. Se es mucho más productivo si se tiene en mente el código, antes de empezar a debugar. 2. Usar el debugador para probar las ideas y presunciones, los bugs vienen normalmente como resultado de presunciones incorrectas. Pues bueno hay que hacer más intentos, que es posible que fallen, pero también es posible que no. 3. Si las presunciones son incorrectas, hay que aprender de porqué esa presunción está mal, es importante que no se repita, porque a lo mejor la próxima vez no nos rebentará a nosotros, sino a otros, o peor aún que de un kernel panic cuando tenemos un ordenador en producción. 4. Descartar el debugador cuanto antes mejor. Trabajar en el código. Qué no hacer: 1. Ignorar las causas reales del problema que podamos pensar. Cuando se encuentra que algo está mal, no hacer que funcione para este o ese otro caso, para que parezca que funciona. Un ejemplo clásico es añadir otra sección a un statement del switch para cubrir las posibilidades que no se hayan pensado. 119 7 HACKING DEL KERNEL 7.3 printk 2. Resolver ciegamente un problema con el debugador. Se puede llegar a conclusiones erróneas y no se aprende mucho sobre el proceso. Una vez entendido como debe usarse un debugador y como no debe usarse vamos a ver las diferentes posibilidades que hay disponibles. Existen varias formas para debugar: 7.3. printk La función printk es la forma que se tiene de guardar logs del sistema y pasarlos al syslog. printk() pasa mensajes del kernel a la consola, al dmesg y al demonio syslog. Es útil si se esta debugando y haciendo reports de errores, y puede usarse dentro de un contexto de una interrupción [RU1], pero debe usarse con cuidado: si la máquina tiene su consola saturada de mensajes printk no es útil. Usa un formato muy parecido y casi compatible con la función printf del ANSI C, y la concatenación de strings para dar prioridades a los argumentos: printk( KERN_INFO “i = %u\n”, i); Es necesario ver el fichero include/linux/kernel.h para ver otros valores del KERN_. Estos se interpretan como el nivel para el syslog. Un caso especia para imprimir una IP en uso es de la siguiente manera: __u32 ipaddress; printk(KERN_INFO “mi ip: %d. %d. %d. %d\n”, NIPQUAD(ipaddress)); printk () usa internamente un buffer de 1KB y no puede pillar overruns. Así que hay que asegurarse que el mensaje no es mayor. Dicen los gurus que se sabe que uno es un hacker del kernel auténtico cuando se escribe en vez de usar printf en un programa normal se usa printk. A mi todavía no me ha pasado, todavía. Los ocho posibles tipos de nivel que se definen en la cabecera <linux/kernel.h> son los siguientes: KERN_EMERG: Usado para mensajes de emergencia, normalmente cuando se va a producir un crash del sistema. 120 7 HACKING DEL KERNEL 7.3 printk KERN_ALERT: Una situación que requiere una acción inmediata. KERN_CRIT: Condiciones críticas, normalmente relacionados con problemas serios de hardware o software. KERN_ERR: Usado para indicar errores de condiciones KERN_WARNING: Warnings sobre situaciones problemáticas que en sí no pueden crear problemas serios al sistema. KERN_NOTICE: Situacioens que son normales, pero que se quieren anotar. Las condiciones relacionadas con la seguridad se reportan a este nivel. KERN_INFO: Mensajes informativos. Muchos drivers muestran información del hardware que encuentran al arrancar y la muestran en este nivel. KERN_DEBUG: Usado para mensajes de debugaje. Cada string representa un entero. Que van desde 0 a 7, con los valores más pequeños representando las prioridades más altas. [ALS]. Basándose en el nivel del log, el kernel puede que muestre los mensajes en la consola, en un terminal modo texto o en una impresora. Si la prioridad es menor que la variable console_loglevel, entonces los mensajes se muestran por consola. Si ambos klogd y el syslogd están ejecutándose en el sistema, los mensajes del kernel se añaden a /var/log/messages o donde se haya configurado con el syslogd. Si el klogd no se está ejecutando, los mensajes no se mostrarán en el espacio de usuario, a no ser que se lea /proc/kmsg. La variable console_loglevel se inicializa a DEFAULT_CONSOLE_LOGLEVEL y puede ser modificada a través de la llamada a sistema sys_syslog. En el kernel actual se puede hacer que todos los mensajes se muestren por consola haciendo los siguiente desde la cuenta de root: (bash)$ echo 8 > /proc/sys/kernel/printk La mejor ventaja que tienen es que es fácil de usar, haces un printk y si luego hay un kernel panic, pues se mira hasta donde ha ido. Fácil y sencillo. Además de poder usarse siempre, incluso dentro de una interrupción. 121 7 HACKING DEL KERNEL 7.4 Oops Pero tiene varios inconvenientes. Si por ejemplo tenemos un error puñetero, como por ejemplo que cuando empezamos a leer de un device, por ejemplo, nosotros sobreescribimos toda la memoria. Los errores de sobreescritura de memoria son muy comunes en los programas hechos en C, pero aquí nadie nos protege de escribir en donde no debamos, porque estamos dentro del kernel mode. En este tipo de casos muchas veces el kernel puede hacer un reboot instantaneo y no saber qué demonios había pasado, en estos casos los printk’s que estaban a punto de escribirse no lo hubiesen hecho y luego uno duda si realmente los últimos printk’s es realmente lo último que se ha hecho. Así que es necesario usar además del printk otros mecanismos para debugar el código y los errores. 7.4. Oops Cuando el kernel detecta que existe una condición de anomalía seria, se dispara un ’oops’. Un oops tiene dos funciones principalmente: Volcar la información de debugging interesante que podemos usar para diagnosticar la causa del problema. Probar y prevenir que el kernel pierda el control y que cause corrupción en los datos, o aún peor que se cause daño al hardware, aunque es difícil que suceda, es posible. Al principio, un oops parece completamente incomprensible, un montón de líneas con valores hexdecimales y con datos que parecen crípticos. ![CDATA[ CPU: 0 EIP: 0010:<c011933c> Tainted: P Using defaults from ksymoops -t elf32-i386 -a i386 EFLAGS: 00010002 eax: 00000ce0 ebx: 00001000 ecx: c778a510 edx: 00000610 esi: 00000002 edi: 00000000 ebp: c02165c0 esp: c6663f58 ds: 0018 es: 0018 ss: 0018 Process pcmcia (pid: 1003, stackpage=c6663000) Stack: 00000000 c02165a0 00000000 c02165c0 c6663fc4 c01193cf c0116340 00000000 00000001 c02165c0 fffffffe c011616a 122 7 HACKING DEL KERNEL 7.4 Oops c0214900 00000000 c6663fbc 00000046 c010817d 00000000 Call Trace: <c01193cf><c010ac96><c0116406><c0116340><c011616a> Code: 89 42 04 89 10 c7 41 04 00 00 00 00 c7 01 00 00 00 00 fb 53 > > EIP; c011933c <timer_bh></timer_bh>+228/27c> ===== Trace; c01193cf <do_timer></do_timer>+3f/70> Trace; c010ac96 <timer_interrupt></timer_interrupt>+62/110> Trace; c0116406 <bh_action></bh_action>+1a/48> Trace; c0116340 <tasklet_hi_action></tasklet_hi_action>+40/60> Trace; c011616a <do_softirq></do_softirq>+5a/ac> Trace; c010817d <do_irq></do_irq>+a1/b4> Trace; c0109f48 <call_do_irq></call_do_irq>+5/d> Code; c011933c <timer_bh></timer_bh>+228/27c> 00000000 <_eip>: Code; c011933c <timer_bh></timer_bh>+228/27c> ==== 0: 89 42 04 mov %eax,0x4( %edx) ==== Code; c011933f <timer_bh></timer_bh>+22b/27c> 3: 89 10 mov %edx,( %eax) Code; c0119341 <timer_bh></timer_bh>+22d/27c> 5: c7 41 04 00 00 00 00 movl $0x0,0x4( %ecx) Code; c0119348 <timer_bh></timer_bh>+234/27c> c: c7 01 00 00 00 00 movl $0x0,( %ecx) Code; c011934e <timer_bh></timer_bh>+23a/27c> 12: fb sti Code; c011934f <timer_bh></timer_bh>+23b/27c> 13: 53 push %ebx 0>Kernel panic: Aiee, killing interrupt handler! 3 warnings issued. Results may not be reliable. ]]> </_eip></c0109f48></c010817d></c011616a></c0116340> La anatomía de un oops es muy de bajo nivel, además cada imagen del kernel tienen un oops específico. Por eso, se necesita hacer un post proceso para obtener información de donde empezar a hacer el proceso de debugaje. La idea es compilar 123 7 HACKING DEL KERNEL 7.5 Máquinas virtuales en ensamblador allá donde creemos que está dando el error, y mirar las últimas operaciones para saber donde nos ha dejado colgado el kernel. Esta es la única manera de saber qué le ha pasado a un kernel que ha dado un kernel panic y ha dejado de funcionar. Los inconvenientes son varios, para empezar es muy difícil de entender el volcado (aunque cuando es la única ayuda disponible esta es muy valiosa) y otro inconveniente es que hay que compilar el kernel con la opción oops y está ocupa espacio dentro del kernel, que a pesar de ser pequeño es importante en proporción al resto de kernel. 7.5. Máquinas virtuales Cuando habían los mainframes, y la misma máquina se compartía entre varios sistemas nació la idea de máquinas virtuales. Una máquina virtual es una encapsulación de un ordenador a tu entera disposición. Un programa dentro de una máquina virtual no tiene acceso real al hardware físico. Todo el acceso al hardware se controla mediante la máquina virtual, que emula al ordenador. Es una interfaz entre el programa y la máquina real. La idea es tener un ordenador con un sistema operativo sobre el que se trabaja, donde se edita y se compila el código. Tener bajo este sistema operativo un programa que sea una máquina virtual, y sobre este programa que emula un ordenador hacer correr el sistema operativo que está bajo desarrollo. Así de esta manera cuando el sistema sobre el que estamos trabajando se cuelga, o da un kernel panic, o sobreescribe datos del disco, solo le afecta a la máquina virtual. Y así mientras se reinicia el sistema se puede seguir trabajando con la misma sesión. Al ordenador físico no le pasa nada. Existen dos posibilidades, de máquinas virtuales: una que es la VMware (Virtual Machine ware) y otra de libre distribución llamada UML (User Mode Linux). VMware es muy potente, permite emular cualquier sistema operativo basado en x86, bajo Windows NT, Windows 2000, Windows XP o Linux. Y puede correr bajo máquinas x86 y sobre ordenadores basados en chips de Motorola como los Macintosh. La versión para Linux que se puede bajar por Internet cuesta 299$ US. 124 7 HACKING DEL KERNEL 7.6 Debugando con dos máquinas VMware emula una máquina x68, con alguna característica, por ejemplo la interfaz del disco duro es un scsi, la targeta de red es una AMD, etc.. A la hora de recompilar el kernel es necesario activar el soporte para targetas de red AMD PCnet32 PCI. Y activar el soporte SCSI igual que el soporte para discos SCSI. UML es la segunda opción, es gratuito, pero tiene un inconveniente y es que no es una máquina virtual completa. No emula diferentes tipos de hardware, tampoco te da la posibilidad de ejecutar ostro sistema operativo. Pero permite ejecutar un kernel en el espacio de usuario, y eso representa varios beneficios cuando se trata de desarrollo: los ficheros del host están protegidos, el sistema de ficheros virtual se puede descargar, se pueden ejecutar varias máquinas en una sola, y lo mejor es que es muy fácil usar el degubador para el kernel. No se necesita comprar más hardware para hacer los tests, al menos que se esté programando un device específico. Ejecutar el UML es fácil, hay que bajar los binarios y luego, o bien instalar un nuevo sistema o bien bajarse uno que ya esté prehecho de la página web. A pesar de algunos inconvenientes del sistema UML, tiene una ventaja muy buena a la hora de programar algún sistema de ficheros, pues el resultado de las operaciones pueden destrozar el sistema de ficheros. Cuando se trabaja con UML si hay un kernel panic del sistema de ficheros, lo único que hay que hacer es borrar un fichero .cow (ficheros Copy On Write), y en caso de estar corrupto el sistema de ficheros, este se restaura a la versión original, así que ya no hay que hacer los fsck’s. 7.6. Debugando con dos máquinas Esta solucón pasa por tener dos máquinas en una se desarrolla el software y en la otra se ejectua el kernel de desarrollo. Debe ser capaz de ejecutarse el debugador en la máquina de desarrollo y tener un terminal de consola abierto al segundo ordenador. Hay que montar dos máquinas, máquina de trabajo y la otra máquina te testeo, donde se ejecutarán los kernels en desarrollo. 125 7 HACKING DEL KERNEL 7.6 Debugando con dos máquinas Hardware La primera máquina tiene el sistema operativo de desarrollo con una tarjeta ethernet. La segunda máquina, no necesita monitor, dependiendo de lo antiguo que sea el ordenador (depende de la BIOS) necesitará un teclado para arrancar, aunque es muy recomendable, al menos para hacerle un Ctr-Alt-Supr y otras operaciones en el caso de no poder acceder remotamente. También necesita una Ethernet, aunque lo mejor es tener dos Ethernets en esta máquina y así poder pasar paquetes a través de ella. Construir dos cables serial, uno servirá para ejecutar el gdb (el debugger) y el otro para dar acceso a una consola así puede controlarse remotamente. Los cables serial necesitan tener esta disposición: Solder-side pins: \-----------------------/ \ 1 \ 2 6 3 7 4 8 5 9 / / \-----------------/ Wiring: (use 7 or 10 wire foil screened cable) 1 | 6---------------4 2---------------3 3---------------2 4---------------6 | 1 5---------------5 7---------------8 8---------------7 Necesitan estar conectados cada uno entre los puertos serie respectivos de cada uno de los ordenadores. com1 al com1 y com2 al com2. 126 7 HACKING DEL KERNEL 7.6 Debugando con dos máquinas Software Instalar ssh en apollo, instalar sshd en la segunda máquina que es el servidor para conexiones del tipo ssh (Sercure SHell), con este servidor no solo se pueden hacer conexiones de consola con una shell también se puede hacer transferencias de ficheros mediante conexiones seguras a modo de ftp. Que servirán para traspasar ficheros. Configurar el sistema de tal modo que haya acceso a la segunda máquina desde la primera. Dar permisos de lectura/escritura a /dev/ttys0 y a /dev/ttyS1que corresponden a los puertos serie. Instalar minicom en ambas máquinas, es un programa para hacer telecomunicaciones entre sistemas UNIX y puede encontrarse en http://www.netsonic.fi/~walker/minicom.html. Para la preparación del kernel se tardará más tiempo. Es necesario bajarse el kernel 2.4.18 y descomprimirlo en la máquina apollo. No se debe instalar el último kernel el 2.4.19 porque se necesita un parche para ejecutar el kgdb y este solo esta disponible para 2.4.18 y anteriores. Bajarse el parche antes comentado en http://kgdb.sourceforge.net/. Aplicarle el parche desde el bash de la siguiente manera: cat kgdb\_2.2.18.diff |patch -p2 Entonces compilar el kernel de manera que como se ha hecho siempre, pero en el menú hay que añadir a la configuración usual dos nuevas opciones: * support for console on serial port under character devices * kernel support for gdb (new) under kernel hacking. Y es recomendable compilar todas las opciones directamente al kernel en vez de usar los módulos, así cuando pasemos los ficheros habrá que pasar solo la imagen del kernel. Tras esto hacer un ’make dep bzImage’ como de una compilación del kernel normal y corriente. Copiar la imagen a la segunda máquina, también se puede usar un FTP, pero no es necesario si se dispone del sshd, solo hay que escribir la siguiente orden: scp arch/i386/boot/bzImage segunda:bzimage-2.2.18-kgdb 127 7 HACKING DEL KERNEL 7.6 Debugando con dos máquinas Entrar en la segunda máquina, y desde la cuenta de root, copiar la imagen del kernel al directorio /boot y añadir las siguientes líneas en la configuración del lilo, para crear una nueva entrada con el nuevo kernel. image=/boot/bzImage-2.2.18-kgdb label=kgdb root=/dev/hda1 read-only append=" gdb gdbttys=0 console=ttys1" serial = 0,9600n8 La última línea nos dice que podemos controlar las opciones del lilo cuando se arranca el ordenador desde la misma consola conectada al serial com2, se puede usar el gdb (el debugador) por /dev/ttyS0 y además se usa la /dev/ttyS1 para usarlo como una consola. De esta manera se pontrola todo el proceso de debugaje y con la consola se puede acceder remotamente, con los cables por los puertos serie. Es muy importante ejecutar lilo cuando se haya terminado de editar este fichero, en el supuesto que pasara leer en la sección de compilar el kernel la solución. En la máquina de desarrollo hay que crear un fichero llamado .gdbinit en el directorio raíz del código fuente del kernel, este fichero debe contener las siguientes líneas: define rmt set remotebaud 38400 target remote /dev/ttyS0 end Ejecutar en esta máquina como root la siguiente orden: minicom -s Y en este programa se dispone de un menú donde hay que configurar las opciones del puerto de serie. 128 7 HACKING DEL KERNEL 7.6 Debugando con dos máquinas Serial Device Lockfile Location : /dev/ttyS1 : /var/lock Callin Program Callout Program Bps/Par/Bits : : : 9600 8N1 Hardware Flow Control Software Flow Control : No : No Luego guardarlo en la opción ’Save setup as dfl’ y tras guardar la configuración como defecto salir. Así dejar luego al minicom esperando una sesión. Rebotar la segunda máquina y entonces aparecerá en la primera por la salida del minicom las siguientes líneas: Linux version 2.2.18serialgdb Detected 167046 kHz processor. Console: colour VGA+ 80x25 Calibrating delay loop... 333.41 BogoMIPS Memory: 63556k/65536k available (704k kernel code, 408k reserved, 824k data, Dentry hash table entries: 8192 (order 4, 64k) Buffer cache hash table entries: 65536 (order 6, 256k) Page cache hash table entries: 16384 (order 4, 64k) CPU: Intel Pentium 75 - 200 stepping 0c Checking 386/387 coupling... OK, FPU using exception 16 error reporting. Checking ’hlt’ instruction... OK. Intel Pentium with F0 0F bug - workaround enabled. POSIX conformance testing by UNIFIX Trying to free free IRQ4 Waitng for connection from remote gdb on ttyS0 Entonces sabremos que la configuración a dado resultado. En la primera máquina tenemos que arrancar el debugger apretando gdb vmlinux>(en la raíz del directorio del código fuente) y entonces arrancará el gdb y mostrará una información sobre el programa y aparecerá una línea de comandos. Hay que escribir rmt y entonces leerá el fichero .gdbinit, se conectará al puerto serie y debe mostrar las lineas siguientes: 129 7 HACKING DEL KERNEL 7.6 Debugando con dos máquinas (gdb) rmt 0xc010da29 in breakpoint () at gdb.c:701 701 (gdb) if (initialized) BREAKPOINT(); Se puede continuar y pasar por los breackpoints con el comando de continuar del gdb que es el ’c’. De esta manera se puede debugar el kernel y saber en todo momento qué es lo que hace y allá donde nos da problemas poder averiguar y probar posibles soluciones. 130 8 DISEÑO DE LA APLICACIÓN 8. Diseño de la aplicación 8.1. Esquemas UML Debido a que dentro del kernel de Linux no se puede compilar en C++ no existen objetos ni tampoco clases. Esto hace que dos de los diagramas más importantes del UML no puedan crearse. Aún así UML es suficientemente versátil como para poder definir un proyecto sin usar estos dos diagramas. Para entender un proyecto debemos disponer al menos de un diagrama estructural, para tener una vista el diseño de la estructura, y otro diagrama dinámico, para tener una vista del funcionamiento. Los siguientes puntos detallan los diferentes diagramas del proyecto: un diagrama de casos de uso, dos diagramas de actividades y otro diagrama de secuencia. 8.1.1. Casos de uso Casos de Uso es una técnica para capturar información de cómo un sistema o negocio trabaja, o de cómo se desea que trabaje. En el diagrama casos de uso se representa las operaciones que el Administrador puede hacer con el firewall. Casos de Uso Firewall Cargar políticas Leer logs Administrador Ver estadis. Las cargas de políticas se producen cuando el administrador desea modificar 131 8 DISEÑO DE LA APLICACIÓN 8.1 Esquemas UML las políticas y tras cambiar el fichero de configuración se dispone a cambiar las políticas. Devuelve un mensaje de error indicando si el fichero está incorrectamente tipificado, o bien un mensaje mostrando la correcta carga de los nuevos datos. El objetivo es cambiar las políticas que están guardadas dentro de las estructuras de datos del firewall. Leer los logs se produce siempre que el administrador desea comprobar los intentos de ataques que el firewall haya bloqueado para ver si se ha estado intentando un ataque desde alguna ip remota. El valor que devuelve es una lista con todos los logs. El objetivo es mantener unos registros del funcionamiento del firewall. Ver las estadísticas se usa cuando el administrador desea comprobar el funcionamiento actual del firewall, así como la suma total de las operaciones que haya ejecutado. Devuelve la suma de todos los paquetes que se hayan chequeado, como los bloqueados. El objetivo es poder ver unas estadísitcas del firewall resumidas y actualizadas en todo momento. La cronología de los casos de usos tiene sentido de la siguiente manera: cargar las políticas al principio, comprobar que funciona con la vista de las estadísticas y cada cierto tiempo comprobar el estado de la máquina viendo los ficheros log. 8.1.2. Diagramas de actividades Un estado de actividad representa una actividad: un paso en el flujo de trabajo o la ejecución de una operación. Se usan para entender el comportamiento de una parte del programa. Muestran una vista dinámica del funcionamiento del programa. El primer diagrama muestra como se cargan las políticas dentro de las estructuras internas del firewall. 132 8 DISEÑO DE LA APLICACIÓN 8.1 Esquemas UML Introducir políticas Parsear políticas incorrecto Mostrar errores correcto Introducir políticas CUIDADO! Semáforo de escritura Mostrar resultados Este esquema representa el proceso de cargado de políticas, lo primero que se realiza es un parseado del fichero, comprobando que las reglas estén semánticamente bien escritas. Genera los datos de acuerdo con lo leido en el fichero. Si todo este proceso fuese correcto entonces se introducen las políticas de seguridad dentro del firewall, habiendo activado el semáforo de escritura previamente. En el caso que el proceso diera errores se mostrarían los resultados sin modificar en ningún momento la estructura interna del firewall. En el segundo diagrama de actividades se muestra como funciona el filtro de un paquete, guardado en un sk_buff. 133 8 DISEÑO DE LA APLICACIÓN 8.1 Esquemas UML Filtrar sk_buff Filtrado de un sk_buff otra búsqueda CUIDADO! Semáforo de lectura Es esta política? Encontrada Hay que hacer log? log Pasa el filtro? bloquear printk de los datos liberar sk_buff pasar Retornar sk_buff Para cada estructura sk_buff que entra dentro del filtro se busca si hay alguna política que pertenezca al sk_buff. El orden de las políticas es importante ya que la primera política que de éxito se pasará a la siguiente fase. Si la política específica muestra que hay que hacer log se guarda mediante el printk los datos del sk_buff y el resultado de la operación de filtrado. El syslog ya se encargará de marcar la fecha y de su escritura en los ficheros de log del sistema. Después de ello se mira si hay que eliminar el paquete, en ese caso se libera el sk_buff, y si no es así se 134 8 DISEÑO DE LA APLICACIÓN 8.1 Esquemas UML continúa retorna del filtrado y se continua por donde estaba trabajando el sistema operativo. 8.1.3. Diagrama de secuencia El diagrama de secuencia muestra la relación que tienen los distintos componentes del sistema a lo largo del tiempo. El tiempo transcurre de arriba abajo. En este caso se muestra el diagrama de secuencia del proceso de filtrado de un paquete. Firewall filtrar() sk_buff dev Kernel Activar Semáforo Lectura recurrencia políticas Desactivar Semáforo Lectura retornar resultado Si bloquear kfree_skb(skb) Se observa como interactúan el firewall y el kernel a la hora de filtrar un sk_buff. Al hacer la llamada desde cualquier hook y pedirle al firewall si pasa el filtro o no, este activa el semáforo de lectura mediante las funciones que ofrece el kernel. Busca la política dentro de las estructuras de datos que tiene el firewall, y tras encontrarla le pide al kernel que libere el semáforo de lectura. Retorna el 135 8 DISEÑO DE LA APLICACIÓN 8.2 Exclusión mutua firewall el resultado del filtro y si se debe bloquear pues se pide al kernel que libere el búffer correspondiente a ese paquete. Sino se continúa como si no hubiera pasado nada. 8.2. Exclusión mutua Antes de explicar donde tratar los paquetes y como tratarlos, es importante hacer un repaso a la teoría de exclusión mutua, ya que antes de acceder a cualquier estructura de datos dentro del kernel hay que averiguar si debe controlarse con semáforos. 8.2.1. La importancia de los semáforos A la hora de hablar del kernel si se accede a cualquier tipo de estructura de datos desde dos sitios se tiene muy probablemente un bug, porque no se asegura la cosistencia de los datos dentro del kernel. Y como me pasó a mí, si no se protegen las estructuras con semáforos, el kernel hace un kernel panic y deja de funcionar a la mínima. Al principio como uno no está acostumbrado a trabajar dentro de un sistema operativo se le hace raro que se acceda a una estructura de datos desde dos sitios diferentes y que de la casualidad que al mismo momento que se accede a esas direcciones por una parte y que por otra parte se haga alguna operación no válida y que como resultado pare el sistema. Se hace difícil que se cumplan dichas condiciones, pero no es así, y por lo tanto hay que asegurarse de cumplir la teoría siempre que se tengan datos compartidos. 8.2.2. Locks de lectura Tenemos varios procedimientos de proteger los datos deshabilitando las IRQ. En el fichero include/linux/brlock.h se definen las diferentes posibilidades. Lo que hacen es hacer un #define que aunque no está recomendado simplifica mucho el trabajo. En el caso de la protección a los datos de sk_buff tenemos que usar la función br_read_lock_bh(BR_NETPROTO_LOCK) para activar el semáforo y entrar en la zona de exclusión mutua que el código se debe proteger mediante semáforos. Y el br_read_unlock_bh(BR_NETPROTO_LOCK) para salir de la zona crítica. La 136 8 DISEÑO DE LA APLICACIÓN 8.2 Exclusión mutua definición es la siguiente: #define br_read_lock_bh(idx) \ do { local_bh_disable(); br_read_lock(idx); } while (0) ... ... #define br_read_unlock_bh(idx) \ do { br_read_unlock(idx); local_bh_enable(); } while (0) Como puede verse, para entrar dentro de la zona protegida se desactiva primero los bh (botton halves) que es el mecanismo que se hacía en los anteriores kernels para proteger zonas de exclusión mutua. El principal inconveniente es que solo funciona para una sola CPU y por eso se usa ahora softirq’s pero lo cierto es que cuando se llega al proceso de tratar los paquetes, estos solo se tratan en una CPU así que nos sirve perfectamente este mecanismo. Y entonces se activa el lock sobre la variable BR_NETPROTO_LOCK. Como puede verse en el fichero include/linux/brlock.h solo existe dos tipos de locks para este semáforo, uno son los BR_NETPROTO_LOCK y otro son BR_GLOBALIRQ_LOCK. El modo de uso es parecido a esto: br_read_lock_bh(BR_NETPROTO_LOCK); .. -Región CríticaAcceso solo lectura .. br_read_unlock_bh(BR_NETPROTO_LOCK); El mecanismo que nos ofrece es vastante complejo, ya que en si se usa una arquitectura i386, ia64 o una x86_64 se pueden usar operaciones atómicas, y para el resto de casos no se usan los locks atómicos. Estos semáforos son solo para proteger los datos para lectura, cuando se desee hacer una escritura a los datos se debe usar los semáforos para protegerlos de las escrituras. Porque cuando se protege para lectura pueden acceder muchos mecanismo, pero cuando se accede para escritura solo puede entrar uno, en esos casos se usan los locks de escritura. 137 8 DISEÑO DE LA APLICACIÓN 8.2 Exclusión mutua 8.2.3. Locks de escritura Como he comentado los locks anteriores protegen los datos para que no se pueda hacer escritura sobre ellos, pero permite que otros procesos entren en la región crítica para hacer lecturas. Entonces para proteger los datos en las escrituras hay que usar otros semáforos. Cada vez que se quiera hacer una escritura a los datos, como por ejemplo cuando se guarda las políticas del firewall dentro de la estructura, se debe usar estas funciones: #define br_write_lock_bh(idx) \ do { local_bh_disable(); br_write_lock(idx); } while (0) ... ... #define br_write_unlock_bh(idx) \ do { br_write_unlock(idx); local_bh_enable(); } while (0) La primera función protege la región crítica de ser escrita y también de que no se lea. Tiene un control total de los datos. Y la segunda operación desprotege la región crítica y permite el acceso a los datos para el siguiente proceso. Como es lógico no se puede poner una de estas funciones sin la otra, una activa el semáforo y el otro lo desactiva. Y es muy importante que el uso de este proceso sea mínimo para no afectar al sistema haciendo que vaya más lento, y cuando se tenga que usar las operaciones que contenga tienen que ser pocas y rápidas. Así por ejemplo cuando se tenga que eliminar las políticas, lo que se llama hacerle un flush de los datos, se debería de programar algo parecido a esto: br_write_lock_bh(BR_NETPROTO_LOCK); .. -Región CríticaAcceso escritura .. br_write_unlock_bh(BR_NETPROTO_LOCK); Y dentro de la región crítica se puede escribir a los datos porque nadie más accede a ellos. Hay un ejemplo de este mecanismo, se encuentra en net/core/dev.c y se usa 138 8 DISEÑO DE LA APLICACIÓN 8.3 Filtrado de paquetes para hacer una llamada a una función y hacer que esta sea atómica con respecto a las capas de protocolos. void net_call_rx_atomic(void (*fn)(void)) { br_write_lock_bh(BR_NETPROTO_LOCK); fn(); br_write_unlock_bh(BR_NETPROTO_LOCK); } Se pasa un puntero de una función por parámetros, se activa el semáforo para la protección de escritura, se llama a la función y luego cuando esta termine se desactiva el semáforo que asegura la exclusión mutua. Esta función se llama dentro de los drivers y hace que la función que se le pasa como parámetro sea atómica. Es un mecanismo que ofrece el kernel para los desarrolladores de drivers. Y se debe reusar este código, porque los desarrolladores del kernel ya se han asegurado que sea portable dentro de cada una de las distintas arquitecturas. Y dependiendo de la arquitectura para donde se compila el kernel , hace unas funciones u otras. En cambio si tuviese que montarme los semáforos, serían poco portables. 8.3. Filtrado de paquetes El objetivo es poder insertar políticas de seguridad donde se pueda distinguir para cada paquete si entra o si sale, la interfaz y la información de la cabecera IP. La solución planteada es poner solamente cuatro hooks: uno en la entrada a la interfaz de entrada, otro a la salida de la interfaz de entrada, otro a la entrada de la interfaz de salida y el último a la salida de la interfaz de salida. Cada uno de ellos captura el sk_buff y se indica qué hook al hacer la llamada mediante las constantes MW_INPUTINT_IN, MW_INPUTINT_OUT, MW_OUTPUTINT_IN y MW_OUTPUTINT_OUT, se puede leer de la siguiente manera: MY como una cosntante de la aplicación MyWall, INPUTINT o bien OUTPUTINT según sea la interfaz de entrada o la interfaz de salida, y el IN o bien el OUT indica si es de entrada o salida respecto esa interfaz. La información de la interfaz está dentro de la estructura sk_buff, en el apartado dev, que indica de qué interfaz se trata. 139 8 DISEÑO DE LA APLICACIÓN 8.3 Filtrado de paquetes Que conjuntamente con la cabecera ip nos indica toda la información necesaria para filtrar, a la cabecera IP se puede acceder mediante iphdr dentro de sk_buff (la estructura sk_buff se encuentra detallada en el Anexo A). 8.3.1. ip_input.c El hook de entrada el filtro tiene que estar situada allá donde todos los paquetes pasen por ella al entrar en el sistema operativo, entonces el mejor lugar es justo después de hacer los chequeos a la cabecera IP, allí se inserta la función que llama al filtro. Si el resultado de la búsqueda es eliminar el paquete entonces se elimina y sino pues se deja estar y contina el camino del skbuff. El primer sitio donde poner el filtro es en el fichero net/ipv4/ip_input.c justo donde se termine la función ip_rcv: /* * Main IP Receive routine. */ int ip_rcv(struct sk_buff *skb, struct net_device *dev, struct packet_type * { ... ... iph = skb->nh.iph; if (ip_fast_csum((u8 *)iph, iph->ihl) != 0) goto inhdr_error; { __u32 len = ntohs(iph->tot_len); if (skb->len < len || len < (iph->ihl< <2)) goto inhdr_error; if (skb->len > len) { __pskb_trim(skb, len); if (skb->ip_summed == CHECKSUM_HW) skb->ip_summed = CHECKSUM_NONE; } 140 8 DISEÑO DE LA APLICACIÓN 8.3 Filtrado de paquetes } #ifdef CONFIG_MYWALL // Filtro de entrada // MW_INPUTINT_IN ... #endif Las órdenes de #ifdef y de #endif se usan para proteger el resto del código, en caso de compilar el kernel sin las opcciones de mi filtro (llamado mywall) el compilador extraería las líneas de código que hay entre las definiciones. Pero si alguien desea incluir este firewall dentro de su kernel, entonces incluye los ficheros de CONFIG_MYWALL y el compilador deja el código tal cual, apareciendo las funciones que estén incluidas dentro de la definición. 8.3.2. ip_forward.c Aquí se disponen dos hooks, el primero se situa para la salida del paquete de la interfaz de entrada al ordenador y el segundo se dispone para la entrada del paquete a la interfaz de salida. Que corresponden a las constantes MW_INTPUTINT_OUT y para MY_OUTPUTINT_IN. Están situados en el fichero net/ipv4/ip_forward.c, en la función ip_forward(skb). El primero antes de decidir el destino del paquete, y el segundo hook antes de redirigirlo a la segunda interfaz. int ip_forward(struct sk_buff *skb) { struct net_device *dev2; /* Output device */ struct iphdr *iph; /* Our header */ struct rtable *rt; ... #ifdef CONFIG_MYWALL // Filtro MW_INPUTINT_OUT ... #endif iph = skb->nh.iph; 141 /* Route we use */ 8 DISEÑO DE LA APLICACIÓN 8.3 Filtrado de paquetes rt = (struct rtable*)skb->dst; ... #ifdef CONFIG_MYWALL // Filtro MW_OUTPUTINT_IN ... #endif return ip_forward_finish(skb); En la segunda llamada al filtro se le debe pasar el nuevo device (interfaz) calculado por la tabla de routing. Antes de pasar el segundo hook debe calcularse el TTL, operación que realiza el sistema operativo, si el TTL es menor que cero se devuelve un ICMP indicando que el tiempo de vida del paquete ha expirado. 8.3.3. ip_output.c Para el caso del filtro de salida el fichero donde se implementa es el net/ipv4/ip_output.c y se debe introducir justo antes de que el mensaje sea enviado a la cola de mensajes. Esta función es la ip_build_and_send_pkt: int ip_build_and_send_pkt(struct sk_buff *skb, struct sock *sk, u32 saddr, u32 daddr, struct ip_options *opt) { ... ip_send_check(iph); #ifdef CONFIG_MYWALL // Filtro de salida // MW_OUTPUTINT_OUT ... #endif /* Send it out. */ return output_maybe_reroute(skb); } 142 8 DISEÑO DE LA APLICACIÓN 8.3 Filtrado de paquetes Cuando se envie el puntero del skbuff al filtro se marcará como que se ha capturado saliendo, así se consigue la información que se desea. 8.3.4. El sk_buff El sk_buff es una estructra de datos donde los sistemas UNIX guardan los datos [WS2], es la forma que tienen de encapsular la información, se usa para describir el movimiento de los datos de red entre las capas de los protocolos. La definición de la estructura de datos es muy importante, es la representación de todos los datos, y siempre que se quiera acceder o realizar alguna operación a los datos de red se debe hacer a través de esta estructura. La definición se encuentra en include/linux/skbuff.h y la implementación de las funciones se encuentra en net/core/skbuff.c. La estructura de datos del sk_buff se puede encontrar en el anexo A. Paso a describir unas cuantas funciones disponibles para tratar los sk_buff. alloc_skb: Crea espacio para un nuevo network buffer, donde se le pasa el tamaño y la máscara. Y retorna un puntero al nuevo buffer. struct sk_buff *alloc_skb(unsigned int size,int gfp_mask) kfree_skbmem: Libera un skbuff pero no quita el estado de este. void kfree_skbmem(struct sk_buff *skb) kfree_skb: Libera un sk_buff y libera cualquier dato adjunto al buffer. Este sí que borra el estado del buffer. void kfree_skb(struct sk_buff *skb) skb_copy_bits: Vuelca algunos datos del skb a un buffer del kernel. Se indica el offset, un puntero a donde copiar los datos y cuántos datos copiar. int skb_copy_bits(const struct sk_buff *skb, int offset, void *to, int len) 143 8 DISEÑO DE LA APLICACIÓN 8.3 Filtrado de paquetes 8.3.5. Operaciones Sabemos como recoger una estructura sk_buff, sabemos dónde hacerlo y como podemos modificar los dato o acceder a ellos. Ahora falta explicar qué se hace con dicha estructura. Como se ha planteado un sistema de solo dos hooks había dos lugares donde podía suceder o bien que no cumpliese con las normas de seguridad o bien que sí las cumpliese. Cuando tenemos un paquete que está entrando y se captura en ip_input.c en la función iprcv( ) el buffer debe ser destruido con la función kfree_skb( ) o bien debe pasarse el buffer a la función ip_rcv_finish( ) que se encuentra en net/ipv4/ip_input.c: static inline int ip_rcv_finish(struct skbuff * skb) void kfree_skb(struct sk_buff *skb) En el caso de eliminarse debe ser porque en la lista de políticas concordaba algún drop. En el segundo caso es porque habría llegado a un pass. Cuando el paquete está saliendo del sistema y se ha capturado en ip_output.c dentro de la función ip_fragment( ) el paquete debe ser eliminado usando la función kfree_skb( ) si no pasa las políticas de seguridad o bien debe enviarse a la pila de salida mediante la función IP_INC_STATS( ) void kfree_skb(struct sk_buff *skb) 144 9 IMPLEMENTACIÓN DEL FIREWALL 9. Implementación del firewall En este capítulo se narra los resultados conseguidos después del desarrollo, como los problemas y las experiencias más importantes tanto a la hora de debugar como a la hora de tratar con los semáforos. Después se explica como montar un escenario para poder probar el firewall y por último los resultados de dicho escenario. 9.1. Desarrollo El desarrollo de las aplicaciones dentro del kernel como ya se ha comentado es tedioso, laborioso y un proceso largo. Este es el resultado del proceso de trabajo. 9.1.1. Debugar Todas las formas de debugar que he mostrado son muy útiles, pero hay escenarios que son más dificiles de probar. Por ejemplo, tenía que probar como el firewall bloquea paquetes, no solo que le llegan a él y los bloquea cuando debe, sino que además tiene que enviarlos a otras interfaces correctamente cuando no debe bloquearlos. El proceso es el siguiente: nada más entrar el paquete tiene que pasar, las políticas del firewall, después ir al servicio routed, que es el demonio encargado de dirigir los paquetes a la interfaz adecuada según su dirección ip destino. Tras pasar por este servicio los paquetes deben pasar otra vez por el firewall y sus políticas. No es factible trabajar con un kernel inestable y a la vez usar el mismo para guardar los cambios. Es necesario trabajar como mínimo con una máquina virtual, ya sea con VMware o con UML. Pero no es posible probar como pasan los paquetes por el servicio routed y salen otra vez por otra interfaz en una máquina virtual. Porque la máquina virtual solo dispone de una interfaz ethernet, y no se puede hacer un forward por no tiene sentido un paquete que entra y vuelve a salir por la misma interfaz. La solución a la que se llega es configurar otro ordenador y probar el kernel en el otro ordenador, se edita el kernel en un ordenador y se hace las pruebas en el otro, pero aparece otro problema: el ordenador que tenemos haciendo las pruebas 145 9 IMPLEMENTACIÓN DEL FIREWALL 9.1 Desarrollo se conecta mediante la ethernet al primer ordenador, y precisamente esa parte del kernel la que se está modificando y la que es más inestable, así que no tenemos ninguna garantía que llegue correctamente el paquete aunque solo sea para entrar en la consola y ver como está trabajando el kernel recién compilado. Por lo que hay que conectar las dos máquinas como se ha explicado en el capítulo de hacking el kernel, en el apartado de debugando con dos máquinas. Pruebas Desarrollo Cable serie Debugador + Consola Firewall Router Salida Cable Ethernet NIC Paquetes IP NIC 1 NIC 2 9.1.2. Semáforos Cuando se trata los paquetes por el sistema operativo dentro del net/ipv4/ip_input.c, y tras pasar los chequeos simples sobre la cabecera para comprovar la integridad de los datos y otros chequeos, se recoge el paquete por el filtro y se pasa las políticas. Al llamar a la función para recoger la estructura sk_buff, al principio de todo lo que hice fue que me mostrará la información de cabecera IP del paquete que me acaban de pasar. Algo sencillo, simplemente pasar por el printk la IP origen, la IP destino y alguna información más de poca importancia. La cuestión era averiguar si capturaba todos los paquetes, como trabajar con las estructuras sk_buff y entonces empezar a implementar las listas y las comparaciones que había diseñado con el UML. Este era el código que pretendía implementar dentro de mi función: // Imprime la info del sk_buff: // // // N. de protocolo; IP origen : puerto origen; IP destino : puerto destino; // // tamaño total; Tipo de Servicio id; fragment offset; time to live 146 9 IMPLEMENTACIÓN DEL FIREWALL 9.1 Desarrollo // y que muestre los datos del sk_buff printk("PROTO= %d %u. %u. %u. %u: %hu %u. %u. %u. %u: %hu" " L= %hu S=0x %2.2hX I= %hu F=0x %4.4hX T= %hu", ip->protocol, NIPQUAD(ip->saddr), src_port, NIPQUAD(ip->daddr), dst_port, ntohs(ip->tot_len), ip->tos, ntohs(ip->id), ntohs(ip->frag_off), ip->ttl); for (opti = 0; opti < (ip->ihl - sizeof(struct iphdr) / 4); opti++) printk(" O=0x %8.8X", *opt++); printk("\n"); Llegados a este caso me dispuse a compilar el kernel, lo cargue en la máquina virtual y la arranqué con el nuevo kernel recién compilado. Cual fue mi sorpresa que nada más intentar hacer un login como cualquier usuario el ordenador me daba un kernel panic y tenia que reiniciar la máquina. Era extraño porque se colgaba solo cuando hacia el login dentro de una consola. Si ni siquiera pasa por la tarjeta, no son datos que se reciban por ip. O al menos esa es una idea que puede pensarse erroneamente. Entonces decidí pasar a intentar entrar remotamente mediante una sesión Telnet o bien mediante una sesión SSH, cual fue mi sorpresa que nada mas conectarse el ordenador me mostraba por la pantalla de consola un kernel panic. Y claro a cada kernel panic que hacía pues tenía que reiniciar la máquina virtual otra vez, luego hacía un chequeo del sistema de ficheros para comprobar que estaba correcto, tardaba mucho tiempo y no hacía nada. Por qué me daba aquel kernel panic si lo único que estaba haciendo era mostrar por pantalla y por el sistema de ficheros de log unos simples mensajes, algo que por separado había funcionado perfectamente. Entonces había que instalar el debuggador, hacerle un trace por el kernel y averiguar qué demonios le estaba pasando. No voy a explicar como debugué el kernel, pues hay un capítulo entero que habla de ello. Pero lo que averigüé era que estaba dando errores cada vez que accedia a los datos del sk_buff que le estaba pasando. No había protegido el acceso a los datos con ningún spinlock! grave error que me había supuesto una semana entera de trabajo! 147 9 IMPLEMENTACIÓN DEL FIREWALL 9.2 Escenario Las conclusiones a las que llegué fueron varias: había aprendido, a parte que me estaba dando cuenta de donde me había metido, primero la importancia que tenían los semáforos, tenía que aprender como funcionaban y luego como los debía utilizar. Segundo que cada vez que alguien se conectaba mediante la consola de pantalla lo estaba haciendo mediante TCP/IP y que todo paquete que bloquease en un futuro me prohibiría acceder por el mismo puerto de consola. Tercero, que el kernel a la mínima sospecha que tiene de que se está incumpliendo la calidad de preemptivo hace un kernel panic, antes de que se dañe cualquier aparato hardware. Cuarto, en realidad no se mueve los datos de la estructura sk_buff, solo se copia el puntero que apunta a ella, por lo que cada vez que llega un paquete o se trata cualquier paquete esta estructura esta siendo accedida lo que significa que hay que protegerla mediante un semáforo, así que siempre que se accede a datos protegidos con semáforos las operaciones tiene que ser lo más rápido que se pueda. Estas son las conclusiones a las que llegué, puede que estén equivocadas, pero lo dudo. Pero me había servido para algo: me había dado cuenta de la importancia de los semáforos y había aprendido a debugar el kernel. Cuando le puse la protección adecuada el sistema operativo pasó a funcionar perfectamente. Al acceder mediante consola me daba el siguiente mensaje en el syslog: PROTO=17 127.0.0.1:745 127.0.0.1:111 L=84 S=0x00 I=0 F=0x4000 T=64 Lo que me daba la razón a la primera hipótesis: al acceder mediante consola lo hace usando TCP/IP y se envía paquetes del puerto 745 al 111. Por otra parte ahora se podía acceder mediante SSH y mediante Telnets, funcionaba todo correctamente. 9.2. Escenario Para poder ver los resultados es necesario montar el escenario que se compone de unos equipos hardware, el kernel compilado con el firewall nuevo y configurar el firewall y los otros equipos. 148 9 IMPLEMENTACIÓN DEL FIREWALL 9.2 Escenario 9.2.1. Hardware El escenario para probar el correcto funcionamiento del firewall es parecido al escenario de debugar. Pero existe una diferencia y es que ahora es imperioso tener un router o algún equipo que nos retorne los paquetes. Es necesario montar ordenador con una tarjeta Ethernet, otro ordenador con dos tarjetas de red y un router con al menos una entrada Ethernet. Se conectan los ordenadores formando una red (RedA) y otra red entre el segundo ordenador y el router (RedB). Nuevo Kernel Generador de paquetes Firewall Router Salida RedB RedA NIC NIC 1 NIC 2 loopback 9.2.2. Compilar kernel En el segundo ordenador donde se instala el firewall hay que instalar un kernel nuevo con el firewall incluido. Para ello es necesario bajarse un kernel nuevo del www.kernel.org descompilarlo y aplicarle el patch de nuestro firewall. Así se elimina el firewall de Netfilter que está en todos los kernels 2.4 y se instala el nuevo firewall. Para ello hay que compilar el kernel y crear una imagen del kernel. Con esta imagen se traspasa al ordenador del firewall, se añaden las líneas necesarias en la configuración del lilo, y se ejecuta el lilo y se rebota la máquina. Todos estos procesos están correctamente explicados en la parte teórica. 9.2.3. Configurar el firewall Una vez arrancado el ordenador donde reside el nuevo kernel con el firewall, hay que editar el fichero de configuración del firewall. Este fichero es el /etc/mywall.conf. En este fichero se definen los comentarios con las líneas que empiezan con un ’#’ y entonces cada línea corresponde a una política del firewall. 149 9 IMPLEMENTACIÓN DEL FIREWALL 9.2 Escenario La sintaxis de las órdenes del firewall son las siguientes: interfaz int ip origen / mask : puerto : puerto entrada salida ip destino todas / mask pasar registrar bloquear todas Donde pone int, se debe poner la interfaz, luego se puede indicar si de entrada, si es de salida o si es indistinto su sentido respecto la interfaz, se muestra la dirección IP origen con su máscara o bien any para todas las ip, después se indica el número de puerto origen, y se repite con la dirección IP destino con su respectiva máscara o bien con un any para indicar cualquier IP destino, luego viene el número de puerto destino y si se bloquea o no el paquete y al final si se hace un log cuando se case con éxito la regla. Esta sintaxis permite filtrar por interfaz y el sentido respecto esta. Permite filtrar por IP destino o IP origen y también por número de puerto, o bien ambos conjuntamente. Insertar entonces en el fichero /etc/mywall.conf las siguientes líneas: # # nombre int # sentido IPorig interfaz eth0 entrada interfaz eth0 entrada interfaz eth0 entrada todas todas todas interfaz eth1 todas IPdest pas/bloq 10.1.0.1/32:80 pasar 10.1.0.1/32:23 pasar todas bloquear todas registrar registrar pasar De esta manera solo se permitirá ver la página web y el Telnet de la máquina 10.1.0.2. Una vez guardada se ejecuta la orden: mywall -F -f /etc/mywall.conf El -F hace un flush de los datos actuales y el -f indica el fichero donde están las configuraciones. 150 9 IMPLEMENTACIÓN DEL FIREWALL 9.2 Escenario 9.2.4. Configurar la red Para que los paquetes nos retornen hay que configurar el router para de manera estatica y decirle que la redA está disponible a través del ordenador firewall. Así que podemos poner los números de red: RedA 10.2.0.0/16 RedB 10.1.0.0/16 Primer ordenador: eth0 10.2.0.1 máscara 255.255.0.0 Segundo ordenador: eth0 10.2.0.2 máscara 255.255.0.0 eth1 10.1.0.2 máscara 255.255.0.0 Router: eth0 10.1.0.1 máscara 255.255.0.0 ruta estática a 10.2.0.0 / 16 por 10.1.0.2 En el router se ha activado el servidor web y un servidor telnet. También es recomendable que se le active algún otro servicio, que servirá para comprobar como el firewall bloquea el puerto y no se recive ningún paquete de dichos servicios, ya que el firewall habría bloqueado la salida. 9.2.5. Resultados Los resultado se pueden observar porque debería de haber bloqueado todas las conexiones exceptuando las dos comentadas anteriormente y porque al poner la orden: mywall -s Se ve una tabla con todas las estadísticas parecida a esta: MyWall un Firewall de Carlos Morales. paquetes IP eliminados: 30 paquetes IP chequeados: 91 paqutes input: 51 bloqueados: 30 pasados: 21 paquetes output: 40 bloqueados: 0 pasados: 40 ... Como puede observarse, algunos de los paquetes que son input son eliminados y otros no. Si se sigue probando los contadores deben ir aumentando de valor. 151 10 CONCLUSIONES 10. Conclusiones La primera conclusión a la que se llega es que muy poca gente se ha atrevido a entrar dentro del kernel y programar cualquier algoritmo dentro de él, y por lo tanto, la documentación al respecto es escasísima, no hay ningún documento en castellano a parte de este trabajo. Casi todos los documentos tan solo se encuentran en Internet, y los temas tan específicos como la creación de un firewall solo puede averiguarse preguntando a los desarrolladores del kernel, pero teniendo en cuenta que es un grupo que no facilitan aquella información que consideran trivial, se hace más difícil el aprendizaje. Otra conclusión a la que se llega es que trabajar dentro de un sistema operativo es una tarea muy compleja. Cada vez que se efectúa algún cambio por pequeño que sea hay que recompilar todo el kernel, instalarlo y rebotar la máquina con el nuevo sistema operativo. Tampoco se puede trabajar sobre un kernel y probarlo a la vez sobre la misma máquina, ya que un kernel en desarrollo puede dañar los datos guardados en disco facilmente. Y como no hay ningún mecanismo que proteja al sistema operativo de hacer operaciones ilegales cuando hace un core dump se para toda la máquina siendo muy dificil hacer un diagnóstico de lo que ha pasado. Por todas estas razones es importante aprender como se se ejecuta un kernel en desarrollo en una máquina virtual o en otra máquina conectada a la desarrollo y a la vez también como poder debugar este kernel en desarrollo. La programación dentro del kernel debe hacerse con sumo cuidado. Toda estructura que se cree y que puede ser accedida por varios threads a la vez debe protegerse con semáforos. El kernel dispone de funciones para llamar a los semáforos, donde se puede indicar si se desea una protección de lectura o de escritura. Si no se cumplen con la teoría de los semáforos lo más lógico es que de un kernel panic y se pare el kernel cuando se está accediendo desde dos lugarles a la misma estructura de datos. También es importante tener el mínimo número de variables estáticas, pues ocupan un espacio vital dentro del kernel. Toda estructura debe hacerse dinámica, y aquí el kernel también dispone de funciones para crear listas dinámicas de una forma muy sencilla. Lo más laborioso ha sido resolver estos problemas de trabajo dentro del kernel y hacer el montaje del escenario para hacer las pruebas. Para bloquear había que 152 10 CONCLUSIONES probar que ciertos paquetes pasaban las políticas y la respuesta también retornaba. Para ello se ha necesitado de tres ordendores, uno emitiendo, otro haciendo de firewall y el último con algún servicio generando respuestas a las peticiones del primero. Al final el objetivo principal se ha cumplido que era crear un firewall a partir de cero que permitiera filtrar los paquetes por dirección IP origen y destino, por el puerto origen y destino, y todo según la interfaz y el sentido respecto ella. 153 11 LÍNEAS DE FUTURO 11. Líneas de futuro Una vez conseguido bloquear paquetes IP según su dirección IP origen y su dirección IP destino se puede añadir nuevas funcionalidades que otros firewalls más complejos tienen, estas funcionalidades son seguimiento de sesiones, NAT y balanceo de carga entre varios firewalls. El seguimiento de sesiones trata de guardar todas las conexiones que se están mantiniendo en ese momento y con las políticas de filtrado tratar los nuevos paquetes. Ciertos protocolos, como por ejemplo FTP, H323 entre otros mantienen en sus conexiones unas sesiones características debido a que el cliente y servidor hacen los dos funciones de cliente y de servidor. Tiene un coste aproximado de 500 horas y con los conocimientos necesarios de sistemas operativos y de telemática puede ser un TFC. Muchos firewalls son los encargados de hacer NAT (Traducción de direcciones), ya que están situados justo en el borde de la red a proteger y otra red. Haciendo NAT la red a proteger puede tener IP privadas que no funcionan en Internet, así se hace muy difícil hacer un ataque spoofing emulando un ordenador interno. Para hacer NAT se debe mantener también información de todas las sesiones en curso mediante unas tablas. Donde se guarda todas las sesiones en curso y las traducciones que se estén usando. Es un proyecto con un coste aproximado de 600 horas, y también puede ser un TFC. La tercera propuesta es hacer un balanceo de carga entre firewalls. El problema de los firewalls es que la mayoría no están duplicados y no hay reduntancia, y los que disponen de ella son muy caros. La propuesta es balancear las conexiones entre varios firewalls y para su correcto funcionamiento es necesario mantener el seguimiento de las sesiones y NAT entre los diferentes firewalls. Hay que montar un mecanismo entre las máquinas donde se puedan comunicar de forma segura y poder cambiar información de las tablas de sesiones. Esta propuesta es mucho más avanzada y compleja, no solo son necesarios conocimientos de sistemas operativos y de telemática, sino que es neceario tener conocimientos de arquitecturas avanzadas y de programación paralela. El coste es aproximadamente de unas 1000 horas y podría hacerse en un PFC por varias personas. 154 12 COSTE DEL TRABAJO 12. Coste del trabajo El coste del proyecto se divide en documentación sobre firewalls, documentación UML, documentación sobre el kernel de linux, pruebas programando y debugando el kernel, programación de la aplicación, experimentación y pruebas de su correcto funcionamiento y por último la memoria. Se considera documentación sobre firewalls la búsqueda de la información sobre los protocolos TCP/IP y sobre los firewalls. La documentación UML se basa en el estudio de la metodologia del UML. Por último la documentación del kernel de linux se enfocó para averiguar cómo trabajar dentro del kernel. La parte práctica comprende las pruebas programando y debugando el kernel, donde se ponía en práctica todo lo leído referente a la programación dentro del kernel, de su debugado y del montaje del escenario para su funcionamiento. La programación de la aplicación es el tiempo destinado a la construcción del firewall. En las pruebas se montó un escenario de pruebas y se comprobó que filtraba correctamente. Y la tercera parte es la memoria, donde se especifica el tiempo de preparación de la memoria. 155 12 COSTE DEL TRABAJO Teoría Práctica Memoria Tema Horas Porcentaje Firewalls 40 h 6,2 % UML Kernel 60 h 140 h 9,3 % 21,6 % Total Teoría 240 h 37,1 % Estudio del Kernel Programar Firewall 180 h 65 h 27,9 % 10 % Implementación escenarios 22 h 3,4 % Total Práctica 267 h 41,3 % Total Memoria 140 h 21,6 % Total 647 h 100,0 % 156 12 COSTE DEL TRABAJO Bibliografía [ALS] RUBINI , A LESSANDRO ; Linux Device Drivers, 2nd Edition; O’Relly; 2001. ISBN: 0-59600-008-1 [DAV] F RASCONE , DAVID ; Debugging Kernel Modules with User Mode Linux; Mayo 2002 LinuxJournal [GI1] I NSOLVIBLE , G IANLUCA ; Inside the Linux Packet Filter; Febrero 2002 LinuxJournal [GI2] I NSOLVIBLE , G IANLUCA ; The Linux Socket Filter: Sniffing Bytes over the Network; Junio 2001 LinuxJournal [GOO] G OOGLE G ROUPS; comp.os.linux.misc [KAH] A RCOMANO , ROBETO; Kernel Analysis- HOWTO; 2002. http://www.tldp.org/HOWTO/KernelAnalysis-HOWTO.html [KAL] K ALE , A MIT S.; Kdbg: Linux kernel source level debugger; 2002 http://kgdb.sourceforge.net/ [KE1] K ERNEL D OCUMENTATION ; Coding Style; linux/Documentation/CodingStyle [KRO] K ROAH -H ARTMAN , G REG; Proper Linux Kernel Coding Style; Julio 2002 LinuxJournal [LIS] L INUX K ERNEL M AILING L IST A RCHIVES ; Desde 1997; http://www.cs.Helsinki.FI/linux/l kernel/ [LT1] TORVALDS , L INUS ; The Linux Kernel Archives; http://www.kernel.org [RF1] RFC 768; The User Datagram Protocol; DARPA 1980 http://www.ietf.org/rfc/rfc0768.txt [RF2] RFC 791; Internet Protocol; DARPA 1981 http://www.ietf.org/rfc/rfc0791.txt [RF3] RFC 793; The Transmission Control Protocol; DARPA 1981 http://www.ietf.org/rfc/rfc0793.txt 157 12 COSTE DEL TRABAJO [RU1] RUSSELL , PAUL; Unreliable Guide to Hacking The Linux Kernel; http://www.netfilter.org/unreliable-guides/ [RU2] RUSSELL , PAUL; Kernel Locking Guide; http://www.netfilter.org/unreliable-guides/ [RU3] RUSSELL , PAUL; Linux 2.4 Packet Filtering HOWTO; http://www.netfilter.org/unreliable-guides/ [STV1] S TEVENS , W. R ICHARD; Advanced Programming in the UNIX Environment; Addison-Wesley Ed.; 1992. ISBN: 0-201-56317-7. [UML] RUMBAUGH , JAMES ; JACOBSON , I VAR ; B OOCH , G RADY; El Lenguaje Unificado de Modelado. Manual de Referencia; Addison Wesley Ed. 2000. ISBN: 84-7829-037-0. [VAS] VASUDEVAN , A LAVOOR ; CVS-RCS-HOWTO Document for Linux; http://www.tldp.org/HOWTO/CVS-RCS-HOWTO.html [WAR] WARD , B RIAN; The Linux Kernel HOWTO; http://www.tldp.org/HOWTO/Kernel-HOWTO.html [WS1] W RIGHT, G ARY R.; S TEVENS , W. R ICHARD ; TCP/IP Illustrated, Volume 1 The Protocols; Addison Wesley Ed.; 1994. ISBN: 0-201-633469.i [WS2] W RIGHT, G ARY R.; S TEVENS , W. R ICHARD ; TCP/IP Illustrated, Volume 2 The Implementation; Addison Wesley Ed.; 1995. ISBN: 0-20163354-X. 158 Parte III Anexo A sk_buff A continuación se pasa a detallar la estructura del sk_buff. La estructura de un socket buffer se encuentra en include/linux/skbuff.h y se puede acceder a ella a través de <linux/skbuff.h>, está formada por: struct sk_buff { struct sk_buff struct sk_buff * next; * prev; struct sk_buff_head * list; struct sock *sk; struct timeval stamp; struct net_device *dev; union { struct tcphdr *th; struct udphdr struct icmphdr *uh; *icmph; struct igmphdr *igmph; struct iphdr *ipiph; struct spxhdr*spxh; unsigned char *raw; } h; /* Network layer header */ union { struct iphdr *iph; struct ipv6hdr struct arphdr *ipv6h; *arph; struct ipxhdr unsigned char *ipxh; *raw; } nh; 159 union { struct ethhdr unsigned char } mac; struct *ethernet; *raw; dst_entry *dst; /* * This is the control buffer. It is free to use for every * layer. Please put your private variables there. */ char cb[48]; unsigned int unsigned int len; data_len; unsigned int unsigned char csum; __unused, cloned, pkt_type, ip_summed; __u32 atomic_t unsigned short priority; users; protocol; unsigned short unsigned int security; truesize; unsigned char unsigned char *head; *data; unsigned char *tail; unsigned char *end; void (*destructor)(struct sk_buff *); #ifdef CONFIG_NETFILTER /* Can be used for communication between hooks. */ unsigned long /* Cache info */ __u32 nfmark; nfcache; 160 /* Associated connection, if any */ struct nf_ct_info *nfct; #if defined(CONFIG_HIPPI) union{ __u32 ifield; } private; #endif #ifdef CONFIG_NET_SCHED __u32 tc_index; #endif }; Bueno aquí teneis entera la estructura sk_buff, y aquí hay una lista con cada uno de los campos: next : es el siguiente skb en la lista prev : es el anterior skb en la lista list : lista en la que nos encontramos. sk : es el socket que estamos utilizando stamp : valor tiempo en el que nos llego dev : dispositivo que nosotros estamos dejando rx_dev : desde el dispositivo que nos llegó h : cabecera de la capa de transporte (tcp, udp, icmp, igmp, spx, raw) nh : cabecera de la capa de red (ip, ipv6, arp, ipx, raw) mac : cabecera del nivel de enlace dst cb : buffer de control 161 len : longitud del dato csum : checksum used : ¿estamos siendo en uso? is_clone : es una copia sk_buff cloned : la cabecera se puede copiar pkt_type : el tipo de paquete ip_summed : el driver nos suministra un checksum IP priority : prioridad del paquete dentro de la cola de paquetes protocol : protocolo del paquete security : nivel de seguridad del paquete truesize : verdadero tamaño del skb. head : puntero al principio del buffer data : puntero al principio del dato. tail : puntero al final del dato. end : final del puntero destructor : destructor de la funcion nfcache : info de la cache interna referente a netfilter nfct : conexion asociada al socket 162 Parte IV Anexo B Coding Style Existen unas reglas básicas, escritas y no escritas, para asegurarse que otros usuarios del kernel. Existe unas reglas escritas en la propia documentación de Linux [KE1] y otras reglas no escritas [KRO] pero que se supone todo programador conoce. Como el número de desarrolladores que miran el código fuente del kernel de Linux es muy grande, lo mejor es tener una guía consistente a seguir. Así es más fácil entender para cualquiera que lea el kernel lo que se ha insertado, lo que hace que puedan entenderlo mejor y corregir posibles fallos o mejorar el código. Que es eso de lo que se trata todo esto del código abierto o open-source. Indexación Todos los tabulados son ocho carácteres en blanco y será eso el caracter <TAB>. Hace que sea más facil localizar donde están los diferentes bloques de código. Hay que intentar evitar que haya más de tres niveles de indexación, ya que puede causar que navegar por el código sea muy incómodo, pues las líneas sobrepasan el tamaño de la pantalla. Poniendo corchetes Los autores originales de UNIX ponían los corchetes con el corchete que abre al final de la primera línea y el corchete que cierra al principio de la última línea: if ( x >= 1 ) { hacer_lo_que_sea(); } Por eso, el kernel de Linux usa este estilo. La única excepción a esta regla son las funciones, las cuales se tienen el corchete que abre al principio de la segunda línea: 163 int funcion_cool( int x) { cuerpo de la funcion } Un buen ejemplo a seguir son los ficheros que hay en el directorio kernel del código fuente. Nombrar variables y funciones Para nombrar las variables y funciones deberían ser descriptivas y concisas. No usar nombres largos y bonitos como por ejemplo CommandAllocationGroupSize o por ejemplo DAC_V1_EnableMemoryMailboxInterface(), en vez de eso usar cmp_group_size o bien enable_mem_mailbox(). Las variables globales es mejor no usarlas, solo hacerlo si es absolutamente necesario. Las variables locales deberían ser cortas. Para las variables de los bucles puede usarse ’i’ o ’j’, mientras que ’contador_bucle’ es demasiado largo. Las variables del tipo ’tmp’ también se permiten pero solo para variables con poco tiempo de vida. También se puede encontar buenos ejemplos en el los ficheros del sistema de ficheros en fs/*.c. Y ejemplos que son negativos también pueden encontrarse en drivers/scsi/cpqfs* . Funciones Las funciones deben hacer solo una cosa y hacerla bien. Deberían ser cortas y ser del tamaño de uno o dos pantallas. Si se tiene una función que hace pequeñas cosas para muchos casos, es aceptable que sea larga. Pero si es larga y además es compleja hay que modificarla. Dicen que el número de variables nos indica la complejidad de la función. Así que si se tiene un gran número de variables entonces es que hay q cambiarlo. 164 Comentarios Los comentarios malos explican como trabaja el código, quien escribió tal función en una fecha específica y otras cosas poco útiles. Los comentarios correctos deben explicar qué hace la función y porqué lo hace. Deberían incluirse al principio de la función y no necesariamente dentro de ella, porque hay que escribir funciones pequeñas. Hay un estadar para los comentarios de las funciones, que es una variante del método de documentación usada en el proyecto GNOME. Lo bueno de usar este tipo de estilo es que luego se puede sacar información usando compiladores de documentacion. Que puede verse ejecutando ’make psdocs’ o bien ’make htmldocs’ para generar un fichero postcript o html para cada caso. Para más información mirar Documentation/kernel-doc-nano-HOWTO.txt. Tipos de estructuras de datos Si se crea cualquier estructura de dato donde pueda accederse desde fuera por un thread o por cualquier otro procedimiento hay que implementar un contador de referencias. Si se añade un contador de referencias una estructura, se evitan muchos problemas con race conditions. Y seguro que si hay otro thread que puede encontrar y acceder a tu estructura de datos y no se tiene un contador de referencias seguro que tenemos un bug. Funciones para los strings En el fichero include/linux/string.h, hay muchas funciones para tratar strings. Así que si se intenta trabajar con strings dentro del kernel, hay que usar estas funciones y no intentar reescribirlas de manera accidentada. En el fichero include/linux/string.h y por include/linux/kernel.h se encuentran todas las funciones, así se ahorra uno muchos problemas. Orden de los bytes Tampoco hay que reescribir las funciones para tratar las diferentes representaciones endian. En el fichero include/asm/byteorder.h donde asm es el tipo de 165 arquitectura del procesador, contiene una gran cantidad de funciones que permiten hacer conversiones automáticamente, dependiendo donde se compile y de la arquitectura usará unas funciones u otras. Listas Como en cualquier programa se necesitan las listas dinámicas. Para eso debe usarse las funciones include/linux/list.h. Donde se puede encontrar una estructura: ’struct list_head’, que deberñia incluirse dentro de la estructura donde se desee crear la lista. Entonces se podrá usar las funciones de añadir, borrar o iterar sobre las listas de manera fácil sin tener que reescribir nuevo código. Algunos buenos ejemplos que he encontrado están en drivers/hotpluc/pci_hotplug_core.c y en drivers/ieee1934/nodemgr.c. typdef está prohibido Los famosos typedef no deberián usarse para llamar a ningún tipo de estructura. La mayoria de las estructuras del kernel no tienen ningún typedef. Ya que hace más oscuro el código porque se añaden capas, y no dejan que el programador sepa qué tipo de dato se esta usando. Jamás usar un typedef para significar un puntero a una estructura. Esto esconde el puntero y entonces pueden aparecer muchos problemas, como por ejemplo que no se pide memoria correctamente, que se accede a partes de la memoria donde no se debe, y esta es la forma más fácil de conseguir un kernel panic. El único lugar donde los typedef son aceptables es al declarar prototipos de funciones. Estas pueden ser difíciles de escribir, asi que haciendo un typedef para estas se convierte en una forma fácil de escribir. 166