74 MANUEL NÓVOA SANTIAGO HERNÁNDEZ CARLOS SOLER LICERAS LUIS ANTONIO VÁZQUEZ P. FERNÁNDEZ CARRASCO TEODORO ESTRELA M. J. RODRÍGUEZ DE SANCHO RAÚL MEDINA FERNANDO J. MÉNDEZ ÍÑIGO J. LOSADA RICARDO OLABEGOYA PÁGINA INTENCIONALMENTE DEJADA EN BLANCO I.T. N.O 74. 2006 © HIROSHI KITAMURA Nº 74 CATÁSTROFES NATURALES Tercera época. Año 2006 PVP: 6 € CONSEJO DE ADMINISTRACIÓN Antonio Allés Torres, Jesús A. Collado López, Félix Cristóbal Sánchez, Pedro Ferrer Moreno, Pedro Fabián Gómez Fernández, Juan Guillamón Álvarez, Santiago Hernández Fernández, Rafael Jimeno Almeida, José Miguel Mateo Valerio, Carmen Monzonís Presentación, Javier Muñoz Álvarez, Carlos Nárdiz Ortiz, Antonio Ortuño Alcaraz, Francisco J. Ramírez Chasco, Pedro Rodríguez Herranz, Pedro Sánchez Lagarejo y José Alfonso Vallejo Alonso. Catástrofes naturales CONSEJO DE REDACCIÓN Lluís Agulló Fité, Antonio Allés Torres, Francisco Bueno Hernández, Vicente Cerdá García de Leonardo, Jesús A. Collado López, José María Coronado Tordesillas, Félix Cristóbal Sánchez, Manuel Durán Fuentes, Pedro Ferrer Moreno, Pedro Fabián Gómez Fernández, Juan Guillamón Álvarez, Santiago Hernández Fernández, Rafael Jimeno Almeida, Rosario Martínez Vázquez de Parga, José Miguel Mateo Valerio, Carmen Monzonís Presentación, José Javier Mozota, Javier Muñoz Álvarez, Juan Murcia Vela, Carlos Nárdiz Ortiz, Manuel Nóvoa Rodríguez, Miren Idoia Ortubia Rodríguez, Antonio Ortuño Alcaraz, Mariano Palancar Penella, Santiago Pérez-Fadón Martínez, Pedro Pisa Menéndez, Francisco J. Ramírez Chasco, Pedro Rodríguez Herranz, Pedro Sánchez Lagarejo, Jesús Urarte García y Pere Ventayol March. INGENIERÍA Y TERRITORIO · 74 DIRECTOR Ramiro Aurín Lopera SUBDIRECTOR 2 Editorial 4 Percepción humana de las catástrofes Joan Olmos Lloréns REDACTOR JEFE Manuel Nóvoa Juan Lara Coira SECRETARIA DE REDACCIÓN Chelo Cabanes Martín 14 Fenómenos naturales y escala temporal Santiago Hernández Fernández COORDINACIÓN DEL CONTENIDO Manuel Nóvoa 24 Teodoro Estrela Monreal, Pedro Fernández Carrasco, Santiago Hernández Fernández, Íñigo J. Losada Rodríguez, Raúl Medina, Fernando J. Méndez, Manuel Nóvoa, Ricardo Olabegoya Veturini, María Jesús Rodríguez de Sancho, Carlos Soler Liceras y Luis Antonio Vázquez López. 36 44 52 La gestión de las sequías en España Teodoro Estrela Monreal Hiroshi Kitamura Kame editors Cambio climático e ingeniería territorial: riesgos y oportunidades Pedro Fernández Carrasco ILUSTRACIONES MAQUETACIÓN La incertidumbre de las catástrofes climáticas Luis Antonio Vázquez López FOTOGRAFÍAS Tony Blanco, Santiago Hernández Fernández, J. Hugas, J. Jiménez, David J. Philip, Pat Sullivan/AP Photo. La Tectónica de Placas: La Hidrotectónica Carlos Soler Liceras COLABORADORES 60 Incidencia ambiental de los incendios María Jesús Rodríguez de Sancho PUBLICIDAD Paipus, S.L. Avda. Corts Catalanes, 5-7 pl. baixa, 08190 Sant Cugat del Vallès Tel. 679 364 482 E-mail: [email protected] 68 Raúl Medina y Fernando J. Méndez 76 IMPRESIÓN Índice, S. L. Tsunamis Íñigo J. Losada Rodríguez FOTOMECÁNICA Estmar Color Inundación costera originada por la dinámica marina 82 La protección civil y las catástrofes naturales Ricardo Olabegoya Veturini COORDINACIÓN Y PRODUCCIÓN Juan Lara Coira EDITA Colegio de Ingenieros de Caminos, Canales y Puertos REDACCIÓN, ADMINISTRACIÓN Y SUSCRIPCIONES Els Vergós, 16, 08017 Barcelona Telf. 93 204 34 12 Fax. 93 280 29 24 E-mail: [email protected] http://www.ciccp.es/revistaIT/ DEPÓSITO LEGAL ISSN 1695-9647 PORTADA: DESPUÉS DEL DILUVIO* AUTOR: HIROSHI KITAMURA *Basado en “El arca de Noé” de El Bosco y Doré Esta publicación no necesariamente comparte las opiniones de sus colaboradores. Está prohibida la reproducción total o parcial de cualquier texto o material gráfico del presente número, por cualquier medio, excepto autorización expresa y por escrito de los editores previo acuerdo con los correspondientes autores. Foto: TONY BLANCO B. 8.909-2003 EDITORIAL Catástrofe. Las catástrofes. Signos de la vitalidad del Planeta en cualquiera de sus manifestaciones materiales. Reequilibrios y ajustes de las dinámicas planetarias. A nuestra escala, las catástrofes suponen cambios drásticos en nuestro entorno vital. Cuando la humanidad está cerca, las catástrofes provocan desastres. Desde el plano subjetivo, “la catástrofe” es un estado mental, el estado de la conciencia de cambios y transformaciones formidables, a los que hay que adaptarse si queremos sobrevivir y prevalecer como forma de vida inteligente y consciente del universo al que pertenecemos. Somos (polvo de estrellas), no estamos. Nuestras minúsculas catástrofes terrestres, tan inhumanas, son metáforas descoloridas de las catástrofes cósmicas, de la explosión de una supernova, del nacimiento de una estrella, o de su colapso en un agujero negro. ¿No es el big-bang la mayor de las catástrofes de las que tenemos noticia? A nuestros efectos, la catástrofe siempre es una oportunidad de evolución. Es nuestro trabajo conocer, comprender, prevenir, y en su caso mitigar, las causas y los efectos de las catástrofes naturales. Nosotros mismos somos una catástrofe en el contexto de la biosfera. No, no sin connotación moralista, como tampoco la tienen los terremotos, los cambios climáticos, o los meteoritos que chocan contra otros cuerpos celestes. La aparición de vida inteligente en un planeta supone si duda un cambio catastrófico, una transformación radical de las condiciones para el resto de los seres vivos en ese planeta. Todos los cambios que el ser humano ha provocado en el planeta Tierra son catastróficos, desde las extinciones masivas, ocurridas hace decenas de miles de años, a los efectos globales de la contaminación industrial en todas sus formas, o la explosión y descontrol demográficos, que en el pasado han garantizado cuantitativamente la existencia de la especie, pero que sin un recalibrado de la conciencia demográfica nos alejarán de un futuro fruto de la evolución positiva y nos llevarán a un callejón sin salida, extinguiéndonos como todas las especies que en el pasado han sido. Catástrofe fue nuestro advenimiento a la inteligencia y la conciencia evolucionando desde especies menos dotadas (siempre hay un umbral para la catástrofe) y ocupando y empleando el planeta y sus recursos como nuca había ocurrido, y catástrofe será la ocasión en que, si no ponemos remedio, nos extingamos (pues largo es el camino hacia la inteligencia y la conciencia). Catástrofe somos y polvo de estrellas. Conozcámonos. En las páginas que siguen va un granito de arena. Nota de la Redacción Periódicamente nos llega la carta de algún compañero que legítimamente discrepa por activa y/o por pasiva de las opiniones o criterios que se vierten en los artículos que publica Ingeniería y Territorio, y que hasta la fecha no han tenido cabida en la estructura de la revista. Para solventar esa cuestión se dispondrá en breve en la página web de Ingeniería y Territorio de un lugar para colgar esas cartas y darles publicidad, cartas de las que se dará noticia (título y autor, y artículo al que se refieren) en el índice de la revista a medida que éstas vayan llegando (en formato electrónico) a la Redacción. Os informaremos individualmente, y en particular a los que ya han solicitado la publicación de cartas, de la evolución de este tema. 2 I.T. N.O 74. 2006 Efectos de una de las últimas erupciones del Etna. (Foto: Tony Blanco). I.T. N.o 74. 2006 3 Percepción humana de las catástrofes Manuel Nóvoa DESCRIPTORES CATÁSTROFES DILUVIO UNIVERSAL SANTORIN VESUBIO LISBOA SAN FRANCISCO TECTÓNICA DE PLACAS ANTROPOCENTRISMO MEDIO CIENCIA CAMBIO CLIMÁTICO POLÍTICAMENTE CORRECTO VICTIMISMO ¡Oh Dios! ¡Aquel que puede leer en el libro del destino y ver que la revolución de los tiempos hace que las montañas se allanen, y los continentes, cansados de tan sólida firmeza, se derritan en los mares. William Shakespeare. El rey Enrique IV. Introducción Entorno de la catástrofe Toda catástrofe, por su carácter imprevisible, provoca en el ser humano terror y espanto, máxime cuando se desencadenan y arrasan las fuerzas de la naturaleza. Verdades o mitos de la antigüedad, como el Diluvio o los cataclismos que arrasaron ciudades o las sumergieron bajo las aguas, han marcado profundamente en el ser humano un sentimiento de miedo e inseguridad frente a la violencia de la naturaleza. Al mismo tiempo, la componente racional del ser humano ha intentado comprender las causas de estos desastres. En la civilización occidental, conformada por la filosofía griega y la religión judeocristiana, ha dominado de la lectura bíblica el castigo divino por el pecado de soberbia, que finalizó en una gran catástrofe. Desde el Renacimiento, y más intensamente con la filosofía natural durante la Ilustración, se ha intentado buscar explicaciones científicas a las catástrofes naturales, que se conformaron durante el siglo XX. En la actualidad, con una sensibilidad antropocentrista, se da más importancia al riesgo, vulnerabilidad o impacto en la sociedad, que al propio origen del suceso, y la búsqueda obsesiva de responsabilidades las hace recaer en el propio ser humano, como culpable del deterioro global del medio ambiente, a cuya alteración se atribuye una de las causas de los desastres naturales. Al menos, es lo políticamente correcto, circunstancia que tranquiliza muchas conciencias. Al pensar en el origen de nuestro planeta, nuestra imaginación suele enlazar una serie de imágenes en las que se mezclan diluvios, maremotos, colapsos de meteoritos, erupciones volcánicas, lava incandescente, fuegos y terremotos en un entorno de vida primitiva. Nos acude a la memoria la imagen bíblica, ordenada y severa, de un mundo creado en seis días. Estas imágenes de espanto están asociadas al origen de los tiempos, pero no constituyen, en sí, una catástrofe. Para hablar de catástrofes, es preciso centrarse en un tiempo histórico, un espacio, en el que se localiza el acontecimiento, y lo más determinante es la presencia de seres humanos que padezcan el desastre y lo transmitan para formar parte de la memoria colectiva. La razón del ser humano percibe la catástrofe como terror a lo imprevisto frente al cual los recursos humanos de defensa son desbordados por unas fuerzas infinitamente superiores, ante las que no cabe ningún control. La presencia de un acontecimiento de esta magnitud, totalmente imprevisto y difícilmente vivido durante una vida humana, determina que éstos se transmitan de generación en generación en forma de mitos. La documentación escrita es parcial, muy escasa, y solo es conocida durante los últimos milenios en determinadas zonas del planeta, por lo que las referencias de las catástrofes no son homogéneas, sino sesgadas en determinadas culturas. Es por tanto imprescindible que, cuando se produzcan, sus efec- 4 I.T. N.O 74. 2006 tos provoquen desastres en una determinada colectividad humana y que ésta pueda trasmitirlo. Todas estas circunstancias determinan que se aprecie un mayor número de catástrofes cuando se dispone de mayor información, como sucedió el pasado año 2005. Estas circunstancias son debidas a que la información es global, y los medios de comunicación tratan de buscar en cada acontecimiento natural un hecho singular: ¡continuamente estamos viviendo el acontecimiento del siglo! La catástrofe en el origen de la cultura occidental La imagen que más influencia tuvo en la cultura occidental fue el mito bíblico del Diluvio, motivado por el sentido de castigo divino, por la soberbia del hombre al abandonar sus mandatos. Moisés, que escribió los cinco primeros libros de la Biblia, recoge la tradición oral del judaísmo desde que Abraham, padre del pueblo judío, abandona Mesopotamia. La descripción de la cólera divina que provoca una lluvia de cuarenta días con sus noches, y la salvación de los únicos siervos fieles, que eran Noé y su familia, sirvieron para dejar testimonio de este acontecimiento, en el que Dios interviene directamente en la naturaleza, alterando su evolución natural, y su ira desencadena una catástrofe. La vida se ceñía al Paraíso, y éste se localizaba en los terrenos fértiles de Mesopotamia, regados por los ríos Tigris y Éufrates. Del entorno geográfico de estas tierras, que hoy constituye Irak, solamente el 6 % del territorio es agrícola, por lo que fácilmente se puede imaginar una importante inundación en el valle agrícola, pero las causas y efectos se describieron siglos después. El instinto de supervivencia lleva a los hombres a construir una torre, supuestamente para librarse de futuras inundaciones, y Dios vuelve a castigar la soberbia del hombre confundiendo las lenguas en la torre de Babel. Dos escarmientos sucesivos para castigar el pecado de soberbia. El zigurat de Elemank, que mandó construir Nabucodonosor (604-562 a.C.), con unos 90 metros de altura, fue la supuesta torre de Babel que contemplaron los judíos en su cautividad en Babilonia. El mito bíblico pasó con el cristianismo a ser ampliamente difundido por la Europa medieval, y se mantuvo como mito dominante de las catástrofes hasta mediados del siglo XVIII, cuando, con la Ilustración, va despertando el conocimiento científico. Fig. 1. Manuscrito La cité de Dieu. Miniatura del Arca de Noé, siglo XV. Cataclismo en Santorin Santorin fue el nombre dado por los venecianos en el siglo XVIII a una serie de islas de origen volcánico que, geológicamente, se pueden datar del orden de hace unos 150.000 años. Los restos arqueológicos más antiguos tienen cinco milenios, y corresponden a la cultura Cicládica, de la Edad del Bronce antigua, y están constituidos por cerámica pintada y vasos de mármol, enterrados bajo una capa de lava y cenizas volcánicas. Hacia el año 1.500 a.C. se produjo una fuerte erupción volcánica seguida de un maremoto, que devastó las costas de Creta y que supuestamente contribuyó a la desaparición de la civilización Minoica. Los movimientos sísmicos siempre han sido frecuentes en estas islas, y el último se registró en el año 1956. Esta catástrofe quizá han sido la fuente de información de Pla- Fig. 2. Breviario Grimaldi, Construcción de la torre de Babel (1510-1520), Venecia, Biblioteca Nazionale Marciana. I.T. N.o 74. 2006 5 tón para idealizar el mito de la Atlántida, que gozó de gran interés dentro de las descripciones del mundo físico, a través de la filosofía natural. Algunos autores han calificado esta catástrofe como el cataclismo más violento en la historia de la humanidad. La erupción del Vesubio La erupción del volcán Vesubio, sobrevenida en agosto del año 79 d.C., constituye un acontecimiento excepcional para el mundo romano. De ella tenemos la descripción vulcanológica más antigua de todas las conocidas, por la presencia excepcional durante la erupción de Plinio el Viejo, que falleció al segundo día de la erupción, y de su sobrino, Plinio el Joven, que en dos cartas dirigidas al historiador y político romano Publio Cornelio Tacito, describe la muerte de su tío y sus impresiones sobre las manifestaciones de la erupción. Plinio el Viejo había escrito una importante Historia Natural, en la que recopiló buena parte del saber antiguo. Plinio el Joven describió la erupción, cuando se presentó, como una gran nube de gas y cenizas que se elevó hasta llegar a la alta atmósfera, donde se expandió en forma de pino. Se produjo una fuerte lluvia de piroclastos, cenizas y lapilli, que sembró el pánico en la población. No hace mención a la nueva silueta creada en el Vesubio (1.277 m de altitud) dentro de un volcán más antiguo, que es el Somma, cuyo origen data de hace unos 10.000 años. El efecto más impresionante de la mencionada erupción fue la desaparición de las ciudades de Pompeya y Herculano, de las que Plinio el Joven no hace ninguna mención. Si bien en un principio se supuso que las ciudades habían sido arrasadas por la lava, su descubrimiento en el siglo XVII, bajo una espesa capa de cenizas y lapilli, permitió recuperar enteramente estas ciudades casi intactas de la degradación física y humana. El Vesubio, que está aparentemente sin actividad desde el año 1944, ha ejercido una gran fascinación, después de las excavaciones de Pompeya, incentivadas por Carlos III, entre pintores, escritores y viajeros, para los que la presencia del riesgo creaba fascinación y estimulaba la imaginación, ante un peligro probable aunque impredecible. Fig. 3. Vista de los barrios del suroeste de Nápoles. Al fondo el Vesubio. A su izquierda el Somma. 6 I.T. N.O 74. 2006 Época medieval Reducida la filosofía clásica en algunos reductos de bibliotecas monacales, tal como reflejó magistralmente Humberto Eco en El nombre de la rosa, el pensamiento dominante en la Europa occidental es el mito del Diluvio, con el que Dios castigó a sus criaturas por abandonar sus mandatos. En las magníficas representaciones de los comentarios del último libro de la Biblia, el Apocalipsis de San Juan, suelen tener incluidos los denominados Beatos representaciones del diluvio universal, con las imágenes del arca de Noé cargada con una pareja de animales de cada especie, tal como le había encargado el mismo Dios. Las explicaciones de las catástrofes eran claras, y atribuidas a los inescrutables designios divinos, alterados, casi siempre, por culpa de las caídas de la humanidad. La búsqueda racional de las causas no solo no era admisible, sino incluso perseguida, por dudar de la obra perfecta del Creador y sus motivos, que no se debían cuestionar. El mito de la torre de Babel, como creación humana para escapar del castigo divino, se consideraba como un fruto de la soberbia humana. El humanismo renacentista trata de soltar el lastre de esta visión teológica dominante durante la Edad Media y enfatiza aquellos aspectos que liberan al individuo del determinismo religioso, y va afirmando el valor del Humanismo. Las magníficas representaciones de la torre de Babel pintadas por Bruegel son una muestra de confianza en la potente arquitectura humana para elevarse muy por encima del alcance del castigo por la inundación. Terremoto de Lisboa de 1755 Una de las catástrofes que tuvo más influencia en el futuro desarrollo de la ciencia fue el terremoto de Lisboa, ocurrido el 1 de noviembre de 1755, no tanto por el desastre en sí, que fue extraordinario, como por su valoración en plena Ilustración, que lo utilizó como bandera para cuestionar, y poner en duda, la idea dominante de la voluntad divina en este tipo de catástrofes, y abrió nuevos caminos para la investigación científica. El terremoto de Lisboa, que se estima en la actualidad con magnitud de 8,7 de la escala de Richter, provocó, junto con el maremoto que le siguió, más de 60.000 víctimas. El número de muertes fue muy importante debido a que buena parte de la población se encontraba congregada, a las nueve y media de la mañana, en las iglesias, que se desplomaron sobre los fieles, que estaban celebrando la festividad de Todos los Santos. Fue la más aterradora catástrofe natural conocida en Europa, después del Vesubio. Las circunstancias de la muerte de tantos cristianos estimularon el debate que enfrentaba el mito cristiano de la catástrofe como castigo divino, a la razón ilustrada, que pretendía abrir caminos a la razón, que, a su vez, conduciría al despegue del pensamiento científico. Este acontecimiento, en el que los afectados no fueron pecadores, sino los fieles que estaban en las iglesias orando, estremeció los cimientos de estas creencias cristianas, y lo elevó al centro del debate. Hasta ese momento, los teólogos de la Iglesia consideraban que el mundo estaba en armonía, como obra perfecta del Creador, y cuando se producía una catástrofe, el sufrimiento producido servía como lección y, solamente en oca- Fig. 4. Imagen del terremoto de Lisboa del 1 de noviembre de 1755. siones muy extremas, como castigo. Las circunstancias de la muerte de tantos cristianos por desplome de las iglesias, plantearon cuestiones de conciencia sobre la armonía en la Tierra y las causas finales de la naturaleza. El filósofo Voltaire, en sus dos obras tituladas Poème sur le désastre de Lisbonne y Cándido, toma partido para cuestionar el supuesto orden divino de la Tierra, postura que mantiene en su Diccionario Filosófico, de gran influencia desde la Ilustración. En Cándido adopta una actitud irónica frente a la visión tradicional, que consideraba estas catástrofes como una lección o castigo del Autor de una creación perfecta. De cualquier modo, esta discusión solamente afectó a una minoría ilustrada, que tomaron diferentes posturas, puesto que la mayoría de la población cristiana aceptaba con conformismo la visión tradicional. Fig. 5. Vista de San Francisco después del terremoto de 1906. Terremoto de San Francisco El terremoto de San Francisco, que destruyó la ciudad el 18 de abril de 1906, causó más de 3.000 víctimas. Si bien no fue el más importante del siglo si lo comparamos con el ocurrido el 28 de julio de 1976 en Tangshan, en China, que dejó unas 240.000 víctimas, sí fue uno de los mejor estudiados científicamente y del que se sacaron innumerables consecuencias, en diversos ámbitos. El terremoto, que alcanzó la magnitud de 8,2 en la escala de Richter, puso en evidencia que la ciudad estaba atravesada por la denominada falla de San Andrés. Posteriormente, con la teoría de la Tectónica de Placas, se explicaron los movimientos de esta falla. La ciudad de San Francisco, situada en el rico estado de California, fue sacudida por el sismo, que se produjo por un deslizamiento en la falla de San Andrés. La parte situada al oeste de la línea de falla se corrió hacia el noroeste, y la parte oriental hacia el sureste, provocando en algunos lugares una separación de hasta seis metros después de la catástrofe. La ciudad, que había sido un mito en la carrera hacia el oeste de los estados Unidos, fue devastada por el sismo, al que siguió un gran incendio. Este terremoto sirvió de estímulo para los estudios sobre el comportamiento del interior de la Tierra y, más que por la magnitud del terremoto en sí, tuvo una gran importancia cienI.T. N.o 74. 2006 7 Fig. 6. Sección esquemática de la corteza terrestre con la dorsal oceánica y zona de subducción. tífica y social. Pese al elevado factor de riesgo, la población lo acepta, porque considera el riesgo inferior a la oportunidad de trabajo y a la bondad del clima. Pese a las incertidumbres, el desarrollo del Estado de California ha sido el más vertiginoso del siglo XX en el país, y en determinadas zonas, como Silicon Valley, está ubicada la mayor aglomeración de industrias de alta tecnología informática del mundo. Teoría de la deriva continental de Wegener Continuando con nuestra búsqueda durante el siglo XX de las causas de las violentas catástrofes de la naturaleza, se presentaron diversas teorías que explicaron el comportamiento de la superficie terrestre y el desencadenamiento de enormes cantidades de energía, que se manifiestan en forma de erupciones volcánicas, movimientos sísmicos o grandes maremotos que, en muchas ocasiones, constituyen auténticas catástrofes. La coherencia del pensamiento científico, aunque no existen verdades absolutas, ha permitido explicar con bastante precisión el mecanismo del comportamiento de la Tierra, aunque, hasta el día de hoy, no estamos en condiciones de preverlo y mitigar en lo posible los desastres naturales. En lo que se ha avanzado es en desvincularlos de la voluntad divina, que queda como un reducto para un pequeño grupo de fundamentalistas. El geofísico alemán Alfred Lothar Wegener estableció, en 1912, la teoría de la deriva de los continentes, en su obra sobre El origen de los continentes y los océanos. Supuso que hace 255 millones de años todas las tierras emergidas estaban unidas y constituían la Pangea. Hace 150 millones de años se produjo una fragmentación de la Pangea y las diferentes partes flotan a la deriva. En períodos más recientes alcanzaron las grandes unidades que hoy conocemos como continentes, que continúan sometidos a la dinámica terrestre. Esta teoría, muy criticada desde un principio, si no totalmente rigurosa, abrió un camino cierto para las investigaciones posteriores. 8 I.T. N.O 74. 2006 Una segunda idea fue concebida por el minerólogo estadounidense Harry Hess (1906-1969), que, utilizando la sonda de un barco durante la segunda guerra mundial, descubrió la presencia de cañones marinos y cadenas montañosas, más altas que las continentales. En mitad del Atlántico descubrió un cañón o grieta de más de 10 kilómetros de ancho y 19.000 kilómetros de longitud a lo largo de todo el océano, demostrando que los continentes iban separándose. En la década de los años sesenta se descubrió que la corteza, en las proximidades de los continentes, comenzaba a hundirse bajo ellos, constituyendo un fenómeno denominado subducción. A ello se debe que los fondos oceánicos sean relativamente jóvenes. En el año 1963, partiendo del estudio de los campos magnéticos, se pudo comprobar que los lechos marinos estaban ensanchándose y que los continentes tienen movimientos. En un artículo publicado en la revista “Journal of Geophysical Research” en 1968, denominó placas a los diferentes segmentos y a la nueva ciencia que se dedica a su estudio Tectónica de Placas, que, con ciertas dudas o posturas enfrentadas, es aceptada en la actualidad por la comunidad científica. Las zonas de contacto de estas placas son activas, y es donde se localizan los volcanes y la mayor actividad sísmica. La Tectónica de Placas explica no solo la dinámica de la superficie terrestre sino muchos procesos internos, como los terremotos o la formación de montañas. McPhee lo expresaba del siguiente modo: Los geólogos se encontraban en una posición que causaba vértigo, en la que, de pronto, toda la Tierra tenía sentido. La localización de los puntos activos del planeta, en donde se han producido terremotos o actividad volcánica, se comprobó que coincide con los contactos de las diferentes placas, cuya teoría explica los terremotos, los tsunamis, los volcanes, los pliegues, fallas y la formación de las cordilleras. Llegado a este nivel de conocimiento, tenemos una explicación de las causas de los fenómenos naturales pero continuamos siendo tan vulnerables como antes, pues no solventa nada el saber que al cabo de una vida América estará dos metros más alejada de Europa. Fig. 7. Límites de las placas de la litosfera (amarillo) y epicentros de los terremotos registrados en 1980-1990 (rojo), Centro Nacional de Datos Geofísicos de EE UU. El antropocentrismo es una doctrina que justifica que el ser humano es el fin último del universo. No tiene su origen en el principio filosófico de Protágoras, para el cual el hombre es la medida de todas las cosas, sino en la justificación de los científicos de la Ilustración, que designaron la especie humana como homo sapiens. Este sentimiento de superioridad conduce a numerosos individuos, sobre todo dentro de la cultura occidental, a vivir de espaldas a la naturaleza, confiando en los progresos científicos y técnicos e ignorando el miedo o temor que nos da el entorno, ya que con el apoyo de la tecnología que cree dominar, aumenta su soberbia. Hoy día, las posiciones antropocéntricas resultan dominantes. Las ideas deterministas del siglo XIX y primera mitad del XX, herederas de los grandes descubrimientos del XVIII, llevaron a la formulación de leyes con las que se tenía la falsa confianza de comprender la naturaleza. Esta confianza llevó a hacer coincidir su conveniencia con las explicaciones científicas, olvidando en ocasiones el rigor, que debe ser la base del conocimiento. Una catástrofe de la naturaleza desborda toda capacidad de respuesta del individuo y provoca una alteración psicológica en la inestable confianza en su seguridad. El antropocentrismo en la actual sociedad materialista se está transformando, como describe Miguel Delibes, en un objeto-centrismo que al eliminar todo sentido de elevación del hombre, lo ha hecho caer en la abyección y la egolatría. Quizá simplemente en la estupidez. Para integrar la incertidumbre en la vida social de estos extraordinarios sucesos naturales en relación a sus efectos en el medio humano, se introdujo el concepto de riesgo del impacto de la catástrofe, más como efecto psicológico, que como medio de valorar económicamente los posibles efectos de un suceso, que puede ser incluso catastrófico. El concepto de riesgo depende del entorno social donde se puede producir y, en consecuencia, desde el que se realiza la estimación. Se suele adaptar criterios estadísticos para valorar estas catástrofes como anomalías de la dinámica planetaria. Los riesgos naturales han existido siempre y continuarán siendo una amenaza, pues forman parte de la propia dinámica de la naturaleza. El progreso de la sociedad viene asociado a comprender el riesgo y limitar el grado de su amenaza. Para esto, se establecen estrategias de supervivencia o, como dice T. C. Nichols (1970): Si no podemos dominar el riesgo, tendremos al menos que aprender a convivir con él. Otro concepto que se ha desarrollado durante las últimas décadas, para analizar el impacto de las catástrofes en el medio humano, es el de vulnerabilidad frente a cualquier amenaza que pueda producir inseguridad en las vidas. Expresa, por tanto, un desequilibrio entre la estructura social que ocupa el territorio y su medio físico. Cuando concebimos la vulnerabilidad como la componente de inseguridad del ser humano, estamos valorándola desde una perspectiva antropocéntrica. La catástrofe como riesgo Los medios de comunicación La característica fundamental de las catástrofes naturales es la enorme dimensión de energía liberada e incontrolada en la naturaleza, con las variables espacial y temporal; esta última casi siempre es superior a la vida humana. Ante lo imprevisto del suceso, provoca en el ser humano un sentimiento de pánico, inseguridad, e incertidumbre. En la actualidad, al intentar el análisis del impacto que provocan estos sucesos en la población, se suelen utilizar los conceptos de riesgo y vulnerabilidad. Los medios de comunicación suelen desempeñar la doble función de formación e información. Influyen poderosamente, a falta de la vivencia personal, en la percepción de las catástrofes. Estos supuestos son en parte verdad, al presuponer un comportamiento ético en el informador, pero en la mayoría de las ocasiones también tienen un componente de simulación por ignorancia o, incluso, por manipulación política. Somos conscientes de que el lenguaje no es inocente; está cargado Antropocentrismo I.T. N.o 74. 2006 9 Fig. 8. Katsushika Hokusai, La gran ola en alta mar en Kanagawua, 1831. Fig. 9. Tsunami en Maddampegama en Sri Lanka. Olas de hasta 10 metros de altura el 26 de diciembre de 2004. La tendencia de los medios consiste en centrar la noticia en personas y sentimientos, más que en dar explicaciones científicas. Se inclinan por las historias que tengan una fuerte componente de drama humano y sufrimiento. La circunstancia de una catástrofe que reviste dimensiones apocalípticas, más que reflexionar sobre la naturaleza y sus enseñanzas, deriva la información hacia lo sensacional. Casi siempre la última imagen suele ser un niño indefenso o los restos de un juguete. No se buscan actitudes ecuánimes y respetuosas sino que la noticia tiene la tendencia a transformarse en un realitty show. Explicaciones científicas de una fuerte dosis ideológica, que suele distorsionar la percepción del ciudadano. Ya la noticia tiene un componente de improvisación, pues incluso las explicaciones científicas no son creíbles totalmente, hasta que la comunidad científica las acepta. No obstante, hoy en día no se habla de verdades científicas, que pueden explicar el origen de las catástrofes, sino de teorías, que suelen ser verdades relativas. Estos niveles de incertidumbre no contribuyen al aumento de nuestra seguridad, pues llegamos con rapidez a la conclusión de que todo conocimiento es relativo. Hoy día se cuestiona casi todo, al resultar generalmente aceptada la manipulación política incluso del conocimiento científico, y éste, una vez divulgado a través de los medios de comunicación, cuyos profesionales no suelen dominar la profundidad de las teorías, contribuye a que la información llegue muy desvirtuada. 10 I.T. N.O 74. 2006 Aunque la ciencia se ha desarrollado, particularmente en el ámbito de la biología y la genética, hasta límites insospechados hace pocos años, los conocimientos sobre la Tierra y su clima siguen girando alrededor de hipótesis cada vez más abiertas, que, no obstante, distan mucho de establecer certezas. Desde el determinismo científico, que partiendo de principios generales posibilitó un rápido progreso de la Física, del conocimiento del comportamiento de la Tierra y, sobre todo, del clima, se fue evolucionando durante el siglo XX con la Física moderna. A semejanza de la nueva mecánica relativista de Einstein, que va desplazando las certezas, y el principio de incertidumbre de Heisemberg, que las aleja más, se van introduciendo cada vez más hipótesis en el análisis de entornos cada vez más complejos, denominados sistemas no lineales. Las complicadas formulaciones matemáticas están asociadas a simplificaciones y, en consecuencia, a niveles de probabilidad. En la década de los años sesenta, el meteorólogo Edward Lorenz, para tratar de explicar el comportamiento de la atmósfera, señaló que pequeños cambios al inicio de un proceso pueden provocar cambios drásticos en su evolución posterior. En este entorno se basó para enunciar la teoría del caos. En un artículo inicial titulado “Previsibilidad: ¿Puede el aleteo de una mariposa en Brasil causar un tornado en Texas?”, utilizó esa idea como metáfora para explicar la teoría del caos. En un sistema complejo, como puede ser el que llega a producir una catástrofe, un fenómeno no obedece a una sola causa sino que precisa la coincidencia de múltiples causas, algunas esenciales y otras aparentemente de menor importancia pero que contribuyen a que se desarrolle el fenómeno. El caos equivale a la componente de la incertidumbre, pero también es relativo, pues se asocia a la probabilidad del suceso. Representa más bien la incertidumbre de las probabilidades extremas e impredecibles. Pese a todas las incertidumbres, el mundo diario, habitualmente, se puede seguir expresando con la mecánica clásica con un elevado nivel de probabilidad. Vivencias de catástrofes El pasado 23 de marzo, como todos los años en esta fecha desde 1950, promovido por la Organización Meteorológica Mundial, se celebró el día meteorológico, para el que en esta ocasión, se escogió como tema La prevención de los desastres naturales y atenuación de sus efectos, debido a que el 90 % de los desastres naturales tienen que ver con el tiempo, el clima y el agua. El año 2005 se había caracterizado por padecer prolongadas sequías en Europa, Asia, Australia y Brasil. En el mismo año, en el océano Atlántico se produjo un récord en el número de huracanes desvastadores, entre ellos el Katrina, que indujo la inundación de Nueva Orleáns. El año 2004 también se había calificado como muy grave por los desastres naturales, y en particular por el tsunami que devastó las costas del océano Índico, y que alcanzó unas dimensiones dantescas en pérdidas de vidas humanas. Durante el período de diez años entre 1992 y 2001, los desastres naturales causaron 622.000 víctimas, y afectaron a más de 2.000 millones de personas. Los desastres acontecidos, y sentidos por toda la sociedad a través de los medios de comunicación, nos permiten aproximarnos a la auténtica dimensión de las catástrofes y situarlas dentro del contexto de la percepción humana. Podemos analizar, por su singularidad, la repercusión del tsunami del océano Índico y del huracán Katrina en el sur de los Estados Unidos. El tsunami registrado el 26 de diciembre del año 2004, que consistió en una ola producida por un movimiento sísmico, con epicentro en Indonesia, se trasladó por la superficie del océano Índico a una velocidad del orden de 700 km/h y provocó en pocas horas la muerte de cientos de miles de vidas. Se pudo presenciar en tiempo real en todo el mundo, a través de la televisión, percibiendo la total indefensión de aquellas gentes frente las fuerzas desatadas de la naturaleza. Las cifras de muertos, que se estimaron en principio en 10.000, fueron aumentando exponencialmente con cada nueva información, y a partir de los 200.000 ya se dejó de contar el número de vícti- mas, con una estimación de 250.000. A la vista de lo sucedido, se deduce que al valorar una catástrofe de esta magnitud la contabilización de las víctimas es meramente indicativa, lo mismo que sucede con los damnificados y las estimaciones de pérdidas económicas. Si en la actualidad, cuando se dispone de sofisticados medios de transmisión de la información, no se consigue concretar estas magnitudes, las que llegan del pasado no pasan de ser indicativas del orden de magnitud. Es habitual atribuir a países en desarrollo y atrasados, por ser los más vulnerables, las mayores afecciones por las catástrofes. Esta afirmación, muy propia de la elevada autoestima de los occidentales, resultó cuestionada después de la experiencia del huracán Katrina, que, el 5 de septiembre del año 2005, unido a la rotura de los diques de contención de agua, inundó la ciudad de Nueva Orleáns y puso a prueba, no superada con éxito, al país más poderoso de la Tierra. Si bien en el ámbito económico los efectos del huracán fueron desastrosos, la información de los medios sobre la pérdida de vidas humanas fue disminuyendo; las previsiones apocalípticas iniciales, que estimaban varias decenas de miles de víctimas, quedaron reducidas a una cifra final de 270 en la ciudad, contabilizándose un total de 1.200 en toda el área de la trayectoria e influencia del huracán, que constituyó el mayor desastre natural en los Estados Unidos. Las autoridades guardaron una total reserva sobre estas cifras. Lo más penoso del desastre fue la pérdida del orden y la ley en una parte de la población incontrolada, que se dedicó al saqueo, poniendo en evidencia la parte menos aparente de la condición humana, al manifestarse la lucha despiadada por la supervivencia, que llegó a desbordar a las fuerzas del orden, asombrando al mundo por las muestras de descivilización. Las constantes noticias fueron una llamada de atención y reflexión a los gobiernos occidentales hacia las reacciones sociales frente a las catástrofes de esta magnitud, que desbordan el tratamiento de riesgos y la capacidad de respuesta inmediata. Lo más patético es constatar cómo el hombre orgulloso se vuelve frágil e indefenso ante la magnitud de estas catástrofes naturales con sus devastadores efectos. Cambio climático Adentrados en el siglo XXI, las catástrofes naturales continúan golpeando con intensidad el planeta, y con independencia del conocimiento de sus causas, al ciudadano le llega el debate en una discusión interminable sobre si éstas se deben a orígenes puramente naturales o derivados de acciones inconscientes de las Administraciones y, por tanto, responsabilidad de los Estados. Las catástrofes que tienen su origen en la causa climática son las más numerosas, con grados diferentes de magnitud, las que se viven con mayor intensidad, y las que más víctimas y daños provocan. Durante los últimos treinta años, el debate político dominante a través de los medios de comunicación se centra en el nuevo paradigma del Cambio Climático, que se supone inducido por el hombre, es decir, debido a cambios antropogénicos. Cuando debatimos sobre el clima, es preciso recordar que éste viene determinado por un entorno geográfico, y está representado por unos valores medios de los fenómenos meteorológicos durante largos períoI.T. N.o 74. 2006 11 dos temporales, que van desde meses hasta miles de años. Sin embargo, lo que sentimos directamente es el tiempo atmosférico, que son los fenómenos que suceden en el entorno físico con escalas temporales de minutos a varios días. Durante el día, la temperatura puede oscilar entre cinco y diez grados, o incluso mucho más. Lo mismo sucede con el valor medio mensual de la temperatura a lo largo del año, y entre años puede variar varios grados. Cuando los científicos afirman que desde que se generalizaron los instrumentos de medición la temperatura media sobre el planeta aumentó 0,75 °C, de los cuales 0,5 °C corresponden a los últimos 50 años, están reseñando una cantidad que no se llega a sentir pero cuyos efectos, a escala planetaria, pueden tener un efecto significativo. Fig. 10. Foto de satélite del huracán Katrina. El Convenio Marco de Naciones Unidas sobre el Cambio Climático, firmado en Río de Janeiro en 1989, llegó a la conclusión de que existía una peligrosa interferencia antropogénica, que estaba contribuyendo al calentamiento global del planeta con el efecto invernadero. Las Naciones Unidas establecieron un panel internacional sobre el cambio climático (PICC), que se encargó de analizar el clima, y establecieron previsiones de emisión de CO2, debido preferentemente al consumo de energías fósiles, que resultaron demasiado pesimistas. Este supuesto calentamiento global tiene dos efectos graves: la elevación del nivel medio del mar y la velocidad de fusión de las capas de hielo del planeta. Lo que en un principio fue una opinión de expertos para su discusión, a través de las Naciones Unidas congregó a la Comunidad Científica Internacional, y sus conclusiones fueron integradas en las políticas activas de los diferentes gobiernos firmantes, después de que en el año 2005 entrase en vigor el Protocolo de Kyoto, que limita la emisión a la atmósfera de gases responsables del efecto invernadero. Los esfuerzos a nivel mundial para reducir las emisiones de gases procedentes de las actividades humanas que pueden provocar el efecto invernadero y, de este modo, alterar de forma apreciable el clima del planeta, se han materializado en la Unión Europea el 1 de enero de 2005, con la firma de un régimen para el comercio de los derechos de emisión de gases entre los diferentes países. Se pretende fomentar la innovación Fig. 11. Louis Garveray (1783-1875). El Náufrago. Brest, Museo de Bellas Artes. 12 I.T. N.O 74. 2006 global y, en última instancia, desean aplicar el principio de que quien contamine pague. El acuerdo político-científico tiene como fin la defensa del medio ambiente. A través del control de las emisiones y el pago de los países que contaminan se tiene previsto un efecto indirecto para ayudar a la lucha contra la pobreza de los países que no contaminan. Las incertidumbres globales se centran en la incertidumbre de cómo se les aplicarán limitaciones a las potencias emergentes, China, India o Brasil. No es seguro que el cambio climático se produzca, pero sí es importante la toma de conciencia en los diversos escenarios: individual, local y global. James Hansen, que es el científico responsable de la investigación sobre el clima de la NASA, manifiesta que El calentamiento global es real. Las consecuencias podrían ser desastrosas. No obstante, ciertas actuaciones prácticas, que de paso nos proporcionan una atmósfera más limpia y sana, podrían retardar y, con el tiempo, detener el proceso. Estas declaraciones esperanzadoras en la capacidad y ética del ser humano están en otro plano distinto al discurso de lo políticamente correcto, para el cual cualquier irregularidad climática está motivada por el cambio climático y éste es consecuencia de la combustión de productos fósiles, que lanzan a la atmósfera CO2. En cualquier circunstancia, a pesar del abuso informativo, no sabemos si estamos dentro de la influencia originada por los cambios antropogénicos, o por los cambios cíclicos naturales de más largo plazo. El desatre como oportunidad: Victimismo La cultura popular recoge en refranes las experiencias ante los desastres, que suelen revestir un carácter fatalista: “Poco mal espanta y mucho amansa”. “La desgracia prevista anda más despacio que la imprevista”. O aquel más reflexivo: En la inseguridad hay miedo y en el miedo hay seguridad. Una de las características de las democracias occidentales es la seguridad que garantiza a los ciudadanos dentro del denominado Estado del Bienestar. Garantiza que puedan beneficiarse de seguridad jurídica, política, de educación, sanitaria, y de un buen número de privilegios que disfrutamos con facilidad, olvidándonos de lo mucho que ha costado a las generaciones pasadas el conseguirlos, y de la duda de hasta cuándo podremos seguir disfrutándolos. Esta seguridad ha influido en el estímulo del antropocentrismo psicológico, que entra en crisis cuando se presenta una catástrofe, tanto por lo impredecible como por su enorme dimensión, que desborda la respuesta rápida de los Estados. Como anécdota, el Consorcio de Compensación de Seguros, que depende del Ministerio de Hacienda, cubre, en determinadas circunstancias, los daños ocasionados por acontecimientos extraordinarios, entre los que incluyen los siguientes fenómenos de la naturaleza: terremotos y maremotos, inundaciones extraordinarias (incluyendo embates de mar), erupciones volcánicas, tempestades ciclónicas atípicas (incluyendo los vientos extraordinarios con rachas superiores a 135 km/h, y los tornados) y caídas de cuerpos siderales y aerolitos. ¡No está mal! Quedan incluidas las catástrofes naturales y podemos confiar seguros. Transcurridas las primeras horas y contenido el desastre, comienza la búsqueda de posibles responsables, que, en la mayoría de las ocasiones, se atribuyen al entorno del Estado. Superada la catástrofe con una sensación heroica, se va dejando paso al egoísmo materialista y buena parte de la población aparece como víctima por el abandono del Estado. Asumiendo el victimismo, se hace culpable a otro, lo que lleva a obtener beneficios intangibles y materiales. En la actualidad el sentimiento de víctima se encuentra muy extendido. Julián Marías lo describe magistralmente: Las víctimas siempre tienen razón. No, las víctimas merecen toda compasión, la solidaridad, todo el posible apoyo que se les puede ofrecer, moral como económico, el máximo respeto y nuestro recuerdo. Hay una idea muy extendida de que el sufrimiento tiene un efecto limpiador, purificador y que ennoblece. Pero la razón no la da el hecho de ser víctima. En la sociedad actual, enmarcada en el paradigma de la felicidad, la gente no soporta la inquietud ni la pesadumbre, cuando en la propia vida no es posible vivir sin altibajos, sin miedos ni frustraciones, sin penas y sin dolor, pues todas estas adversidades, una vez superadas, hacen valorar positivamente la belleza de la vida. Hoy día, con la pérdida de pudor que caracteriza al individuo, éste exagera los males y desgracias para fomentar la solidaridad. La felicidad que suponemos es privada y las desgracias las hacemos partícipes. Necesitamos atribuir la culpabilidad a otros para sentirnos víctimas y, curiosamente, importantes. Los medios de comunicación intentan sacar noticias y presionan a la clase política, que, más por imagen que por convicción, promete actuaciones urgentes, no solamente de reparación de los daños ocasionados, sino de mejora de todas las obras públicas necesarias para la seguridad de los ciudadanos. En estas circunstancias los ingenieros entran en acción, desempolvando proyectos necesarios que no tuvieron su oportunidad, y realizan lo que les es natural: las obras públicas necesarias para la sociedad. El final de la catástrofe vuelve a atribuir al ingeniero su tradicional virtud de servidor público. ■ Manuel Nóvoa Ingeniero de Caminos, Canales y Puertos Jefe de la Demarcación de Costas en Cataluña Bibliografía – Alonso, Eduardo, et al., Riesgos naturales en la ingeniería civil, Ed. UPC, Barcelona, 1986. – American Institute of Professional Geologist, Guía ciudadana de los riesgos geológicos, Colegio Oficial de Geólogos de España, Madrid,1997. – Bryson, Bill, Una breve historia de casi todo, RBA, Barcelona, 2005. – Calvo, Francisco, Sociedades y territorios en riesgo, Ed. del Serval, Barcelona, 2001. – Corbin, Alain, y otros, El mar, terror y fascinación, Paidós, Barcelona, 2005. – Glacken, Clarence, Huellas en la playa de Rodas, Ediciones del Serval, Barcelona, 1996. – Goodwin, Joscelyn, Fludd, Robert, Claves para una teología del universo, Editorial Swan, Madrid, 1987. – Hacar Benítez, M., et al., Accidentes y catástrofes, Map&Sig Consulting, Madrid, 1996. – Hansen, James, ”El calentamiento global”, Investigación y Ciencia, mayo 2004. – Kenneth Galbrait, John, La cultura de la satisfacción, Ariel, Madrid, 1992. – Marina, José Antonio, López Penas, Marisa, Diccionario de los sentimientos, Ed. Anagrama, nº 273, Madrid, 1999. – Nombela Cano, César, y otros, El conocimiento científico como referente político en el siglo XXI, Fundación BBVA, Madrid, 2004. – Nóvoa, Manuel, “Diluvios mitos y abundancias”, Revista O.P., Nº 47, Barcelona, 1999. – Reader´s Digest, La tierra, un planeta espectacular, México, 1995. – Redal, Enric Joan, y otros, Ciencias de la Tierra y del universo, Santillana, Madrid, 2005. – Schwanitz, Dietrich, La Cultura, Colección Taurus, Madrid, 2003. – Silver, Raymond, et al., “La superficie de la Tierra”, Investigación y Ciencia, Temas 20, 2000. I.T. N.o 74. 2006 13 Fenómenos naturales y escala temporal Santiago Hernández Fernández DESCRIPTORES ESCALA GEOLÓGICA ESCALA ECOLÓGICA ESCALA HUMANA GEODINÁMICA EXTERNA Y BIOSFERA FENÓMENOS NATURALES ADAPTACIÓN A LA NATURALEZA INGENIERÍA Y CATÁSTROFES Un universo sin reloj y sin programa Parece que el universo tiene unos 13.700 millones de años, nuestro planeta del orden de 4.600 millones de años, y es posible que la vida surgiera en la Tierra hace casi 4.000 millones de años. Puede decirse, por tanto, que la vida ha estado presente durante buena parte de la compleja evolución geológica del planeta, acomodándose a las circunstancias, sobreviviendo a cataclismos regionales y generales, aprovechando todas las oportunidades para colonizar nuevos espacios y, felizmente, interfiriendo y regulando los grandes ciclos planetarios, hasta conseguir las condiciones actuales, que han permitido la evolución del Homo sapiens. La evolución de la vida ha sido siempre difícil y compleja: dio sus primeros pasos en las aguas, en unas condiciones verdaderamente inhóspitas; posteriormente, por numerosas circunstancias puntuales, sufrió fuertes glaciaciones que pudieron ser completas en dos ocasiones, convirtiendo a la Tierra en una bola de hielo, hace unos 2.200 y 600 millones de años, tras las cuales podrían haberse dado los grandes pasos hacia la vida actual (células procariotas y organismos macroscópicos, recíprocamente) tras dos subidas bruscas, en esas dos etapas, de la cantidad de oxígeno en la atmósfera; después, la vida conquista la tierra firme, a lo que seguiría la gran radiación cámbrica; y finalmente se han ido produciendo, de forma aparentemente aleatoria, hasta veinte períodos de extinciones de especies, con cinco grandes extinciones hace unos 440 millones de años (fin del Ordovícico), 14 I.T. N.O 74. 2006 365 millones de años (fin del Devónico), 225 millones de años (fin del Pérmico), 210 millones de años (fin del Triásico) y 65 millones de años (fin del Cretácico). Buena parte de estas catástrofes eran globales y tenían sus orígenes fuera del planeta, como consecuencia de choques de meteoritos (de los que incluso actualmente pueden reconocerse más de 150 cráteres causados por los impactos). Otras, con efectos también globales, eran causadas por nuestro propio planeta, debido a cambios en los movimientos de giro sobre su eje y de traslación alrededor del sol (precesión, movimiento de balanceo del eje de giro de la tierra, que describe un cono cada 25.868 años; nutación, oscilación del eje debido a la atracción lunar, con ciclos de 18,6 años; oblicuidad, cambio en la inclinación del eje terrestre respecto del plano orbital o de la elíptica, con ciclos de 41.000 años; cambio en la excentricidad de la elipse, debido a que la órbita que describe la tierra alrededor del sol es elíptica y su excentricidad variable con ciclos de 100.000 años), y producían aisladamente, o de modo conjunto cuando las consecuencias negativas se sumaban, drásticos cambios climáticos con efectos notables sobre los ecosistemas terrestres. Finalmente, y al mismo tiempo, se producían también grandes erupciones volcánicas, los continentes se desplazaban, cerrando o abriendo mares y acercándose o alejándose de los polos y el ecuador, y el resultado afectaba drásticamente las condiciones climáticas regionales y locales. Foto: SANTIAGO HERNÁNDEZ Fig. 1. Los ríos de montaña, con fuertes pendientes, arrastran rocas enormes, aunque su intermitencia sea de décadas o siglos. Hay que destacar que, curiosamente, a las grandes extinciones han seguido las grandes explosiones de vida. Lo cierto es que la historia del planeta solo puede entenderse como una interacción permanente entre las interferencias del espacio, los movimientos de giro y traslación terrestres, la actividad geológica del planeta (geodinámica interna y externa) y los procesos biológicos. El enorme grado de incertidumbre y aleatoriedad temporal de los principales acontecimientos ha producido una resultante caótica e impredecible que no permite reconocer un programa previsible ni un objetivo final identificable, aunque sí parece que la biosfera incrementa su biodiversidad y logra mantener una cierta estabilidad climática general en el planeta; en todo caso, aunque podamos percibir ciertas tendencias –reducción de los impactos de meteoritos, enfriamiento del interior del planeta, aumento de la temperatura del Sol, alargamiento de los días o alejamiento de la Luna–, no podemos garantizar que cualquiera de los acontecimientos pasados no se repita. Vamos conociendo cada vez mejor el funcionamiento del universo, de nuestro planeta y de los ecosistemas terrestres, pero faltan siglos de investigación para que podamos entender sus bases. Por el momento vamos descubriendo algunos de sus condicionantes más elementales, pero tenemos grandes lagunas, incluso en el conocimiento de sus orígenes: seguimos sin saber qué pasó en los primeros instantes del universo y en los primeros pasos de la vida. Un planeta ordenado por la biosfera Mientras nuestro planeta recorre el espacio en su giro alrededor del Sol, la erosión sigue limando sus relieves y llevando los sedimentos a los fondos oceánicos, los continentes (las placas tectónicas) siguen desplazándose varios centímetros por año, la corteza sigue desapareciendo en las zonas de subducción y renaciendo donde las placas se separan, los puntos calientes producen y mantienen los volcanes, las zonas de fricción siguen generando los terremotos para restablecer precariamente las fuerzas, etc. En definitiva, el juego de intereses espacio-planeta-vida continúa manteniendo su particular pugna, cuyo resultado es un precario equilibrio dinámico, con el esfuerzo unilateral de los seres vivos tratando de estabilizar y organizar los procesos. La vida se aferra a los ciclos reconocibles, a escala ecológica, que impone nuestro sistema solar y evoluciona permanentemente para adaptarse a los ritmos circadianos, las mareas, las fases lunares, las estaciones, etc., dejando que ordenen y regulen casi todos los ciclos biológicos. La vida trata de crear rutinas, controlar las imprevisiones, establecer sus propios procesos, independizarse de las condiciones externas y conseguir ecosistemas maduros que se autorregulen. En definitiva, la vida parece que pretende ordenar el caos y regular su aleatoriedad, tratando de conseguir que los procesos biológicos sean predecibles. A escala continental y regional parece haberlo logrado en sus ecosistemas I.T. N.o 74. 2006 15 Foto: SANTIAGO HERNÁNDEZ Fig. 2. La ocupación de valles en ríos de montaña presenta graves riesgos, que hay que valorar y cubrir. más evolucionados, como es el caso de los bosques tropicales o los corales. A escala planetaria también parece que puede controlar con escasas variaciones la temperatura media y los grandes ciclos. Podemos reconocer cuatro escalas de medida para el factor tiempo, con órdenes de magnitud diferentes: geológica, ecológica, humana (de especie Homo sapiens) y personal; y tres escalas de medida para el factor espacio: local, continental y planetaria. Pero la vida solo encuentra su equilibrio con sus dos variables fundamentales, el tiempo y el espacio, a gran escala, es decir, a escala geológica y planetaria. A medida que descendemos a escala de tiempo ecológica o humana y a escala de espacio continental o local, aumentan los niveles de incertidumbre en la estabilidad de la biosfera. Cuando decimos que la naturaleza se ha recuperado siempre de las grandes catástrofes, aunque tarde en hacerlo más de 100 millones de años como ocurrió con la mayor de todas, a finales del Pérmico, queremos decir que ha vuelto a recuperarse el número de familias que resultaron extinguidas. En realidad lo que ocurre es que la vida “crea” nuevas especies que vuelven a ocupar los “espacios vacíos” que había dejado la catástrofe anterior. Pero la vida no retrocede en su evolución ni se detiene en recuperar las especies perdidas ni siente nostalgia del pasado. La evolución, aunque no parece tener ningún programa definido, genera nuevas soluciones para los viejos problemas, utilizando una renovada biodiver16 I.T. N.O 74. 2006 sidad (nuevo catálogo de especies) con las que prueba distintas combinaciones para construir los nuevos ecosistemas. Su norma aparente es “dejar hacer” a cada especie y seleccionar rigurosamente a las energéticamente más eficientes, en un permanente ajuste de las relaciones interespecíficas, que llevan a crecientes complejidades ecosistémicas. Finalmente, hay que destacar que la biosfera se reserva un as en la manga, pues posee un canal de comunicación entre los factores tiempo y espacio; se trata de su capacidad para adaptar sus procesos a escala ecológica (es decir, rápidos en términos geológicos, y lentos en términos humanos, al tiempo que reducidos a escalas locales o continentales) a algunos procesos geológicos (es decir, lentos y a escala planetaria). Un ecosistema puede “viajar” sobre un continente desplazándose, a medida que éste se mueve, para conservar el mismo lugar relativo en el planeta por sus características climáticas. La naturaleza evita las riadas La vida tiende a cubrir todo el territorio disponible con la vegetación, para construir sobre ella sus ecosistemas, interactuando con la litosfera y formando el suelo fértil. El suelo, en el sentido edafológico, es la zona de interacción entre la litosfera y la biosfera; es la capa intermedia entre la atmósfera y la roca madre. Bajo la acción de los agentes atmosféricos (viento, lluvia, nieve, sol…) y de los seres vivos que forman la edafofauna (bacterias, algas, hongos, insectos, lombrices, raíces…) Foto: SANTIAGO HERNÁNDEZ Fig. 3. Los deslizamientos de ladera y los procesos erosivos pueden incrementarse por cambios de uso del suelo con pérdida de cobertura vegetal. se van produciendo unos cambios en la roca madre, mecánicos, físicos y químicos, que transforman las sustancias minerales originales en materia asimilable por las plantas. El suelo es la base del ecosistema, no hay plantas sin suelo ni suelo sin plantas. La eliminación de esta capa de suelo por cualquier procedimiento supone el comienzo de un proceso de degradación que puede terminar con la destrucción de la capacidad del terreno para soportar una comunidad vegetal y, evidentemente, la correspondiente fauna. Así, debe existir un equilibrio entre la formación del suelo y su erosión. Como vemos, en cualquier lugar de la naturaleza encontramos, quiérase o no, un equilibrio dinámico de fuerzas contrapuestas que mantiene comunidades o circunstancias muchas veces aparentemente distintas, pero perfectamente interrelacionadas por múltiples conexiones que les dan una gran estabilidad ante las variaciones naturales. La edafofauna representa una gran parte de la biomasa del ecosistema; en el caso de un hayedo puede oscilar de modo general entre 700 y 200 kilogramos de biomasa por hectárea, contando lombrices, gasterópodos, ácaros, dípteros, diplópodos, colémbolos, insectos, arañas, etc. Las bacterias, por su parte, pueden, en suelos buenos, aportar una biomasa de 500 kg/ha o más. Por lo tanto debemos aprender una gran lección: el suelo es una pieza imprescindible para el equilibrio del planeta, por ser el primer escalón de la vida terrestre. Una cuenca en equilibrio edáfico estará cubierta de vegetación natural (plantas herbáceas, arbustos y árboles) y, en consecuencia, los ríos que la drenan recibirán agua con nutrientes disueltos para la biocenosis acuática y pocos elementos minerales en suspensión. Las hojas interceptan un 15-30 % de la lluvia, dependiendo, naturalmente, del tipo de árboles, de la edad de éstos y de la densidad. El agua así retenida escurre por las hojas y ramas para terminar cayendo al suelo, aunque otra parte del agua seguirá el camino de las ramas mayores y caerá escurriéndose por el tronco del árbol. Puede estimarse que el estrato arbóreo de un bosque retiene un 1,5-2 % de la precipitación, que empapa el árbol y se evapora, y difiere por escurrimientos y goteos entre un 15 y un 30 por ciento de las precipitaciones. La vegetación evita el efecto goteo, aumenta la infiltración, alimentando los acuíferos, retrasa la formación de corrientes superficiales, reduce su velocidad y evita la formación de cárcavas, protege al suelo de la desecación y reduce la evaporación. Resumiendo, las cuencas con vegetación natural dificultan, difieren y reducen los escurrimientos superficiales, produciendo una mayor infiltración que alimenta las fuentes y los pozos. Por lo tanto las cuencas con vegetación natural tienen un menor coeficiente de escorrentía y, al mismo tiempo, un mayor tiempo de concentración. Es decir: para las mismas precipitaciones producen una mayor laminación de las avenidas y menores caudales punta. Por tanto, en la medida de sus posibilidades, la naturaleza trata de evitar las riadas, es decir, sobresaltos a la ya difícil vida de la fauna fluvial. I.T. N.o 74. 2006 17 La naturaleza se acopla a la geodinámica externa El ciclo natural de erosión, arrastre y sedimentación de la superficie continental, con las mil posibilidades de interferencias y su compleja casuística, es el negativo de los procesos orogénicos que generan nuevos relieves en la corteza. Con ellos la corteza cambia lenta y continuamente de forma, las rocas cierran largos ciclos de miles de millones de años, y continentes y mares cambian de posición, forma y relieve. En estos procesos globales, las distintas escalas temporales (geológica, ecológica, humana –Homo sapiens– y personal) y espaciales (local, continental y planetaria) adquieren todo su protagonismo y trascendencia; la visión de las oscilaciones de lo pequeño o de lo rápido puede entenderse abriendo la escala para percibir fenómenos más lentos y generales que, estudiados en su conjunto, permiten obtener una perspectiva global que, entonces, ilumina todos los procesos parciales. Este debe ser nuestro punto de vista para entender los fenómenos que suceden de modo natural en la corteza terrestre. Terremotos, tsunamis, tempestades, tormentas, nevadas, huracanes, inundaciones, desprendimientos de rocas, corrimientos de tierras, aludes de nieve, grandes incendios forestales, olas de frío o de calor, grandes sequías, etc., son manifestaciones puntuales de procesos globales identificables a gran escala, temporal y territorial, cuya previsión a escala Homo sapiens puede ser problemática, difícil e incluso poco útil; pero la ocurrencia de algunos de ellos a escalas local y personal (es decir en nuestro ámbito de vida profesional), puede predecirse, al menos, en alcance, magnitud y probabilidad. La naturaleza, parece evidente que ha evolucionado entre estas complejas y catastróficas manifestaciones, controlándolas en parte en algunas ocasiones, a las que ha logrado adaptarse con mayor o menor rapidez. Nuevamente la naturaleza puede servirnos de ayuda, en nuestro interés en conocer mejor estos sucesos, mostrándonos sus consecuencias y las heridas que sufrió con ellos. Esta idea “abre” un nuevo campo para el estudio de la naturaleza desde la ingeniería, con la finalidad de adaptar mejor nuestras obras y la ocupación del territorio a estos procesos naturales capaces de producir grandes daños en infraestructuras y en vidas humanas. En realidad deberíamos decir “reabre” una vieja y fructífera relación ingeniero-territorio, quizás injustificablemente interrumpida, pues los comienzos de la ingeniería estaban íntimamente relacionados con el terreno, con sus formas, con su comportamiento y con sus circunstancias. Un nuevo campo para la ingeniería civil La ingeniería debe ocuparse, en primer lugar y cada día con mayor intensidad, de los problemas ambientales que pueden derivarse de las obras civiles, para compatibilizar los caminos de la naturaleza con las infraestructuras necesarias para el desarrollo de la civilización; esta preocupación forma parte de nuestra profesión y de nuestro compromiso con la sociedad; no debemos olvidar que un proyecto de ingeniería es la respuesta técnica para resolver un problema social. En segundo lugar, y no por eso menos importante, debemos tener también 18 I.T. N.O 74. 2006 presente que existen determinados fenómenos o acontecimientos, que suelen llamarse de modo genérico catástrofes naturales, que pueden producir cuantiosos daños personales y materiales, cuya prevención exige un mejor conocimiento de la naturaleza y de sus procesos geológicos y ecológicos. En tercer lugar, todos estos fenómenos naturales tienen algo en común: a. Suelen dejar huellas claras sobre el terreno, que permiten un estudio científico, incluso muchos años después del suceso. b. Responden a una lógica determinada por la combinación de unas circunstancias locales del terreno (topografía, morfología, naturaleza, disposición, etc.) y otras propias del fenómeno (climáticas, geológicas, geotécnicas, etc.). c. Cada uno de ellos sucede en lugares concretos, mientras que en otros territorios son prácticamente imposibles. d. Existe la posibilidad de deducir y obtener algunas hipótesis razonables sobre sus probabilidades de ocurrencia o repetición. f. Podemos realizar evaluaciones aproximadas sobre su peligrosidad y sobre los daños previsibles para cada lugar concreto. Estas emergentes actividades abren nuevas perspectivas para el ejercicio profesional de los ingenieros civiles, que se traducen directamente en un incremento notable de nuestra aportación a la sociedad que servimos, lo que produce incrementos directos de la seguridad, y de la calidad de vida, de los ciudadanos. Surge, en definitiva, un nuevo campo para la ingeniería civil, que deberá abordar complejos problemas relacionados con el uso del terreno y que está llamado a desarrollar importantes servicios en las próximas décadas. Un gran reto para el futuro de la ingeniería, cuyas consecuencias más importantes pueden ser las siguientes: • Refuerzo notable de su tradicional función social, dando respuesta a nuevos problemas ligados sociales, cuyas consecuencias para la población suelen ser inversamente proporcionales al desarrollo económico y cultural de los pueblos. • Modificación de los habituales campos de decisión, al afectar a problemas y sectores sociales en los que la técnica puede ser un factor de menor peso. En estos ambientes las soluciones de los problemas exigen un análisis complejo, una negociación multisectorial y unos condicionantes fuera del campo estrictamente técnico. El líder del proceso debe ser conocedor de todos los factores implicados. • Ampliación del carácter interdisciplinar en los estudios necesarios, lo que exige gran capacidad para desarrollar trabajos en grupo, reuniones de colaboración huyendo de los personalismos y los proyectos personales, discusiones multisectoriales con especialistas de disciplinas muy diferentes y constancia para sumar objetivos, admitir nuevas soluciones y construir ideas. • Aproximación a la realidad territorial, como factor crucial del problema y de las soluciones. La necesidad de conocer y estudiar el terreno hace que el plano y el ordenador tomen su tradicional función de elementos adicionales sobre los que se ponen resultados. Lo que existe es el campo, el árbol, el río, el monte, el suelo, la edafofauna. Ellos son el objeto del estudio, ellos son los afectados y ellos deben ser el Foto: SANTIAGO HERNÁNDEZ Fig. 4. También las costas tienen sus espacios para el equilibrio a largo plazo y nos muestran que no debemos interferir su dinámica litoral. objetivo de la solución. Así gana peso el trabajo personal, la creatividad, la valoración de los ecosistemas naturales y el conocimiento del funcionamiento de la naturaleza y sus manifestaciones bruscas. • Apertura de nuevos campos a la investigación, en los que se conoce mucho menos de lo que resulta imprescindible para tomar multitud de decisiones, cuya trascendencia social puede ser enorme. Es preciso incrementar notablemente la investigación para conocer los impactos verdaderos de las obras sobre todos los factores que exige la ley estudiar, para realizar los estudios de impacto ambiental. Igualmente es necesario desarrollar verdaderos programas de investigación, a medio y largo plazo, para conocer la eficacia de las medidas correctoras que se proyectan y, posteriormente, poder aplicarlos para mejorarlas. • Oferta de enormes posibilidades en la gestión, tanto de la prevención de los problemas, como de la resolución de las consecuencias inmediatas y de la restauración posterior de los daños causados en las infraestructuras. Gestión que alcanza a todos los campos relacionados con el medio ambiente y los procesos naturales implicados en inundaciones, deslizamientos, movimientos sísmicos, fuertes vientos, etc. Hay que resaltar que el proceso de globalización mundial afecta a todos los países y se aprecia en todos los sectores; ha alcanzando también a la ingeniería civil. Las empresas del sector de la construcción trabajan en todos los países y los in- genieros van y vienen de unos a otros, en el ejercicio de su actividad profesional. En este contexto debemos resaltar la importancia de que los profesionales de la construcción, en función de unos principios éticos admitidos por todos, actuemos en un país en desarrollo con los mismos parámetros socio-ambientales que nos exigen en los países desarrollados. Las catástrofes naturales La ONU advierte de que las catástrofes naturales afectan cada vez a más personas (Ginebra, 2 de noviembre de 2004); 254 millones de personas se vieron afectadas en diversos grados por fenómenos tales como inundaciones, sequías, terremotos o huracanes, según un comunicado de la Conferencia Mundial para la prevención de catástrofes, citando estadísticas de la Universidad católica de Lovaina (Bélgica). El número de personas fallecidas fue de 83.000. Entre las causas cita los cambios climáticos y las urbanizaciones incontroladas. Teniendo en cuenta la naturaleza imprevisible de estos fenómenos, las cifras varían considerablemente de un año a otro. “La gente es cada vez más vulnerable porque cada vez más personas se ven obligadas a vivir en zonas urbanas con riesgos”, declaró el director de la Estrategia internacional para la prevención de catástrofes (SIPC), Salvano Briceno. De aquí al año 2025, más de 5.000 millones de personas vivirán en zonas urbanas, de las que 2.000 millones se alojarán en barrios de chabolas expuestos a inundaciones, seísmos o I.T. N.o 74. 2006 19 Foto: SANTIAGO HERNÁNDEZ Fig. 5. Hemos de revisar los parámetros que condicionan las máximas avenidas (sin olvidar la gestión de las actividades antrópicas en cuencas y cauces) para evitar estos sucesos. corrimientos de tierra. De las 100 mayores ciudades del mundo, 70 estarán situadas en zonas de riesgo. Además, las catástrofes se suceden ahora de manera más frecuente, 337 fenómenos naturales de estas características registrados en 2003 frente a 261 en 1990. “Solo hay que ver el número de ciclones de este año, es difícil retener los nombres”, apuntó un responsable de la SIPC, John Harding. “Los investigadores aseguran que la intensidad y la frecuencia de las catástrofes probablemente van a incrementarse a corto plazo debido a los cambios climáticos. “Este aumento parece que se está produciendo ya en la actualidad”, añadió Harding. La naturaleza, en esencia, es el conjunto formado por las leyes del universo; el complejísimo, dinámico y cambiante resultado final de la interacción de esas leyes universales con nuestro prístino mundo físico más cercano ha formado la biosfera y, seguramente, puede haber adoptado soluciones muy diferentes en otros puntos del universo. Así, nuestra particular biosfera no sería la naturaleza sino su consecuencia: un simple estado de equilibrio estacionario, entre los infinitos posibles, alcanzado arbitrariamente en nuestro pequeño planeta al aplicar sobre él, en un momento concreto y con unas condiciones iniciales determinadas, las leyes del universo (“la naturaleza”). En este sentido carecería de sentido aplicar la, tan desafortunada como frecuente, afirmación de que la ingeniería, la técnica o la civilización deben dominar a la naturaleza. Talar un bosque, trasladar una montaña, embalsar un río, pro20 I.T. N.O 74. 2006 ducir electricidad, viajar a la velocidad del sonido o urbanizar el planeta, no es dominar la naturaleza, sino diferentes formas de alterar los equilibrios parciales logrados por “la naturaleza” (las leyes del universo) en nuestro planeta. Por el contrario, dominar la naturaleza sería controlar sus leyes (de la gravedad, de la energía, de la entropía, de la relatividad, etc.) y esto, al menos hasta el momento, está fuera de nuestras posibilidades; ni siquiera podemos controlar sus más directas repercusiones, de las que dependen los factores fundamentales que determinan el equilibrio del planeta, como por ejemplo su ciclo energético, es decir, el flujo de energía solar, los ciclos térmicos de la atmósfera o de los mares, la disipación de la energía interna del planeta o los movimientos de los continentes (teoría de placas), etc. Las manifestaciones de este ciclo energético planetario, con sus diferentes velocidades según que el medio empleado para el transporte y/o disipación de la energía sea el aire, el agua o el terreno, nos sorprenden periódicamente en tiempo y forma, recordándonos insistentemente la superioridad de su escala. De él depende el equilibrio de la biosfera, es decir, de todas las formas de vida terrestre, incluida nuestra propia especie; él controla la erosión, el balance hídrico, la formación del suelo fértil, las corrientes oceánicas, los ciclos geológicos, los movimientos de la corteza o el clima terrestre. Pero “regularmente” se producen concentraciones de energía que son disipadas bruscamente; es el caso de los terremotos, las erupciones volcánicas, las grandes tempestades y tormentas, los Foto: SANTIAGO HERNÁNDEZ Fig. 6. Incluso cuencas reducidas y pequeñas ramblas pueden acabar con nuestras infraestructuras, si no logramos unidad de acción en los terrenos del río. tornados, las olas de calor o de frío, las terribles inundaciones, los aludes y corrimientos de laderas, los prolongados períodos de sequías, etc.; que cuando ocurren en zonas habitadas pueden causar grandes pérdidas materiales y, en muchas ocasiones, humanas, y entonces las llamamos de forma genérica ”catástrofes naturales”. Del análisis anterior puede deducirse que estas catástrofes naturales son manifestaciones ”normales”, más o menos localizadas, periódicas y con frecuencia estadísticamente predecibles; por lo tanto, sus consecuencias también podrían ser controladas; pero lo cierto es que parece ocurrir casi todo lo contrario. ¿Por qué? La respuesta puede ser todo lo compleja o sencilla que queramos, pero la realidad es que una riada solo puede dañar a quienes se encuentran en su curso, un terremoto a quien tiene un techo pesado sobre su cabeza y un tornado a quien está en su trayectoria. ¿Quién es el culpable de que sigan construyéndose edificios, pueblos y ciudades en lugares de alto riesgo? ¿Quién decide que la sociedad adopte soluciones con riesgos crecientes? Nuestras ciudades son cada vez mayores y se van llenando con cantidades crecientes de sustancias explosivas (gas, gasolina, pólvora…), de combustibles tóxicos (plásticos, pinturas, grasas, aceites…), de aparatos peligrosos (automóviles, ferrocarriles, ascensores, motores…), de locales con elevada concentración de personas (estadios, discotecas, cines, almacenes…) y de zonas con alta densidad de edificación y grandes rascacielos. Con ellas, está muy claro, estamos cons- truyendo un hábitat “artificial” en el que asumimos, en nombre del progreso, unos riesgos crecientes; en estas condiciones las consecuencias de las conocidas ”catástrofes naturales” tendrán unos efectos negativos mucho mayores. En resumen, debemos asumir que nuestra civilización no puede dominar a la naturaleza sino que ineludiblemente debe convivir con sus leyes y adaptarse a sus ciclos naturales; solo el mejor conocimiento de sus ritmos y nuestra integración en ellos puede garantizarnos una convivencia pacífica que reduzca los elevados riesgos de un irresponsable enfrentamiento a sus leyes y a los procesos naturales de disipación energética. Creo que el campo profesional de los ingenieros civiles es el más adecuado para encontrar soluciones posibles, y medidas eficaces, para la prevención de estas, mal llamadas, “catástrofes naturales”, tanto en Europa como en cualquier punto del planeta. Somos los proyectistas de las infraestructuras que condicionan los asentamientos urbanos, las formas de urbanismo y el resto de infraestructuras energéticas, hidráulicas, de transporte, abastecimiento, etc. que permiten el funcionamiento y desarrollo de nuestra civilización. Sin duda tenemos ante nosotros un gran reto al que debemos dar solución en las próximas décadas. ■ Santiago Hernández Fernández Doctor Ingeniero de Caminos, Canales y Puertos I.T. N.o 74. 2006 21 PÁGINA INTENCIONALMENTE DEJADA EN BLANCO I.T. N.O 74. 2006 PÁGINA INTENCIONALMENTE DEJADA EN BLANCO I.T. N.o 74. 2006 La Tectónica de Placas: La Hidrotectónica Carlos Soler Liceras DESCRIPTORES EROSIÓN OCEÁNICA HIDROTECTÓNICA DINÁMICA PLANETARIA Todas las convulsiones que sufre la superficie de la Tierra, tanto las súbitas y bruscas como son los terremotos o las erupciones, como aquellas constantes y que no conocen pausa, como son los desplazamientos continentales y los levantamientos de cordilleras, se estudian mediante la dinámica terrestre. A lo largo de la Historia de la Humanidad han sido muchos los intentos de encontrar una teoría que explique la causa de estos movimientos. El primero fue obra de Tales de Mileto cuando afirmó que el agua era el principio de todas las cosas; con esta frase que la Historia se encargó de inmortalizar, dejaba claro que para él existía una causa primera y que además el hombre, con su inteligencia, podía ser capaz de encontrarla. Anaximandro, en cambio, pensó que era el aire, luego Heráclito aportó el fuego y Empédocles la tierra. Aristóteles elevó a los cuatro elementos, agua, aire, fuego y tierra, a la categoría de Elementos Primordiales y dijo “que su mixtión con natural artificio de especies compone sus calidades”. Pero fue en el siglo XVII cuando nació la moderna geología, de la mano de Steno y resumida en su magnífico libro Prodomus, donde se vislumbran ya muchas de las grandes aportaciones científicas posteriores e incluso se da una teoría de la dinámica terrestre, el diluvialismo, cuyo origen estaba basado en la Biblia y que sobrevivirá durante siglos dando lugar al catastrofismo. Sin embargo hay que esperar hasta el siglo de la Ilustración para ver al hombre elaborar una teoría científica, sin reminiscencias metafísicas, que fuera capaz de explicar los cambios que se gestan en la superficie de la Tierra. Podríamos empezar en ese mismo siglo XVIII citando al neptunismo de Werner, al vulcanismo de Desmarest y al plutonismo de Hutton. Las tres teorías se enfrentaron en una abierta polémica en la que los espectadores, numerosos en esa época, asistían a discusiones tan acaloradas como el magma, tan profundas como los abismos abisales y a la vez tan incisivas como los propios diapiros. La polémica alcanzó el plano personal y los 24 I.T. N.O 74. 2006 partidarios de una y otra se convirtieron en enemigos irreconciliables. Tras ellas y en siglo XIX aparece otro antagonismo científico: el uniformitarismo de Lyell frente al catastrofismo de Cuvier, pero ahora con discusiones más tranquilas e incluso con respeto y admiración entre los contendientes, fruto quizás del carácter sosegado y cortés de ambos científicos, sobre todo de Lyell, que no en balde era abogado. En el despuntar del siglo XX la teoría de los desplazamientos continentales de Alfred Wegener se encontró con el rechazo, de nuevo sumamente virulento, de los fijistas, encabezados por Harold Jeffreys y partidarios de la teoría del geosinclinal de Dana. Siempre ha habido una teoría y su antagónica, desgraciadamente nunca se estudió la posibilidad de que pudieran ser complementarias; tal y como se expondrá al final de este artículo, es ahí donde estaba la solución. El momento actual, en cambio, resulta anómalo: por primera vez en la Historia hay una sola teoría que todos aceptan y nadie discute. Esta teoría que actualmente explica la dinámica terrestre y por tanto la morfología del planeta, como nunca hasta ahora se había conseguido, es la Tectónica Global, formada a su vez por la unión de tres teorías: la expansión de los fondos oceánicos, la tectónica de placas y el punto caliente. El nacimiento de estas teorías se debió a un descubrimiento que guardaba el fondo del océano: allí estaba la mayor cordillera de la Tierra, la dorsal oceánica, que con sus más de sesenta mil kilómetros recorre los cinco océanos de nuestro planeta. Esta impresionante cadena de elevaciones está formada por materiales volcánicos recientes, y a ambos lados de ella se descubrió también que se disponían bandas paralelas y simétricas con antigüedades crecientes desde la dorsal hacia los continentes. Esto quería decir que la corteza oceánica está continuamente creciendo en la dorsal, haciendo que la separación entre continentes aumente de forma continua. Con esta prueba incuestionable el fijismo y sus Fig. 1. Según la Tectónica de Placas, el movimiento de las placas se produce según dos mecanismos. El primero está originado por las corrientes de convección que ascienden atravesando todo el manto. El otro mecanismo invocado para explicar el desplazamiento consiste en que la parte de placa que subduce al descender arrastra al resto provocando la rotura de la corteza en la dorsal. puentes continentales saltaron hechos pedazos; el movilismo y con él Wegener demostraron que tenían razón: los continentes no solo se movían, se trasladaban, colisionaban y se partían. Durante un tiempo la Tierra se quedó huérfana de una teoría que la explicara y fue en ese momento cuando surgieron las tres que forman la Tectónica Global. La teoría de la expansión del fondo oceánico, magistral por su sencillez, interpreta las bandas de corteza oceánica de igual antigüedad, a ambos lados de la dorsal, como un proceso de crecimiento del fondo del océano a partir de dichas dorsales. La segunda teoría, la tectónica de placas, divide a la superficie de la Tierra en una veintena de placas rígidas delimitadas por tres tipos de bordes según se genere o se destruya la corteza: uno constructivo en las dorsales, otro destructivo en las zonas de subducción, donde las placas se sumergen por debajo de los continentes, y otro borde pasivo en los contactos de las placas contiguas. La teoría del punto caliente explica el relieve dentro de cada placa; de esta forma la actividad volcánica en ella, en cualquier zona alejada de sus bordes, tiene como justificación el ascenso de una pluma térmica que, atravesando parte o la totalidad del manto y la litosfera, emerge en superficie formando islas, archipiélagos o relieves volcánicos dentro de los continentes. Con estas tres teorías que forman la Tectónica Global se explica la dinámica y la morfología terrestre. No obstante, a medida que se ha ido profundizando en el conocimiento de cada una de estas dos últimas teorías, la tectónica de placas y el punto caliente, se han ido encontrando objeciones que cada vez cuesta más ir acomodando a las teorías vigentes. Así, en el caso de la tectónica de placas y cuando se ha querido explicar las causas del movimiento de las placas, han surgido dos posibles mecanismos: la teoría gravitacional, en la que la porción de placa que subduce sumergiéndose en el manto, al descender, arrastra al resto de la placa en superficie; y la con- vectiva, en la que el movimiento está provocado por una corriente ascendente que, al llegar a las dorsales, se ramifica en dos horizontales que arrastran a la placa superficial y al descender provocan su hundimiento o subducción (ver figura 1). Cada uno de estos mecanismos, considerados como excluyentes, plantea serias objeciones: el gravitacional, si bien explicaría el movimiento de las placas del Pacífico, donde hay una dorsal y una zona de subducción, no podría explicar el movimiento de las placas americanas, donde sí hay dorsal, pero en cambio no hay subducción; por lo que no hay porción de placa que al descender arrastre al resto. De todas formas, la hipótesis gravitacional implica que un trozo de la placa, al subducir, tira del resto, y eso supone que la placa está sometida a un esfuerzo de tracción, y resulta comprobable que este tipo de tensiones no los soporta la corteza si no es partiéndose, con lo que deja de transmitirse el esfuerzo. La hipótesis convectiva también plantea otras incertidumbres: la primera y quizás la más importante es que hasta la fecha nadie ha conseguido demostrar matemáticamente que la circulación del fluido, debido a las corrientes de convección, logre trasladar la corteza que flota por encima y que incluso la sumerja en las zonas de subducción. Además las zonas de fractura, en algunos lugares, como en las dorsales del Atlántico Norte, Pacífico Sur y Central, presentan fallas transformantes (bordes pasivos) que desplazan la dorsal en cientos o incluso mil kilómetros. Estos desplazamientos son totalmente bruscos, la dorsal se interrumpe de forma súbita para aparecer de nuevo a una cierta distancia. Las corrientes convectivas deberían presentar asimismo estas interrupciones y desplazamientos en el manto, cosa totalmente contradictoria con la imagen de una cortina continua y ascendente que propugna la teoría de la célula convectiva. Existen más contradicciones para cada una de estas hipótesis de movimiento. La gravitacional debería guardar una relación entre el tamaño de la porción que subI.T. N.o 74. 2006 25 duce y la velocidad de traslación del resto de la placa; la convectiva se complica ante dorsales que se bifurcan, como la del océano Índico, necesitando entonces de una cortina ascendente triple para así mantener las tres dorsales. Si en vez de considerar las dos hipótesis de movimiento de forma excluyente las consideramos como mecanismos que pueden actuar a la vez, algo se arregla, pero no todo. Una objeción la tendríamos en el Pacífico: considerando las longitudes de los bordes destructivos y constructivos, se debería obtener que las zonas de subducción a ambos lados de la dorsal deben coincidir en longitud entre sí y con la dorsal. Ello es obligado de forma general, aunque de forma local se admitan subducciones que se aparten ligeramente de esta norma. Las longitudes de la dorsal y de la línea de subducción del Pacífico oriental (más concretamente por encima del paralelo 10° S) coinciden someramente. No así entre la dorsal y el Pacífico occidental, donde el borde destructivo cuadruplica en longitud al constructivo. Para que el mecanismo funcione, esto es, que lo que se crea a lo largo de uno se destruya a lo largo de cuatro, es necesario que por el camino se añadan tres; por tanto, debería haber una dorsal que agrandara la placa del Pacífico Norte; como no existe, llegamos a una total contradicción. La teoría del punto caliente no está exenta tampoco de objeciones. Si bien es una teoría que explica satisfactoriamente la formación de cordilleras submarinas y archipiélagos como el de Hawaii, no satisface otros datos geológicos de archipiélagos situados relativamente próximos, como son los de las islas Cook del Sur, o en otros océanos, como es el caso de Madeira y Canarias en el Atlántico Norte. En el Atlántico Sur el volcanismo oceánico y continental del Camerún también escapa a esta explicación. Hace algunos años y con idea de evitar estas incongruencias se adoptó una variante de esta teoría que se llamó la fractura propagante. Mejoró en algunas cosas pero no consiguió explicar los grandes problemas de secuencias volcánicas en los archipiélagos oceánicos como los que se han gestado en la formación de las islas Canarias. Pero las objeciones a la tectónica de placas y al punto caliente no solo se localizan en nuestro planeta, en el resto de los planetas y satélites que nos acompañan en este Sistema Solar las divergencias son más acusadas. En aquellos que presentan una masa sólida, como son los llamados terrestres: Mercurio, Venus y Marte, no se observan ni dorsales, ni placas, ni tan siquiera actividad, no tienen dinámica planetaria. Sin embargo, las corrientes convectivas dentro del manto de estos planetas deberían ser igual de activas que en la Tierra, sobre todo en Venus, planeta muy similar al nuestro en diámetro y densidad. Esto conduce a que estas teorías y el planeta Tierra presentan una relación biunívoca singular; se trata entonces de una teoría de ámbito únicamente terrestre, y la Historia nos puede enseñar cuán equivocada es esa restricción. En definitiva, la Tectónica Global explica los grandes rasgos de la morfología de este planeta; no obstante, a medida que el conocimiento de la geología y el relieve submarino aumenta, las teorías del punto caliente y la tectónica de placas se muestran insuficientes. Algo falta para llegar a encajar las piezas del rompecabezas. 26 I.T. N.O 74. 2006 ¿Qué es lo que falta por considerar? La respuesta aparece al incorporar la Oceanografía y la Hidráulica a las ciencias que estudian este planeta y que hasta ahora era solo el ámbito de la Geología y la Geofísica, olvidando con ello que el 70 % del planeta está sumergido bajo 3.700 metros de agua que se mueve sin cesar. Como muchas veces ha sucedido, no se ha considerado algo que está tan a la vista que hasta ahora ha pasado inadvertido: el agua de los océanos, al circular por el fondo lo está erosionando. Si añadimos este nuevo dato de la erosión oceánica a la Tectónica Global obtenemos una nueva teoría, la Hidrotectónica, donde se asume la anterior y se logra explicar todas aquellas cosas que su predecesora no explicaba, o necesitaba de una complicación excesiva que empañaba esa primera virtud de la simplicidad que tuvo esta teoría en sus momentos iniciales: simplex veri sigillum (la señal de la verdad está en la sencillez). La clave de la Hidrotectónica está en la erosión oceánica; admitido este concepto, el resto solo es la explicación de los mecanismos, más o menos complicados, que usa la Tierra para generar su dinámica o actividad tectónica. Existen varios argumentos que pueden demostrar la existencia de ese proceso erosivo y veremos que la sedimentación oceánica es su consecuencia ineludible. De todos ellos, el que más directamente nos afecta a los ingenieros es el que se deduce de aplicar estrictamente la hidráulica. Gracias a la Oceanografía sabemos que el agua de los océanos se mueve en un ciclo convectivo impulsada por el gradiente térmico y la rotación de la Tierra. En general este movimiento, condicionado por los taludes de los continentes, está formado por corrientes superficiales que se dirigen desde el ecuador hacia los polos; allí, enfriada el agua y con el aporte de sal de la banquisa polar, se hunde, iniciando las corrientes profundas que desde ambos polos se encaminan hacia el ecuador, donde ascienden para completar el ciclo. Las corriente superficiales son importantes al ser las causantes de buena parte del clima terrestre, pero ahora y para comprender la dinámica de la Tierra debemos quedarnos con las corrientes profundas, aquellas que discurren por los fondos de los océanos. La hidráulica nos dice que siempre que una corriente de agua circula por un cauce provoca una erosión, un transporte y una sedimentación. Los tres factores están tan relacionados que cuando el agua erosiona el cauce aumenta el transporte y anula la sedimentación; y al contrario, cuando sedimenta sobre el cauce disminuye el transporte y se anula la erosión. Solo por el mero hecho de considerar la existencia de estas corrientes profundas que discurren por el fondo del océano, sean cuales sean sus velocidades, estamos obligados a asumir la erosión oceánica como una consecuencia ineludible de la interacción agua-fondo. Aceptar que las corrientes profundas del océano erosionan el cauce por el que circulan es asumir una auténtica novedad en las teorías geológicas y por tanto constituye una revolución científica. Nunca hasta ahora se ha había pensado que el agua del mar podía erosionar su fondo; quizás la razón estriba en esa ya tan señalada, como inexplicable, ausencia de expertos en hidráulica en las teorías geológicas; sí, en cambio, se había estudiado la sedimentación en los océanos, buenos ejemplos de ello son la teoría ilustrada del neptunismo o la terriblemente complicada del geosinclinal, pero en todos los casos los sedimentos que se consideraban eran únicamente los pertenecientes a la erosión fluvial de los continentes y que los ríos vierten al mar. En cuanto a la erosión oceánica, el único aspecto que se ha considerado hasta ahora han sido las corrientes de turbiditas, asociadas a los taludes continentales, a las desembocaduras de los ríos y formadas por flujos ocasionales compuestos por partículas en suspensión. En comparación a la erosión oceánica a la que nos referimos, las turbiditas no llegan a ser ni tan siquiera la punta del iceberg de los procesos erosivos que se están gestando en el océano. Por otra parte, si aceptamos la existencia de la erosión oceánica deberíamos considerar que la capacidad de transporte del agua de los océanos se incremente con el tiempo debido a la aportación de las sustancias diluidas con la erosión; sin embargo esta capacidad de carga, el contenido en sales que lleva disuelto el agua de los océanos, permanece constante. La salinidad de los océanos, ligeramente variable de un océano a otro o entre mares diferentes, permanece a grandes rasgos asombrosamente constante. Así fue demostrado por Osmond Fisher a mitad del siglo XIX cuando analizó la composición de los fósiles marinos desde el Silúrico hasta el momento actual. Estudios realizados por el equipo de Ramón Margalef, en la década de los ochenta, amplían esta constancia a los últimos 2.000 millones de años. Entonces… si la erosión es continua y la cantidad de sales que tiene el agua de los océanos es constante… esto nos conduce inevitablemente a que todo lo que se erosiona se sedimenta: la tasa de sedimentación oceánica es entonces igual a la tasa de erosión continental más la tasa de erosión oceánica, siendo esta última de proporciones mucho mayores que la primera. Existen además factores que pueden aumentar la capacidad erosiva de las corrientes profundas del océano. Una de estas causas es la variación de la velocidad, que puede aumentar en varios órdenes de magnitud en aquellas zonas del fondo donde toda una corriente profunda se vea obligada a pasar por un estrecho. Es el caso del estrecho de Dinamarca, donde a finales de los años ochenta Whitehouse midió con corrientímetros velocidades de al menos 1,2 m/s. Más recientemente, en octubre de 2004, nosotros mismos hemos llegado a medir 2,4 m/s, con medidores doppler suspendidos desde el buque oceanográfico Vizconde de Eza, en el fondo del estrecho de Gibraltar, a la profundidad de 300 metros, en el umbral submarino de Camarinal. Estas velocidades están esculpiendo el fondo submarino con su erosión; fruto de su acción es la morfología que presenta, donde se observa una acción erosiva lenta y constante que podríamos denominar química y otra, también muy visible, más brusca y esporádica, denominada física, formada por derrumbes y deslizamientos de ladera (ver figura 2). Pero hay otro efecto que provoca un aumento aún más espectacular de la erosión de los fondos oceánicos. Es sabido que la mayor parte del vulcanismo se produce bajo los océanos y concretamente a lo largo de la dorsal; este proceso Fig. 2. Fondo del estrecho de Gibraltar desde el Atlántico hacia el Mediterráneo. Se aprecia la elevación en el Umbral de Camarinal. Todo el relieve submarino es consecuencia de los procesos de levantamiento a que está sometida esa zona de choque entre dos placas, modelado todo por un proceso erosivo debido a las velocidades de la corriente profunda de salida de las aguas del Mediterráneo. además de emitir productos sólidos también aporta gases y calor en proporciones muy elevadas. Sabemos que el aumento de la temperatura provoca un aumento de la capacidad erosiva de las corrientes profundas, pero los gases también colaboran y en un orden de magnitud similar o incluso mayor. Los gases más comunes que arroja un volcán, emergido o sumergido, son principalmente dióxido de carbono, cloruros y sulfuros. Al diluirse estos gases en el agua provocan la formación de ácidos carbónicos, clorhídricos y sulfúricos que rebajan el pH del agua tornándola agresiva. Esta agresión genera un ataque a los materiales que forman el fondo de los océanos, eminentemente volcánicos, entre los que abunda el sodio, dando lugar a sales como el cloruro sódico, del que hasta ahora se desconocía su procedencia, creyéndose que todo el que hay en el mar procedía de la disolución de sal común por los ríos continentales. Con lo expuesto se contesta al fin a una de las preguntas más antiguas del hombre y que hasta hoy seguía sin una respuesta válida: ¿Por qué el agua del mar es salada? Hasta aquí se ha expuesto la existencia de la erosión oceánica, y por consiguiente la sedimentación que lleva aparejada, como una deducción lógica al considerar la Hidráulica como aquella ciencia que debe regir en la interpretación de la interacción agua-fondo. Pero no es el único argumento que demuestra la existencia de ese proceso erosivo, hay otros más. Entre ellos podemos citar la distribución de los sedimentos a lo largo de los océanos y la morfología de su fondo. Tal y como se ha expuesto en párrafos anteriores, las teorías geológicas actuales, e incluso las anteriores, no consideran que el agua de los océanos erosione su fondo. Por esta razón, estas teorías actuales dicen que la sedimentación en los océanos procede únicamente de los materiales que arrojan al mar todos los ríos del mundo y que se reparten uniformemente por todo el fondo. De acuerdo con la tasa de denudación continental calculada, el aporte de sedimentos al fondo del mar es homogéneo y ha sido cuantificada por diversos autores en cinco milímetros cada 1.000 años. Según este I.T. N.o 74. 2006 27 dato y esta hipótesis, como el fondo más antiguo pertenece al Jurásico, la costa atlántica de Estados Unidos, y tiene una antigüedad de 200 millones de años, la mayor potencia de sedimentos en el fondo de los océanos no debería ser nunca superior a los 1.000 metros. Sin embargo los datos reales no concuerdan con estos cálculos. Se han realizado diversas campañas de sondeos geofísicos y mecánicos para determinar la potencia de sedimentos en el océano (Proyectos JOIDES y DSDP), obteniéndose espesores que superan los 10 kilómetros en la costa oriental de los EE UU. También se ha llegado a representar la distribución de sedimentos, viéndose claramente que no es homogénea, hasta el punto de que V. Beloussov llegó a decir que el reparto era totalmente aleatorio aunque, tal y como señaló Seiya Uyeda, parecía haber una cierta acumulación en el Ecuador. Estas conclusiones invalidan la hipótesis de que los sedimentos que hay en el fondo de los océanos tengan un origen continental y, en cambio, demuestran la existencia de la erosión oceánica. En primer lugar la acumulación en el Ecuador es una consecuencia obligada de la circulación convectiva de las corrientes oceánicas profundas, que al llegar a estas zonas ecuatoriales ascienden, aligerando peso y por tanto precipitando sus sales, para formar las corrientes superficiales que cerrarán el ciclo. En segundo lugar, para un científico que no sea experto en Hidráulica, y en algunos casos aun siéndolo, la distribución de sedimentos, no ya solo en el océano sino incluso en un río, le puede parecer un proceso aleatorio. Por último, el hecho de que se encuentren en diversas zonas del océano potencias de sedimentos de más de 10 kilómetros donde según la teoría solo debería haber uno, nos facilita el orden de magnitud de la sedimentación debida a la erosión oceánica (ver figura 3). Existen más argumentos y razones que avalan la existencia de este proceso de erosión, transporte y sedimentación oceánica. Entre ellos el ya citado de la morfología del fondo del mar. Al igual que sucede en los continentes, el relieve que presenta esta superficie submarina es el resultado de la erosión, las fracturas, los hundimientos y los levantamientos. Estos últimos son los protagonistas en zonas como la dorsal; pero, igual que sucede en las cordilleras continentales, aunque se levanten, su morfología también es el resultado de la erosión. No obstante hay otros lugares donde, aun habiendo Fig. 3. Distribución de sedimentos en el fondo del océano Atlántico, entre la dorsal y el entronque con el talud submarino del continente americano. En gris oscuro se indica la distribución de sedimentos según las teorías actuales, en gris más claro la distribución real obtenida mediante sondeos mecánicos y geofísicos. 28 I.T. N.O 74. 2006 fracturas, el estrellato lo asume con toda justicia la erosión oceánica: tal es el caso del fondo del océano Antártico al este del estrecho de Drake, donde el relieve reproduce de manera fidedigna, pero a una escala grandiosa, la rotura de una presa de materiales sueltos (ver figura 4). O también, en la misma proporción de escalas, la forma adoptada por el fondo del Pacífico frente a las islas Salomón, donde una corriente oceánica profunda, canalizada por la fractura de Clipperton desde América Central, choca contra el avance de Australia. El resultado es la imagen de ese fondo con el aspecto de cuernos de carnero, la forma típica que resulta del choque de un fluido contra un obstáculo que se levanta ortogonalmente a su dirección de circulación. En este caso las líneas de corriente han excavado enormes valles cuyos cauces están erosionando la corteza oceánica y por tanto adelgazándola, provocando con ello el levantamiento isostático de sus laderas y haciendo que emerjan islas o archipiélagos. La envergadura del proceso es enorme: mientras que la testuz se sitúa en esas islas Salomón, vanguardia del movimiento de Australia, las astas curvadas engloban por el sur a las islas Fidji y por el norte a las Marshall (ver figura 5). En cuanto a la morfología de la sedimentación, una de las más espectaculares es la llanura abisal del Atlántico Sur en la margen americana: un llano del tamaño de Europa donde, como si fuera una fina lluvia permanente, están continuamente precipitando toneladas de sales, logrando, con su posterior compactación, que la corteza se hunda por isostasia cada vez más en el manto. Aquí radica la causa de los movimientos verticales en las placas oceánicas: la erosión corta y levanta mientras que la sedimentación acumula y hunde la corteza oceánica. Esta es la causa que explica la dinámica terrestre pero también la de todos los demás planetas y satélites que nos acompañan en el largo deambular por el universo. Cualquier teoría que explique la dinámica de la Tierra no puede ni debe abarcar solo a nuestro planeta, debe tener una amplitud de miras mucho mayor y convertirse en una teoría de la dinámica planetaria, y así, deberá explicar la ausencia de actividad tectónica en la Luna, Mercurio, Marte y Venus y, sin embargo, justificar la dinámica desenfrenada y espectacular de Io, satélite de Júpiter y del tamaño de nuestra Luna, y también la de Europa, Ganímedes, Calixto y Titán. Volviendo a la Tierra y dejando para más tarde los problemas espaciales, conocer la causa de los movimientos verticales de la corteza oceánica es saber por qué surgen las islas, por qué se transforman en archipiélagos (ver figura 6) y cuál es el proceso de partición de un continente. Los ascensos y hundimientos que se están gestando en el fondo del mar explican estas tres transformaciones que genera la dinámica planetaria. Pero no todo acaba aquí, quedan otras muchas cosas, tan importantes como averiguar cuáles son las fuerzas que consiguen levantar las cordilleras continentales: ¿cuál es la fuerza que empuja a los continentes?, ¿por qué de forma reiterada los continentes se empeñan en reunirse formando pangeas?, ¿qué efectos orogénicos provoca en la corteza continental y oceánica la traslación de los continentes?... Fig. 4. Conexión del Pacífico con el Atlántico a través del estrecho de Drake. El relieve del fondo y la curvatura de los continentes americano y antártico reprodcen la rotura de una presa de materiales sueltos. Esta morfología es sin duda hidráulica y es el resultado de la acción erosiva de las corrientes profundas que circunvalan la Antártida sobre el fondo por el que discurren. Fig. 5. Erosión oceánica en forma de cuernos de carnero. Desde la dorsal de Tehuantepec en la costa occidental de México, esquina superior derecha, discurre una corriente profunda que se dirige hacia el oeste canalizada por la fractura de Clipperton. Tras atravesar las islas Christmas, las Fénix y las Ellice, choca contra el talud de las islas Salomón y se abre en dos gigantescas astas curvadas que alcanzan a las islas Carolinas por el norte y a las Fidji por el sur. I.T. N.o 74. 2006 29 Fig. 6. Proceso de formación de una isla. La continua acumulación de sedimentos en una cierta zona del fondo del océano provoca el progresivo hundimiento de la corteza oceánica en el centro y el levantamiento en los bordes o extremos de la zona deformada. En estas zonas levantadas se producen tracciones en la cara superior de la corteza que generan la aparición de grietas en las que se introduce el agua. El progresivo hundimiento hace que aumente la presión sobre el manto haciendo que el magma emigre hacia las zonas exteriores, donde se acumula produciendo el levantamiento de bloques de corteza y posteriormente la aparición de vulcanismo. Por motivos de espacio me debo restringir a una pregunta y la escogida es sin duda la de detallar cuál es la fuerza que consigue desplazar a los continentes. La elección obedece a varios motivos: con esa respuesta se explica el mecanismo por el que los movimientos verticales se transforman en empujes horizontales, también llamados tangenciales; ese mecanismo es el que hubieran necesitado saber los partidarios del geosinclinal para no tener que abandonar su teoría cuando surgió la expansión del fondo de los océanos; también porque por primera vez en la historia de las teorías de la dinámica planetaria se puede demostrar matemáticamente que esa fuerza que se expondrá es capaz de trasladar a un continente; y también como justo y merecido homenaje a Alfred Wegener, puesto que esa fuerza fue la que buscó durante los últimos 18 años de su vida, y al final, yendo tras ella, encontró la muerte en Groenlandia. ¿Cuál es esa fuerza que empuja a los continentes hasta lograr su desplazamiento? Para averiguarlo solo hay que mirar con detenimiento el fondo del mar, a popa de los continentes que se están trasladando, al lado contrario al de avance. Fijemos nuestra atención en América como ejemplo de continente que se traslada, concretamente en este caso hacia el Pacífico, y de acuerdo con lo que acabamos de decir observemos detenidamente el lado contrario, el fondo del Atlántico (ver figura 7). En él se puede observar que a lo largo de toda la dorsal el fondo presenta una menor profundidad, alrededor de dos mil metros; en cambio, en ambas márgenes, cerca de donde acaban los taludes continentales y en concreto el americano, el fondo se encuentra a una profundidad de unos cinco mil metros; pero además, allí aparece una llanura abisal donde se han medido espesores de sedimentos que oscilan entre 10 y 15 kilómetros que se sitúan encima de la corteza oceánica (ver figura 8). De acuerdo con este esquema descrito, la corteza oceánica en el Atlántico se encuentra, en la zona de contacto con el continente americano, hundida entre 15 y 20 kilómetros de profundidad respecto al nivel del mar (5 de agua y entre 10 y 15 de sedimentos); en la dorsal atlántica esa misma corteza está levantada y a tan solo dos kilómetros de la superficie. 30 I.T. N.O 74. 2006 Así, podemos decir que la corteza oceánica está inclinada hacia el continente formando un cierto ángulo de basculamiento (α). Esta disposición de la corteza oceánica, basculada sobre el continente americano, va a generar que una parte de su peso se transmita a la corteza continental, originando una fuerza que tiende a desplazar al continente en dirección contraria al lugar de donde proviene el esfuerzo. El valor de esta fuerza de empuje es el peso de la corteza oceánica multiplicado por el seno del ángulo de basculamiento: F = P·sen α. La cuestión que surge de forma inmediata es si esta fuerza es suficiente para provocar el desplazamiento de América del Norte hacia el Pacífico. Para averiguarlo usaremos una ciencia que comenzó Galileo y la concluyó Newton: es el desplazamiento de un bloque, apoyado en una superficie con rozamiento y empujado por una fuerza constante. El bloque a desplazar es el continente americano; concretamente vamos a quedarnos con una sección continental de ancho unidad, según un paralelo que pasa por el norte de Florida, que tiene la virtud de tener una longitud de unos 3.000 kilómetros, igual a la distancia que hay entre la costa atlántica y la dorsal (escoger esta sección en concreto no tiene más objeto que eliminar factores en la división que luego efectuaremos). El siguiente paso es definir el espesor de la sección que se mueve; en nuestro ejemplo sería la altura del bloque. Según la tectónica de placas este espesor es el de la totalidad de la litosfera, que equivale a unos 100 kilómetros, tanto si la placa abarca corteza continental como oceánica. En nuestra hipótesis, y como veremos después, este sería el caso más favorable; existe un espesor inferior que va a generar un caso más desfavorable que es el que debemos comprobar: éste surge al considerar como altura del bloque los últimos 15 kilómetros de corteza continental, allí donde el predominio es el de los materiales graníticos y donde por presiones y temperatura, según demostró Peter Molnar en 1988, existe una superficie de despegue que permite que la parte de sección continental que se sitúa por encima se desplace con un rozamiento muy bajo debido a la fusión parcial del cuarzo y del feldespato. Tenemos entonces el bloque a desplazar que es una sección del continente americano de 3.000 kilómetros de longitud y un espesor de 15 kilómetros. Fig. 7. Morfología del fondo del océano Atlántico. En el centro la zona de levantamiento de la corteza oceánica, coronada por la dorsal. Su morfología es el resultado, como sucede en todas las cordilleras, de la acción conjunta de los levantamientos, las fracturas y la erosión hidráulica canalizada en estas últimas. A ambos lados, y en el entronque con los taludes continentales, la corteza se encuentra hundida, en algunos lugares bajo el peso de miles de metros de sedimentos. Fig. 8. Perfiles de los taludes submarinos de América del Norte. En ellos puede observarse el proceso de hundimiento al que están sometidos la corteza oceánica y el propio talud continental por la acumulación de miles de metros de sedimentos compactados. I.T. N.o 74. 2006 31 La fuerza que empuja es el peso de corteza oceánica que se sitúa entre el borde del talud submarino de América del Norte hasta la dorsal mesoatlántica, multiplicado por el seno del ángulo de basculamiento. Al igual que sucede en el párrafo anterior, el caso más desfavorable surge al considerar que el espesor de corteza oceánica que empuja es el menor posible, y éste corresponde al contacto entre corteza oceánica y manto, es la discontinuidad de moho y se sitúa entre cinco y siete kilómetros de profundidad por debajo del fondo del océano allí donde no hay sedimentos. Esta superficie de deslizamiento permite el desplazamiento con ángulos de fricción muy bajos. El ángulo de basculamiento se obtiene de la inclinación de la corteza oceánica, que para el ejemplo escogido, paralelo que pasa por el norte de Florida, es igual a: a = arc tang {(15-2)/3.000} => a = 0,25° => sena = 4,3 ·10-3 Tenemos por tanto que la fuerza que empuja al continente es algo más de cuatro milésimas del peso de una rebanada de corteza oceánica de 3.000 kilómetros de longitud y cinco kilómetros de espesor. Queda por definir el coeficiente de rozamiento entre esos 15 kilómetros de corteza continental flotando sobre ese mismo material pero en un estado, definido por los geofísicos, de fusión incipiente (fase en la que conviven partes sólidas y líquidas, similar a un vaso conteniendo hielo y agua según la acertada imagen de F. Anguita). Para averiguar este coeficiente volvemos a la Historia, y más concretamente a la década de los años veinte del siglo pasado, cuando Wegener intentaba demostrar que era la fuerza centrífuga, procedente de la rotación de la Tierra, la que empujaba a los continentes. Esta hipótesis surgió en la mente del alemán debido a que llegó a la conclusión de que los continentes emigraban desde posiciones situadas próximas a los polos hacia el Ecuador; por esta razón, y aun sin haber encontrado la fuerza que tanto buscó, la bautizó con el nombre de “Polhflucht” (fuga polar). En la última edición de su libro: El origen de los continentes y de los océanos, y debido a los cálculos de Epstein, Lambert, Schweydar y sobre todo Wavre y Bersier, que daban como coeficiente de rozamiento el valor de una millonésima, tuvo que abandonar esta hipótesis, y lo hizo diciendo que ese valor, expresado como cociente entre la fuerza que empuja y el peso del continente, si bien era capaz de “... desplazar los bloques continentales a través del Sima, es insuficiente para producir las grandes cadenas plegadas de montañas que se originan en conexión con la fuga polar de los continentes”. Esto quería decir que el valor de una millonésima era el umbral del inicio del movimiento, el valor que estudiaba Galileo con su sistema de rampas. Al igual que le sucedía al pisano y a diferencia de Newton, a nosotros nos interesan los momentos estrictos del inicio del movimiento, justo cuando el empuje supera el valor de las fuerzas de rozamiento. Este es el dato que necesitamos para nuestro cálculo, el umbral de inicio, que equivale a decir que un bloque continental de un millón de toneladas, flotando sobre su mismo material en fusión incipiente, comenzaría a trasladarse si lo em32 I.T. N.O 74. 2006 pujáramos constante y horizontalmente con una fuerza de una tonelada. En principio puede parecer un coeficiente de rozamiento muy bajo y más para los ingenieros, que estamos acostumbrados a usar en geotecnia y para el estudio de estabilidad de laderas valores mucho más altos. Pero también es cierto que en el caso de los desplazamientos continentales, éstos están flotando sobre la superficie de deslizamiento y a más de 1.000 °C de temperatura. Quizás fuéramos capaces de asimilar mejor ese valor de una millonésima si nos imagináramos que el continente es una barca de quilla plana a la que empujamos transversalmente. Con todo lo expuesto estamos en condiciones de concluir con la demostración matemática. Una vez calculados los pesos de la rebanada de la corteza oceánica que empuja y de la correspondiente de continente que desliza, siempre en ese paralelo de Florida, obtenemos que el cociente entre la fuerza empujante y el peso del bloque a desplazar es de 1,7 · 10-4. Este valor es mil setecientas veces superior al de una millonésima, definido como umbral de inicio del movimiento. Tenemos entonces que el basculamiento de la corteza oceánica del Atlántico Norte sobre el continente americano proporciona una fuerza más de mil veces superior a la necesaria para producir el desplazamiento (ver figura 9). En todo el cálculo realizado y de forma premeditada se ha pospuesto el rigor científico en aras de una mayor claridad, tal y como creo que demanda el foro donde ahora se expone esta demostración. Pero esto no debe inducir a error, la exposición se ha hecho con todo rigor y, por primera vez en una teoría de la dinámica terrestre, se ha demostrado matemáticamente que el mecanismo de empuje propuesto es capaz de desplazar a los continentes. Ahora, y como ya se anunció, momento es para convertir lo particular en general. Si el cálculo lo quisiéramos hacer para los espesores de placa que propugna la Tectónica Global, tendríamos que aumentar el espesor de la corteza oceánica de cinco a 100 kilómetros y el bloque continental de 15 a 100, por lo que el resultado se vería multiplicado por tres, luego se desplazaría con mayor motivo. Con esa misma premisa de no complicar la exposición se ha prescindido de dos fuerzas que colaboran en el movimiento. La primera es el peso de 10 ó 15 kilómetros de sedimentos saturados y compactados que se apoyan sobre el talud continental y que empujan al continente en la misma dirección que la corteza oceánica basculada. La otra fuerza, más pequeña que la anterior, es la presión hidrostática de los cinco kilómetros de agua sobre ese mismo talud submarino del continente. Si se tienen en cuenta ambas fuerzas el coeficiente aumenta pero mantiene los órdenes de magnitud determinados. La demostración está hecha para la sección de EE UU, escogida por ser la que tiene más datos gracias a los perfiles con sondeos mecánicos y geofísicos. Quizás sea ésta una de valor intermedio en lo que respecta a la anchura del continente americano pero es una de las más grandes en cuanto a corteza oceánica. Si hiciéramos este mismo cálculo para paralelos más altos encontraríamos más longitud de continente y menor de corteza oceánica; en principio parecerían Fig. 9. Desplazamiento del continente americano según la Hidrotectónica. La fuerza que empuja a los continentes, la “Polhflucht” que tanto buscó Wegener, es la consecuencia del basculamiento de la corteza oceánica, al estar levantada en la dorsal y hundida en el entronque con el continente. La inclinación provoca que parte del peso de la corteza oceánica se transmita al continente. Calculada esta fuerza, para el caso de la figura resulta ser 1.700 veces superior al coeficiente de rozamiento calculado para la superficie de deslizamiento de Molnar. Por tanto, esta fuerza empuja al continente con un valor mil veces superior al estricto para iniciar el movimiento. Fig. 10. Proceso de apertura de un continente. Perfil del mar Rojo donde se observa la posición de la corteza oceánica, que se encuentra levantada en la dorsal, a 1,5 kilómetros de profundidad, y hundida en los contactos con los taludes continentales submarinos de África y Asia bajo el peso de cinco kilómetros de sedimentos. El ángulo de basculamiento resultante es de 2°, diez veces mayor que el mismo calculado para América a la altura de Florida. El empuje provocado por la corteza oceánica con este ángulo de basculamiento es 500 veces superior al coeficiente de rozamiento. casos más desfavorables pero no es así si nos fijamos en que el ángulo de basculamiento aumenta en mayor proporción y con él aún más el valor del seno. Con un aumento muy pequeño de α se compensan disminuciones muy grandes de la longitud de la corteza oceánica. Esto mismo sucede en las zonas donde se está produciendo un proceso de corte de un continente, como es el caso del mar de Cortés en el golfo de California y el mar Rojo en el golfo de Adén. En ambos mares existe una gran cantidad de sedimentos, que incluso llegan a dar el nombre en el caso africano. Ninguno de ellos tiene un río que les aporte esa in- gente cantidad de sedimentos, puesto que el río Colorado apenas tiene agua que llegue a su desembocadura e incluso tiene a la presa Hoover como punto de retención de toda su erosión a la salida del Gran Cañón. En el fondo de ambos mares existe una dorsal levantada en el centro y que recorre longitudinalmente el golfo, mientras que en ambas márgenes, donde el fondo contacta con los taludes continentales, la corteza oceánica está hundida bajo cinco kilómetros de sedimentos. En el caso del mar Rojo el basculamiento de la corteza oceánica es de 2°, diez veces superior al obtenido para el caso del Atlántico y a la altura de Florida (ver figura 10). I.T. N.o 74. 2006 33 Fig. 11. En rojo se señalan los terrenos continentales que tienen una antigüedad inferior a los 200 millones de años. En todos los casos, éstos se sitúan en la proa del avance de los continentes y se han creado durante el tiempo en que los continentes se están desplazando después de la última Pangea. Fig. 12. Desplazamiento de los continentes según la Hidrotectónica. Perfiles a proa y a popa de un continente que se desplaza. A proa del movimiento, lado izquierdo, se caracteriza por la compresión que se genera en la corteza oceánica. En el lado a popa del movimiento, la característica principal es el proceso de hundimiento de la corteza oceánica ante la acumulación y compactación de sedimentos. En cuanto al desplazamiento de las masas continentales, cabe mencionar que cuando un continente avanza lo hace venciendo la resistencia que opone la corteza oceánica situada a proa del movimiento. En esta oposición el continente consume una parte importante de la fuerza de empuje, que se emplea en generar las cordilleras que ya Wegener intuyó que estaban asociadas al desplazamiento de los continentes, y en deformar, adosar y hundir a dicha corteza oceánica. Las cordilleras que se gestan con el desplazamiento de los continentes las podemos observar elevándose en una franja paralela a la costa y perpendicular al desplazamiento para el caso de continentes que avanzan sobre océanos, como es el caso de América con los Andes y las Rocosas, en el que a medida que avanza va aumentando por obducción la superficie continen34 I.T. N.O 74. 2006 tal (ver figuras 11 y 12). En el caso de masas continentales que se empotran en otras, como Europa y la India lo hacen en África y Asia respectivamente, las cordilleras también se levantan pero con direcciones y plegamientos más complejos. Hemos visto que la Polhflucht que tanto buscó Wegener nace como consecuencia de la inclinación que presenta la corteza oceánica, generada a su vez por el hundimiento en las llanuras abisales al concentrarse allí la sedimentación oceánica. Este proceso de precipitación se concentra en zonas determinadas gracias a las corrientes oceánicas profundas, cuya trayectoria está causada y mantenida por el gradiente térmico y la rotación de la Tierra. De nuevo hay que darle la razón a Wegener y a su fina intuición, la rotación es una condición necesaria para que se produzca la dinámica en un planeta o sa- Fig. 13. La corteza oceánica a popa del movimiento, lado derecho de la figura, está basculada, hundida en el entronque con el talud continental y levantada en la dorsal. Esta inclinación provoca que una parte del peso de la corteza oceánica empuje al continente mediante una fuerza horizontal y un momento que levanta la proa y hunde la popa. De esta forma el continente avanza como si fuera un barco, a la vez que va obduciendo y subduciendo la corteza oceánica que se encuentra por delante de su desplazamiento. télite, pero no es bastante, la condición suficiente es que el astro tenga una capa externa compuesta por un fluido que tenga una capacidad de transporte capaz de acumular los efectos erosivos y sedimentarios sobre la corteza y así generar los movimientos verticales de ascenso o de hundimiento. Aquí radica la causa de la ausencia de dinámica en la Luna, Mercurio, Venus y Marte. Ninguno de ellos tiene esa capa externa formada por un fluido con capacidad de transporte suficiente, incluso alguno de ellos no tiene tampoco rotación, como la Luna, o es muy pequeña, como le sucede a Venus, que tiene el día tan largo como el año. En cambio, los llamados con justicia satélites galileanos de Júpiter, Io, Europa, Ganímedes y Calixto e incluso Titán, el satélite de Saturno, presentan rasgos inconfundibles de actividad tectónica. En algunos casos es indudable, como es el caso de Io, donde se han observado erupciones volcánicas lanzando penachos de materia fundida a centenares de kilómetros de altura; en otros, como los restantes satélites mencionados, se deduce su actividad por la ausencia o escasez de impactos de meteoritos en su superficie, que obliga a pensar en un proceso de renovación de la corteza externa, que en algunos casos está constituida por hielo y de varios kilómetros de espesor. En todos los casos existen evidencias de océanos, formados por compuestos de azufre como en Io o de agua o metano para los restantes y en la zona de contacto entre el hielo y la parte rocosa del planeta. Pero la Hidrotectónica no solo mira hacia el futuro y al espacio, convirtiéndose con ello en la primera teoría de dinámica planetaria, también justifica algunas de las teorías geológicas pasadas dándoles la razón a muchos que la perdieron. Tal es el caso de los neptunistas, vulcanistas y plutonistas, enfrentados en polémicas para hacer prevalecer que sus respectivas causas eran únicas, cuando ahora, y gracias a la Hidrotectónica, sabemos que en verdad había una sola causa que se manifestaba en las tres. O cuando los fijistas exigían a los movilistas que definieran la fuerza que empujaba a los continentes sin saber, ni unos ni otros, que por irónico que parezca, ese empuje estaba bajo los sedimentos, inmerso en la propia teoría del geosinclinal que los fijistas esgrimían como arma contra los movilistas (ver figura 13). En cuanto a la Tectónica Global, solo le falta considerar la existencia de la erosión oceánica para que vuelva a ser esa teoría sencilla que inicialmente explicaba los hechos y no la cada vez más complicada que surge de ir acomodando soluciones particulares para hechos concretos. Asimilando ese concepto de la erosión oceánica se explican todas las cuestiones que actualmente no tienen respuesta en este y en los demás planetas y satélites del Sistema Solar. Por último, la Hidrotectónica también nos da la clave para apreciar el mérito del milesio en su justa medida. El primer sabio de Grecia no solo llegó a pensar que había un principio, una causa, un motor… sino que además acertó: al agua solo hay que darle tiempo y movimiento, lo demás, por increíble que parezca, lo hace sola. ■ Carlos Soler Liceras Ingeniero de Caminos, Canales y Puertos Especialidad: Hidráulica y Energética Dirección General de Aguas del Gobierno Autónomo de Canarias Bibliografía – Soler Liceras, Carlos, El Agua y la Tierra (la Hidrotectónica), Madrid, Colegio de Ingenieros de Caminos, Canales y Puertos, Colección Ciencias, Humanidades e Ingeniería, Nº 71, 2005. I.T. N.o 74. 2006 35 La incertidumbre de las catástrofes climáticas Luis Antonio Vázquez López DESCRIPTORES SISTEMA CLIMÁTICO CAOS NO LINEAL VULNERABILIDAD Las características no lineales del clima de la Tierra aparecen por todas partes. Ejemplos típicos de ello son aquellos que cuando atendemos a su relativa rareza o intensidad llamamos fenómenos climáticos extremos y cuando lo hacemos atendiendo a los desastres sociales que acarrean los solemos denominar catástrofes. El sistema climático de la Tierra está formado por las esferas naturales (atmósfera, biosfera, hidrosfera y geosfera), las esferas antrópicas (economía, sociedad, cultura), así como las interacciones complejas entre todas ellas y dentro de cada una de ellas. Estas interacciones o intercambios son la principal fuente de no linealidad en el sistema o, lo que es equivalente, resultan ser una de las principales fuentes de incertidumbre en los supuestos de predicción y prevención de eventuales catástrofes y de los efectos y consecuencias que ellas pueden acarrear. Una descripción fundamental y simplificada de la Tierra considera no únicamente sus partes constitutivas, sino también a todas estas componentes interconectadas y abiertas traspasándose unas a otras flujos de masa, energía y momento. Puesto que la Tierra, como un todo, se comporta como un sistema natural cerrado (que no aislado, pues le llega la energía esencial desde el Sol y emite infrarrojos hacia el espacio exterior), todos esos flujos se conectan en el interior del sistema por medio de “ciclos” a través de los subsistemas o esferas antes aludidas (ciclo del carbono, ciclo hidrológico), de modo que lo que sale de una de sus partes vuelve a reincorporarse al sistema como entrada en otra de ellas, formando una extensa y compleja cadena de realimentaciones. Es precisamente esta cadena de realimentaciones entre las partes del clima o, como también ha sido llamada, “conversación cruzada”, lo que invalida el principio de superposición propio de los sistemas lineales (el todo es exactamente igual a la suma de sus partes). En un sistema no lineal, como el climático, donde falla el principio de superposición, “el todo es más (otra cosa) que la suma de sus partes”. 36 I.T. N.O 74. 2006 El aspecto que ofrecen las secuencias de observaciones y registros climáticos en todas las escalas (Fig. 1) es el de un comportamiento muy variable, con muchas irregularidades, frecuentes cambios bruscos, inesperados, y en ocasiones enfrentados a lo intuitivo. Con extraña apariencia respecto a lo que muchas veces cabría suponer. ¿Cuándo hay no linealidad? Ingredientes de un sistema climático no lineal Caos, complejidad, realimentaciones y umbrales críticos En la dinámica lineal predomina lo relativamente suave, tanto en espacio como en tiempo; es representable por funciones matemáticas continuas. En la dinámica no lineal se dan transiciones y saltos rápidos, variaciones irregulares. Es como si en su evolución el sistema llegara a cruzar algún punto o umbral de equilibrio inestable. En los sistemas lineales hay proporción entre los estímulos y las respuestas. Muy al contrario, en los no lineales, a pequeños estímulos o forzamientos que operen sobre ellos pueden seguir fuertes cambios de comportamiento, dada la naturaleza caótica de los mismos. Aunque el sistema climático terrestre está principalmente forzado por los ciclos astronómicos de radiación solar, en él podemos observar ciclos y frecuencias que no aparecen en ese ritmo muy regular de acción solar, como veremos, por ejemplo, al comentar los cambios climáticos del Pleistoceno. Si la no linealidad en el sistema climático da lugar a fluctuaciones, transiciones rápidas, irregularidad y comportamiento inesperado y apariencia aleatoria, las interacciones entre sus muchas componentes, su complejidad, que no están bien comprendidas todavía, producen también fenómenos de autoorganización espontánea y coherente que denominamos comportamiento emergente. Estos dos aspectos, caos y complejidad, aunque son propios de la evolución no lineal de los sistemas de la naturaleza como lo es el climático, son también cosas diferentes. El caos se refiere al comportamiento complicado que pueden mostrar sistemas sencillos, y se da cuando pequeñas diferencias entre dos estados dinámicos en un instante dado pueden alcanzar grandes diferencias en no muy distantes tiempos posteriores: sus trayectorias divergen rápidamente. El acoplamiento entre la atmósfera y el océano en el Pacífico ecuatorial alterna con apariencia aleatoria, caóticamente, entre sus tres estados cuasi-estables característicos y, como es sabido, muy diferentes en sus efectos regionales (normal, la Niña y el Niño). Por el contrario, la complejidad se refiere al comportamiento singular de sistemas complejos que tienen muchas componentes y procesos. Por ejemplo, un terremoto puede verse como un fenómeno que emerge del comportamiento del complejo sistema geotectónico; así también una extinción de especie del comportamiento de la biosfera; o los episodios de calentamiento global al final de las glaciaciones (como el calentamiento del Holoceno al final de la última glaciación); o los cambios drásticos hidroclimáticos regionales, como la desecación del Sahara o los cambios bruscos en los caudales de los lagos ecuatoriales africanos en escala de tiempo decadal, o la acumulación multianual de períodos de sequía tras otros períodos mucho más húmedos en la Península Ibérica o la inundación rápida asociada a un desarrollo tormentoso intenso, etc. Un inacabable muestrario de ritmo climático plagado de cambios súbitos, rápidos o, frecuentemente, inesperados en todas las escalas temporales y espaciales, que hacen del clima un sistema de limitada y difícil predicción. Hay diferentes tipos de realimentaciones en el clima, las de amplificación (positivas) y las de control (negativas); unas implican procesos fisicos (realimentación albedo-criosfera), otras físicos y biológicos (realimentación albedo-vegetación) y otras biogeoquímicos, como la interacción atmósfera-gases antropogénicos. Visto el ambiente relativamente benigno de la Tierra, sobre todo si se la compara con otros planetas, como es el caso de Venus, podemos suponer que a diferencia de lo que debió de suceder en ese planeta, la naturaleza aquí, en la Tierra, se las ha arreglado para que por término medio el equilibrio neto entre las innumerables realimentaciones de todo tipo que operan en ella resulte negativo (control) y ligeramente mayor que las positivas, al menos para relativamente no muy grandes o drásticas variaciones de los forzamientos externos (como las variaciones de la energía solar que nos llega) o internos (como la modificación de uso de suelos por razones culturales). Un umbral crítico puede ser el punto en el que dos realimentaciones en competencia están equilibradas, y como todo está pleno de realimentaciones y umbrales críticos en juego, la probabilidad de que se den amplificaciones en alguna variable es muy alta, y por ende también la de que se den los extremos meteorológicos y climáticos a los que, bien por padecimiento propio bien por información, ya estamos más o menos acostumbrados. El clima no es en absoluto lento y gradual, digamos de buen carácter, previsible, y puede reaccionar rápida y violentamente en la práctica totalidad de escalas temporales y espaciales. Al considerar su historia esto parece ser la norma más que la excepción. Es desde este punto de vista, el de la irregularidad e incertidumbre inherentes al sistema climático, desde el que quisiéramos ilustrar a continuación algunos ejemplos de catástrofes climáticas en tiempos lejanos o más recientes para, finalmente, proponer algún aspecto general de método y estrategia frente al reto de las consecuencias de la acción humana sobre el clima terrestre y las del clima terrestre en las sociedades humanas. Dientes de sierra en distintas escalas climáticas ¿Qué es lo que ha regulado no linealmente las glaciaciones del Pleistoceno que crearon las condiciones para la humanización de la Tierra, o las oscilaciones rápidas calor-frío durante los estadiales fríos de las edades de hielo, o la desecación subsahariana del Holoceno Medio cuando se formaron las primeras civilizaciones neolíticas y de los grandes ríos? Es intrigante, cuando no sorprendente, esta forma de dientes de sierra que muestra la variación temporal del clima en escalas de cientos de miles de años, las glaciaciones (Fig. 1), y que con esta semejanza lo hagan también las dramáticas oscilaciones calor-frío, llamadas D/O, de un orden temporal inferior (miles de años y mucho menos) que debieron de producirse en el transcurso del largo tramo frío-helado de la edad de hielo. Es como si dentro de unos dientes de sierra descubriéramos otros más pequeños en una cascada de autosemejanza en distintas escalas que sugiere si no serán procesos del mismo tipo los que dan lugar a esos fenómenos, por otra parte diferentes en su extensión, duración y efectos. ¿Qué regula las edades del hielo? Fig. 1. Dientes de sierra en la evolución térmica y otros parámetros extraídos de los núcleos de hielo de Vostok (Antártida) para las cuatro últimas glaciaciones. Semejanza entre estas secuencias largas y las de calentamiento rápidoenfriamiento lento dentro de ellas (diferentes escalas de tiempo). Las edades del hielo ocupan en conjunto no más que una décima parte de la historia documentada de la Tierra. Su interés reside en que su variabilidad natural es más alta que en otros tiempos geológicos más benignos. Las glaciaciones del Pleistoceno se produjeron casi periódicamente y en su tramo más frío la temperatura global terrestre era unos 4 °C más baja que la actual. Enormes capas de hielo de varios kilómetros de espesor cubrían el norte de América y Eurasia. Un análisis espectral de estas oscilaciones muestra picos anchos de concentración de energía alrededor de las frecuencias 20.000, 40.000 y 400.000 años, coincidiendo con las variaciones de la energía del Sol que llega a la Tierra a causa I.T. N.o 74. 2006 37 de las variaciones seculares de precesión, rotación axial y excentricidad orbital. No obstante, la respuesta del sistema climático a estos forzamientos, que se supone dirigen sus cambios, es fuertemente no lineal y aún se está lejos de su comprensión. Por ejemplo, si bien es sabido que la frecuencia principal entre las edades del hielo es de unos 100.000 años (Fig. 1), este período ha venido aumentando gradualmente desde unos 80.000 a unos 120.000 durante el último medio millón de años. Por otra parte, la respuesta climática al forzamiento de la variación de excentricidad de 413.000 años es casi inexistente y en cambio en el clima aparecen algunas frecuencias significativas que no están en el forzamiento solar orbital. Hace aproximadamente un millón de años, el clima pasó de un ritmo de glaciaciones cada 41.000 años a un nuevo período de unos 100.000 sin cambio correspondiente en las frecuencias del forzamiento solar; se ha denominado la Transición del Pleistoceno Medio y continúa siendo uno de los más extraños ejemplos del carácter no lineal del sistema climático. El clima no sigue proporcionalmente a los ritmos de forzamiento solar, aunque depende de ellos. Reacciona no linealmente. Calor inesperado en medio del frío. El inquietante océano Atlántico Muchos investigadores del clima quedaron sorprendentemente impactados por la historia revelada en el libro de hielo obtenido sobre las cimas de los mantos helados de Groenlandia y la Antártida durante los primeros años noventa, en lo que se ha considerado uno de los principales logros científicos del siglo XX. La resolución temporal proporcionada por las perforaciones y muestras de las capas de hielo de la última glaciación nunca antes se había alcanzado y alteró a fondo la compresión de la dinámica del clima. Por primera vez se vio que en otra secuencia de episodios en dientes de sierra la temperatura de Groenlandia había subido rápida y dramáticamente hasta unos 8-10 °C en unos pocos años, y tras cada uno de estos calentamientos súbitos se retornaba lentamente, tras varios siglos, a los niveles de fríos de la glaciación, época en que esto sucedía. Se han identificado más de 20 episodios D/O durante la última glaciación. Se repiten en intervalos casi iguales y no muestran una clara relación con el forzamiento astronómico. Si este patrón se ha dado en el pasado, probablemente podrá ocurrir en el futuro. ¿Por qué la fase cálida es más rápida que la de enfriamiento? ¿Cómo un cambio lento como el orbital puede disparar este cambio climático tan brusco? ¿El ritmo de calentamiento antropogénico actual podría provocar uno de estos episodios típicos de la edad del hielo? Se piensa que estos cambios son resultado de inestabilidades, traspaso de puntos críticos y otras no linealidades cuyos mecanismos físicos y naturaleza todavía no se conocen bien. Se ha propuesto que estuvieron asociados a los patrones de circulación de las corrientes del Atlántico en esas épocas frías. Esta circulación pudo darse en un estado estable y otros dos inestables. De estos dos inestables, uno es parecido a como circula hoy en día (Fig. 2) (si bien ahora estaríamos en un período interglacial cálido) y en el otro modo cesarían o se debilitarían las corrientes oceánicas. 38 I.T. N.O 74. 2006 Estado excitado (interestadial) Estado básico (estadial) Fig. 2. Dos modos posibles de circulación oceánica en el Atlántico durante la última edad glacial. El de la izquierda, modo frío, es estable y prevalece en la glaciación, extensión del hielo. El agua atlántica cálida solo llega hasta latitudes medias. A la derecha, fase cálida del episodio D/O. La circulación penetra hasta los mares nórdicos y suben las temperaturas; se asemeja a la circulación actual. (Fuente: Instituto Potsdam para la investigación de los impactos del clima). ¿Qué perturbación dispararía uno u otro de estos estados oceánicos? Se sabe que las variaciones de densidad de las aguas de los mares del norte atlántico. Pero, ¿qué dispararía las variaciones de los flujos de agua dulce y la modificación de la densidad salina? Se ha llegado a simular eficientemente con modelos numéricos que estos ritmos calor-frío pudieron estar asociados a la circulación termosalina atlántica en tanto que sistema no lineal capaz de amplificar un forzamiento de origen desconocido por ahora (quizás astronómico) debido a que en su circulación pueden coexistir dos modos, uno estable y otro inestable. Esta coexistencia de distintos modos de equilibrio no es posible en un sistema lineal. Según qué factores ambientales operan sobre un sistema no lineal, éste se sitúa en uno u otro de sus estados posibles. La transición entre ellos puede ser veloz e intensa, mucho más veloz e intensa que la causa que los ha forzado y, desde esta perspectiva, catastrófica. El avance del desierto del Sahara Durante el óptimo climático del Holoceno, hace de 6.000 a 9.000 años, África era más húmeda y el Sahara mucho menos extenso que como lo conocemos hoy día. Coincidía con unos parámetros orbitales (mayor excentricidad de la órbita y mayor inclinación del eje de rotación de la Tierra) y, sobre todo, una fecha del perihelio hacia julio (hoy día es hacia primeros de enero) que favorecían una mayor insolación en el hemisferio norte durante el verano y una más intensa entrada de los monzones desde el golfo de Guinea, con grandes aportes de humedad sobre el interior profundo de África. Las hierbas y arbustos Fig. 3. Insolación en julio y reconstrucción paleobotánica con material terrígeno de las costas norteafricanas de los últimos 10.000 años. La insolación disminuye suavemente y en cambio la aridez (material terrígeno) se dispara dramáticamente hacia 5.500 años antes del presente. Fig. 4. Tres modos de oscilación del Niño que son resultado de interacciones no lineales océano-atmósfera en el Pacífico tropical. Transita de uno a otro de manera irregular, como muestra la marcha del índice de la figura 5. extendían el Sahel hasta los 23° N más o menos. Posteriormente, la insolación debió de ir disminuyendo paulatinamente (Fig. 3), y así mismo la succión de humedad desde el Atlántico. No obstante, cuando los modelos climáticos tratan de simular esta relación no logran reproducir el rápido, intenso y extenso aumento de la aridez y el desplazamiento hacia el Sur del desierto del Sahara que se dio hacia el 5500 antes del presente. Aunque la suave variación de la insolación haya sido el mecanismo general forzante, se hace necesario un mecanismo de realimentación biogeofísica, positiva, no lineal, entre el albedo y la vegetación del área: con el descenso de lluvias monzónicas debió de disminuir el manto vegetal y aumentar el albedo (energía solar reflejada por el suelo), aumento que favorece a su vez la disminución de la humedad y en consecuencia más descenso de vegetación, en un proceso amplificado hasta un punto umbral en que se quebró el reciclado de humedad atlántica que penetraba en el continente y su adentramiento en el Sahara. Cuando se considera esta realimentación, los modelos sí simulan este cambio de estado del ambiente en el que un umbral crítico de reducción de lluvias pudo haberse rebasado con una aceleración que contrasta netamente con la disminución lenta de la energía que llegaba del Sol, y que se ajusta a las reconstrucciones paleobotánicas (Fig. 3). Caos y orden en tiempos más recientes El carácter cambiante de los mares del Sur: el Niño La Oscilación del Sur-El Niño (ENSO) representa una interacción no lineal entre el océano y la atmósfera en el Pacífico tropical. El Niño alude a la parte oceánica de este proceso de acoplamiento en su fase cálida, y alcanza su máxima intensidad frente a las costas del Perú. Un debilitamiento de los vientos alisios que prevalecen allí facilita la propagación hacia el Este de aguas superficiales cálidas que normalmente se acumulan en el oeste del Pacífico (Fig. 4). El área de estas aguas anómalamente cálidas es de unos 30 millones de kilómetros cuadrados (unas tres veces Canadá) y es por ello por lo que el intercambio de calor latente y sensible entre el océano y la atmósfera allí tenga entidad suficiente como para influir en los patrones climáticos a escala de todo el globo terráqueo. Durante la fase fría del ENSO, llamada la Niña, aguas frías invaden esta zona del Pacífico tropical. La Oscilación del Sur es la parte atmosférica asociada al Niño y tiene mucha más extensión que la oceánica, con implicaciones en todo el planeta. Fig. 5. Índices de evolución temporal del Niño (arriba) y de la Oscilación del Sur (abajo). El análisis de variabilidad de este acoplamiento ENSO muestra elevada irregularidad (Fig. 5), con tres modos diferenciados: una componente estacional que se recoge en la propia denominación “el Niño”, que alude a la época navideña en que acostrumbra a manifestarse; tiene también una componente casi bianual con tiempo de recurrencia entre dos años y dos años y medio. Finalmente, hay otra variación propia de recurrencia entre cuatro y cinco años. La interacción de estos tres modos casi periódicos de variación hace que los cambios térmicos en el Pacífico ecuatorial sean finalmente bastante irregulares. A esta irregularidad contribuye también la realimentación sobre el océano que suponen la gran cantidad de perturbaciones meteorológicas convectivas, tormentosas, que se forman en el área (Fig. 4). Mediáticamente muy divulgado por sus características y los efectos desastrosos que en ocasiones produce, lo que se quiere destacar aquí es que desde el punto de vista dinámico las oscilaciones irregulares del ENSO se ajustan aceptablemente a la física de un oscilador caótico y no lineal de bajo orden (atmósfera-océano), influido por el ciclo estacional. La interferencia positiva del modo casi bianual (2-2,5 años) con el de baja frecuencia (4-5 años) da lugar a los episodios cálidos y fríos más intensos, más catastróficos, como el de 1997-98, pero que por otra parte son todavía más irregulares en su aparición. Los sistemas caóticos no son totalmente impredecibles en escalas temporales relativamente cortas, y así como la parte de regularidad del ENSO facilita algo su predicción a corto plazo, de meses, su naturaleza caótica imposibilita por el momento esa misma certidumbre más allá de los seis meses. I.T. N.o 74. 2006 39 Aire atlántico vacilante Otro fenómeno que también se manifiesta con oscilaciones irregulares no lineales entre los diferentes estados en los que puede producirse y como caos en las interacciones océanoatmósfera es la Oscilación del Atlántico Norte (NAO). Es una estructura muy importante de variabilidad climática atmosférica atlántica y su interés radica en que explica casi un 50 % de la variación de la presión atmosférica al nivel del mar en el Atlántico y ejerce una clara influencia en el clima regional del este de Norte América y el oeste de Europa durante todo el año, pero principalmente en invierno. Consiste en una alternancia a gran escala de los campos de presión atmosférica con centros de acción cerca de la baja de Islandia y del anticiclón de las Azores. El índice que da su valor y signo se calcula como diferencia de presión al nivel del mar entre las Azores e Islandia o zonas próximas respectivas (Fig. 7). Esta oscilación atmosférica tiene dos fases que representan típicamente dos regímenes de tiempo para el Atlántico norte (Fig. 6). Proyecta su señal en rangos temporales muy diversos, incluso a escala diaria. Una interesante y aún no comprendida característica de la NAO es el agrupamiento de días con índice del mismo signo, como paquetes de flujo aéreo más o menos persistente, llamados regímenes de tiempo. Un mes, un año o una década marcados por una señal positiva o negativa de la NAO indica la prevalencia de una u otra fase de este régimen de flujo atmosférico. El interés de esto se basa en que, por ejemplo, un flujo de régimen positivo de la NAO puede signi- Fig. 6. Las dos fases extremas de la NAO y algunos impactos climáticos (cortesía de Damont Doherty Earth Lab./NOAA). Según la fase de la NAO, las trayectorias de las borrascas atlánticas llegan (fase -) o no (fase +) hasta la Península Ibérica. En el primer caso, abundancia de lluvias, en el segundo sequía. Fig. 7. Alta irregularidad en la evolución del índice NAO. Los promedios de cinco años consecutivos, en negro, destacan las variaciones plurianuales. Apréciese el agrupamiento de valores positivos durante las últimas décadas de calentamiento global y las fluctuaciones casi decadales durante el último medio siglo (Fuente: Earth Lab./NOAA). 40 I.T. N.O 74. 2006 ficar que las borrascas alejen su trayectoria de la Península Ibérica (Fig. 6) y sobre ella se instalen frecuentes anticiclones, la reducción de las lluvias y consiguientemente la sequía, la caída de caudales hídricos, etc., como ocurrió en los primeros años noventa del siglo XX. Con argumentos parecidos podríamos explicar la ocurrencia de fases de distinto signo, con abundancia pluviométrica y otros extremos climáticos regionales. Durante las últimas décadas de calentamiento climático global ha prevalecido la fase cálida-positiva de la NAO (Fig. 7). Tan destacable es esta asociación NAO-clima regional, que la explicación y la simulación de estos regímenes nos ayudarían a explicar y predecir el clima regional ibérico, la evolución de los ecosistemas y sus fuertes cambios naturales o antropogénicos. De nuevo, nos encontramos ante otro fenómeno destacable del clima del cual podemos describir muchas de sus características morfológicas y estadísticas, pero del que todavía no conocemos el mecanismo dinámico caótico subyacente y los procesos que lo controlan como para poder definirlo sin ambigüedades y estimar su predictibilidad. Entonces, ¿no se pueden predecir las catástrofes climáticas? Enormes esfuerzos de investigación están tratando de conseguirlo por medio de modelos numéricos y grandes ordenadores. Estos modelos matemáticos del clima están basados en un conjunto de ecuaciones diferenciales no lineales (Navier-Stokes) que tratan de ajustarse a la evolución de unos fluidos moviéndose sobre una esfera en rotación y con grandes arrugas (montañas, profundidades abisales). Expresan las leyes del movimiento (Newton), los principios de conservación de la masa y la energía y otras transformaciones termodinámicas (evaporación, condensación). Si repitiéramos varias veces una simulación con un mismo modelo de atmósfera-océano-criosfera acoplados, que supuestamente representa al clima real, con un mismo ordenador, un mismo código y unas mismas condiciones iniciales y de contorno, los resultados finales serían idénticos. Si modificáramos un poco alguno de los ingredientes de este laboratorio climático el resultado variaría sensiblemente. El interés de esto radica en si este clima del modelo coincide o no con el clima real. Los datos “proxy” paleoclimáticos (núcleos de hielo, polen, sedimentos marinos) que nos informan sobre los cambios catastróficos del pasado, tal como hemos visto, indican que éstos fueron más intensos que lo que con frecuencia los modelos nos dicen. Muchos de estos modelos subestiman la cantidad de humedad perdida en el Sahara durante los últimos miles de años, o no simulan bien el gran calentamiento de los polos cuando vivían los dinosaurios, o los intensos fríos en lo más extremo de la última glaciación. Y esto, ¿por qué? Lo más probable es que estos y otros desacuerdos se deban a una menor o diferente sensibilidad del clima de los modelos respecto a la sensibilidad del propio clima real y, posiblemente, también porque desconocemos realimentaciones y umbrales que de otro modo podrían ayudarnos a predecirlos. Tenemos un bello edificio matemático “determinista” que debe interpretar un clima enormemente irregular, con apariencia aleatoria. Al tratar de conseguir que el clima del modelo se parezca al real se vienen desarrollando incontables “trucos” para introducirles ruido explícito, perturbaciones, que fuercen el sistema simulado hasta crear variaciones estadísticas realistas, que se parezcan al clima observado o que lo reproduzcan. En una mirada caótica, encontraremos el “efecto mariposa”, el pequeño aleteo de una mariposa capaz de inducir un huracán a gran distancia. El problema es que no hay solo una mariposa, sino millones de ellas batiendo sus alas en todo tiempo y por todas partes. Este ruido omnipresente, interno, que es también fuente de variabilidad del sistema climático, requiere del pensamiento y las ideas probabilísticas, requiere de una mirada estocástica en la que el ruido climático unas veces oculta, otras veces cancela y otras es fuente creativa de variabilidad y fenómenos del clima. Las no linealidades y los equilibrios inestables hacen al sistema climático “impredecible” más allá de ciertas escalas de tiempo característico dentro de las cuales sí se puede predecir. Este plazo de predicción característico es diferente y no siempre conocido, según el subsistema de que se trate, el océano, la troposfera tropical, los glaciares, la sequía, el bloqueo anticiclónico de latitudes medias… ¿Proteger la sociedad de la naturaleza o la naturaleza de la sociedad? Nos hemos asomado a una pequeña ventana entre la multitud de interacciones no lineales reconocibles en la variabilidad de los procesos climáticos de la Tierra. Y vislumbramos un paisaje de dificultades y limitaciones de la predicción a pesar de los indiscutibles avances realizados en ello. No obstante, la interpretación de las relaciones entre las sociedades y el clima se articula, hoy día, bajo el predominio de un discurso con varios tramos destacables: 1. Las sociedades son vulnerables a los extremos climáticos. 2. Las catástrofes meteorológicas y climáticas actuales son debidas al calentamiento antropogénico, principalmente inundaciones y grandes tormentas (aunque esto acostumbra a estar erróneamente atribuido). 3. Este calentamiento es real, se acelerará en el futuro y también los extremos climáticos. El grueso del conocimiento climático que se concentra en los informes periódicos del Panel Intergubernamental para el Cambio Climático (IPCC) sustenta una dramática expectativa: si no se produce regulación de emisiones, hay que esperar el cuádruple de concentración atmosférica de gases de invernadero a finales de este siglo. Y si se consigue una reducción, la cosa quedaría en el doble. En todo caso, no evitaremos su incremento. Dos líneas estratégicas se han formulado para responder a estos cambios: la adaptación, que trata de reducir la vulnerabilidad a las catástrofes actuales y futuras, y la mitigación del cambio climático antropogénico, que trata de reducir las emisiones de los gases y aerosoles que supuestamente lo provocan. Quizás, el complemento de ambas vías fuera lo más sensato. Pero cabe preguntarse qué razones culturales y políticas vienen abonando tantos favores para la mitigación (protocolo de Kyoto, etc.) en perjuicio de la estrategia de adaptación, cuando este sesgo puede propiciar incluso el au- mento de la vulnerabilidad, que no depende solo de la intensidad del extremo climático, que si ha ocurrido probablemente volverá a hacerlo, sino también de la capacidad del sistema afectado para hacerle frente y resistirlo, como se ha visto con Katrina, por ejemplo. La reducción de la vulnerabilidad de las sociedades actuales a los extremos climáticos que ya conocemos puede resultar una estrategia doblemente beneficiosa. Primero, porque trata de reducir el riesgo de hoy día, y, también, porque si algún tipo de catástrofes pudieran en el futuro empeorar, siempre se estaría en mejores condiciones de hacerles frente si hubiéramos aprendido a enfrentarnos mejor con las que ya conocemos. Las dificultades y limitaciones de la predicción aconsejan estrategias preventivas basadas en diagnósticos integrados de la vulnerabilidad de los sistemas sociales, en los que se trata de diferenciar la importancia relativa del clima junto a otros muchos factores de influencia ambiental. Por ejemplo, que el crecimiento y concentración de las poblaciones pueda suponer una amenaza mucho mayor para las provisiones de agua que el cambio climático previsto por el IPCC. Los datos, los modelos, los registros históricos y paleoclimáticos y el estudio de casos singulares pueden ayudar a evaluar qué vulnerabilidades tienen probabilidad de ocurrir y cómo prepararse mejor para ello. Esto incluye la elaboración de escenarios del tipo “qué, si” en caso de que algo como esto, por ejemplo, fuera a ocurrir: — Un calentamiento rápido, tipo D/O. — Una sequía ibérica como la de los años noventa. — Un huracán del tipo Katrina. — Un episodio El Niño como el de 1997. — Una ola de calor como la del verano de 2003. — Una Pequeña Edad de Hielo en Europa, como las de los siglos XVI al XIX. — Etc., etc. ¿Cuál es la probabilidad de ocurrencia y las consecuencias de este tipo de catástrofes en nuestras condiciones económicas y culturales actuales? ■ Luis Antonio Vázquez López Meteorólogo Instituto Nacional de Meteorología Referencias bibliográficas – Uriarte Cantolla, Antón, 2003, Historia del clima de la Tierra, Servicio Central de Publicaciones del Gobierno Vasco. – Rial, José A., 2004, Abrupt climate change: chaos and order at orbital and millennial scales, Elsevier. – Rahmstorf, Stefan, 2002, “Ocean circulation and climate during the past 120.000 years”, Nature, 419. – Storch, Hans von, 2003, “On adaptation. An essay about our perceptions and responses to the concern of anthropogenic climate change”, Actas del Simposio Klimaschutz als Unternehmerishe Verautwortung, 1 de noviembre de 2003, Zürich. – IPCC, 2001, Climate Change 2001, Synthesis Report, Cambridge University Press. I.T. N.o 74. 2006 41 PÁGINA INTENCIONALMENTE DEJADA EN BLANCO I.T. N.O 74. 2006 PÁGINA INTENCIONALMENTE DEJADA EN BLANCO I.T. N.o 74. 2006 Cambio climático e ingeniería territorial: riesgos y oportunidades Pedro Fernández Carrasco DESCRIPTORES CAMBIO GLOBAL CLIMA INGENIERÍA TERRITORIAL CAMPOS CLIMÁTICOS Introducción A nivel mundial se está realizando un esfuerzo importante para poder entender y en su caso mitigar el fenómeno conocido como cambio climático, invirtiendo en valiosos recursos humanos y materiales, así como empleando el tiempo y el esfuerzo de grupos y personas con responsabilidades a nivel internacional, regional, nacional y local; y sin embargo, parece que seguirá siendo vigente el comentario de Antonio Mingote (2005a) para la primera meta volante, 2050, de los escenarios establecidos por el IPCC (Grupo Intergubernamental de Expertos sobre el Cambio Climático): “Nos ha sorprendido la ola de frío en pleno invierno, en verano nos sorprenderá una impresionante ola de calor, y no me extrañaría que nos sorprendiera la inundación de todos los años, no paramos de sorprendernos de las cosas que van a suceder”. Es cierto, y siguiendo el Tercer Informe de Evaluación: Cambio climático 2001, 1) La base científica, 2) Impactos, adaptación y vulnerabilidad y 3) Mitigación, Resúmenes para responsables de políticas y Resúmenes técnicos, como parte de las contribuciones de los Grupos de trabajo I, II y III, respectivamente, al Tercer Informe de Evaluación del IPCC (2001), que parte de la tareas están comenzándo a hacerse, y esta revista es buen reflejo de las iniciativas que se están desarrollando a través de tres publicaciones previas: “Cambio Climático y subida del nivel medio del mar. Impacto sobre la costa” (Acinas, 2002), “Cambio Climático” (Ruiz, 2004) y “Cambio climático y recursos hídricos en la planificación hidrológica” (Cabezas, 2004). Entre las tareas básicas podemos citar los compromisos a los que los países industrializados se comprometieron al ratificar el Protocolo de Kyoto. Recordemos que cuando el Boletín 44 I.T. N.O 74. 2006 Oficial del Estado publicó el día 8 de febrero de 2005 el Instrumento de Ratificación del Protocolo de Kyoto al Convenio Marco de Naciones Unidas sobre el Cambio Climático, faltaban solo ocho días para que el 16 de febrero entrase en vigor este acuerdo internacional y se convirtiese en jurídicamente obligatorio para los 128 países que lo han ratificado, y que la entrada en vigor del Protocolo supone que treinta países industrializados estarán obligados jurídicamente a cumplir los objetivos cuantitativos para reducir sus emisiones combinadas de los seis grandes gases de efecto invernadero durante los cinco años comprendidos entre 2008 y 2012 a niveles inferiores a los de 1990. Sin embargo no estamos en posición de asegurar que efectivamente el hipotético cambio climático se está produciendo, y resalto hipotético, pues a pesar de todos los esfuerzos empleados, el cien por cien de la comunidad científica no está honestamente de acuerdo con los resultados de escenarios futuros planteados por el IPCC. El norte de Japón sufre estos días, finales de diciembre de 2005 a primeros de 2006, los estragos de la mayor ola de frío de las últimas seis décadas, soportando temperaturas de hasta 30 y 40 grados bajo cero, y hasta 34 puntos de observación meteorológica han registrado récords históricos de nieve caída en el mes enero. Así mismo, India registró el 8 de enero pasado la temperatura más baja en los últimos setenta años, y Moscú alcanzaría su record frío de los últimos 100 años, bajando de los -32 °C el pasado 19 de enero de 2006. Por otro lado, los resultados presentados por el Grupo de trabajo I del mencionado IPCC son, además de razonables, muy plausibles, y por tanto obligan a plantear los conceptos de riesgo y oportunidades originados por el cambio climático dentro de un cambio global para un desarrollo humano claramente más racional, equitativo y sostenible. Es posible que el cambio climático no se produzca en las condiciones que se plantean, pero no cabe duda de que la toma de conciencia de que los escenarios de desarrollo parten de lo local y tienen consecuencias globales, y que éstas comprometen el futuro, es una enseñanza más que positiva. El gran problema que se plantea es el de bajada de escala, de lo global a lo local e incluso a lo individual. Hasta ahora estamos familiarizados con la bajada de escala de los modelos de circulación general atmósfera-océano, mediante las llamadas técnicas de anidamiento, a los modelos climáticos regionales, que permite pasar de celdas de 200 kilómetros cuadrados a celdas de 50 o incluso 20 kilómetros cuadrados. Siguiendo esta línea se han planteado los objetivos cuantitativos para reducir sus emisiones combinadas de los seis grandes gases de efecto invernadero durante los cinco años comprendidos entre 2008 y 2012 a niveles inferiores a los de 1990, modificando y favoreciendo las iniciativas de producción energética menos contaminante en términos de CO2 equivalente. Esto está ayudando, por ejemplo, a poblar nuestro territorio de aerogeneradores, estrategias que están dentro del razonamiento conceptual de ser los elementos de entrada de los escenarios de desarrollo globales planteados en cada una de las familias de escenarios de desarrollo socioeconómico futuros. Los campos climáticos y la ingeniería del territorio Otra línea de aplicación de los resultados de los mencionados modelos climáticos globales es el utilizar los campos climáticos generados para estudiar cómo están respondiendo los sistemas naturales, y si éstos tienen la capacidad para adaptarse a los cambios que se pronostican, ya que parece evidente que la horquilla donde se mueven los seres vivos es relativamente estrecha. Bien, pero ¿cómo emplear estos resultados para determinar los efectos directos sobre el ser humano y en concreto en las actividades que éste desarrolla, siendo como es un ser con una extraordinaria capacidad para adaptarse y sobrevivir en los ambientes más extremos y dispares? ¿Puede un cambio de 0,8 °C en los próximos 10 años inquietarnos? La respuesta es no; sin embargo, sí somos conscientes de la trascendencia de este brusco cambio. Centrándonos en las actividades de la ingeniería que tienen un trasfondo territorial, y por la importancia que éstas tienen en el desarrollo humano, nos gustaría establecer un criterio que nos permitiese incluir en el análisis general y en el desarrollo de cada actuación o proyecto las metodologías imperantes del cambio global y en particular del cambio climático. Tenemos dos planteamientos, por un lado aquellas medidas que van en la línea de disminución de las actividades que generan gases equivalentes de efecto invernadero, como claramente son las relacionadas con el transporte y la adecuada selección de modos e implantación de actividades generadoras de desplazamientos, y que en general son poco o nada sensibles a los cambios climáticos pronosticados. Bajo otro planteamiento debemos incluir aquellas actividades que son sensibles al cambio climático, que admitimos se está produciendo, de un modo directo y que no pueden esperar a que las medidas de disminución en las emisiones les salvaguarden del cambio. En este caso podemos señalar entre las más preocupantes las actividades relacionadas con la evaluación del recurso agua, las actividades en las zonas litorales y las de riesgo climático con carácter extraordinario, como puede ser una inundación. El transporte En la Unión Europea las emisiones cubiertas por la directiva de comercio de emisiones llegan al 54 %, 60 % para España, y por fuentes de emisión, las que más han crecido en nuestro país son la gestión de residuos (61%), el transporte (58 %), sector residencial, comercial e institucional (35 %) (Cañas, 2004). Recordemos que según el Ministerio de Medio Ambiente (2004) el transporte supone el 22,6 % de emisiones de gases CO2 equivalentes, en segundo lugar detrás de la producción eléctrica 27,2 %, y que de acuerdo con el Centro de Investigación del Transporte (Pérez-Martínez, 2005), España generó en 2002 120 g de CO2 por viajero y kilómetro, con un valor máximo para la Comunidad de Madrid de 140 y mínimo de 110 para las ciudades autónomas de Ceuta y Melilla. Se está manejando un límite de referencia para 2012 por parte de la asociación de constructores europeos de automóviles de no más de 120 g de CO2 por kilómetro recorrido. El transporte, dentro de las estrategias para los sectores no incluidos en los derechos de emisión, es claramente uno de los que con mayor urgencia necesita de políticas de sostenibilidad; presenta un desequilibrio en la distribución modal, el sistema de transporte actual no optimiza el uso de la capacidad existente de infraestructuras, los costes y precios del transporte no garantizan la internalización de los costes externos y las mayores eficiencias de los vehículos son irrelevantes frente al crecimiento de la movilidad y son insuficientes para solucionar por sí solas el problema. En este sentido iniciativas y recomendaciones de establecimientos de observatorios medioambientales del transporte permitirán ser un punto de partida en la búsqueda de un sistema “ideal” de indicadores que controle la movilidad, aportar una imagen comprensible de las actuales presiones e impactos, identificar los factores causales como tecnológicos, socio-económicos, vincular los indicadores de presión medioambiental con los valores relevantes de referencia, medir el cumplimiento de los compromisos políticos, objetivos para una movilidad sostenible, y alimentar de información a los procesos donde se formulan y se ponen en práctica las políticas relevantes de movilidad, como propugna Pérez-Martínez (2005). Con todo ello las estrategias actuales son claramente insuficientes y el margen pequeño con medidas complementarias, como los combustibles alternativos, el fomento de la intermodalidad y las actuaciones en entornos urbanos, que parecen aún lejanas en el futuro control a medio plazo. I.T. N.o 74. 2006 45 Sin hacer un repaso exhaustivo y pormenorizado de cada una de las actividades que son susceptibles de entrar en este análisis, nos centraremos en tres ejemplos donde esta metodología se ha empleado: la evaluación de la disponibilidad de agua, la evaluación de aporte sedimentario a las costas y el establecimiento de un protocolo de estudio frente a situaciones climáticas extremas. tos de precipitación y temperatura mensual del mismo período modificado por los campos climáticos para el año 2050 obtenidos en las simulaciones 1xCO2 y 2xCO2 del Modelo Climático Regional PROMES. En este trabajo se consideraron un total de 15 simulaciones hidrológicas, que se dividieron en dos grupos principales: a) nueve simulaciones anuales según Budyko (Budyko y Drozdnov, 1953), y b) seis simulaciones mensuales mediante el módulo mensual del modelo hidrológico SIMPA. Evaluación de la disponibilidad de agua a) Simulaciones anuales según Budyko La evaluación de la disponibilidad futura de agua ha venido utilizando, en general, valores de series meteorológicas, considerando el período pretérito registrado representativo del clima de la región a estudiar. Esta representatividad se pierde al admitir las hipótesis o evidencias, según los autores, de cambio climático. Por lo tanto, parece lógico introducir en la cadena de evaluación de los recursos hídricos futuros los resultados obtenidos de los modelos climáticos, mediante la utilización conjunta de modelos climáticos regionales y modelos hidrológicos. Este tipo de evaluación solo se ha realizado a nivel de todo el país en una ocasión (Fernández, 2002). Otro tipo de evaluaciones estimativas se realizaron durante la evaluación hidrológica para el Libro Blanco del Agua (MIMAM, 2000b), con el mal llamado análisis de sensibilidad y sin el menor sentido de lo que se estaba evaluando. La evaluación hidrológica que nos ocupa (Fernández, 2002) empleó los campos climáticos elaborados para la Península Ibérica por el modelo climático regional PROMES, modelo regional que calcula las condiciones de contorno e iniciales a partir de las salidas del modelo de circulación general HADCM2. Se estima la vulnerabilidad al cambio climático de los recursos hídricos en diecinueve pequeñas cuencas y en las diez grandes cuencas españolas, en su aspecto cuantitativo, al comparar la evaluación hidrológica, en régimen natural, para el año 2050 frente a la evaluación hidrológica de un período base sin modificar, de 50 años, comprendido entre 1945 y 1995. Para las simulaciones hidrológicas se empleó el modelo hidrológico SIMPA (Sistema Integrado para la Modelización de la Precipitación-Aportación) desarrollado en el Centro de Estudios Hidrográficos del CEDEX, con base en los trabajos de Témez (1977). El modelo simula, a escala mensual, los procesos del ciclo hidrológico en su fase terrestre mediante ecuaciones de balance y transferencia, que se aplican en un mallado regular compuesto por celdas de igual tamaño con el que se divide la cuenca. Mediante el empleo de un sistema de información geográfica de tipo matricial, el modelo ejecuta las ecuaciones del ciclo hidrológico y estima los recursos hídricos subterráneos y superficiales, mostrando una información distribuida y agregada de las principales variables hidrológicas. Para cada una de las cuencas estudiadas se llevó a cabo dos simulaciones hidrológicas con el modelo SIMPA. La primera de ellas utiliza datos mensuales de precipitación y temperatura del período 1945 a 1995. La segunda simulación emplea los da- Hipótesis H10: Simulación de la aportación media interanual en las diecinueve pequeñas cuencas estudiadas para el período 1940 a 1995. A partir de la simulación para el Libro Blanco del Agua (MIMAM, 2000b), y mediante el procesado de la información en los mapas matriciales de resultados en los ámbitos de la planificación hidrológica sobre los mapas de las diecinueve pequeñas cuencas. Hipótesis H11: Simulación de la aportación media interanual en las diecinueve pequeñas cuencas estudiadas para el período 1940 a 1995 con la primera hipótesis considerada en el Libro Blanco del Agua: aumento de 1 °C de la temperatura media anual y sin cambios en la precipitación del período 1940-95. A partir de la simulación para el Libro Blanco del Agua (MIMAM, 2000b), y mediante el procesado de la información en los mapas matriciales de resultados en los ámbitos de la planificación hidrológica sobre los mapas de las diecinueve cuencas. Hipótesis H12: Simulación de la aportación media interanual en las diecinueve pequeñas cuencas estudiadas para el período 1940 a 1995 con la segunda hipótesis considerada en el Libro Blanco del Agua: aumento de 1 °C de la temperatura media anual y descenso de la precipitación media anual del período 19401995 en un 5 %, a partir de la simulación para el Libro Blanco del Agua (MIMAM, 2000b), y mediante el procesado de la información en los mapas matriciales de resultados en los ámbitos de la planificación hidrológica sobre los mapas de las diecinueve cuencas. Hipótesis H13: Simulación de la aportación media interanual en las diecinueve pequeñas cuencas estudiadas para el período 1940 a 1995, aumento de 4 °C de la temperatura media anual y descenso de la precipitación media anual del período 1940 a 1995 en un 15 %. Hipótesis H20: Simulación de la aportación media interanual en las diecinueve pequeñas cuencas estudiadas para el período 19451995 a partir de los valores medios anuales obtenidos en la simulación mensual del período 1945-1995. Hipótesis H21: Simulación de la aportación media interanual en las diecinueve pequeñas cuencas estudiadas para el período 1945 a 1995 modificadas a partir de los valores del período 2040 a 2049, resultantes de los campos climáticos PROMES, y a partir de los valores medios anuales obtenidos en la simulación mensual de cambio climático con base en PROMES. Hipótesis H30: Simulación de la aportación media interanual por ámbitos del Libro Blanco del Agua para el período 1940 a 1995 (MIMAM, 2000b). Hipótesis H31: Simulación de la aportación media interanual por ámbitos del Libro Blanco del Agua para el período 1940 a 1995. Primera hipótesis del Libro Actividades con sensibilidad directa al cambio climático 46 I.T. N.O 74. 2006 Blanco del Agua: aumento de 1 °C de la temperatura media anual y sin cambios en la precipitación del período 1940 a 1995 (MIMAM, 2000b). Hipótesis H32: Simulación de la aportación media interanual por ámbitos del Libro Blanco del Agua para el período 1940 a 1995. Segunda hipótesis del Libro Blanco del Agua: aumento de 1 °C de la temperatura media anual y descenso de la precipitación media anual del período 1940 a 1995 en un 5 % (MIMAM, 2000b). b) Simulaciones mensuales mediante el modelo hidrológico SIMPA Hipótesis H40: Simulación de la aportación mensual en los ámbitos territoriales de la planificación hidrológica para el período 1940 a 1995 (CEDEX, 1998). Hipótesis H41: Simulación de la aportación mensual en los ámbitos territoriales de la planificación hidrológica para el período 1940 a 1995, al modificar los mismos con los valores medios mensuales de la diferencia 2xCO2 - 1xCO2 de los campos climáticos del modelo climático global UKMO, para el período 2040 a 2049 (CEDEX, 1998). Hipótesis H42: Simulación de la aportación mensual en los ámbitos territoriales de la planificación hidrológica para el período 1940 a 1995, al modificar la temperatura media de cada mes con los valores medios mensuales de la diferencia 2xCO2 - 1xCO2 de los campos climáticos del modelo climático regional PROMES, para el período 2040 a 2049, y sin modificar los valores de la precipitación mensual del período 1940 a 1945 (CEDEX, 1998). Hipótesis H43: Simulación de la aportación mensual en los ámbitos territoriales de la planificación hidrológica para el período 1940 a 1995 al modificar la temperatura mensual a partir de los valores del período 2040 a 2049, mediante los resultados de los campos climáticos del modelo climático regional PROMES (Fernández, 2002). Hipótesis H50: Simulación de la aportación mensual en las diecinueve pequeñas cuencas para el período 1945 a 1995 (Fernández, 2002). Hipótesis H51: Simulación de la aportación mensual en las diecinueve pequeñas cuencas para el período 1940 a 1995 al modificar la temperatura mensual a partir de los valores del período 2040 a 2049, mediante los resultados de los campos climáticos del modelo climático regional PROMES (Fernández, 2002). Los campos climáticos adoptados para las diecinueve pequeñas cuencas evaluadas presentan un aumento en la temperatura de 2 a 3 °C más que las hipótesis del Libro Blanco del Agua. En seis de estas cuencas se produce descenso de la precipitación, con valores por debajo del 10 % en cuatro de ellas y hasta el 22 % en la de mayor descenso. TABLA 1 Simulaciones hidrológicas utilizadas Hipótesis Zona Escala temporal Período base Cambio Cambio precipitación temperatura Modelización hidrológica 1: H10 19 cuencas Anual 1940-95 0 0 BUDYKO 2: H11 19 cuencas Anual 1940-95 0 +1 °C BUDYKO 3: H12 19 cuencas Anual 1940-95 -5% +1 °C BUDYKO 4: H13 19 cuencas Anual 1940-95 -15% +4 °C BUDYKO 5: H20 19 cuencas Anual 1945-95 0 0 BUDYKO 6: H21 19 cuencas Anual 1945-95 PROMES PROMES BUDYKO 7: H30 ámbitos Anual 1940-95 0 0 BUDYKO 8: H31 ámbitos Anual 1940-95 0 +1 °C BUDYKO 9: H32 ámbitos Anual 1940-95 -5% +1 °C BUDYKO 10: H40 ámbitos Mensual 1940-95 0 0 SIMPA 11: H41 ámbitos Mensual 1940-95 UKMO UKMO SIMPA 12: H42 ámbitos Mensual 1940-95 0 PROMES SIMPA 13: H43 ámbitos Mensual 1940-95 PROMES PROMES SIMPA 14: H50 19 cuencas Mensual 1945-95 0 0 SIMPA 15: H51 19 cuencas Mensual 1945-95 PROMES PROMES SIMPA TABLA 2 Cambio medio mensual de las precipitaciones y las temperaturas, años 2040 a 2049, en la Península de acuerdo con el modelo PROMES Octubre Lluvia (mm) Temperatura ( °C) Noviembre Diciembre Enero Febrero Marzo Abril Mayo Junio Julio Agosto Septiembre Media -29 10 -29 68 25 11 -2 7 -17 -39 -21 -36 -4 4 4 3 3 4 3 3 2 3 5 4 4 3 I.T. N.o 74. 2006 47 TABLA 3 Cambio anual en la simulación mensual frente al cambio de la aportación anual según Budyko Cuenca P (mm) 1107 2147 9063 1765 P1 (mm) ETP (mm) ETP1 (mm) ET (mm) ET1 (mm) As (mm) As1 (mm) %Cambio PRE %Cambio ETP %Cambio ET %Cambio As Budyko A(mm) Budyko1 A1(mm) % Cambio A 731 731 836 730 821 1413 1057 -12 14 12 -25 1527 1205 -21 1156 961 717 822 619 594 535 365 -17 15 -4 -32 622 409 -34 1189 1344 732 842 578 582 612 762 13 15 1 25 642 718 12 9006 816 636 712 818 550 479 265 156 -22 15 -13 -41 341 176 -48 10009 966 1031 813 986 701 663 265 368 7 21 -5 39 416 396 -5 2049 568 543 736 869 453 422 116 122 -4 18 -7 5 155 110 -30 10028 529 568 806 956 470 487 58 80 7 19 4 38 115 106 -8 9058 505 504 748 898 423 393 77 105 0 20 -7 37 115 85 -26 8028 475 411 691 838 435 342 40 69 -13 21 -21 74 111 53 -52 3001 850 770 722 870 547 499 301 269 -9 20 -9 -11 364 249 -32 8087 536 581 762 918 422 424 112 155 8 20 0 38 129 120 -7 4251 977 1026 1032 1245 575 570 402 456 5 21 -1 13 340 305 -10 4206 450 457 919 1117 408 411 43 47 2 22 1 9 58 40 -32 4101 475 490 921 1122 393 408 82 81 3 22 4 -1 68 50 -27 4160 845 913 995 1198 570 575 276 338 8 20 1 22 260 246 -6 6005 472 508 881 1046 413 427 58 81 8 19 3 40 73 65 -11 6011 703 714 975 1172 474 471 230 242 2 20 -1 5 176 138 -21 6015 789 810 985 1191 517 524 271 284 3 21 1 5 226 186 -18 6052 662 703 1043 1268 460 468 200 232 6 22 2 16 137 116 -15 1 valores del escenario PROME SP: Precipitación; ETP: Evapotranspiración Potencial; ET: Evapotranspiración Real; As: Aportación total simulada, A: aportación según Budyko) TABLA 4 Disminución (–) o aumento de la aportación total (100 · (Aportación actual – Aportación escenario i) / Aportación actual)) Ámbito Escenario Escenario previsible 1 previsible 2 (H31) (H32) Galicia costa -2 -9 Norte I -3 Norte II Ámbito Escenario general 3 (H41) Escenario regional 4 (H42) Escenario regional 5 (H43) Galicia costa -15 -5 6 -10 Norte I -12 -6 24 -2 -10 Norte II 1 -8 -4 Norte III -2 -9 Norte III 4 -8 -21 Duero -6 -16 Duero 23 -17 38 Tajo -7 -17 Tajo 14 -14 38 Guadiana I -11 -24 Guadiana I 59 -20 25 Guadiana II -8 -19 Guadiana II 100 -22 30 Guadalquivir -8 -20 Guadalquivir 82 -17 5 Sur -7 -18 Sur 76 -18 4 Segura -11 -22 Segura 35 -16 -22 Júcar -9 -20 Júcar -20 -15 19 Ebro -5 -15 Ebro -9 -14 -5 C.I. Cataluña -5 -15 C.I. Cataluña -40 -20 39 Baleares -7 -18 Baleares Sin evaluar Sin evaluar Sin evaluar Canarias -10 -25 Canarias Sin evaluar Sin evaluar Sin evaluar España -5 -14 España peninsular 10 48 I.T. N.O 74. 2006 -14 13 Son importantes las grandes discrepancias que presenta el análisis anual, a partir de los valores mensuales, con los resultados que podríamos obtener al aplicar a los valores medios anuales de la precipitación y la evapotranspiración potencial una ley de carácter regional, como por ejemplo la ley de Budyko (Tabla 3). Los resultados son similares en las grandes cuencas peninsulares, como se pone de manifiesto en la tabla 4. En los escenarios 1 y 4 se mantienen los patrones de lluvia existentes, por lo que los resultados vienen condicionados con respecto al clima histórico por el aumento de la evapotranspiración potencial en el escenario 1 y por el aumento de la evapotranspiración real en el escenario 4 en todos los ámbitos territoriales, lo que da lugar a una disminución de la aportación en todos los casos. En el escenario 2 se acentúan las disminuciones en la aportación anual debido a estar condicionada por la evapotranspiración potencial, que se mantiene como en el escenario 1 agravada por la disminución en las precipitaciones. En los escenarios 3 y 5 no se mantienen los patrones de lluvia existentes, por lo que los resultados vienen condicionados, con respecto al clima histórico, por la ratio mensual entre la precipitación y la evapotranspiración real, que permite moderar el impacto del cambio climático, debido a que los aumentos de la precipitación se producen en los meses de invierno, cuando si bien se produce un aumento de la evapotranspiración potencial no se produce un aumento en la evapotranspiración real, de rango inferior, produciéndose descensos en las precipitaciones en los meses de verano, cuando el aumento de la evapotranspiración real se ve más limitado. Los resultados del escenario 3 vienen muy condicionados por la resolución adoptada, así como por el mar en las celdas de borde, lo que resta validez. Esta discrepancia de resultados entre evaluaciones hidrológicas mensuales y anuales demuestra claramente que las simulaciones anuales no pueden ser utilizadas para describir la variación del cambio climático producida por un aumento de la temperatura y cambios en la precipitación. Las evaluaciones anuales no tienen en cuenta la distribución de la precipitación a lo largo del año, factor que se ha revelado fundamental para evaluar el impacto del cambio climático sobre los recursos hídricos. Estos resultados indican que la evaluación hidrológica de las consecuencias del cambio climático sobre el agua requiere partir de unos escenarios de desarrollo futuros establecidos por la comunidad científica internacional y de los resultados de los modelos climáticos disponibles, y que esta circunstancia hace que a las deficiencias correspondientes a la evaluación hidrológica debamos unir las propias de los escenarios elegidos, así como las de los modelos climáticos seleccionados. Parece claro que estimar el impacto del cambio climático en el ciclo hidrológico es de vital importancia en la gestión correcta del recurso, y que, como se ha puesto de manifiesto, se debe realizar este balance con campos de variaciones de las variables climáticas al menos a escala mensual, ya que la simulación hidrológica a escala anual no tiene resolución suficiente para describir las variaciones que se pueden producir. Sin olvidar que los resultados obtenidos en las evaluaciones hidrológicas mensuales deben hacer referencia a los escenarios de emisiones elegidos, así como a la resolución del modelo climático seleccionado. Estamos en el comienzo de las mejoras en las resoluciones espaciales de los modelos climáticos regionales que permitirán campos de precipitaciones más fiables, y por lo tanto resultados hidrológicos más próximos a la realidad, y que podrán confirmarnos o desmentirnos la tendencia a ligeros aumentos o disminuciones de la aportación media anual, así como la aparente concentración de esta aportación en determinados meses del año, tendiendo a dividir el año hidrológico en dos estaciones, húmeda y seca. No debemos olvidar la fuerte dependencia de los modelos climáticos del conocimiento real del fenómeno climático global, sometido hoy día a incertidumbres que una vez resueltas harán cambiar la arquitectura de los modelos. racterísticas del suelo, y, por último, los elementos de cubierta del suelo, asociados a la ordenación del territorio y la ordenación de cultivos, y que distorsionarán los resultados de los dos elementos anteriores, erosividad y erosionabilidad. Si nos centramos en la erosividad, y por tanto en la lluvia, motor inicial del proceso, podemos intuir que cualquier cambio en los patrones de la misma modificará las estimaciones de aporte que se han de evaluar. En este sentido se presenta la evaluación del sedimento que llegaría a la costa con dos hipótesis de trabajo, sin cambio climático y con campos climáticos asociados a escenarios vinculados con las tendencias mostradas por los informes sobre cambio climático desarrollados por el Panel Intergubernamental de Expertos sobre el Cambio Climático, IPCC. Para ello se ha seleccionado la formulación clásica en la evaluación de la erosión hídrica en un territorio, la ecuación universal de pérdida de suelo, U.S.L.E. (Wischmeier et al., 1978), y se ha aplicado junto a un coeficiente de entrega de sedimentos en la cuenca del río Francolí, con desembocadura en el puerto de Tarragona. El puerto de Tarragona, situado en el mar Mediterráneo, está localizado en el noreste de la Península Ibérica y recibe los sedimentos generados en la cuenca del río Francolí. El Francolí nace en la llamada “Conca de Barberá” entre las provincias de Lérida y Tarragona. Para la determinación de los estados erosivos de la cuenca del Francolí, de 830 km2, se ha utilizado el trabajo realizado por el Instituto Nacional para la Conservación de la Naturaleza a partir de la ecuación U.S.L.E. y reflejado en sus Mapas de Estados Erosivos en España. Este mapa está disponible en formato digital como una cobertura (MIMAM, 2003) manejable por un sistema de información geográfica. Empleando el mapa vectorial de la cuenca y el mapa temático de estados erosivos de España se ha determinado el mapa de estados erosivos para la cuenca del río Francolí (Fig. 1). A partir del mismo podemos determinar que la erosión producida en la cuenca oscila en el intervalo comprendido entre dos y 4,6 millones de toneladas al año, de las cuales solo del orden del 11% llegaría a la costa anualmente, es decir, entre 260.000 toneladas y 535.000 toneladas como valores medios, de acuerdo con el coeficiente de entrega de sedimentos empleado (Avendaño et al., 1995). Evaluación de aporte sedimentario a las costas Las diferentes técnicas de evaluación del aporte de sedimentos a las zonas costeras, transportados por las corrientes de agua que desembocan en ellas, permiten estimar los datos de partida para trabajos posteriores que afectan tanto a la dinámica litoral como a las actuaciones que debemos realizar en algunas de nuestras obras portuarias con objeto de mantenerlas en servicio. Independientemente de la metodología de cálculo empleada, siempre nos encontraremos con tres elementos principales que determinarán la erosión susceptible de ser generada: la erosividad, asociada a la energía que desmenuza el suelo, provocada por la lluvia, la erosionabilidad, asociada a las ca- Fig. 1. Mapa de estados erosivos de la cuenca del río Francolí. I.T. N.o 74. 2006 49 TABLA 5 Relación entre el aporte de sedimentos para un evento extremo y los valores medios anuales Período de retorno T2 T10 T25 T50 T100 T500 años Aporte sedimentos (Williams, 1981) 208 – 429 125.508 – 259.254 321.036 – 663.146 524.299 – 1.083.015 796.186 – 1.644.635 1.669.670 – 3.448.942 toneladas Ratio con respecto a USLE+CES 0,1 50 129 211 320 672 % Cambio climático. Nuevo ratio 0,19 93 241 394 598 1.256 % Estos resultados están asociados con un índice de erosión pluvial, R, comprendido entre 150 y 250 (ICONA, 1990), y obtenido según la expresión: R= 2,375 (PD2) + 0,513 (PMEX) - 94,4 - 89 (Z4) — PD2: precipitación máxima diaria con un período de retorno de dos años. — PMEX: el valor medio interanual de la precipitación del mes más lluvioso de cada año. — Z4: factor de zonificación, igual a 1 para la cuenca del río Francolí. Si tomamos como período base el comprendido entre 1945 y 1995, tenemos como valores de PD2 51 milímetros y PMEX 66 milímetros en el mes de octubre, y el valor de R sería de 150 en la cabecera de la cuenca. Bajo las hipótesis de cambio climático, y de acuerdo con los campos climáticos generados por el modelo regional PROMES (Fernández, 2002), el mes con precipitación mayor pasaría a ser el de enero, para el período comprendido entre los años 2040 y 2049, con un valor medio de 87 milímetros. Manteniendo el mismo valor para PD2, debido a que el modelo climático del que se dispone no evalúa este dato, y asumiendo que en cualquier caso sería del mismo orden de magnitud o ligeramente superior, el nuevo valor de R pasaría a ser 160, un incremento de un 7 %. Este aumento supondría, a igualdad de los demás factores, que las aportaciones medias de sólidos en suspensión y disolución (del orden del 85 % del total), pasarían a estar comprendidas entre las 280.000 y las 572.000 toneladas medias anuales. A estos valores deberíamos añadir los ocasionados por eventos de carácter extremo, que pueden suponer aportes del orden de hasta el 200 % de los valores medios para períodos de retorno en el entorno de los 50 años. De acuerdo con estudios previos, el río Francolí tiene un caudal comprendido entre 3 m3/s y 1.550 m3/s para períodos de retorno de entre dos y 500 años respectivamente. Esto implicaría que la horquilla de valores de aporte adoptaría el rango entre la horquilla de 200 a 430 toneladas y 1.669.700 y 3.448.942 toneladas respectivamente (tabla 3). Estos valores, y siempre teniendo en cuenta los resultados de Palmer et al. (2002), presentaran una frecuencia para nuestro territorio entre 1 y 2 veces mayor, y la nueva relación entre la entrega anual de sedimentos y la entrega en un evento extremo pasaría de 0,1 a 0,19 % para un período de retorno de dos años y de 672 a 1.256 % para un período de retorno de 500 años (tabla 5) (Fernández, 2003). 50 I.T. N.O 74. 2006 Protocolo de actuación y necesidades del mismo Se establece, a modo de ejemplo, un guión o protocolo de actuación primario para un riesgo climático con carácter extraordinario, con el evento climático acaecido a finales de marzo de 2004 en el sur andaluz, y que podría servir de modelo a seguir. Durante los días 26, 27, 28 y 29 de marzo de 2004, un temporal de viento y lluvia ocasionado por el paso de una borrasca que se desplazó desde el sur andaluz hacia el levante de las comunidades de Murcia, Valencia y Cataluña, provocó inundaciones en diversas carreteras, dificultando el tránsito por muchas vías. En concreto en el municipio malagueño de El Rincón de la Victoria, donde cayeron 220 litros por metro cuadrado en 24 horas, ocasionó perjuicios a cerca de un millar de familias, 700 vehículos dañados y roturas en la infraestructura pública del orden de 18 millones de euros. Podríamos pensar que este último acontecimiento estaba asociado a un suceso poco frecuente, al menos en el pasado, pero solo hace falta buscar en los archivos para encontrar que hacía menos de tres años, el 28 de septiembre de 2001, ocurría una riada en El Rincón de la Victoria, lo cual pudo hacer pensar a sus planificadores que era alto improbable tener un suceso similar en los próximos 50 años. La red de drenaje resultó insuficiente e inadecuada y parecía haber sido calculada, como se ha hecho muchas veces, teniendo en cuenta únicamente como elemento a transportar el agua de escorrentía, ignorando o minimizando los sólidos que son erosionados y transportados por la misma hasta el mar, y que éstos suelen taponar los pasos de las infraestructuras de transporte que cruzan la zona. Se acusó también al paseo marítimo de actuar como dique de contención del agua vertida por la cuenca aguas arriba del municipio, hecho no contrastado. En estos momentos se está iniciando un estudio global del suceso contemplando el conjunto del fenómeno y tratando de introducir escenarios de cambio climático en los diferentes aspectos previos a la planificación y que son de aplicación al resto del litoral: • Aspectos físicos de primer orden: 1. Elevación del nivel medio del mar, cinco milímetros por año, resultados de escenarios IPCC (2001). 2. Variación del régimen de presiones y vientos, posible relación con índices climáticos, NAO. 3. Variaciones en las precipitaciones, aplicación de modelos climáticos regionales (Palmer, et al., 2002). • Aspectos físicos de segundo orden: 4. Determinación de límites de inundación. Mareas astronómicas, mareas meteorológicas y sobreelevaciones debidas a la incidencia del oleaje (Acinas, 2002). 5. Transformación precipitación escorrentía. Factores relativos a usos y tipos de suelo. 6. Procesos de erosión y generación de sedimentos fluviales (Fernández, 2003). • Aspectos de sostenibilidad de primer orden: 7. Evaluación de recursos hídricos medios. Escenario climático regional (Fernández, 2002). 8. Evaluación del incremento de la demanda hídrica. 9. Proyecciones de la población y número de viviendas. 10. Demanda energética. Edificación sostenible. • Aspectos de sostenibilidad de segundo orden: 11. Equilibrio sedimentario litoral. 12. Equilibrio medioambiental compatible con las repuestas de mitigación de impactos. Conclusiones Incluir el cambio global en los elementos de la ingeniería territorial es necesario y posible, y está de manifiesto en iniciativas de desarrollo limpio incluidas en los procesos de adaptación al cambio climático en el marco de la red iberoamericana de oficinas de cambio climático, pero, y se pone de manifiesto en los ejemplos previos, la necesidad de incluir como una hipótesis de futuro a añadir al conjunto de hipótesis a evaluar, a través del concepto de escenario futuro, no está disponible en la mayoría de los procesos que se están evaluando. Para esta tarea es imprescindible la utilización de campos climáticos futuros, y éstos, al igual que se ha venido haciendo hasta la fecha con los datos climáticos con origen en las redes de medida gestionadas por organismos públicos, deben ser facilitados por organismos públicos. Éstos deben recuperar las costosísimas inversiones en universidades y centros de investi- gación para que los resultados de las bajadas de escala de los modelos climáticos estén al alcance de todos, y no solamente de especialistas para trabajos de investigación muy concretos. La disposición de campos climáticos permitirá elaborar nuestra actividad con un grado de incertidumbre menor, y contribuirá a que los desastres naturales asociados al clima tengan un tratamiento más racional, tarea que sugiero debe añadirse a la Oficina de Cambio Climático del Ministerio de Medio Ambiente. En este sentido, la idea generalizada de aumento de la frecuencia de eventos extremos exige un posicionamiento de adaptación diferente al actual. No se tratará de resistir inflexiblemente a cualquier circunstancia sino más bien de cómo minimizar los efectos de unos sucesos que irremisiblemente se van a repetir. En esta línea la reconstrucción y nuevas estrategias de defensa de ciudades como Nueva Orleáns tras el triste paso del huracán Katrina deberían ser un ejemplo para el resto del mundo de cómo prepararnos para el cambio no ya climático sino conceptual de nuestra actitud frente a la naturaleza de la que formamos parte. Se nos plantea hoy día una posición frente al cambio climático en términos de riesgo y oportunidad. Riesgo de no acometer con perspectiva diferente nuestra actitud frente al clima y de no utilizar todo el potencial del que nuestras sociedades son capaces, y oportunidad de hacer que el cambio global se produzca en la dirección menos perturbadora del planeta donde vivimos, evitando que éste nos sorprenda, como apuntó Antonio Mingote (2005b) en su viñeta: “Esto del cambio climático me recuerda el día en el que al volver del veraneo encontramos que nos habíamos dejado abiertos todos los grifos”. ■ Pedro Fernández Carrasco Doctor Ingeniero de Caminos, Canales y Puertos Adjunto Subdirección Cooperación al Desarrollo y Movilidad Estudiantil E.T.S. de Ingenieros de Caminos, Canales y Puertos Universidad Politécnica de Madrid Referencias bibliográficas 1. Mingote, A., 2005a, “ABC”, miércoles 26 de enero de 2005. 2. IPCC, 2001, Summary for policymakers: climate change 2001: The Scientific Basis. Impacts, Adaptation, and Vulnerability. Mitigation. WMO-UNEP. 3. Acinas, J.R., 2002, “Cambio climático y subida del nivel medio del mar. Impacto sobre la costa”, Ingeniería y Territorio, Nº 61, pp. 60-67. 4. Ruiz, A., 2004, “Cambio Climático”, Ingeniería y Territorio, Nº 68. 5. Cabezas, F., 2004 “Cambio climático y recursos hídricos en la planificación hidrológica”, Ingeniería y Territorio, Nº 68. 6. Cañas, J., 2004, “El papel de las Comunidades Autónomas en la organización de la respuesta al cambio climático”, IV Seminario Internacional sobre Cambio Climático. 16 de noviembre de 2004. Cambio Climático: la hora de la verdad, Fundación Gas Natural. 7. MIMAM, 2004, Distribución por sectores de las emisiones de España en el año 2002, Ministerio de Medio Ambiente. 8. Pérez-Martínez, P.J., 2005, Observatorio medioambiental del transporte. “Los criterios jurídicos y económicos frente al protocolo de Kioto”, Madrid, 3 de marzo de 2005. Instituto Iberoamericano de Derecho Marítimo. Departamento de Ingeniería Civil: Ordenación del Territorio, Urbanismo y Medio Ambiente de la E.T.S. de Ingenieros de Caminos, Canales y Puertos de Madrid. 9. MIMAM, 2000b, El Libro Blanco del Agua en España, Ministerio de Medio Ambiente. 10. Fernández, P., 2002, “Estudio del impacto del cambio climático sobre los recursos hídricos. Aplicación en diecinueve pequeñas cuencas en España”. Tesis Doctoral. Universidad Politécnia de Madrid, E.T.S.I. Caminos, Canales y Puertos de Madrid. 11. Témez J.R., 1977, Modelo mensual precipitación-aportación, ASINEL. 12. Budyko, M.I., y Drozov, O.A., 1953, The laws of water cycle in the atmosphere, Bull. Acad. Sci. USRR. Scr.:Georg., 4. 167-170. 13. CEDEX, 1998, Estudio sobre el impacto potencial del cambio climático en los recursos hídricos y demandas de agua de riego en determinadas regiones de España, Informe técnico para el Ministerio de Medio Ambiente. CEDEX: 43-496-1-089. 1998. 14. Wischmeier, W.H. y Smith, D.D., 1978, Predicting Rainfall Erosion Losses - a guide to conservation planning, U.S. Dept. Agriculture Handbook, 537. 15. MIMAM, 2003, Ministerio de Medio Ambiente, 2003, Mapa de estados erosivos, Dirección general de la conservación de la naturaleza. Banco de Datos de la Naturaleza. 16. Avendaño, C., Cobo, R., Gómez-Montaña, J.L. y Sanz, M.E., 1995, “Procedimiento para evaluar la degradación específica (erosión) de cuencas de embalses a partir de los sedimentos acumulados en los mismos. Aplicación al estudio de embalses españoles”, Ingeniería Civil, 99, 50-58. 17. Palmer, T. N. and Räisänen, J., 2002, “To quantifying the risk of extreme seasonal precipitation events in a changing climate”, Nature, 415, 512 - 514 (2002); doi:10.1038/415512a, Nature, 31 January 2002. 18. Fernández, P., 2003, “Variation of the average sediment yield in the Spanish coast and the sediment yield associated to extreme events ratio under climatic change hypothesis”, 3rd IAHR Symposium on River, Coastal and Estuarine Morphodynamics, Barcelona, septiembre 2003, Universidad Politécnica de Cataluña. 19. Williams, J.R., 198, “Mathematical modelling on watershed sediment yield”, International Symposium on Rainfall-Runoff Modelling. Mississippi State University. 20. Mingote, A., 2005b, “ABC”, jueves 17 de febrero de 2005. I.T. N.o 74. 2006 51 La gestión de las sequías en España Teodoro Estrela Monreal DESCRIPTORES SEQUÍAS ESPAÑA INDICADORES DE SEQUÍA PLANES ESPECIALES DE SEQUÍAS Introducción No existe una definición unánimemente admitida para el concepto de sequía y ello se explica por los distintos tipos de sequías que pueden producirse, dependiendo de la variable que se considere como referencia. Se dice que se está en sequía meteorológica cuando se produce una escasez continuada de las precipitaciones. Es la sequía que da origen a los restantes tipos de sequía y normalmente suele afectar a zonas de gran extensión. El origen de la escasez de precipitaciones está relacionado con el comportamiento global del sistema océano-atmósfera, donde influyen tanto factores naturales como factores antrópicos, como la deforestación o el incremento de los gases de efecto invernadero. La sequía hidrológica se produce cuando hay una reducción continuada de caudales en los ríos o de agua almacenada en los embalses y acuíferos, mientras que se dice que está ocurriendo una sequía agrícola o hidroedáfica cuando no hay humedad suficiente en la zona radicular para satisfacer las necesidades de un cultivo en un lugar y en una época determinada. En los cultivos de secano la oferta de agua viene dada por la precipitación sobre la zona durante la temporada de desarrollo del cultivo, mientras que la demanda corresponde a la evapotranspiración potencial, que depende de las condiciones climáticas, del tipo de cultivo y de su etapa de desarrollo. Finalmente, se dice que se está en sequía operativa cuando se producen períodos de tiempo en estado de fallos (no satisfacción de un uso) anómalos en un sistema de explotación de recursos hídricos desarrollado. Las causas pueden ser: la escasez recursos (sequía hidrológica), el exceso de demanda o la gestión o el diseño no adecuado del sistema de explotación de recursos y de sus reglas de explotación. Una posible definición que engloba a todos los tipos de sequías mencionados anteriormente podría ser la siguiente: La sequía es un fenómeno hidrológico extremo que puede de52 I.T. N.O 74. 2006 finirse como una disminución temporal significativa de los recursos hídricos durante un período suficientemente prolongado que afecta a un área extensa con consecuencias socioeconómicas adversas. Las sequías, a diferencia de las avenidas, tienen un carácter lento y progresivo, de tal manera que, cuando se manifiestan, ya se está de lleno en ellas. No es posible predecirlas ni identificar fenómenos periódicos o cíclicos. Estas características hacen que normalmente no se busquen las causas y remedios de la sequía hasta que la zona se halla en situación de crisis, lo que conlleva que las medidas sean de emergencia y en ocasiones poco eficientes. Las alternativas en la gestión de las sequías son básicamente dos: a) como situación de emergencia, considerando que es una situación de crisis, a la que hay que hacer frente movilizando recursos de carácter extraordinario, y b) en el marco de la planificación general, haciendo un análisis del riesgo existente, e introduciendo la sequía en la planificación como un escenario distinto. En España tradicionalmente las sequías se han gestionado por emergencia, aunque como en apartados siguientes se describe, en la actualidad se están realizando planteamientos basados en la gestión planificada de las sequías. Las sequías históricas y la sequía actual Las sequías se han venido produciendo de forma periódica en España afectando a territorios más o menos extensos. En la actualidad se está inmerso en un ciclo de sequía que afecta especialmente a los territorios con mayor escasez de recursos. Las sequías intensas y prolongadas tienen graves efectos sobre el territorio. La última sequía que se produjo en España, la ocurrida en el período comprendido entre los años 1991 y 1995, permitió valorar los efectos socio-económicos y medioambientales en España. Fig. 1. Evolución de las precipitaciones totales trimestrales en España (mm). Respecto al abastecimiento urbano, 12 millones de habitantes sufrieron restricciones en 1995, y se presentaron problemas agudos en las poblaciones de Sevilla, Cádiz y Palma de Mallorca. En cuanto a la producción agrícola, sufrió una reducción anual de 200.000 a 300.000 millones de pesetas entre los años 1992 y 1995 respecto a las producciones de los años anteriores y posteriores. Se produjo una multiplicación de los seguros agrarios por 1,6 en 1999 respecto a los contratados en 1995 (750.000 millones de pesetas) para el secano. Los efectos medioambientales no están tan cuantificados como los efectos socioeconómicos, aunque se tienen referencias de mortandades de ictiofauna en embalses y de avifauna en humedales de interior. Esta sequía sirvió para sentar las bases de incorporación de la gestión de sequías en el proceso de planificación general en lugar de como situación de emergencia. La sequía actual se inició a principios del año hidrológico 2004, extendiéndose prácticamente a la mayoría de los territorios españoles durante ese año hidrológico. En el presente año hidrológico la sequía está afectando especialmente a los territorios de la cabecera del Guadiana, la cuenca del río Júcar, la cuenca del Segura y algunas zonas del Tajo y Guadalquivir. El seguimiento de esta sequía se realiza con periodicidad semanal desde la Dirección General del Agua, con información procedente de los Organismos de cuenca. También, con periodicidad trimestral, el Ministerio de Medio Ambiente publica en su página web los Informes sobre el estado hidrológico de las cuencas en España, cuyo objetivo es mostrar al ciudadano la situación hidrológica de las cuencas y los sistemas de explotación de recursos, así como los problemas existentes y las medidas adoptadas. Fig. 2. Evolución de reservas totales en los embalses españoles. En la figura 1 se muestra la evolución de las precipitaciones totales trimestrales en España en milímetros, desde el año hidrológico 1969-70 hasta la actualidad (MIMAM, 2006). La precipitación total anual está descompuesta en la correspondiente a cada uno de los cuatro trimestres del año hidrológico (de octubre a diciembre, de enero a marzo, de abril a junio y de julio a septiembre). Esta descomposición permite visualizar el valor alcanzado de precipitación durante cada trimestre, su importancia relativa respecto al valor normal de ese trimestre y la relación de ese trimestre en el total anual. Un indicador del estado hidrológico de las cuencas lo constituye el estado de sus reservas, y muy especialmente del agua almacenada en los embalses. El Boletín Hidrológico de la Dirección General del Agua del Ministerio de Medio Ambiente proporciona información sobre el estado de almacenamiento de los grandes embalses existentes en España. El pasado año hidrológico las reservas del conjunto de embalses españoles sufrieron un acusado descenso, lo que hace que la condición inicial de partida en el año hidrológico 2005/06 haya sido muy baja. La figura 2 muestra el agotamiento de reservas durante el pasado año hidrológico y la recuperación que en valores medios se ha producido en el último trimestre para el conjunto de los embalses en España. I.T. N.o 74. 2006 53 En los últimos años la situación de algunos humedales españoles ha pasado a ser crítica por el efecto de la sequía, llegando a reducirse de manera preocupante su superficie. En la figura 3 se presenta la evolución de la situación de un humedal muy significativo que ilustra la afirmación anterior: las Tablas de Daimiel. La superficie inundada de las Tablas de Daimiel se encuentra actualmente en niveles alarmantemente bajos, después de haber registrado niveles muy superiores a la media durante gran parte del pasado año. Estos bajos niveles son similares a los que se alcanzaron en el año 2003/04, y muy inferiores a los marcados por la media. Aunque durante el presente año hidrológico el estado hidrológico global en España ha mejorado, existen algunos sistemas de explotación de recursos donde los niveles de reservas en sus embalses son todavía muy bajos. Un ejemplo lo constituye el conjunto de los embalses de Alarcón, Contreras y Tous en el sistema Júcar. Los niveles máximos alcanzados en Fig. 3. Comparativa de la evolución de la superficie encharcada en las Tablas de Daimiel. la serie representada en la figura 4 sobrepasan ligeramente los 900 hm3. Durante el pasado año hidrológico se redujo la disponibilidad en unos 366 hm3 y en el primer semestre de este año solo se acumula un llenado de unos 80 hm3. Marco legal de la gestión de sequías en España Tradicionalmente, en España y en la mayoría de los países de nuestro entorno, las gestión de las sequías se ha abordado como situación de crisis, mediante medidas de emergencia que hacen frente a ella. Este enfoque se ilustra claramente en el Texto Refundido de la Ley de Aguas (T.R.L.A.), que, en su artículo 58, prevé en circunstancias de sequías extraordinarias la adopción, mediante Decreto acordado en Consejo de Ministros y oído el organismo de cuenca, de las medidas que sean precisas para la superación de dichas situaciones, en relación con la utilización del dominio público hidráulico. Estas medidas llevan implícitas la declaración de utilidad pública de las obras, sondeos y estudios necesarios para desarrollarlos, a efectos de la ocupación temporal y expropiación forzosa de bienes y derechos, así como la urgente necesidad de la ocupación. En cumplimiento del citado artículo 58 del T.R.L.A. y en relación con la actual sequía, se han producido las principales actuaciones normativas: • Real Decreto 1265/2005, de 21 de octubre, por el que se adoptan medidas administrativas excepcionales para la gestión de los recursos hidráulicos y para corregir los efectos de la sequía en las cuencas hidrográficas de los ríos Júcar, Segura y Tajo. Fig. 4. Evolución interanual de las reservas conjuntas de los embalses de Alarcón, Contreras y Tous. 54 I.T. N.O 74. 2006 • Real Decreto 1419/2005, de 25 de noviembre, por el que se adoptan medidas administrativas excepcionales para la gestión de los recursos hidráulicos y para corregir los efectos de la sequía en las cuencas hidrográficas de los ríos Guadiana, Guadalquivir y Ebro. • Real Decreto-Ley 15/2005, de 16 de diciembre, de medidas urgentes para la regulación de las transacciones de derechos al aprovechamiento de agua. • Real Decreto 287/2006, de 10 de marzo, por el que se regulan las obras urgentes de mejora y consolidación de regadíos, con objeto de obtener un adecuado ahorro de agua que palíe los daños producidos por la sequía. Este planteamiento de aplicación de decretos con medidas de urgencia se ha venido utilizando y sin duda seguirá utilizándose en el futuro. Sin embargo, desde el año 2001, la Ley 10/2001, de 5 de julio, del Plan Hidrológico Nacional, ha establecido las bases para una gestión más planificada de las sequías. En el apartado 1 de su artículo 27, Gestión de sequías, dice que El Ministerio de Medio Ambiente, para las cuencas intercomunitarias, con el fin de minimizar los impactos ambientales, económicos y sociales de eventuales situaciones de sequía, establecerá un sistema global de indicadores hidrológicos que permita prever estas situaciones y que sirva de referencia general a los Organismos de cuenca para la declaración formal de situaciones de alerta y eventual sequía. Dicha declaración implicará la entrada en vigor del Plan especial a que se refiere el apartado siguiente. Seguidamente, en el apartado 2 de ese mismo artículo 27, establece que Los Organismos de cuenca elaborarán en los ámbitos de los Planes Hidrológicos de cuenca correspondientes, en el plazo máximo de dos años desde la entrada en vigor de la presente Ley, planes especiales de actuación en situaciones de alerta y eventual sequía, incluyendo las reglas de explotación de los sistemas y las medidas a aplicar en relación con el uso del dominio público hidráulico. Los citados planes, previo informe del Consejo de Agua de cada cuenca, se remitirán al Ministerio de Medio Ambiente para su aprobación. Finalmente, en el apartado 3 del mismo artículo 27, dice que Las Administraciones públicas responsables de sistemas de abastecimiento urbano que atiendan, singular o mancomunadamente, a una población igual o superior a 20.000 habitantes deberán disponer de un Plan de Emergencia ante situaciones de sequía. Dichos Planes, que serán informados por el Organismo de cuenca o Administración hidráulica correspondiente, deberán tener en cuenta las reglas y medidas previstas en los Planes especiales a que se refiere el apartado 2, y deberán encontrarse operativos en el plazo máximo de cuatro años. Fig. 5. Cronología para el desarrollo de los planes especiales de sequía y los planes de alerta. Durante los últimos meses, los Organismos de cuenca desarrollaron y aprobaron los Protocolos de Sequía con objeto de hacer frente, de la forma más organizada y eficiente posible, a la situación hidrológica que se viene padeciendo. Dichos documentos constituyen un avance de los Planes Especiales de Actuación ante la Situación de Alerta o Eventual Sequía, que, conforme al artículo 27 de la Ley 10/2001, es necesario elaborar por los Organismos de cuenca. Instrumentos para la gestión de sequías en España La anticipación en la aplicación de las medidas de mitigación es un elemento clave en la reducción de los efectos socioeconómicos de las sequías. El desarrollo de los sistemas de indicadores debe considerarse como un elemento esencial en la gestión de los eventos de sequía y en la planificación estratégica de las acciones a llevar a cabo. Las principales herramientas para la planificación de las sequías en España son, por tanto: • Sistemas de indicadores de estado hidrológico de los Organismos de cuenca y del conjunto del territorio español. • Planes especiales de Sequía de los Organismos de cuenca. • Planes de emergencia para los abastecimientos urbanos mayores de 20.000 habitantes. En los Organismos de cuenca se están desarrollando sistemas de indicadores con motivo de los trabajos en curso de los Planes Especiales de Actuación en Situación de Alerta o Eventual Sequía. Las fases en el desarrollo de estos sistemas de indicadores son: a) definición de unidades de demanda, b) selección del indicador más representativo de evolución del recurso disponible para cada unidad de demanda, c) recopilación de series hidrológicas asociadas a cada indicador, d) ponderación de los distintos indicadores por sistema de explotación y para todo el ámbito del Organismo de cuenca, y e) seguimiento continuo de la evolución de los indicadores. Estos sistemas están formados por puntos de control distribuidos por los respectivos ámbitos territoriales de los Organismos de cuenca que incluyen información sobre volumen almacenado en embalses superficiales, niveles piezométricos en acuíferos, aportaciones fluviales en régimen natural, pluviometría en estaciones representativas, etc. A partir de los valores de los indicadores en los puntos de control, en cada Organismo de cuenca se obtienen, por diversos procedimientos de agregación, unos valores medios representativos de cada uno de los sistemas de explotación que conforman su ámbito territorial. En la Guía para la Redacción de los Planes de Sequía (DGA, 2004) elaborada por la Dirección General del Agua del Ministerio de Medio Ambiente se establecen los criterios comunes que deben reunir los Sistemas de Indicadores de los diferentes Organismos de cuenca. De acuerdo con estos criterios, los indicadores adoptan valores comprendidos entre 0 y 1, correspondiendo los valores bajos a situaciones de sequía y el valor de 0,5 a la situación media. Mediante la ponderación del valor del indicador I.T. N.o 74. 2006 55 en cada zona o sistema (teniendo en cuenta la importancia de la demanda atendida) se obtiene el valor del indicador global. Estos indicadores clasifican los estados hidrológicos de los sistemas de explotación de recursos hídricos en cuatro categorías, tal y como se indica en la tabla 1. En la figura 6 se muestra la clasificación de los sistemas de explotación en las cuencas intercomunitarias a finales de marzo de 2006. Por su singularidad, el estado de los sistemas de Alto Tajo (Entrepeñas-Buendía), abastecimiento al conglomerado urbano de Madrid y el sistema Alberche (ligado al anterior) no se han caracterizado conforme al criterio general y su situación se ha descrito separadamente: a) la cabecera del Tajo se encuentra en situación hidrológica excepcional, b) el abastecimiento a Madrid y su área de influencia hidráulica se encuentran en situación de sequía severa, y c) en el Sistema Alberche los embalses se encuentran a niveles muy bajos respecto a lo habitual. TABLA 1 Clasificación de los estados hidrológicos Riesgo de restricciones Estado hidrológico Muy Bajo – Bajo Normalidad Medio Prealerta Alto Alerta Muy Alto Emergencia Los planes especiales de sequía y los planes de emergencia El objetivo de los Planes especiales de sequía es anticiparse a las sequías, previendo soluciones para satisfacer las demandas y cumplir con los requerimientos medioambientales. Los planes especiales de sequía se basan en: a. Conocimiento del sistema de recursos y la capacidad de sus elementos para ser forzados en situación de escasez. b. Conocimiento del sistema de demandas y de su vulnerabilidad frente a la sequía. c. Sistema de indicadores que pongan de manifiesto la situación de sequía con anticipación suficiente para actuar según las previsiones del Plan. d. Aplicación de medidas para reducir el impacto de la sequía en función del estado de los indicadores. e. Adecuación de la estructura administrativa para su seguimiento y coordinación entre las distintas administraciones implicadas. f. Plan de información pública y a los responsables de los sistemas de abastecimiento. Los planes especiales de sequía contemplan tres tipos de medidas: estratégicas, tácticas y de emergencia. Las medidas estratégicas proporcionan respuesta a largo y medio plazo. Suelen estar apoyadas en textos normativos (leyes, decretos…) y suelen requerir inversiones considerables. Algunos ejemplos son la construcción de nuevos embalses, desaladoras, esquemas de reutilización, etc. Fig. 6. Estado de los sistemas de explotación en marzo 2006. 56 I.T. N.O 74. 2006 Fig. 7. Actuaciones de emergencia: pozos de sequía de las áreas costeras del Júcar. Las medidas tácticas dan respuesta a corto plazo. Los planes especiales recogen las medidas a adoptar durante las sequías, los parámetros para imponerlas, los procesos de decisión, las formas de involucrar e informar al público, etc. Es conocido que las pérdidas por fallos en los suministros de agua no son lineales con el déficit. Es preferible anticiparse mediante el establecimiento de ahorros en los suministros (pequeños déficits repartidos son mejores que un gran déficit de igual magnitud concentrado). Los modelos matemáticos de simulación y optimización se utilizan para estudiar las reglas de explotación y los suministros de las demandas de agua para alcanzar una gestión óptima de la sequía. Las medidas de emergencia dan respuesta a circunstancias inesperadas, cuando se producen sequías más severas o más largas de lo previsto, por ejemplo mediante la construcción de pozos de emergencia, el establecimiento de restricciones al suministro, la prohibición de usos, la modificación temporal de los derechos etc. El uso de las aguas subterráneas permite incrementar los recursos necesarios para atender las demandas. Tiene la ventaja de no necesitar grandes infraestructuras para su explotación. Algunos acuíferos pueden ser temporalmente explotados por encima de sus recursos renovables aunque se deberá ser muy cuidadoso al hacerlo, estableciendo procedimientos de control sistemático, para evitar que se produzcan afecciones medioambientales a ecosistemas de ellos dependientes. Durante situaciones de crisis se puede por tanto construir o poner en operación pozos de emergencia de aguas subterráneas. En la figura 7 se muestran los pozos de emergencia existentes en las áreas costeras de la cuenca del Júcar (CHJ, 2005). Los Planes Especiales de Sequía se encuentran en fase de elaboración por las distintas Confederaciones Hidrográficas. La Dirección General del Agua ha elaborado una Guía para la redacción de Planes Especiales de Actuación en situación de Alerta y Eventual Sequía (DGA, 2004), donde se establecen los criterios de coordinación necesarios para el desarrollo de los planes. En la actualidad los trabajos técnicos están muy avanzados y se ha iniciado el proceso de tramitación de la evaluación ambiental estratégica del Plan con la redacción del Documento Inicial, que se encuentra en fase de consultas. Está previsto que los Planes especiales de sequía se terminen durante el presente año 2006 y establezcan las condiciones de contorno para el desarrollo de los planes de emergencia de los abastecimientos urbanos. El objetivo de los Planes de emergencia de los abastecimientos a núcleos urbanos mayores de 20.000 habitantes es gestionar la sequía para garantizar el abastecimiento a la población. Las bases de estos planes de emergencia son: a) sistema de valoración y control del riesgo de desabastecimiento, b) aplicación de actuaciones en función del estado de los indicadores, c) gestión de la demanda, y d) actuaciones sobre la oferta. Un ejemplo de este tipo de planes lo constituye el Canal de Isabel II en Madrid con su Manual de abastecimiento (CyII, 2003), donde se establecen las responsabilidades, los métodos de alerta, las medidas a aplicar según la severidad de sequía y las estrategias de futuro. ■ Teodoro Estrela Monreal Ingeniero de Caminos, Canales y Puertos Subdirector General de Planificación Hidrológica y Uso Sostenible del Agua Ministerio de Medio Ambiente Bibliografía – Álvarez, J. and Estrela, T., 2003, “Regionalisation and identification of droughts in Mediterranean countries of Europe”, in Rossi, G., Cancelliere, A., Pereira, L., Oweis, T, Shatanawi, M. and Zairi, A., editors, Tools for drought mitigation in Mediterranean regions, Kluwer Academic Publishers, London, 2003. – Andreu, J., Rossi, G., Vagliasindi, F., Vela, A., editors, 2006, Drought Management and Planning for Water Resources, CRC Press, Taylor and Francis, 2006. – Cabrera, E. and García-Serra, J., editors, 1999, Drought Management planning in water supply systems, Kluwer Academic Publishers, London, 1999. – CEDEX, 2000, Las aguas continentales en los países mediterráneos de la Unión Europea, CEDEX-Ministerio de Medio Ambiente, 293 pp. – CHJ, 2005, Protocolo de actuación en situación de alerta y eventual sequía, Confederación Hidrográfica del Júcar, Valencia, noviembre 2005. – Cubillo, F.L., Ibáñez, J.C., CyII (Canal de Isabel II), 2003, Manual de abastecimiento del Canal de Isabel II, Canal de Isabel II, marzo 2003. – DGA, 2004, Guía para la Redacción de los Planes de Sequía, Dirección General del Agua, Madrid, noviembre 2004. – Dracup, J.A., Lee, K.S. and Paulson, E.G. (1980), “On the definition of droughts”, Water Resources Research, 16(2), p. 297-302. – Estrela, T., Fidalgo, A., and Pérez, M.A., 2006, “Droughts and the European Water Framework Directive: Implications on Spanish River Basin Districts”, in Andreu, J., Rossi, G., Vagliasindi, F., Vela, A., editors, Drought Management and Planning for Water Resources, chapter 7, CRC Press, Taylor and Francis. 2006. – Llamas, M.R. (1999), “Efectos de –y acciones mitigantes contra– las sequías”, Revista de la Real Academia de Ciencias Exactas, Físicas y Naturales, en El clima y sus efectos: conocimiento e incertidumbres, volumen 93, nº 1, pp. 127-135. – MIMAM, 2006, Informes sobre el estado hidrológico de las cuencas en España (período enero 2006-marzo 2006), Ministerio de Medio Ambiente, España, Madrid. – MIMAM, 2000, El Libro blanco del Agua en España, Ministerio de Medio Ambiente, España, Madrid. – Rossi, G., Cancelliere, A., Pereira, L., Oweis,T., Shatanawi, M., and Zairi, A., editors, 2003, Tools for drought mitigation in Mediterranean regions, Kluwer Academic Publishers, London, 2003. I.T. N.o 74. 2006 57 PÁGINA INTENCIONALMENTE DEJADA EN BLANCO I.T. N.O 74. 2006 PÁGINA INTENCIONALMENTE DEJADA EN BLANCO I.T. N.o 74. 2006 Incidencia ambiental de los incendios María Jesús Rodríguez de Sancho DESCRIPTORES INCENDIOS FORESTALES DESASTRES NATURALES ESTADÍSTICA GENERAL CLIMA EFECTOS AMBIENTALES DAÑOS PRODUCIDOS ¿Son los incendios desastres naturales? Los desastres naturales se definen cono fenómenos de origen natural que ocurren en un espacio y tiempo limitados causando trastornos en los patrones normales de vida (Olcina y Ayala-Carcedo, 2002). La Asamblea General de Naciones Unidas declaró la década de los noventa como el Decenio Internacional para la Reducción de los Desastres Naturales. La idea, aún hoy vigente, de esta designación era, por un lado, los inaceptables niveles crecientes de pérdidas que los desastres naturales continúan produciendo, y por otro, la existencia de un considerable conocimiento científico y know how de ingeniería que podría ser utilizado de manera eficaz para reducir las pérdidas que producen estos desastres naturales. El objetivo general del decenio era reducir, mediante la acción concertada internacional, especialmente en los países en desarrollo, las pérdidas de vidas humanas, daños en las propiedades y en la economía causados por desastres naturales tales como terremotos, huracanes, tsunamis, inundaciones, avenidas, erupciones volcánicas, incendios y otras calamidades de origen natural, como plagas. En el contexto del Decenio Internacional para la Reducción de los Desastres Naturales, los incendios forestales se definieron claramente como potenciales desastres naturales. Sin embargo, una encuesta global llevada a cabo entonces, mostró un interesante panorama. De 93 países que respondieron a la encuesta, 49 consideraban los incendios forestales como un riesgo relevante en su país; los restantes 44 no mencionaron los incendios forestales como una amenaza importante (World Conference in Natural Disasters Reduction. WCNDR Information Paper No. 2 April-94). En otra encuesta sobre los daños causados por los desastres naturales más importantes, los incendios no se identificaron claramente como significativos en cuanto a causantes de pérdidas de vidas humanas y económicas. En la introducción de la encuesta se consideró “desastre significativo” aquel que 60 I.T. N.O 74. 2006 produjera unas pérdidas económicas iguales o superiores al uno por ciento del PIB, o que afectara al menos al uno por ciento de la población total, o que el número de víctimas fuera igual o superior a 100. Es evidente que solo algunos incendios forestales cumplen estos criterios para ser calificados como desastres significativos. No obstante, las estadísticas de incendios forestales de algunos países, como China, muestran que entre 1950 y 1990 murieron más de 100 personas anualmente en incendios forestales que recorrieron más de un millón de hectáreas por año (Ministry of Forestry, Fire Prevention Office, Beijing). A finales de los años ochenta, la conflagración denominada “el gran dragón negro”, afectó más de siete millones de hectáreas en la ex-URSS y China. Durante la pasada década, se han manifestado siniestros de grandes proporciones e impactos en California, Oregón, Washington, Utah, Montana, Nuevo México, Alaska y Arizona, en Australia, en España, y recordemos la continua destrucción de la Amazonia, por citar algunos casos. En 1998, se presentó la peor temporada de incendios forestales de la historia en México, afectando 849.632 hectáreas y causando la pérdida de 70 vidas humanas. En Estados Unidos, el informe del Centro Nacional de Datos del Clima (NCDC) relativo al período 1980-2004, describe 62 grandes desastres relacionados con el clima cuyas pérdidas superaron en cada caso los 1.000 millones de dólares. Seis de estos grandes desastres fueron incendios forestales, dando lugar a daños valorados en 13.000 millones de dólares y a 72 víctimas mortales. La magnitud de las cifras anuales del número de siniestros y las superficies recorridas por el fuego revelan que el problema de los incendios forestales afecta en mayor o menor medida a muchos países del mundo (Fig. 1). El fuego tiene en los montes mediterráneos y en numerosos lugares del mundo una presencia recurrente año tras año, con una intensidad que pa- Fig. 1. Fuegos activos detectados en agosto de 2005, usando datos MODIS del satélite Terra. rece en crecimiento. Actualmente, se queman más de 1.000 millones de hectáreas al año, mayoritariamente en las sabanas tropicales, así como en los bosques tropicales y boreales. Las zonas mediterráneas y del sur de Europa son, igualmente, áreas con una alta incidencia de incendios (Fig. 2). Las estadísticas sobre incendios forestales son relativamente recientes en la mayoría de los países. En principio, podrían indicar que en los últimos 20 ó 30 años los fuegos forestales se han vuelto más frecuentes y más extensos. Esto ha causado preocupación en la sociedad y también en los científicos, quienes perciben el problema como si de hecho empeorara continuamente en comparación con un supuesto régimen de fuego en el pasado histórico reciente, generalmente considerado “más ligero”. Sin embargo, el fuego es un elemento de la naturaleza, los rayos han caído durante millones de años, condicionando la vegetación en las zonas donde había más concentración de descargas. Los volcanes han erupcionado en muchos lugares, contribuyendo a la selección de especies en su área de influencia. Las islas Canarias, en el Atlántico, son enormes conos volcánicos que emergen del mar y que hasta épocas históricas han estado arrojando lava. El Pinus canariensis, espontáneo en la falda de los volcanes de las islas Canarias, es uno de los pocos pinos que tiene la facultad de brotar de cepa después del fuego. Incluso los pinos más pequeños, de dos y tres años, brotan vigorosos después de los incendios. Es probable que un proceso milenario de selección produjera este endemismo resistente al fuego. Pero el fuego, además, ha sido una herramienta utilizada históricamente por el hombre para manejar el territorio abriendo nuevos espacios para la agricultura y la ganadería. El hombre ha alterado los ecosistemas, incluyendo sus regímenes píricos. Así, la gran mayoría de los incendios que ocurren en nuestro planeta son de origen humano, y la vegetación se ve sometida con una frecuencia mucho mayor a es- Fig. 2. Superficies recorridas por el fuego anualmente (medias estimadas). tos siniestros, rebasándose su tolerancia a tal factor, y degradándose. Con relación a los incendios, hemos alterado el equilibrio ecológico en dos formas: degradando o destruyendo secularmente los ecosistemas forestales con el fuego, y excluyendo este factor ecológico en otros casos. En algunos países desarrollados, como los Estados Unidos y Canadá, se ha adoptado la medida de dejar que los incendios de origen natural evolucionen por sí mismos, siempre que permanezcan dentro de una prescripción, y siempre y cuando no amenacen poblaciones o masas de especial interés comercial. De presentarse condiciones ambientales, topográficas y de combustibles que puedan favorecer el desarrollo de una conflagración, el incendio es controlado. Asimismo, se tienen programas de quemas prescritas, pero se previenen y combaten decididamente los incendios de origen humano. Con tal filosofía, se deja que sucedan los procesos naturales, como los incendios, y se procura reducir al mínimo la influencia destructora del hombre. Sean originados por el ser humano o por fuerzas naturales, no hay opción: siempre tendremos que convivir con el fuego. I.T. N.o 74. 2006 61 Fig. 3. Evolución del número de incendios y superficies afectadas en España durante el período 1961-2005. Fuente: Estadística General de Incendios Forestales. Dirección General para la Biodiversidad. Ministerio de Medio Ambiente. La situación de los incendios forestales en España Pocas noticias directas de los incendios se encuentran en el pasado. Sabemos de su existencia como algo dañino a través de la legislación. En el Fuero Juzgo (siglo VII) se establecían las precauciones que debían adoptarse al hacer hogueras para la comida o para calentarse en el campo, así como al quemar rastrojos. Los que causasen incendios por estos motivos deberían pagar lo que se hubiese quemado. En cualquier caso, el que quemara un monte estaba sometido a la pena de azotes. El rey Alfonso X, en el siglo XIII, estableció también penas a los que quemasen los montes, condenándoles a que “los echasen dentro del fuego” así como a reparar el daño con el doble de lo quemado. La información sobre incendios forestales en España, que se utiliza para planificar las acciones de prevención y extinción por las distintas Administraciones competentes, está contenida en la Estadística General de Incendios Forestales (EGIF), creada en el año 1968 como consecuencia de la aprobación de la Ley 85/1968 sobre incendios forestales. La base de datos contiene los Partes de Incendio Forestal remitidos al Ministerio de Medio Ambiente por los Servicios de Prevención y Extinción de las Comunidades Autónomas. Cada siniestro, independientemente de su tamaño, da lugar a un registro de la base de datos con los mismos campos de información para todos los incendios. En la base de datos solo se incluyen los siniestros que han afectado a terreno forestal. En España se producen una media de 20.000 incendios forestales al año, afectando en torno a 150.000 hectáreas. El mayor número de incendios se produjo en 2005, cuando se alcanzó la cifra de 26.261 siniestros. La mayor superficie afectada fue en 1994, en que 437.635 hectáreas fueron recorridas por el fuego. El análisis de la serie estadística iniciada en 1961 muestra una tendencia creciente en el número de incendios, especialmente a partir de la década de los noventa (Fig. 3). En lo que se refiere a superficies afectadas, sin embargo, hay una tendencia decreciente en los últimos años, aunque con algunos repuntes, lo que indica una mayor eficacia en los sistemas 62 I.T. N.O 74. 2006 Fig. 4. Porcentaje de superficie afectada por grandes incendios respectoa la superficie forestal incendiada durante el período 1991-2004. Fuente: Estadística General de Incendios Forestales. Dirección General para la Biodiversidad. Ministerio de Medio Ambiente. de detección y extinción de incendios, que en más del 64 % de los casos se quedan en conatos (< 1 ha). Esta situación de ningún modo puede considerarse satisfactoria, ya que tiene la preocupante particularidad de que para mantener el actual nivel de eficacia es necesario un incremento anual de las inversiones en prevención y extinción que puedan hacer frente al problema del constante crecimiento del número de incendios. Además esta tendencia va a estar muy condicionada en el futuro por los avances que se consigan en el combate de los llamados grandes incendios, de superficies superiores a las 500 hectáreas. Los grandes incendios son una de las mayores preocupaciones en todo el mundo por ser los responsables de las principales catástrofes. A pesar de que su número es reducido si se compara con la cifra total de incendios (entre un 0,5 y un 3 %), en algunas partes del mundo ocupan hasta la mitad de la superficie incendiada. En España en algunas zonas se supera con creces esta proporción (Fig. 4). La distribución geográfica y temporal del número de incendios es muy variable en las distintas Comunidades Autónomas, lo que refleja las diferencias y contrastes en las condicio- nes físicas, climáticas y socioeconómicas de las zonas forestales en nuestro país (Fig. 5). En todo caso, los incendios forestales son un problema estructural ligado a la acumulación de combustible vegetal en el monte, la ocupación humana del territorio y el uso del fuego que realiza la sociedad. El peligro estructural latente se pone coyunturalmente de manifiesto con toda su virulencia bajo condiciones de sequía y/o meteorología adversas con dos tipos de situaciones que pueden desbordar la capacidad de los medios de extinción: los grandes incendios y la gran cantidad de incendios simultáneos (Tabla 1). Las causas de los incendios forestales en España son conocidas en un 80 por ciento de los casos. El análisis de las causas conocidas indica que en el 95 por ciento de los siniestros está detrás la actividad humana, ya sea intencionadamente o por accidentes o negligencias. Solamente en un cinco por ciento de los casos los incendios forestales en España se producen por causas naturales (rayo principalmente). Los incendios causados por accidentes o negligencias suponen el 17 por ciento, mientras que la intencionalidad ocurre en el 58 por ciento de los incendios, y de ellos tienen motivación conocida el 40 por ciento. Entre las motivaciones conocidas destacan la eliminación de matorral o restos agrícolas y la regeneración de pastos. Aunque estas quemas están reglamentadas y prohibidas en la época de peligro, es frecuente el incumplimiento de las normas existentes en casi todas las regiones. Seguimos sin saber la motivación de más de la mitad de los incendios intencionados que se producen en España, lo que impide establecer una relación estadística directa entre incendio y especulación (Fig. 6). Existe un paralelismo entre la situación española y la de los demás países mediterráneos de la Unión Europea, incluso hay coincidencia en los años en los que el fenómeno presenta singularidades por sus condiciones climáticas, si bien la tendencia en el crecimiento del número de incendios es mucho más marcada en España y Portugal. El gran problema actual en los países de clima mediterráneo se deriva de que los ciclos de recurrencia del fuego se acortan rápidamente y en numerosos sitios. Dos hechos básicos parecen influir en esta situación: por una parte, el incremento de la población supone una mayor presión sobre las tierras forestales por la demanda de suelo para otros usos, y por otra, las fluctuaciones climáticas hacen aparecer grandes sequías, que incrementan y extienden en el tiempo y en el espacio el peligro de incendios. El cambio climático añade un factor de inquietud. Si las condiciones meteorológicas en la cuenca mediterránea se vuelven más severas en los años próximos, ¿cómo repercutiría esto en los incendios forestales y la vegetación de esa región? Fig. 5. Mapa de cuadrícula 10x10 km en el que se refleja la incidencia geográfica del número de incendios durante el período 1991-2004. Fuente: Estadística General de Incendios Forestales. DGB-MMA. TABLA 1 Días de mayor simultaneidad de incendios por Comunidades Autónomas, durante el período 1991-2005 Comunidad Número de incendios Fecha País Vasco 26 8 de enero de 1992 Cataluña 31 4 de julio de 1994 483 3 de septiembre de 1995 Galicia Andalucía 46 6 de julio de 1994 Asturias 202 2 de febrero de 2002 Cantabria 56 30 de enero de 2002 La Rioja 8 10 de marzo de 2000 Murcia 10 2 de agosto de 2000 Comunidad Valenciana 31 13 de julio de 1991 Aragón 33 26 de agosto de 2000 Castilla La Mancha 46 15 de agosto de 2002 9 7 de septiembre de 2005 Navarra (*) 16 2 de febrero de 2002 Extremadura 48 25 de julio de 1995 Islas Baleares 8 5 de agosto de 1993 Madrid 13 21 de agosto de 1994 Castilla y León 75 18 de marzo de 2000 Total Nacional 577 3 de septiembre de 1995 Canarias (*) Solo incluye datos del intervalo 1991-94. Resto del período sin datos. Fuente: Estadística General de Incendios Forestales. Dirección General para la Biodiversidad. Ministerio de Medio Ambiente. Factores ambientales con incidencia en el fuego El comportamiento del fuego en un incendio forestal depende de las características del terreno, del ambiente de la zona que está siendo afectada y de las propiedades del material vegetal que está ardiendo, es decir, de la topografía, el tiempo atmosférico y el combustible vegetal, lo que se conoce como el triángulo del comportamiento del fuego. Fig. 6. Motivaciones de los incendios intencionados durante el período 1991-2004. Fuente: Estadística General de Incendios Forestales. Dirección General para la Biodiversidad. Ministerio de Medio Ambiente. I.T. N.o 74. 2006 63 La topografía es el más constante de los tres componentes y tiene gran influencia sobre los otros dos. La exposición es el factor determinante de las variaciones del tiempo atmosférico en el transcurso del día. Al cambiar la posición del sol varían la temperatura y la velocidad y dirección de los vientos locales, ascendentes por el día especialmente en laderas y descendentes durante la noche. La exposición influye también en el desarrollo de la vegetación y las especies que pueblan las laderas. La pendiente favorece la continuidad horizontal y vertical de los combustibles. El clima, en un concepto amplio, es el principal regulador de las temporadas de ocurrencia de incendios, de forma que, para cada región, las condiciones meteorológicas dominantes asociadas a las condiciones fisiológicas de la vegetación determinan qué períodos del año son más favorables que otros para la ocurrencia de incendios forestales. Normalmente se asocia la temporada de incendios forestales a la época del año en que mayor es la temperatura y el período seco es más prolongado, por ejemplo el verano en el clima mediterráneo, lo cual, aunque estadísticamente es cierto, no impide que en muchas regiones, generalmente montañosas, los fuegos puedan ocurrir también en invierno o primavera. Esto es posible debido a la resultante de una interacción de factores topográficos y meteorológicos con un estado vegetativo del combustible forestal y unas prácticas humanas del uso del fuego que favorecen la aparición de los incendios. Los valores de los factores meteorológicos son cambiantes, pero al contrario que los de combustible, no pueden ser alterados por el hombre. Sin embargo pueden ser objeto de predicción. De ahí la importancia de su conocimiento para poder prever situaciones críticas. Las variables meteorológicas que influyen en los incendios forestales pueden clasificarse en dos grupos: 1. Las que afectan a la posibilidad de inicio del fuego: radiación solar, precipitación, temperatura del aire y humedad relativa. La humedad relativa indica la proporción de vapor de agua de una masa de aire sobre el máximo que podría contener con su temperatura y es uno de los parámetros más importantes en el inicio y comportamiento del fuego. Valores de la humedad relativa por debajo del 30 % desencadenan condiciones muy favorables para el inicio y la propagación del incendio. La humedad del aire influye en la humedad de la vegetación pero también en la disponibilidad de oxígeno para el proceso de combustión. A una mayor humedad relativa del aire, menor disponibilidad de oxígeno en el ambiente, lo que significa un retardo en el proceso. 2. Las que inciden en la velocidad de propagación: Velocidad del viento: es un elemento decisivo en el comportamiento del fuego, siendo muchas veces responsable de que el incendio supere las barreras de defensa y de la formación de fuegos de copas que se manifiestan de forma virulenta y afectan a la seguridad de los combatientes. Dirección del viento: los vientos, dependiendo de la época del año, siguen unos patrones preestablecidos según la zona geográfica de que se trate. Así, en la Península Ibérica los vientos terrales en verano del Nordeste son típicos en Galicia, León, Asturias y valles del Pirineo; el cierzo del Nor64 I.T. N.O 74. 2006 Fig. 7. Vientos terrales típicos en la Península Ibérica. oeste, en Aragón; la tramontana, del Norte, en Cataluña y Menorca; el poniente, del Oeste, en Valencia y Murcia; terral del Norte en Málaga y Costa del Sol; el levante, del Este, en Cádiz y Valle del Guadalquivir. En primavera son típicos los vientos del sur en Asturias, Cantabria y País Vasco (Fig. 7). Grado de estabilidad atmosférica: La estabilidad atmosférica es la resistencia presente en el perfil vertical al movimiento del aire. Una atmósfera inestable favorece el crecimiento del incendio, al facilitar el ascenso de los gases de la combustión y la entrada de aire desde los laterales del incendio aportando oxígeno al mismo. Bajo estas condiciones, los fuegos pueden desarrollarse con violencia y tener un comportamiento errático. Dos factores meteorológicos de gran importancia en los incendios forestales son los rayos y la sequía. El rayo es el responsable directo de la mayoría de los incendios del oeste de Estados Unidos y Canadá. En España, los incendios causados por rayos en el Sistema Ibérico y la Serranía de Cuenca superan algunos años el 80 % de los siniestros ocurridos en estas zonas. Las condiciones de oscuridad y fuertes vientos reinantes durante la tormenta impiden la movilización de medios aéreos de primera intervención, por lo que el rayo suele ser causa de grandes incendios. Otra característica importante de los incendios causados por rayo es que pueden manifestarse muchas horas o incluso días después de que se produzca la descarga. De los 25 mayores incendios en España en el período 1991-2005, siete fueron originados por rayos, dando lugar a superficies quemadas de grandes dimensiones (Tabla 2). La importancia del rayo en muchas partes del mundo ha hecho que se desarrollen tecnologías capaces de detectarlos y localizarlos. Estados Unidos dispone de una red de detección de rayos formada por más de 37 sensores localizados cerca de aeropuertos en la zona centro y oeste del país. Esta información es enviada por vía cable hasta un sistema informático donde por triangulación se obtienen mapas de rayos que son distribuidos a las oficinas de movilización de medios. Durante una sola tormenta pueden registrarse miles de descargas eléctricas. Canadá posee un sistema similar y en España empezó a operar en 1997 un dispositivo del Instituto Nacional de Meteorología que transmite a los servicios de extinción la cantidad y localización de los rayos producidos durante las TABLA 2 Veinticinco mayores incendios durante el período 1991-2005 Superficies (ha) Provincia Término municipal origen Fecha Fecha Fecha Año detección control extinción Arbolada No arbolada Total No Leñosa Herbácea forestal forestal Causa Huelva-Sevilla Minas de Riotinto 2004 27 julio 3 agosto 4 agosto 25.928,00 2.529,00 1.410,00 29.867,00 79,00 Teruel-Castellón Villarluengo 1994 2 julio 6 julio 8 julio 17.832,80 8.604,50 1.776,00 28.213,30 0,00 Intencionado Murcia-Albacete Moratalla 1994 4 julio 7 julio 8 julio 16.826,00 8.753,00 0,00 25.579,00 2.818,00 Valencia Millares 1994 4-julio 10 julio 12 julio 11.835,00 13.545,00 50,00 25.430,00 500,00 Rayo Fumadores Rayo Líneas eléctricas Valencia Requena 1994 5 julio 10 julio 12 julio 16.373,00 7.691,00 0,00 24.064,00 705,90 Castellón Espadilla 1994 2 julio 9 julio 15 julio 14.651,00 4.658,00 0,00 19.309,00 0,00 Rayo Valencia Fontanars dels Aforins 1994 4 julio 9 julio 12 julio 11.774,80 6.532,50 110,00 18.417,30 0,00 Quema de basura Cuenca San Martín de Boniches 1994 17 julio 22 julio 28 julio 16.075,70 1.783,00 0,00 17.858,70 507,00 Barcelona Montmajor 1994 4 julio 11 julio 20 julio 14.546,50 1.896,10 0,00 16.442,60 8.925,70 Valencia Yátova 1991 28 julio sin datos 4 agosto 6.330,00 9.070,00 0,00 15.400,00 2.015,00 Rayo Barcelona Sant Mateu de Bagés 1994 4 julio 8 julio 11 julio 11.927,30 1.396,00 0,00 13.323,30 3.977,20 Desconocida Intencionado Rayo Líneas eléctricas Albacete Yeste 1994 7 agosto 14 agosto 19 agosto 11.685,00 1.210,00 0,00 12.895,00 1.330,00 Guadalajara Riba de Saelices 2005 16 julio 21 julio 2 agosto 10.352,57 2.380,16 0,00 12.732,73 154,64 Barcelona-Lleida Aguilar de Segarra 1998 18 julio 22 julio 30 julio 8.630,56 3.880,24 0,00 12.510,80 5.164,38 Líneas eléctricas Almería Cancanyar 1991 21 agosto 22 agosto 22 agosto 6.291,00 4.055,00 0,00 10.346,00 1.978,00 Intencionado Cáceres-Badajoz Portugal-Valencia de Alcántara 2003 2agosto 5 agosto 12 agosto 5.260,50 3.735,42 754,08 9.750,00 3.942,50 Málaga Parauta 1991 7 agosto 11 agosto 14 agosto 7.049,00 870,00 0,00 7.919,00 0,00 Intencionado Almería Lijar 1994 5 julio 7 julio 7 julio 786,00 800,00 5.873,00 7.459,00 2.327,00 Intencionado Jaén Aldeaquemada 2004 26 agosto 27 agosto 30 agosto 2.729,50 3.269,90 1.137,20 7.136,60 187,00 Intencionado Cáceres Torrecilla de los Ángeles 1991 15 agosto 18 agosto 19 agosto 4.840,00 2.280,00 0,00 7.120,00 200,00 Intencionado Castellón Castillo de Villamalefa 1994 2 abril 4 abril 7 abril 6.120,00 1.000,00 0,00 7.120,00 1.000,00 Hogueras Rayo Hogueras Zamora Figueruela de Arriba 1991 28 julio sin datos 2 agosto 4.184,00 2.600,00 0,00 6.784,00 0,00 Zaragoza Uncastillo 1994 16 julio sin datos 24 julio 4.849,00 1.740,00 0,00 6.589,00 2.049,00 Desconocida Rayo Cáceres Pinofranqueado 2003 13 agosto 17 agosto 23 agosto 5.312,00 905,70 148,00 6.365,70 2.711,30 Quema agrícola Ávila La Solana de Ávila 2003 3 agosto 6 agosto 17 agosto 1.333,00 4.942,00 0,00 6.275,00 0,00 Intencionado Fuente: Estadística General de Incendios Forestales. Dirección General para la Biodiversidad. Ministerio de Medio Ambiente. tormentas. La búsqueda de los lugares de caída de rayos que pueden producir incendios durmientes que se manifiesten horas después es una práctica de obligado cumplimiento. El primer factor meteorológico que puede elevar considerablemente el peligro de incendios es la sequía. Los períodos largos de sequía se caracterizan por producir un fuerte estrés hídrico en la vegetación. En los años muy secos, el crecimiento de combustibles herbáceos es muy escaso, lo que no favorece la propagación de los incendios por falta de continuidad horizontal del combustible. Sin embargo, gran cantidad de combustibles vivos pasan a ser combustibles muertos, los que mejor arden, que se acumulan originando un peligro potencial muy elevado. Los períodos húmedos provocan un gran crecimiento de los combustibles herbáceos, de forma que mientras se mantienen vivos limitan la propagación de los incendios. Si después de este período se inicia una estación seca prolongada, la vegetación herbácea se seca rápidamente dejando a disposición del fuego grandes cargas de combustible con gran continuidad horizontal que favorecen la propagación del fuego. De esta forma, la combinación de años de sequía seguidos de primaveras lluviosas a las que suceden veranos secos origina que las formaciones vegetales se encuentren en situación muy favorable para que el fuego las recorra con facilidad. Impacto del cambio climático sobre el riesgo de incendios forestales La relación entre cambio climático e incendios forestales ha sido estrecha, de manera que han sido más frecuentes en los períodos cálidos que en los fríos. Aunque es común encontrar referencias históricas sobre los incendios forestales, o sobre normativas relacionadas con los mismos, la reconstrucción del régimen de incendios de España a partir de datos históricos no ha sido posible, y menos aún de su cambio con el clima. Por otro lado, la falta de masas arbóreas viejas ha dificultado poder descifrar el grado de recurrencia de los incendios. La datación de las cicatrices de Pinus pinaster en Sierra Bermeja (véase la figura 8 en la página siguiente) muestra que los incendios de superficie ocurrieron durante la última parte del siglo XIX y la primera del XX con elevada frecuencia (recurrencias de 11-35 años), y probablemente estuvieron ligados al pastoreo. El peligro de incendio es una medida de la probabilidad de que ocurra un incendio forestal y se basa en la temperatura, la humedad relativa, la velocidad del viento y su dirección y la sequedad de los combustibles. Por lo tanto, los índices de peligro son medidas útiles para representar la probabilidad de un incendio en el tiempo y espacio. I.T. N.o 74. 2006 65 Fig. 8. Resistencia al fuego de un Pino pinaster de Sierra Bermeja (Málaga) (1992). Los escenarios que se dibujan cara a la ocurrencia de incendios forestales están caracterizados por un incremento generalizado de los índices de peligro, una mayor duración de la temporada de incendios y una mayor frecuencia de situaciones extremas y de más larga duración. A esto se une la tendencia hacia un cambio en la vegetación, con mayor abundancia de especies arbustivas, más sensibles al estrés hídrico. Consecuentemente, cabe esperar que los incendios sean más frecuentes, extensos e intensos. Estas tendencias generales variarán de un punto a otro de la geografía, pero acentuarán las tendencias actuales. Las previsiones negativas cara a la ocurrencia de incendios conforme discurre el cambio climático pueden verse contrarrestadas por mejoras en la predicción meteorológica, el conocimiento del estado de los combustibles y las estrategias de prevención y vigilancia. La predicción meteorológica actual permite conocer con anticipación de pocos días la posible existencia de situaciones de peligro. Es probable que con el paso del tiempo la mejora en la capacidad predictiva meteorológica pueda alcanzar plazos más largos. Una mejora en la capacidad de predicción del peligro puede permitir planificar mejor los recursos y, particularmente, la puesta en marcha de acciones preventivas en aquellos sitios de mayor peligrosidad. Efectos de los incendios forestales El fuego, como cualquier otra perturbación, va seguido de una serie de cambios estructurales y funcionales en el ecosistema. En los ecosistemas mediterráneos, el fuego constituye un factor ecológico de primera importancia. En nuestro entorno, como se ha señalado, existen especies con síndromes adaptativos aparentemente ligados al fuego. Este es el caso del alcornoque (Quercus súber), cuya densa corteza le permite sobrevivir al fuego y rebrotar prontamente de yemas situadas en sus partes aéreas. No obstante, la capacidad de respuesta de las plantas al fuego puede verse afectada por el momento del año en que se produzca el incendio. Las variaciones estacionales en las condiciones climáticas después del incendio pueden suponer importantes diferencias en cuanto a una mayor disponibilidad de agua en el suelo y diferentes temperaturas que pueden afectar a las plantas rebrotadoras. 66 I.T. N.O 74. 2006 Además estas especies también pueden ser sensibles a la estacionalidad del incendio debido a variaciones anuales en su estado fisiológico, tales como su estado de hidratación o el contenido de reservas de carbohidratos que han de servirlas para rebrotar. También puede variar la cantidad y situación de las semillas disponibles en el suelo. Asimismo, el tamaño de la planta puede ser determinante para su supervivencia. Por otro lado, el tiempo transcurrido hasta que un nuevo incendio ocurra (intervalo de recurrencia) puede tener una gran importancia en la capacidad de la vegetación para volver a regenerarse. Un posible aumento en la incidencia de incendios puede conllevar un dominio de vegetación pionera y una menor diversidad vegetal. La homogeneización de las zonas quemadas de forma recurrente disminuirá la diversidad animal y puede alterar la interacción entre especies. Por tanto, los incendios pueden causar pérdida de hábitats y especies. Uno de los efectos más importantes e inmediatos de los incendios es el cambio del régimen de agua del sitio quemado, tal como un aumento de la escorrentía superficial, que puede causar un aumento de la erosión, inundaciones, aterramiento de embalses, turbidez y contaminación de ríos. Después de los incendios, el suelo queda sin protección. La germinación o rebrote de nuevas plantas será lenta al principio, precisamente por la sequía que, en las zonas áridas, terminará con las lluvias de otoño. Cuando éstas lleguen, el suelo estará aún desprotegido casi totalmente contra la erosión. Los fuegos producen repelencia superficial al agua hasta una profundidad máxima de 20 centímetros. Este efecto es más intenso en suelos secos que en suelos húmedos. Asimismo la pendiente también influye de modo notable. Otro factor que determina la pérdida de suelo es el índice de erosión pluvial, directamente proporcional a la energía del aguacero y la intensidad de las precipitaciones. Las regiones mediterráneas presentan típicamente aguaceros otoñales. Con cierta periodicidad, los meses de septiembre y octubre presentan lluvias excepcionales, a veces con consecuencias catastróficas. En octubre de 1957 fue la gran riada de la ciudad de Valencia; en septiembre de 1962, en las comarcas del Vallés y Maresme se produjo una gran catástrofe hidrológica; en 1973 fueron las grandes riadas en Almería y Granada; en octubre de 1982 tuvieron lugar las grandes inundaciones en Alicante y Valencia. En estos temporales de lluvia se registran valores máximos de intensidad de precipitación. Las zonas mediterráneas y Canarias, que comprenden las regiones áridas típicas, son las que muestran un mayor incremento en la agresividad de la lluvia inmediatamente después del verano. Es decir, la sucesión fuego-erosión es un acontecimiento de alta probabilidad. Los incendios forestales también producen emisiones a la atmósfera. Se estima que la emisión de CO2 es como promedio del orden del 20 % en volumen de la biomasa existente, ya que generalmente solo se consumen los combustibles ligeros (hojarasca, ramillas, follaje), quedando carbonizados los combustibles pesados, que retienen la mayor parte del carbono. Las principales emisiones durante la combustión son dióxido de carbono (CO2), monóxido de carbono (CO), metano (CH4), óxidos de nitrógeno (NO, NO2), amoníaco (NH4), ozono (O3) TABLA 3 Pérdidas por incendios forestales de difícil valoración o pérdidas intangibles Fig. 9. Nube de humo causada por el incendio que compromete la intervención de los medios aéreos de extinción. y partículas sólidas. El CO2 y el CH4 son gases de efecto invernadero que pueden contribuir al calentamiento global. El CO, el CH4 y los NOX contribuyen a la producción fotoquímica de O3 en la troposfera. El O3 es un contaminante que puede ser irritante e incluso tóxico. El NH4 genera en la troposfera ácido nítrico (HNO3) y contribuye a la lluvia ácida. Las partículas sólidas (humo, hollín) se difunden por la atmósfera, absorbiendo y reflejando los rayos solares, con impacto en el clima más o menos amplio, según la difusión que alcancen (Fig. 9). También pueden producir problemas respiratorios si su concentración es muy elevada. La cuantificación de las emisiones no es fácil y obliga a hacer hipótesis muy generales sobre la cantidad de biomasa disponible y sobre la eficiencia de la combustión. Una estimación global realizada por el equipo de M. Andreae (Cambridge, 1991) daba la cifra promedio anual de 3.940 millones de toneladas de carbono emitido a causa de los incendios forestales. Esta cifra duplica ampliamente la cantidad asignada a España de emisiones de gases de efecto invernadero computadas en términos de toneladas equivalentes de dióxido de carbono (CO2-e) para el período de compromiso 2008-2012 del Protocolo de Kioto. Evaluar los impactos de un incendio forestal es difícil, pues conlleva la estimación de los rendimientos de los bosques, que incluyen valores vagamente definidos, tanto actuales como futuros, con o sin valor comercial (Tabla 3). Muchos de los bienes y servicios asociados con el bosque no son vendidos en mercados organizados, por lo tanto no hay mecanismo para asociar el Bibliografia – Vélez, Ricardo, “Perspectiva global: el fuego en los ecosistemas forestales del mundo”, en Vélez, R. (coord.), La defensa contra incendios forestales: Fundamentos y experiencias, Madrid, McGraw Hill, 2000, pp. 2.1-2.3. – Rodríguez-Trejo, D. A., Incendios Forestales, Universidad Autónoma Chapingo, México, D.F., Mundiprensa, 1996, p. 630. – Vélez, Ricardo, “Perspectiva histórica de los incendios forestales en España”, en Vélez, R. (coord.), La defensa contra incendios forestales: Fundamentos y experiencias, Madrid, McGraw Hill, 2000, pp. 3.15-3.31. – Vélez, Ricardo, “Motivaciones de los incendios intencionados”, en Vélez, R. (coord.), La defensa contra incendios forestales: Fundamentos y experiencias, Madrid, McGraw Hill, 2000, pp. 3.31-3.52. – Estirado, Fernando, y Molina, Pedro, “El problema de los incendios forestales en España”, Fundación Alternativas, Documento de trabajo 69/2005, pp 25-31. Alarma social Generan contaminación ambiental Calentamiento atmosférico Reducción de la belleza paisajística y de su valor recreativo Se propicia erosión hídrica y eólica Aterramiento de embalses y reducción de la capacidad de infiltración de agua Daños a la fauna silvestre y alteración a su hábitat Reducción de recursos genéticos Reducen el potencial comercial con la pérdida de productos forestales Generan costos de protección Se predispone a las masas forestales al ataque de plagas y enfermedades Dañan la regeneración y a la reforestación Se reduce la cobertura arbórea del terreno Se afecta el crecimiento de los árboles Favorecen la invasión de especies indeseables Cuando son muy intensos, dañan las propiedades físicas, químicas y biológicas de los suelos Se pierde la inversión aplicada a las reforestaciones Se degradan los pastizales reduciendo su palatabilidad para el ganado y fauna silvestre Posibilitan lesiones y fallecimiento de los combatientes Coadyuvan a la deforestación y degradación de las áreas forestales En algunos casos el humo reduce la visibilidad para los vehículos aéreos Fig. 10. Pérdidas económicas estimadas por incendios forestales en España durante el período 1991-1994. Fuente: Estadística General de Incendios Forestales. Dirección General para la Biodiversidad. Ministerio de Medio Ambiente. valor de los servicios a valor de reposición del activo perdido. Sin embargo, si los efectos del incendio sobre esos recursos sin mercado no son incorporados en el sistema de evaluación de daño de incendio, la estimación total de daño se infravalora. Desde 1990 se incluye en los partes de incendios un método para la estimación del impacto ambiental al que se han ido introduciendo nuevas modificaciones metodológicas para perfeccionar los sistemas utilizados hasta ahora. En 2004 la estimación del valor medio de la pérdida de beneficios ambientales por hectárea forestal quemada, se situaba en torno a los 2.200 euros (Fig. 10). Esta estimación no incluye la doble pérdida (emisión y absorción) por efecto sumidero. ■ María Jesús Rodríguez de Sancho Ingeniero de Montes Subdirectora General de Política Forestal y Desertificación Ministerio de Medio Ambiente – Mérida, Juan Carlos, “Factores meteorológicos”, en Vélez, R. (coord.), La defensa contra incendios forestales: Fundamentos y experiencias, Madrid, McGraw Hill, 2000, pp. 8.1-8.8. – Vélez, Ricardo, “Los índices meteorológicos de peligro”, en Vélez, R. (coord.), La defensa contra incendios forestales: Fundamentos y experiencias, Madrid, McGraw Hill, 2000, pp. 8.10-8.28. – Moreno, José Manuel, ”Riesgo de incendios forestales”, Evaluación preliminar de los impactos en España por efecto del cambio climático, Madrid, MMA, 2005, pp. 581-615. – Vega, José Antonio, “Resistencia vegetativa ante el fuego a través de la historia de los incendios”, en Vélez, R. (coord.), La defensa contra incendios forestales: Fundamentos y experiencias, Madrid, McGraw Hill, 2000, pp 4.66-4.84. – González Cabán, Armando, “Aspectos económicos del daño producido por incendios forestales”, en Vélez, R. (coord.), La defensa contra incendios forestales: Fundamentos y experiencias, Madrid, McGraw Hill, 2000, pp 5.1-5.20. I.T. N.o 74. 2006 67 Inundación costera originada por la dinámica marina Raúl Medina y Fernando J. Méndez DESCRIPTORES INUNDACIÓN COSTERA NIVEL DEL MAR MAREA METEOROLÓGICA ATLAS DE INUNDACIÓN PENINSULAR ESPAÑOL CAMBIO CLIMÁTICO Introducción Las excepcionales condiciones del litoral para el desarrollo de múltiples actividades humanas han propiciado una continua migración de habitantes, industrias y servicios a las zonas costeras. Los motivos de dicha migración han evolucionado en el tiempo, siendo históricamente el comercio, la actividad portuaria y los asentamientos agrícolas en los fértiles deltas y llanuras aluviales las causas de dicha migración, mientras que en la actualidad lo son el turismo asociado al ocio y el disfrute del litoral. De acuerdo con el Panel Intergubernamental para el Cambio Climático (IPCC), cerca de un 50 % de la población mundial vive en la zona costera. Solo en Europa más de 70 millones de habitantes residen en municipios costeros, siendo el valor total de los bienes situados en una banda de 500 metros de la costa europea, incluidas las viviendas, los terrenos agrícolas y las instalaciones industriales, cercano a un billón de euros (Proyecto Eurosion: http://www.eurosion.org). Todos estos habitantes y bienes materiales se encuentran amenazados por la inundación costera debida a la dinámica marina. Según las predicciones del IPCC, el riesgo de inundación aumenta cada año para infraestructuras urbanas, turísticas e industriales, tierras de cultivo, áreas de recreo y hábitats naturales. Dicho Panel Intergubernamental estima que el número anual de víctimas debido a la inundación costera alcanzará las 158.000 en 2020 y que más de la mitad de los humedales desaparecerán como consecuencia de dicha inundación. El coste económico de las acciones de mitigación de los efectos frente a la inundación costera, íntimamente relacionados con la erosión litoral, va en aumento. De acuerdo con los resultados del proyecto Eurosion, en 2001 los fondos dedicados a la protección de las costas en Europa ascendieron a 3.200 millones de euros, un 30 % más que en 1986. Es im68 I.T. N.O 74. 2006 portante señalar que dicho coste solo refleja las inversiones realizadas para proteger los bienes expuestos a un riesgo inminente, pero no los costes inducidos en las actividades humanas. Según estudios previos del IPCC dichos gastos tienen una media anual de unos 5.400 millones de euros. Oscilaciones del nivel del mar El nivel del mar sufre continuas variaciones en respuesta a los diferentes forzamientos atmosféricos, marinos, tectónicos y planetarios, siendo habitual clasificar dichas oscilaciones por la escala temporal de la oscilación. Al margen de los tsunamis, objeto de un artículo específico de esta edición de la revista, las oscilaciones más relevantes en términos de inundación costera son: el oleaje, las ondas infragravitatorias, la marea meteorológica, la marea astronómica y la variación del nivel del mar de largo período. El oleaje es, sin lugar a dudas, la oscilación del mar más comúnmente conocida y también la más relevante en términos de erosión litoral e inundación costera. El oleaje, generado por la acción del viento sobre la superficie del mar, es una oscilación del nivel del mar con períodos entre 3 y 30 segundos cuya magnitud, en un período de retorno de 50 años, supera los nueve metros de altura de ola significante en las costas atlánticas españolas y los seis metros en las costas mediterráneas. En la figura 1 se muestra un ejemplo de los efectos de los temporales de oleaje en las infraestructuras portuarias. La figura muestra el puerto pesquero-deportivo de Llançá (Gerona), el cual estuvo sometido a un temporal de dirección Este-Nordeste –llevantada– en octubre de 1997. La virulencia del temporal (altura de ola significante de 5,4 m en la boya de Rosas) se aprecia en la fotografía A, donde se muestra el rebase de la ola por encima del espaldón del puerto afectando a la lonja. Por otro lado, como puede apreciarse en la fotografía B, la playa de la Gola fue completamente inundada por la lámina de agua. En este caso particular la sobreelevación por marea meteorológica no fue de gran importancia, debiéndose la inundación casi en exclusiva a la magnitud del oleaje (la sobreelevación por marea meteorológica fue inferior a los 10 cm). Las ondas infragravitatorias son oscilaciones del nivel del mar con períodos entre 50 y 500 segundos. El origen de esta oscilación es la modulación del oleaje de viento en paquetes de olas grandes olas pequeñas producida por la propagación del mismo en la plataforma continental. Esta modulación del tren de oleaje incidente origina perturbaciones en el equilibrio de fuerzas dinámicas de la masa de agua, generándose variaciones en el nivel del mar que tienden a equilibrar el sistema. Estas oscilaciones, conocidas como ondas infragravitatorias o como ondas largas asociadas a los grupos de olas, tienen una magnitud de centímetros o escasos decímetros en aguas profundas pero, como los tsunamis, se amplifican a medida que alcanzan la costa. Este tipo de oscilación muestra su relevancia en los puertos, donde puede acoplarse con los modos propios de oscilación de las dársenas dando lugar a fenómenos de resonancia portuaria, y en las playas, donde la rotura del oleaje libera las ondas largas atrapadas en los grupos y la suave pendiente del talud de las playas amplifica la magnitud de las mismas, llegando a superar el metro en condiciones de temporal. La marea meteorológica es una oscilación del nivel del mar debida a la acción conjunta de la presión atmosférica y el arrastre del viento, y su período puede ser desde varios minutos a días. Las bajas presiones atmosféricas asociadas al paso de las borrascas generan un ascenso del nivel del mar asociado a la depresión barométrica de las mismas. Las grandes borrascas extra-tropicales que afectan al litoral español generan, de modo habitual, sobreelevaciones del orden de 30-40 centímetros y pueden llegar a generar sobreelevaciones del orden del metro. El viento, por su capacidad de arrastrar agua, es otro factor que puede dar lugar a la sobreelevación del nivel del mar en la costa. Para que la acción del viento genere una elevación del nivel del mar de entidad es necesario que la magnitud del viento sea importante, por encima de los 20 m/s, y, fundamentalmente, que se den determinadas condiciones de geometría de la costa y de poco calado. En algunos lugares del mundo, bien por la magnitud de las borrascas (huracanes) bien por las características geométricas de la costa (Países Bajos, Venecia…), los efectos de la marea meteorológica pueden llegar a ser, combinados con la presencia de oleaje, devastadores. En España, y particularmente en el Mediterráneo, se producen eventos de marea meteorológica importantes, con la consiguiente inundación costera. Este es el caso del conocido temporal de noviembre de 2001 que afectó a las costas catalana, balear y valenciana principalmente. Con objeto de ilustrar las características de la Fig. 1. Imágenes del temporal de 28 de octubre de 1997 afectando al puerto y playa de Llançá, Gerona (Fotos cortesía de J. Hugas). I.T. N.o 74. 2006 69 Fig. 2. Temporal de 11 de noviembre de 2001. A la izquierda, simulación realizada con el modelo WAM (Fuente: Puertos del Estado). A la derecha, arriba, simulación de eventos de inundación horarios en noviembre de 2001 en la playa de Chilches (Castellón). A la derecha, abajo, noticia recogida de la hemeroteca del diario “El País”. inundación asociadas a este evento, se presenta en la figura 2 una simulación de los sucesos de inundación a lo largo del mes de noviembre de 2001 en la playa de Chilches (Castellón). Como puede verse en dicha figura, la cota de inundación media (oleaje + marea meteorológica) se sitúa alrededor de 0,5 a 1 m. Sin embargo, a lo largo del día 11 de noviembre se produjo la llegada del temporal (con alturas de ola significante propagadas a pie de playa de entre 3 y 4 m y una sobreelevación por marea meteorológica de 1 m). La cota de inundación en la simulación realizada alcanzó los 4,5 m. Una imagen de lo acontecido en la playa de Lloret durante el mismo temporal puede ser observada en la figura 3. A la vista de estos resultados se concluye que el fenómeno de inundación costera es un fenómeno en el cual es necesario tener en cuenta no solo el oleaje y la marea meteorológica de manera independiente sino que hay que modelar la correlación entre ambos. La marea astronómica es una oscilación del nivel del mar de carácter determinista cuyo período de oscilación varía entre las 12 horas y los 19 años. La magnitud de la misma a lo largo del litoral español es muy variable, con un máximo de carrera de marea en Santander, donde se superan los cinco metros, y un mínimo en Gerona, donde apenas si se alcanzan los 40 centímetros en las mareas vivas equinocciales. Contrariamente a lo que pudiera parecer, la marea astronómica juega un papel de “laminación” de los eventos extraordinarios de inundación costera, puesto que la coincidencia de un evento de oleaje y marea meteorológica extremos coincidiendo con una marea viva equinoccial tiene un período de ocurrencia mayor. Lo habitual es que dichos eventos extremos sucedan con mareas medias y, por tanto, se atenúen los efectos de la sobreelevación meteorológica. 70 I.T. N.O 74. 2006 Fig. 3. Imagen del temporal de 11 de noviembre de 2001 en la playa de Lloret de Mar en la que se observa cómo el ascenso del oleaje en la playa rebasa el paseo marítimo y penetra por las calles de la ciudad (Foto cortesía de J. Jiménez). Régimen de cota de inundación De todo lo anterior se deduce que la inundación costera es un fenómeno aleatorio fruto de la combinación de diferentes procesos de la dinámica marina. De una manera simplificada el fenómeno de inundación costera puede ser representado de acuerdo al esquema de la figura 4. En un instante determinado, un punto del litoral está caracterizado por un nivel de marea (NM) compuesto por la marea astronómica y la marea meteorológica (MA+MM) y una batimetría. Sobre dicho nivel de marea se encuentra el oleaje que, en función de sus características y de la batimetría de la playa, se propaga hacia la costa. Al alcanzar la costa, el oleaje rompe (en la playa, dique de escollera, paseo maritimo…), produciéndose un movimiento de ascenso de la masa de agua a lo largo del perfil de la costa, run-up (RU). Todos estos factores están relacionados entre sí. Fig. 4. Esquema de la cota de inundación en un punto del litoral. El método estadístico utilizado se basó en una simulación temporal de las variables que intervienen en el proceso de inundación. Dicho método tiene la ventaja de que se modela temporalmente los procesos físicos tal y como ocurren en la naturaleza. Las funciones de distribución de las variables aleatorias, la correlación entre las mismas y su distribución temporal se obtuvieron a partir de datos instrumentales disponibles en la Península (Datos de REDMAR y de REMRO del Departamento de Clima Marítimo de Puertos del Estado y datos del Instituto Español de Oceanografía). El desarrollo detallado del método de simulación, así como el tratamiento estadístico de los datos utilizados, se presentan en los “Documentos Temático y Complementario de Cota de Inundación” (GIOC, 1998). Se indican, a continuación, las líneas básicas de la metodología aplicada. Proceso de cálculo Además de la interacción entre los elementos (oleaje-batimetría-nivel de marea-ascenso), el fenómeno de la inundación presenta la complicación añadida de que algunos de los factores (oleaje, viento…) son variables aleatorias y, por tanto, su presentación está sujeta a una determinada probabilidad. Por consiguiente, la determinación de la cota de inundación es un problema estocástico de extremos. Una de las consecuencias de que sea un problema estocástico es que no existe un “límite determinista al que llegan las olas durante el peor temporal”, sino que cada nivel tendrá “una probabilidad de ser sobrepasado en un temporal determinado”. Los métodos existentes para estimar la distribución de la cota de inundación en una determinada localización, usando datos de campo, pueden dividirse en: (1) métodos directos, en los que se analizan los extremos de los niveles de agua observados, y (2) métodos indirectos, en los que los factores (marea astronómica, marea meteorológica y oleaje) se analizan por separado y el nivel extremo se deduce a partir de ellos. Dentro de estos últimos, a su vez, puede distinguirse entre métodos indirectos teóricos, en los que los factores son combinados de manera teórica a través de sus funciones de distribución, y métodos indirectos de simulación. Dado que la disponibilidad de datos medidos se circunscribe a un número limitado de ubicaciones, son los métodos indirectos los únicos realmente viables para estimar la cota de inundación a lo largo del litoral español. Atlas de cota de inundación peninsular español: metodología de cálculo Debido a la importancia que tiene el conocimiento de la inundación del litoral, en 1999 la Dirección General de Costas, adelantándose a lo que hoy en día es la propuesta de Directiva del Parlamento Europeo y del Consejo relativa a la evaluación y gestión de las inundaciones (SEC 2006-66) que establece la necesidad de que los países miembros realicen una evaluación preliminar del riesgo de inundación en sus costas, consideró necesario disponer de una herramienta que predijera, desde una óptica estadística, el nivel de marea (marea astronómica + marea meteorológica) y la cota de inundación en playas (nivel de marea + run-up). El proceso general del cálculo del régimen de cota de inundación en un punto del litoral fue el siguiente: 1. Estudio de la dependencia estadística entre las variables involucradas. 2. Estudio de la dependencia temporal entre datos sucesivos de una variable. 3. Obtención de las funciones de distribución de las diferentes variables. 4. Establecimiento de formulaciones para factores de los que no hay información directa (por ejemplo, oleaje a pie de playa en función de oleaje en boya, run-up en función de oleaje a pie de playa). 5. Simulación temporal por medio de Monte Carlo. 6. Determinación de los regímenes de cota de inundación. Para todas las zonas analizadas se determinó la cota de inundación en dos supuestos diferentes, que se denominaron: mar abierto (en el que se consideraba que los únicos factores que generan variación del nivel del mar son la marea astronómica y la marea meteorológica; al nivel del mar obtenido como suma de estos dos factores se le denomina nivel de marea), y playas (en el que se consideraba que el nivel del mar está gobernado por la marea astronómica y meteorológica, así como por el run-up del oleaje; al nivel del mar obtenido como suma de estos tres factores se le denomina cota de inundación). Simulación del nivel del mar en mar abierto (nivel de marea) Para la realización de la simulación se consideró que la marea astronómica es un fenómeno determinista que en un instante dado viene dada por una suma de componentes armónicas conocidas. Los datos de marea meteorológica, obtenidos a partir de los residuos de las series medidas por los mareógrafos, fueron analizados estadísticamente. Para cada serie de datos se analizó su dependencia con la serie de marea astronómica y la distribución teórica de mejor ajuste. En todos los casos analizados los datos de marea astronómica y marea meteorológica mostraron ser independientes desde el punto de vista estadístico, encontrándose como mejor ajuste de las series de marea meteorológica la función de Gumbel de máximos. En concreto, todas las series fueron ajustadas con dos funciones de Gumbel, una para los valores medios y otra para los extremales, GIOC (1998). I.T. N.o 74. 2006 71 Simulación del nivel del mar en playas (cota de inundación) La determinación del régimen de niveles de mar en una playa requiere el conocimiento de la distribución del run-up debido al oleaje. Dado que, en general, no existen datos medidos de dicha variable, la estima de dicho fenómeno se realizó a partir de la formulación de Nielsen y Hanslow (1991). Esta formulación exige el conocimiento de la altura de ola significante y el período de pico del oleaje a pie de playa, así como el talud medio de la zona de ascenso descenso de la misma. Con objeto de confeccionar un Atlas de Inundación válido para todas las playas abiertas, se procedió a realizar varias simplificaciones en la determinación del oleaje a pie de playa en cualquier punto del litoral peninsular (batimetría recta y paralela para distintas orientaciones significativas de las playas). Al igual que en el caso de mar abierto, el método de simulación se inició con la realización de un test de independencia de las variables involucradas: marea astronómica, marea meteorológica, altura de ola significante, período de pico. Los resultados obtenidos señalan que: • La marea astronómica es independiente del resto de las variables. En algunos casos se ha encontrado una cierta correlación con la altura de ola significante, si bien dicha correlación no es significativa estadísticamente. • Existe una dependencia, en la mayor parte de las series analizadas, entre la marea meteorológica y el estado de mar (HS). • Existe una dependencia entre las series de alturas de ola significante y las series de período de pico. • Existe una dependencia entre datos consecutivos de marea meteorológica y datos consecutivos de oleaje. El proceso de simulación consistió en la generación numérica de niveles de mar en la playa (cota de inundación) como suma del nivel de la marea astronómica más el nivel producido por la marea meteorológica más el nivel generado por el run-up del oleaje (Fig. 5): SCI(t) = SMA(t) + SMM(t)+RU(t). Atlas de cota de inundación peninsular español: resultados Con base en la metodología anteriormente descrita se confeccionaron una serie de gráficos en los que se presentan los regímenes de niveles en mar abierto y playas del litoral peninsular español. Esta información, que en la presente sección se presenta de modo resumido, se encuentra disponible en la dirección: http://www.smc.unican.es/ES/doc_tem_atlas.htm Zonificación del litoral A efectos de caracterización del régimen de niveles del litoral se estableció una zonificación del mismo en “áreas homogéneas” de acuerdo con sus características de oleaje, marea astronómica y marea meteorológica, configuración de la costa y emplazamiento de las fuentes de información disponible. En el análisis efectuado se asume que el régimen de inundación dentro de un “área homogénea” es idéntico en todos los puntos del litoral de dicha zona. Esta zonificación, necesaria por las limitaciones de información disponible, puede dar lugar a saltos bruscos del régimen de inundación entre zonas limítrofes, por lo que se llama la atención al lector a ese respecto. • Zonificación debido al oleaje: en lo que se refiere a la zonificación del litoral debido al oleaje se ha aceptado la zonificación establecida en la ROM 03.91, que se detalla en la figura 6. • Zonificación debido a la marea astronómica: en función de la información existente y de la configuración de la costa se ha establecido la zonificación por efecto de la marea astronómica recogida en la figura 7. • Zonificación debido a la marea meteorológica: en función de la información existente se ha establecido la zonificación de la marea meteorológica recogida en la figura 8. • Zonificación del litoral: como resultado de la zonificación de las diferentes variables involucradas en el litoral peninsular, queda dividido en doce zonas homogéneas. Dado que el oleaje es, en general, el fenómeno más relevante en la generación del nivel de inundación de una playa, la nomenclatura elegida en la zonificación del litoral del presente documento ha sido la siguiente: Se utiliza la nomenclatura de “Área”, para designar las zonas de oleaje homogéneo. Estas Áreas coinciden con las utilizadas en la ROM 03-91. Dentro de cada Área, se establecen unas “sub-zonas” que recogen franjas del litoral con características de marea diferenciadas. La nomenclatura de las sub-zonas queda definida por una letra: (a, b, c…). En la figura 9 se detallan las diferentes Áreas y sub-zonas consideradas. Características de los resultados Nivel de referencia Fig. 5. Esquema del proceso de simulación. 72 I.T. N.O 74. 2006 Con objeto de utilizar una única referencia para todas las zonas, todos los resultados de nivel de mar se han referenciado al nivel medio del mar en Alicante, NMMA. No obstante, y dado que en los trabajos de ingeniería marítima suele ser usual utilizar otras referencias, como el cero del puerto, en el Atlas Fig. 6. Zonificación del litoral español por consideraciones de oleaje. Fig. 7. Zonificación del litoral español por consideraciones de marea astronómica. Fig. 8. Zonificación del litoral español por consideraciones de marea meteorológica. Fig. 9. Zonificación del litoral español a efectos de inundación costera. de cota de inundación se presenta un pequeño croquis, tomado de la información facilitada por Puertos del Estado, en el que se señala la posición relativa de las diferentes referencias. En la figura 10 (página siguiente) se muestra la hoja 1c del Atlas, correspondiente a la zona de Asturias. Como puede observarse, la información de marea astronómica se obtuvo del mareógrafo de Gijón, la marea meteorológica del mareógrafo de Santander y el régimen de oleaje de la boya de Gijón. Nivel del mar en mar abierto (nivel de marea) • Régimen medio de nivel de marea. Se ha elegido presentar los resultados en doble formato: función de distribución (probabilidad acumulada) y número de horas al año que se supera una cota dada. La relación entre ambos se establece de la siguiente manera N = 8760 (1-F), donde N es el número de horas al año que se supera la cota dada y F es la probabilidad acumulada. • Régimen extremal de nivel de marea. Se ha elegido presentar los resultados en papel probabilístico Gumbel de máximos y en una doble escala: probabilidad acumulada y período de retorno. La relación entre ambas escalas es R = 1/(1-F), donde R es el período de retorno (años) y F es la probabilidad acumulada. Igualmente, se han obtenido las bandas de confianza del 90 %. Nivel del mar en playas (cota de inundación) Para cada Área del Atlas se han establecido las diferentes “direcciones significativas”, con intervalos de 22,5°, que son posibles en dicha área. Cada dirección u orientación significativa refleja la normal a las curvas batimétricas de una playa. De este modo, en cada área del Atlas es posible evaluar la cota de inundación en playas con diferente orientación. Tendencias a largo plazo del régimen de cota de inundación Como ya se ha comentado con anterioridad, la inundación costera presenta ciclos de variabilidad de muy largo plazo asociados a los ciclos climáticos de variación de las diferentes variables que dan lugar a dicha inundación. Es importante señalar que no solo la variación del nivel medio del mar es relevante a efectos de tendencias en el régimen de inundación, sino también la variación que el cambio climático está teniendo en el número de temporales, la intensidad de los temporales y características de los mismos (trayectoria de las borrascas, velocidad de movimiento de las borrascas…). Recientemente, la Oficina Española de Cambio Climático ha llevado a cabo un conjunto de trabajos destinados a evaluar los impactos en la costa por efecto del cambio climático. En dicho trabajo, y con base en los datos medidos en los diferentes bancos de datos oceanográficos y atmosféricos existentes en España, se analizaron las tendencias de los diferentes forzamientos que dan lugar a la inundación costera. A partir de dichos resultados se pueden extraer las siguientes conclusiones: I.T. N.o 74. 2006 73 Fig. 10. Hoja 1c del Atlas de cota de inundación del litoral peninsular español, correspondiente a la zona de Asturias. Nivel medio del mar en el litoral español A nivel global se puede estimar que la tendencia actual de variación del nivel medio del mar en el litoral español es de 2,5 mm/año, por lo que extrapolando al año 2050 se tendría un ascenso del nivel medio de +0,125 metros. Esta información ha sido complementada con los modelos globales contemplados por el Panel Intergubernamental de Cambio Climático (IPCC) en su tercer informe, que establecen una variación del nivel del mar comprendida entre 9 y 88 centímetros en el intervalo correspondiente a 1990-2100. En el trabajo realizado por la Oficina Española de Cambio Climático, el valor medio de los escenarios presentados oscila en torno de +0,15 metros, con una banda de confianza entre +0,1 y +0,25 metros. Con base en estos resultados, se asume en el año horizonte 2050 un ascenso del nivel del mar de +0,2 metros en el litoral español. Costa Cantábrica Se observa un aumento de la energía del oleaje que llega a la Costa Cantábrica. Este aumento es mayor para la rama alta de régimen medio (HS12); sin embargo, la magnitud del incremento es menor para los sucesos más extremales (HT50). Este comportamiento produce una leve tendencia positiva en las duraciones de excedencia de alturas de ola. La dirección predominante del oleaje tiende a ser más del Oeste, con mayor intensidad en la costa occidental. Las tendencias que se obtienen para las variables de viento y marea meteorológica, tanto de régimen medio como extremal, son negativas (re74 I.T. N.O 74. 2006 ducción), exceptuando el viento extremal en la costa Oeste de Asturias, donde se produce un incremento. Aun así, estas últimas variaciones son mínimas. Galicia En la costa Gallega se observa una zonación importante en la magnitud de las variables de estudio y sus tendencias marcadas por el cabo Finisterre, lo que genera un clima marítimo más suave en las Rías Bajas. La energía del oleaje tiende a aumentar, especialmente para los eventos extremales, entre Estaca de Bares y Finisterre. Costa Mediterránea No se aprecian cambios relevantes en la magnitud de la energía del oleaje, aunque sí destacables peculiaridades en cabo de la Nao, debidas a su situación geográfica, y en la Costa Brava, dada su cercanía al golfo de León. Las duraciones de excedencia de altura de ola estimadas tienden a aumentar ligeramente a lo largo de la costa, lo que implica un aumento en la duración de las inundaciones costeras. En la Costa Brava, donde se detectan tendencias con un comportamiento similar al noreste balear, se observa una disminución energética del oleaje medio. Respecto a la dirección predominante del oleaje, se han producido variaciones en las islas Baleares y en la Costa Brava se ha detectado una tendencia de giro horario en los oleajes, de forma que la dirección predominante tiende a ser más oriental. El régimen medio del viento y marea meteorológica presenta una tendencia negativa (reducción), pero de muy pequeña escala. Es importante destacar la gran significancia estadística que aportan los resultados de tendencia negativa de marea meteorológica en el Mediterráneo, Baleares y costa noroeste gallega, a pesar de ser sus variaciones muy pequeñas. Golfo de Cádiz El golfo de Cádiz presenta una tendencia negativa muy clara en energía del oleaje para todas las variables de oleaje estudiadas, lo que confirma la tendencia a un clima marítimo más suave. Canarias Se detecta una zonación Norte-Sur clara en la tendencia de cambio de los temporales. Este hecho se explica dada la distinta naturaleza de generación de oleaje en el norte (oleajes generados en el Atlántico Norte con un “fetch” de generación muy extenso), respecto al sur (oleajes generados en un área más próxima al archipiélago). Los resultados de variación a largo plazo indican que se ha producido un incremento de los temporales en el norte y una tendencia a la disminución energética y giro horario de las direcciones del oleaje en el sur. Efectos de las tendencias a largo plazo del régimen de cota de inundación Las variaciones en el régimen de oleaje, marea meteorológica y nivel medio del mar descritas en el estudio realizado por la Oficina Española de Cambio Climático conllevarán importantes efectos en la inundación costera, tanto en lo que se refiere a las playas como en lo que se refiere a las estructuras de defensa portuarias. En concreto: Efectos en playas Los efectos más importantes que el cambio climático puede suponer en las playas se manifestarán básicamente en la variación en la cota de inundación y en el retroceso, o en su caso avance, de la línea de costa. En el caso de la cota de inundación, este parámetro viene determinado por la probabilidad conjunta de la marea astronómica, de la marea meteorológica, del run-up en la playa y del aumento del nivel medio del mar. De los valores obtenidos para todas estas variables se obtiene un aumento total de la cota de inundación, que es inducida principalmente por el aumento del nivel medio del mar. No obstante, en la cornisa gallega y en la zona norte de las islas Canarias, el aumento es mayor que en el resto del litoral, ya que en estas zonas se produce un aumento significativo de la altura de ola significante con un período de retorno de 50 años. Por otro lado, la variación de la marea meteorológica a lo largo de todo el litoral contrarresta parcialmente el aumento de la cota de inundación producido por variación del nivel medio y de la altura de ola significante. Como dato representativo, y con un horizonte de 50 años, en el Mediterráneo se obtiene un aumento de aproximadamente 20 centímetros, mientras que en la costa gallega y en las islas Canarias puede alcanzar valores de 35 centímetros. Otro efecto que tendrá lugar en las playas es el retroceso de la línea de costa, que traerá parejo un aumento de la inundación costera. Este retroceso estará inducido por un aumento en el nivel medio, que hace que el perfil activo de la playa tenga que ascender para llegar al equilibrio dinámico con esta nueva condición de nivel medio. Para ello, es necesario cubrir el déficit de arena que se produce en el perfil activo y esto se hará a expensas de la arena de la playa seca y de la berma, produciendo un retroceso de la línea de pleamar. Las playas más susceptibles al aumento del nivel medio del mar son las que se sitúan en la cornisa atlántica del litoral español, así como las situadas en las islas Baleares, obteniéndose en estas zonas retrocesos del orden de 16 metros. En la zona del Mediterráneo el retroceso será menor, ya que la extensión del perfil activo de las playas es menor. Otro parámetro que puede contribuir a un retroceso adicional de las playas es la variación en la dirección del flujo medio de energía. Dicho retroceso es altamente dependiente del tipo de playa que se considere, así como de la propagación que el oleaje sufra desde profundidades indefinidas hasta la playa en concreto. Las playas más susceptibles a este tipo de retroceso corresponden a la zona norte del Mediterráneo, sobre todo las de la Costa Brava, siendo de especial relevancia el efecto en las islas Baleares y también en sur de las islas Canarias. En estas zonas el retroceso puede alcanzar hasta 40-50 metros, ya que la variación de la dirección flujo medio de energía supera en ocasiones los 8°. En el resto del litoral este hecho tampoco puede ser depreciado, observándose valores del retroceso del orden de 20 metros. Efectos en las obras maritimas Con respecto a los posibles efectos en obras marítimas, los cambios de largo plazo debidos al cambio climático pueden suponer importantes cambios en el rebase de las obras, tanto en estructuras en talud como en estructuras verticales. Si, por ejemplo, se considera una estructura vertical impermeable sin botaolas tipo, caracterizado por un francobordo de un metro, suponiendo el escenario de cambio climático estimado en el apartado anterior, se puede comprobar que el rebase en este tipo de estructuras sufrirá importantes modificaciones con respecto a los valores actuales y que estas variaciones adimensionales serán más notables en la zona del Mediterráneo, sobre todo en la zona comprendida entre Málaga y Algeciras, donde se pueden alcanzar variaciones hasta del 250 % con respecto a los rebases actuales (en este tipo de estructuras). ■ Raúl Medina y Fernando J. Méndez Doctores Ingenieros de Caminos, Canales y Puertos Grupo de Ingeniería Oceanográfica y de Costas E.T.S. de Ingenieros de Caminos, C. y P., Universidad de Cantabria Bibliografía – G.I.O.C., Grupo de Ingeniería Oceanográfica y de Costas (1998), Documentos Temático y Complementario de cota de inundación, Universidad de Cantabria. http://www.smc.unican.es/ES/doc_tem_atlas.htm – Nielsen, P. and D. J. Hanslow (1991), “Wave run-up distributions on natural beaches”, Journal of Coastal Research, Vol. 7, Nº 4, pp. 1139-1152. I.T. N.o 74. 2006 75 Tsunamis Íñigo J. Losada Rodríguez DESCRIPTORES TSUNAMIS INUNDACIÓN RIESGOS EN LA COSTA Los tsunamis como mecanismo generador de catástrofes naturales El fenómeno que conocemos como tsunami es un conjunto de olas de longitud de onda extremadamente grande y largo período y cuyo origen es cualquier tipo de perturbación que se produzca en el océano. A diferencia de las olas generadas por el viento que estamos acostumbrados a ver en la playa, con longitudes de onda de centenares de metros y períodos de hasta 30 segundos, los tsunamis tienen períodos de entre 10 minutos y 2 horas y longitudes de onda de centenares de kilómetros. Estas ondas tan largas tienen, además, como característica fundamental la capacidad de hacer penetrar el movimiento prácticamente en toda la columna de agua. La causa más frecuente de generación de tsunamis se encuentra en los terremotos, ya tengan su origen en el fondo marino o en la costa. Sin embargo, puede haber otros mecanismos de generación: deslizamientos submarinos, erupciones volcánicas o explosiones nucleares en zonas costeras, y cualquier otra circunstancia, como la caída de un meteorito o asteroide, que pueda producir el desplazamiento de un gran volumen de agua en un intervalo muy corto de tiempo. Como ejemplo, baste citar que el reciente tsunami de Indonesia se produjo por un desplazamiento vertical medio de 11 metros de la falla causante del sismo. Dicho desplazamiento cubrió una longitud de unos 1.200 kilómetros y 200 kilómetros de anchura, lo que puso en movimiento un volumen brutal de agua. Otra característica muy importante a tener en cuenta es la grandísima velocidad de desplazamiento que logran alcanzar, que condiciona enormemente, como veremos más adelante, cualquier sistema de alerta frente a los mismos. Su velocidad de propagación o celeridad, C, depende únicamente de la ace76 I.T. N.O 74. 2006 leración de la gravedad y de la profundidad, mediante la expresión C = (gh)1/2, por lo que, por ejemplo, a 5.000 metros de profundidad alcanzan velocidades de hasta 800 km/h. Esto explica que el tsunami citado cruzara el océano Índico desde Indonesia hasta Somalia en aproximadamente siete horas, o que un gran tsunami generado en Canarias pueda alcanzar la costa Este de Estados Unidos. Sin embargo, existen dos factores adicionales que son los que realmente explican su increíble capacidad destructiva. En la zona de generación la amplitud es muy pequeña comparada con la longitud de onda, del orden de un metro o inferior. Dado que además la energía se dispersa en un dominio mayor a medida que se aleja de la zona de generación, la amplitud se reduce aún más, generando una pequeña sobreelevación del nivel del mar en intervalos de tiempo de entre diez minutos y dos horas, lo que hace que los tsunamis sean prácticamente imperceptibles para barcos en mar abierto o para medios de observación aéreos. Dado que la tasa a la que estas ondas pierden la energía que inicialmente se les ha transmitido en el proceso de generación es inversamente proporcional a la longitud de onda, se propagan a gran velocidad por el océano sin perder prácticamente energía. Sin embargo, una vez que el tsunami se acerca a la costa, la presencia del fondo induce un fenómeno conocido como asomeramiento que lleva asociada una reducción de la celeridad de propagación. Dado que la disipación sigue siendo muy reducida, la conservación del flujo de energía (proporcional a H2 · (gh)1/2 ) asociada al tsunami solo puede cumplirse a expensas de aumentar su altura, H. Esto, conjuntamente con otros procesos de propagación inducidos por la geomorfología de la zona, da lugar a que aquella pequeña amplitud (del orden de centímetros) en el océano pase a convertirse en varios metros, supe- rando en algunos casos los 20 metros. En la zona de la costa se suele evaluar la máxima sobreelevación vertical con respecto al nivel medio. En relación con el tsunami mencionado, en la costa de Sri Lanka, que fue alcanzada a las dos horas de su generación, se pudieron observar alturas de entre cuatro y 12 metros dependiendo de la localización. El segundo factor, además del considerable aumento de la altura, es el efecto final en la costa. Al llegar a la playa el comportamiento del tsunami difiere sustancialmente del que estamos acostumbrados a observar en el oleaje de viento habitual en nuestras playas, con movimientos orbitales de sus partículas, que, describiendo trayectorias circulares semicerradas, dan lugar a la rotura con alta disipación energética y a un proceso de ascenso-descenso sobre el talud sin causar inundación. Los tsunamis, sin embargo, que se caracterizan porque las trayectorias de sus partículas son rectilíneas en dirección hacia la costa, forman en rotura un gran frente vertical, llamado “bore”, con altísima capacidad de penetración y disipación progresiva en su avance, originando un potencial catastrófico de inundación solo condicionado por la orografía de la zona y los posibles obstáculos que se encuentren en el área inundable. Por ejemplo, las alturas de sobreelevación anteriormente citadas en Sri Lanka han producido inundaciones que han alcanzado entre 100 y 800 metros tierra adentro. Es, sin duda, la destrucción causada por el proceso de inundación y por la retirada de las aguas el elemento originario de las catástrofes asociadas a los tsunamis. Riesgo de catástrofe debido a tsunamis en el litoral español En general, tendemos a asociar “riesgo de catástrofe” con la probabilidad de que suceda una catástrofe. Sin embargo, la probabilidad o frecuencia de ocurrencia de dicha catástrofe solo es uno de los elementos que es necesario tener en cuenta a la hora de realizar una correcta evaluación del riesgo. En este sentido, podríamos pensar que el riesgo de catástrofe debido a tsunami en el litoral español, generalmente llamado peligrosidad, es muy pequeño, dado que prácticamente no tenemos memoria histórica de este tipo de eventos. Sin embargo, la correcta evaluación del riesgo implica tener en cuenta no solo la probabilidad de ocurrencia o frecuencia. Es necesario añadir la intensidad o magnitud del tsunami en la costa, la vulnerabilidad de la zona expuesta y, finalmente, el valor económico y social de la zona potencialmente afectada. Muchas veces la peligrosidad y la magnitud van unidas y el valor económico y social se integra en el concepto de vulnerabilidad, pero lo que es necesario tener en cuenta es que el concepto de riesgo resulta de la integración de estos diferentes elementos. Aunque en España la peligrosidad de tsunami no es elevada, existen amplias zonas del litoral donde, sin embargo, la magnitud del tsunami en la costa, la vulnerabilidad o el valor socio-económico hacen que el riesgo sea muy elevado. En 1996, el Instituto Geográfico Nacional cuantificó de forma conjunta la vulnerabilidad y el valor económico y social asociado a un tsunami equivalente al que se produjo en Lis- boa en 1755, que, como es conocido, afectó a las costas de Huelva, por entonces prácticamente despobladas. El resultado del estudio arrojó las siguientes pérdidas económicas en millones de euros: Industria, 2.000; comercio, 87; vehículos a motor, 5. Además, se cuantificó en 113.000 y 35.000 el número de personas y viviendas afectadas respectivamente y en 23.000 hectáreas el área inundada total, de las que 427 hectáreas corresponden a áreas de comercio e industria, 147 hectáreas a la Autoridad Portuaria de Huelva y 7.000 hectáreas a áreas de alto valor ecológico. Si tenemos en cuenta el inmenso desarrollo turístico que ha tenido lugar durante esta última década en las zonas del sur de Huelva, es evidente que el riesgo hoy en día sería todavía mayor. Pero, ¿cuál es el origen de la peligrosidad de tsunamis en nuestro litoral? La institución que ha llevado a cabo la más amplia labor en el establecimiento de la peligrosidad de tsunamis en la costa española ha sido el Instituto Geográfico Nacional (IGN). De su trabajo se deriva que existen dos áreas tsunamigénicas fundamentales. La primera está localizada en la zona atlántica, más concretamente en la fractura Azores-Gibraltar en dirección a la Península Ibérica, en especial la parte suroeste del cabo San Vicente, y en la zona suroeste de la interacción entre las placas Nubia y Eurasia, al norte del banco de Gorridge, origen del tsunami de Lisboa. En estas zonas se han generado grandes terremotos que han dado lugar a tsunamis con relativa baja frecuencia y consecuencias desastrosas. El IGN ha elaborado un importante catálogo recopilando tsunamis históricos desde el año 40 a.C. y en él se registran, entre otros, grandes tsunamis en 1531, 1722 y el famoso tsunami de Lisboa de 1755. Cualquiera de los tsunamis generados en estas zonas afecta fundamentalmente a la costa sur-occidental española. Respecto a la frecuencia de ocurrencia, el IGN ha hecho una evaluación aproximada, concluyendo que en el área Atlántica se producen unos ocho tsunamis cada 450 años. La segunda área de peligrosidad se localiza en la cuenca mediterránea (Fig. 1). Más concretamente en el norte de África, donde existe una zona de elevada actividad que puede Fig. 1. Localización de las fallas tsunamigénicas más importantes en el litoral mediterráneo. Fuente: Terremotos y la peligrosidad de tsunamis en España. I.T. N.o 74. 2006 77 dar lugar a tsunamis de origen cercano, que afectan a las costas de levante e islas Baleares, y una segunda zona, en el Mar de Alborán, de moderada actividad pero con un potencial de afección a las mismas costas de mayor probabilidad que los tsunamis de origen lejano detectados en el Atlántico. El más reciente tuvo lugar en mayo de 2003, cuando un tsunami generado en Argelia afectó a varios puertos de la costa Balear, produciendo el hundimiento de varias embarcaciones y el cese de la actividad portuaria. Estos tsunamis del Mediterráneo español son de mucha más baja intensidad que los del Atlántico y el IGN ha estimado que su frecuencia media de ocurrencia es de aproximadamente un tsunami cada 25 años. Finalmente, es necesario hacer constar que existen otras fuentes de generación de tsunamis asociadas a deslizamientos costeros causados por los propios terremotos, como es el caso de las costas Argelinas, o a grandes deslizamientos submarinos. Sin duda alguna, son por todos conocidas las hipótesis aparecidas recientemente en la prensa sobre posibles mega-tsunamis debidos a grandes deslizamientos submarinos en el Atlántico o a deslizamientos de laderas de volcanes en las islas Canarias, consecuencia de erupciones volcánicas. Aunque existe una potencial peligrosidad asociada, las especiales circunstancias que deben confluir para que se produzca este tipo de evento geológico han llevado al IGN a no considerar los mismos dentro de una evaluación sistemática del riesgo de tsunamis en nuestro litoral. Finalmente, es necesario decir que la magnitud o intensidad del tsunami en la costa depende fundamentalmente del resultado de la propagación del tsunami. Así, por ejemplo, durante el tsunami de Indonesia, en un mismo tramo de la costa de Sri Lanka de unos 200 kilómetros de longitud se evaluaron alturas de ola del tsunami desde cuatro a 11 metros, producto de la concentración de la energía en algunos puntos con respecto a otros cercanos. La intensidad de un tsunami en la costa, prácticamente solo puede ser determinada mediante simulación numérica. Hoy en día los modelos numéricos de última generación incluyen el proceso de generación a partir de seísmos o deslizamientos, la propagación del tsunami en el océano (introduciendo todos los fenómenos de transformación asociados y principalmente el efecto de la batimetría) y la interacción del tsunami con la morfología costera. Los modelos son muy útiles para realizar retro-análisis del proceso de generación, propagación y efectos de un tsunami en una zona concreta del litoral, mediante la comparación con registros instrumentales, como mareógrafos u otro tipo de observaciones. Asimismo, resultan, también, muy importantes para definir con precisión los mecanismos y zonas de generación de eventos históricos de los que solo se dispone de información sobre los efectos. Sin embargo, como veremos más adelante, el mayor potencial de los modelos numéricos reside en su utilización como elementos esenciales de los sistemas de alerta frente a tsunamis. En España existen algunos grupos con actividad en el modelado numérico de tsunamis. El trabajo más detallado en este campo se ha realizado por el Grupo de Ingeniería Oceanográfica y de Costas (GIOC) de la Universidad de Cantabria en 78 I.T. N.O 74. 2006 Fig, 2. Simulación numérica de la propagación del tsunami de Argelia (mayo de 2003). Fuente: Grupo de Ingeniería Oceanográfica y de Costas, Universidad de Cantabria. sendos proyectos para el Ministerio de Medio Ambiente y la CICYT, en los que se desarrolló un sistema de modelado de generación, propagación y exposición del litoral del Mar de Alborán para tsunamis producidos en la zona mediterránea. Asimismo, y después del reciente tsunami de Argelia, el GIOC realizó un retro-análisis de dicho evento, tal y como se muestra en la figura 2, estableciendo el origen, zonas afectadas y tiempos de arribo. El modelado se validó con las observaciones instrumentales realizadas por la red de mareógrafos de Puertos del Estado. Daños producidos por los tsunamis Además de las pérdidas de vidas humanas, es típica de los tsunamis la producción de los siguientes daños materiales: destrucción de infraestructuras y edificaciones bien por arrastre directo, socavación o impacto de flotantes (coches, árboles, etc.); salinización de depósitos o acuíferos; destrucción de sistemas de abastecimiento y saneamiento de agua y de producción y distribución de energía; erosión de la zona costera; destrucción de ecosistemas, etc. (Figs. 3 y 4). Estrategias frente a potenciales riesgos de catástrofe producida por tsunamis Teniendo en cuenta la imposibilidad de actuar sobre el foco fundamental conducente al desastre natural producido por un tsunami y, por tanto, sobre su peligrosidad, parece evidente que solo es posible poner en marcha estrategias encaminadas hacia la reducción de la vulnerabilidad de las zonas susceptibles de ser afectadas. En este sentido las estrategias posibles se reducen a: (1) Implantación de sistemas de alerta frente a tsunamis; (2) protección y (3) adaptación. Implantación de sistemas de alerta frente a tsunamis Aquellos países del mundo avanzado en los que la peligrosidad de tsunamis es alta, principalmente Japón y Estados Unidos en el Pacífico, cuentan en la actualidad con sistemas operativos de alerta frente a tsunamis de ámbito regional. Existen algunos otros en la Polinesia francesa, Rusia, Corea, etc. Por Fig. 3. Socavación producida por el tsunami de Asia en una casa en la costa de Sri Lanka. Fuente: Philip L.-F. Liu. Fig. 4. Daños producidos por el tsunami de Asia en una infraestructura viaria en la costa de Sri Lanka. Fuente: Philip L.-F. Liu. otro lado, para el Pacífico se encuentra un centro gestionado por la NOAA (National Oceanic and Atmospheric Administration) que suministra información para la mayor parte de los países de su cuenca. La diferencia esencial entre los primeros y este último es que los sistemas regionales proporcionan alertas aproximadamente a los 10 minutos, mientras que el sistema del Pacífico lo hace a la hora de haberse producido el sismo. Debe tenerse en cuenta que, dada la velocidad de propagación del tsunami, la rapidez con la que se genera la alerta es fundamental, pues es la que condiciona todo el proceso de evacuación o preparación frente al impacto del tsunami. Evidentemente, el otro factor limitante es la distancia de la zona potencialmente afectada al origen del tsunami. En general, cualquiera de estos sistemas cuenta con cuatro elementos fundamentales: una red sísmica, un sistema de observación oceanográfica, una base de datos de simulaciones numéricas y un sistema de alerta. Cualquier nuevo sistema que quiera implantarse debe contar con estos elementos. En primer lugar, es necesario contar con una red sísmica dimensionada adecuadamente para poder evaluar en tiempos relativamente cortos la localización del sismo y la posibilidad de que un determinado evento sísmico pueda dar lugar o no a un tsunami. Este es uno de los elementos fundamentales pues es donde se encuentra el cuello de botella en los tiempos de respuesta frente a tsunamis. En España la red más importante es gestionada por el IGN, que lleva trabajando mucho tiempo en el análisis de datos sísmicos para evaluar la posible presentación de eventos tsunamigénicos. En este sentido es necesario recalcar que no todos los eventos sísmicos tienen la capacidad de generar un tsunami, y precisamente en la determinación de dicha capacidad es donde reside la mayor fuente de error a la hora de emitir alertas. Esta es la razón principal por la que el segundo elemento con el que debería contar el sistema de alerta es un sistema de observación oceanográfico, con el objeto de ratificar si realmente se ha producido o no el tsunami. La observación de un tsunami representa una enorme dificultad, sobre todo cuando éste se encuentra a grandes profundidades. Aunque recientemente se han hecho algunos avances en el retro-análisis de la detección de tsunamis mediante observaciones desde satélites, la confirmación de posibles alertas emitidas a partir de la información obtenida en las redes sísmicas es solamente viable mediante la instalación de sensores en alta mar. I.T. N.o 74. 2006 79 La figura 5 muestra un esquema del sistema DART. Este sistema de observación, compuesto por un sensor de presión en el fondo, que detecta el paso del tsunami, y una boya receptora y emisora, es el equipo más comúnmente empleado en el sistema de alerta del Pacífico. La gran profundidad a la que pueden instalarse estos equipos permite tener el tiempo suficiente para tomar medidas de evacuación en muchos de los países potencialmente en riesgo frente a un tsunami en el Pacífico. En la actualidad, España carece de este tipo de equipos, que serían especialmente útiles para la prevención de tsunamis en la zona Atlántica. Sí tiene, sin embargo, una importante red de mareógrafos en toda su costa, que también podrían se útiles para registrar el paso de un tsunami. Evidentemente, al tratarse de una red costera, los tiempos de respuesta se reducirían drásticamente, siendo solo útiles para aquellas zonas alejadas de los mareógrafos. De entre las redes existentes, la de Puertos del Estado podría jugar un papel muy relevante por su capacidad de transmitir los datos registrados prácticamente en tiempo real. El tercer elemento necesario para la red de alerta sería una extensa base de datos generada mediante modelos numéricos. Esta base de datos incluiría un gran número de eventos posibles, definidos una vez determinadas las potenciales fuentes de generación de tsunamis y los mecanismos de generación correspondientes, y permitiría obtener la localización de las zonas con más probabilidad de ser afectadas, los tiempos de arribo, mapas de sobreelevación, mapas de inundación, etc. Este tercer elemento es hoy por hoy necesario, dado que al no ser posible ejecutar los modelos en tiempo real, se demoraría considerablemente la capacidad de respuesta frente al tsunami. Fig. 5. Componentes de un sistema de alerta frente a tsunamis. Los sensores de presión instalados en el fondo, a unos 5.000 metros de profundidad, registran el paso del tsunami. La información recogida en los sensores es transmitida por telemetría acústica a la boya en superficie, que a su vez la transmite a un satélite. Fuente: National Oceanic and Atmospheric Administration (NOAA). 80 I.T. N.O 74. 2006 A partir de la información generada de los datos de la red sísmica, mediante los que se establece la posición de la zona de generación y el tensor momento sísmico, con el que se puede evaluar la magnitud aproximada del tsunami, se accede a esta base de datos numéricos, de donde se puede obtener de manera rápida las posibles zonas que pueden sufrir el impacto del tsunami y los potenciales tiempos de arribo. La red sísmica, la base de datos numéricos y el sistema de observación oceanográfico deben estar integrados dentro de un sistema de comunicación altamente eficiente y seguro que, una vez detectado el tsunami en el sistema de observación, permita enviar toda la información requerida al último eslabón de la cadena, al sistema de transmisión de la alerta. Éste debe contar con la infraestructura y protocolos necesarios para garantizar que protección civil o quien corresponda tome las medidas necesarias de evacuación, protección, etc. que se hayan especificado en un plan de contingencia al efecto. En la actualidad, España cuenta con bastantes de los elementos citados y la tecnología necesaria para abordar la puesta en marcha de un sistema de alerta frente a tsunamis. Sin embargo, todavía es necesario realizar un trabajo adicional muy importante hasta su completa y satisfactoria implementación. Protección La segunda posibilidad para reducir el riesgo frente a tsunamis es la introducción de medidas de protección, entendiendo como tales estructuras o elementos que contribuyan a disminuir la posible incidencia de un tsunami. Evidentemente, el hecho de que los tsunamis, aun tratándose de tsunamis relativamente cercanos, actúen sobre una gran longitud de costa, descarta realizar actuaciones encaminadas a la construcción de grandes longitudes de diques que “blinden” la costa. Es decir, la construcción de este tipo de estructuras, muy utilizadas especialmente en Japón, es solo aplicable a zonas de alta vulnerabilidad, especialmente en puertos o zonas urbanas. Sin embargo, la experiencia del tsunami de Indonesia ha puesto una vez más de manifiesto que existen “estructuras naturales”, como playas, dunas, manglares, campos coralinos o arboledas que ayudan considerablemente a mitigar los efectos del tsunami. Parece, por tanto, razonable que la protección más adecuada es aquella basada en la preservación de los elementos naturales que permiten mitigar los efectos de los tsunamis conjuntamente con estructuras fijas o móviles (diques verticales y de escollera, barreras móviles, etc.) que sirvan para dar cobertura a las zonas de mayor vulnerabilidad. Para algunas zonas de Sri Lanka se está proyectando un sistema de protección frente a tsunamis basado en un muro vertical de hormigón. Sin embargo, existe una gran controversia ambiental asociada a dicho proyecto, por lo que se ha planteado como alternativa la construcción de un muro de tierra, complementado con una segunda línea defensiva basada en una plantación masiva de cocoteros, caracterizados por profundas raíces, y manglares. El proyecto considera que el lugar idóneo para la construcción de cualquiera de las dos infraestructuras es 200 metros hacia el interior de la costa. Adaptación Retomando el concepto de riesgo, la adaptación intenta reducir de manera importante una de sus componentes, la vulnerabilidad, a través de una planificación del territorio costero que tenga en cuenta las consecuencias que podría tener un tsunami. Reducir la ocupación de las zonas bajas del litoral, planificar las infraestructuras y edificaciones en zonas afectadas e inundables teniendo en cuenta las características de los tsunamis potenciales, etc. son medidas que reducirían considerablemente el riesgo derivado de los tsunamis. En este sentido, es necesario destacar que la planificación territorial necesaria para adaptarse al efecto de los tsunamis tiene muchísimos puntos en común con la requerida para hacer frente a los posibles efectos del cambio climático, dado que ambos conducen a la inundación de la costa. Finalmente, es necesario hacer una última consideración ligada a un concepto tan utilizado en la ingeniería como es la resiliencia. Podríamos definir la “resiliencia de la costa” como su capacidad de absorber perturbaciones sin alterar significativamente sus características estructurales y funcionales. Por ello, cualquier política territorial “pro-resiliente”, es decir, conducente a mantener las condiciones naturales de la costa reduciendo la ocupación indiscriminada de las zonas bajas, evitando la modificación de la línea de costa natural o luchando contra la erosión, conducirá a que la vulnerabilidad frente a los tsunamis se reduzca de forma importante. El papel de la ingeniería civil en el ámbito de los tsunamis La ingeniería civil juega un papel sumamente importante tanto en la fase de prevención como en la fase post-catástrofe. En general, el modelado de la propagación de tsunamis, desde la generación hasta el estudio de sus efectos, elaboración de mapas de inundación, etc. está ligado a la ingeniería civil en todo el mundo. Baste decir que, además de en España, este campo, así como el del modelado físico de tsunamis, se realiza en el ámbito de escuelas de ingeniería o centros de investigación vinculados al mundo de la ingeniería civil. Por otro lado, y aunque no es así en todo el mundo, las redes de observación oceanográfica más importantes con que contamos en España están ligadas a nuestro sistema portuario, dado que fueron implementadas y son gestionadas por Puertos del Estado. En cuanto al proyecto y construcción de medidas de protección, es evidente que, independientemente de su naturaleza, son generalmente diseñadas por ingenieros civiles en todo el mundo. Finalmente, es asimismo clara la importancia de la participación de la ingeniería civil en el planeamiento territorial para la gestión de la costa. En cualquier evento post-tsunami, el primer paso consiste en la realización de campañas de inspección, no solo para evaluar los daños en las infraestructuras sino también para evaluar las características del tsunami que se ha producido (Fig. 6). En el pasado evento de Indonesia la mayor parte de los equipos internacionales que inspeccionaron las zonas afectadas fueron liderados por ingenieros civiles. Por último, la labor de la reconstrucción es inherente a nuestra profesión, por lo que no es necesario abundar en este aspecto. Fig. 6. Evaluación del run-up en la costa de Sri Lanka. Fuente: Philip L.-F. Liu. Desgraciadamente, el riesgo asociado no solo a los tsunamis sino a muchos otros desastres naturales es cada día mayor y el constante aumento de la vulnerabilidad de las zonas con alta peligrosidad da lugar a elevadas pérdidas de vidas humanas, daños ambientales y destrucción de importantes infraestructuras civiles. Los ingenieros de caminos, canales y puertos juegan un papel fundamental en el proceso de prevención y mitigación de desastres naturales y muy especialmente, como en algunos otros, en los debidos a tsunamis. Sin embargo, en la mayor parte de nuestras Escuelas, el estudio de algunos de estos fenómenos naturales y de los riesgos derivados se encuentra diseminado entre varias asignaturas y departamentos o es simplemente inexistente. En este sentido y cara al futuro, parecería conveniente tomar posición e introducir en nuestro bagaje formativo el conocimiento y las técnicas necesarias para la evaluación del riesgo, prevención, mitigación y gestión (logística, reconstrucción, etc.) de desastres naturales de una manera integrada, puesto que todo ello es el resultado de una correcta imbricación de las bases fundamentales con las que ya contamos. ■ Íñigo J. Losada Rodríguez Doctor Ingeniero de Caminos Canales y Puertos Ph.D. in Civil Engineering Grupo de Ingeniería Oceanográfica y de Costas E.T.S. de Ingenieros de Caminos, Canales y Puertos Universidad de Cantabria Bibliografía – GIOC (1997), Estudio de riesgo de inundación y de daños por acción de maremotos en el litoral sureste español (Mar de Alborán), Ministerio de Medio Ambiente. – Instituto Geográfico Nacional et al. (2000), Terremotos y la peligrosidad de tsunamis en España, CD. ISBN 84-7819-094-5. – Instituto Geográfico Nacional et al. (2005), Terremotos y tsunamis en España, CD. ISBN 84-9810346-O. I.T. N.o 74. 2006 81 La protección civil y las catástrofes naturales Ricardo Olabegoya Venturini DESCRIPTORES PROTECCIÓN CIVIL CATÁSTROFES NATURALES HURACÁN KATRINA COORDINACIÓN INFORMACIÓN 112 Introducción El 29 de agosto de 2005, y posteriormente durante varios días, los medios de comunicación nos facilitaban información sobre los efectos del huracán Katrina sobre la ciudad de Nueva Orleáns, desbordando la perplejidad de todos los televidentes que veíamos cómo un huracán, perfectamente previsto y anunciado por toda la prensa mundial, asolaba toda la costa del entorno de la desembocadura del río Missisipi, inundando y devastando, la “ciudad del blues”, entre otras ciudades de la región. Mucho más difícil de entender resultaba cómo el país más poderoso del mundo, capaz de movilizar cientos de miles de profesionales militares con su complejo y costoso equipo, que cumplen sus funciones con una escalofriante precisión a miles de kilómetros de su país, en escenarios muy diferentes al propio, era incapaz de atender, ni siquiera mínimamente, a su propia población herida y doliente, con centenares de miles de afectados. Esa perplejidad se incrementaba más si cabe, si tenemos en cuenta que los huracanes son un fenómeno meteorológico relativamente frecuente y periódico en dichas latitudes y que algunos de los problemas que han agravado de forma determinante los efectos del mismo estaban detectados, diagnosticados y sus soluciones proyectadas y valoradas a la espera (parece que larga) de su ejecución. Otra componente nueva y paradójica de esta catástrofe es que a Estados Unidos, que lidera, generalmente, a nivel mundial el apoyo solidario a los países que padecen desastres, le ha tocado, por primera vez, el amargo papel de pedir ayuda. Sobre el particular, cuentan la anécdota de un diplomático estadounidense, en una reunión en la que se programaba 82 I.T. N.O 74. 2006 la ayuda de un país europeo, que se disculpaba porque él estaba acostumbrado a estar en el lado de la mesa de los que ofrecen las ayudas. Si el 11 M y, sobre todo, el 11 S convirtieron en “papel mojado” todas las estrategias políticas del mundo occidental para abordar el fenómeno terrorista, el huracán Katrina ha ridiculizado (poniéndolo en evidencia) el sistema de respuesta frente a una catástrofe del país más poderoso del mundo. Es cierto y lógico que, en el mundo occidental, los modelos de la protección civil no son iguales, que las sensibilidades sociales frente al fenómeno de las catástrofes naturales tampoco son coincidentes; pero en Nueva Orleáns tenemos suficientes motivos de reflexión para analizar y revisar nuestros sistemas, no con planteamientos demagógicos y simplistas, sobrevalorando riesgos casi imaginarios, sino a través de estudios científicos de los fenómenos, de planes estructurales adecuados, de planes contingentes rápidos y eficaces y de sistemas de respuesta eficientes, todo ello en el marco de una planificación general realista y sostenible, de modo que todo el sistema pueda funcionar y por lo tanto financiarse a medio y largo plazo con recursos propios. Las catástrofes naturales Las catástrofes naturales son eventos provocados por fenómenos naturales, que afectan a la organización social en general y al hombre en particular, con resultado de pérdidas importantes de vidas y bienes. El articulo 2b) de la Ley Foral 8/2005 de protección civil y atención de emergencias en Navarra1 define la catástrofe como: “Emergencia que por su gravedad genera despropor- Fig. 1. En algún momento la naturaleza nos iguala. Esto no es una población del Tercer Mundo. Es un barrio de Nueva Orleáns. (Fuente: El País 31/12/05). ción entre las necesidades de atención ocasionadas por los daños producidos o factibles y las posibilidades del sistema de respuesta para solventarlas, exigiendo medios extraordinarios para su atención”. De esta definición hay que destacar una componente importante: la desproporción entre necesidades y recursos disponibles, que nos acota el carácter relativo de la catástrofe. Es decir: que una emergencia en un territorio con recursos suficientes para hacerle frente no es una catástrofe, mientras que un suceso de similares características en una zona con pocos e inadecuados recursos se convierte en una catástrofe. Esa es, entre otras, una de las razones por las que la incidencia de las catástrofes en los países subdesarrollados es proporcionalmente mayor que en las regiones más preparadas y con más recursos. Los componentes de las catástrofes La ecuación fundamental de la seguridad, que sería perfectamente aplicable a nuestro análisis, Riesgo + Circunstancias = Accidente vs. Catástrofe, nos permite una aproximación a sus componentes, para ver cómo podemos minorar el resultado de la ecuación, es decir, la importancia (los efectos) de la catástrofe. El riesgo comprendería los componentes del fenómeno natural que nos definirían las características del mismo: fecha, hora, lugar, extensión, intensidad, permanencia del fenómeno, etc. El conocimiento científico de la génesis y de la dinámica de los fenómenos naturales va progresando en los últimos años a pasos agigantados, pero en general, es claramente insuficiente para predecir sobre la mayor parte de sus componentes. La primera herramienta fundamental para intervenir en la ecuación sería la predicción de aquellos fenómenos naturales que por su naturaleza y características sean susceptibles de generar catástrofes en un territorio determinado, con la mayor anticipación posible (en general, a mayor anticipación, menor precisión), de forma que permitiese tomar las medidas preventivas específicas. El segundo sumando de la ecuación se refiere a las circunstancias coadyuvantes, que pueden convertir un fenómeno natural en una catástrofe, es decir, al escenario en el que se dejan sentir sus efectos. La definición de catástrofe está acotada por la afectación importante para vidas y bienes, los cuales en general están relacionados con la actividad social, aunque también pueda haber afecciones a otros bienes menos tangibles, como el medio ambiente. Del escenario, a su vez, diferenciaremos dos componentes: el territorio y la población. Las características del territorio condicionan en buena parte los efectos del fenómeno, que afectará de diferente forma a diferentes zonas, según su exposición a los efectos del evento. La población y la actividad social que desarrolla, como factor mayor de generación de bienes, son los objetivos finales de la protección. Es en este sumando en el que la sociedad actual puede intervenir de forma determinante, ya que, como comentábamos más arriba, aunque el conocimiento científico de los fenómenos naturales sea aún limitado, los efectos de las catástrofes sobre población y bienes son sobrada e históricamente conocidos, de forma que el desarrollo de las propias sociedades a I.T. N.o 74. 2006 83 lo largo de la historia ha incluido una cierta cultura del riesgo en sus formas de vida y producción, con independencia de las consideraciones mágicas o religiosas que en muchos casos tenían en su acervo cultural los fenómenos naturales. La planificación Aunque forma parte del segundo componente de la ecuación, la destacamos por la trascendencia que tiene en el objetivo de minorar las catástrofes para proteger vidas y bienes. En la planificación distinguiremos diferentes niveles: • Planes especiales ligados a riesgos concretos y que en algunos casos llegan a incluir normas preventivas muy desarrolladas e implantadas en la sociedad occidental: normativa antisísmica en la construcción… • Planes territoriales de emergencia que analizan los riesgos potenciales de un territorio (municipio, Comunidad Autónoma…), planifican las medidas de protección y organizan el sistema de respuesta a la catástrofe, siempre en relación al marco organizativo de nivel superior. • Planes generales de urbanismo, que ordenan toda la actividad social de un territorio (vivienda, infraestructuras, implantación industrial, sectores productivos, protección del medio ambiente, etc.) y en los que en los últimos años se ha incluido la componente del riesgo como criterio de planificación de actividades. Todos ellos van acompañados de normativa que conforma el entramado jurídico que regula el desarrollo ordinario de ese territorio, garantizando, de forma estructural, una mayor protección. La respuesta La normativa estatal en la Ley 2/85 de protección civil2 identifica doctrinalmente ésta como “protección física de las personas y de los bienes, en situación de grave riesgo colectivo, calamidad pública o catástrofe extraordinaria, en la que la seguridad y la vida de las personas pueden peligrar y sucumbir masivamente…”, y la enmarca en el ámbito más amplio de la política de seguridad. Es decir, que es objeto de la protección civil, entre otros: la organización y la puesta en marcha del sistema de respuesta ante las catástrofes, orientado a la protección de la vida y de la integridad física de las personas, así como a la protección de los bienes y del medio ambiente. Las catástrofes son estadísticamente emergencias extraordinarias con baja probabilidad. El sistema de respuesta a las emergencias ordinarias La estructura social tiene organizados diferentes servicios públicos y privados cuya función es atender las emergencias con carácter ordinario, con recursos adecuados para los accidentes cotidianos. Así la sociedad dispone, entre otros, de: • Servicios de orden: Policía… • Servicios sanitarios extrahospitalarios de urgencia: ambulancias… 84 I.T. N.O 74. 2006 • Servicios de extinción de incendios y de salvamento: bomberos… Se trata de servicios que intervienen de forma cotidiana en el socorro de las personas en riesgo y en la protección de los bienes. Existen otros servicios públicos y privados que cooperan en dichas funciones, así como en las funciones de rehabilitar los servicios públicos que puedan resultar dañados o interrumpidos: vialidad, abastecimiento de agua, de energía, de suministros, etc. Dichos servicios tienen distintas competencias, diferente dependencia orgánica, recursos propios, horarios y sistemas de trabajo específicos, en sus tareas habituales, por lo que cuando tienen una actuación conjunta se presentan problemas de coordinación, que deben superarse para garantizar una actuación eficiente y, por tanto, una protección efectiva de vidas y bienes. Para ello, es necesaria la planificación de las actuaciones específicas en las que se establezca la compatibilidad de los procedimientos internos de cada servicio, así como la de los equipos de intervención respectivos, modificándolos e integrándolos para garantizar una actuación conjunta eficaz. Otro órgano fundamental es el de acceso del ciudadano al sistema, sobre lo cual ya se ha legislado a nivel europeo, estableciendo un número único (112) para la demanda de emergencias, con el objeto de garantizar la atención a las llamadas de auxilio de los ciudadanos en situación de emergencia, movilizando los recursos adecuados en cantidad suficiente para atender los incidentes. Relacionado con este centro de atención de llamadas, y en algunos modelos integrado con él, se organiza un centro de gestión de emergencias cuya función es el seguimiento de la atención de las emergencias y la coordinación de los servicios operativos intervinientes, mediante unos protocolos operativos que establecen los criterios para la clasificación de las llamadas y la asignación de los recursos más idóneos, así como los procedimientos a seguir por los servicios, especialmente cuando se producen actuaciones conjuntas. Toda esta organización que se explica en la respuesta a las emergencias ordinarias, tiene muchos problemas para su planificación e implantación y en los últimos años su desarrollo ha seguido un proceso difícil, pero que poco a poco ha ido decantándose, a la vez que se produce una convergencia paulatina entre los diferentes modelos. El sistema de respuesta para las catástrofes Teniendo en cuenta que la catástrofe se caracteriza por la desproporción de los recursos ordinarios disponibles en relación a la magnitud de los daños que tienen que atender, puede ser considerada como una emergencia extraordinaria que requiere más recursos y, en algunas ocasiones, recursos más especializados. También es precisa una organización adecuada, ya que han de trabajar conjuntamente recursos que habitualmente trabajan de forma independiente, en situaciones de extrema necesidad y casi siempre de gran confusión. Fig. 2. El huracán estaba previsto, los diques diagnosticados. Nueva Orleáns se ahoga. (Fuente: EPS 31/12/05, fotografía de David J. Philip). Pero esto no quiere decir que sea necesario crear unos servicios específicos que ejerzan las tareas que ordinariamente realizan los servicios públicos, sino que será necesario complementar los servicios ordinarios con recursos extraordinarios. Del mismo modo, no se trata de crear una nueva organización que solo se activa en situaciones de emergencia, sino que el objetivo es planificar las actuaciones en esas circunstancias para que a partir del sistema de respuesta ordinario (que siempre es el primero que se activa) se puedan establecer los procedimientos extraordinarios de movilización progresiva de los servicios con misiones complementarias de socorro, así como los procedimientos de coordinación de todos ellos. Así mismo, dicha planificación establecerá la persona o el órgano que asume la dirección de las operaciones, en función de sus competencias o de su especialidad. Actualmente, los sistemas tienden a crear un único órgano que atiende las llamadas de emergencia, las clasifica y las deriva a los servicios operativos correspondientes; además gestiona la emergencia haciendo el seguimiento de la operación, dando apoyo a los recursos que lo precisan y garantizando una asistencia coordinada y completa, estando prepa- rado incluso para movilizar los recursos especiales necesarios para atender una catástrofe, siguiendo las pautas de los planes correspondientes y dando acogida y organizando a los diferentes grupos que gestionan la catástrofe. Se ha roto la inercia inicial de los años ochenta en la que la protección civil era un órgano que empezaba a actuar cuando se producía una catástrofe, apareciendo su personal en el “escenario” con unos equipos específicos y haciéndose cargo de las líneas de mando. La dinámica de la catástrofe casi siempre empieza a pequeña escala como una emergencia ordinaria que va complicándose, creciendo en magnitud, extendiéndose en el territorio, afectando a más personas, hasta alcanzar dimensiones catastróficas. Paralelamente, los servicios de emergencia se van activando, los recursos se despliegan hasta quedar saturados. En la medida en que se produce la saturación de los servicios tiene que empezar a desplegarse el plan correspondiente con sus recursos complementarios de refuerzo, con su órgano consultivo y de coordinación, con el director del plan asumiendo su función, todo ello gradualmente sobre el propio dispositivo ordinario de gestión de las emergencias. I.T. N.o 74. 2006 85 Fig. 3. Estados Unidos no fue capaz de proteger a su población civil. ¿Aprenderemos la lección? (Fuente: Magazine de La Vanguardia de 31 de diciembre de 2005. Pat Sullivan/AP Photo). La rehabilitación Con la rehabilitación seguimos tratando la respuesta a la catástrofe. En esta fase, y una vez socorridas las personas en peligro, se trata de reponer los servicios públicos afectados y de facilitar la reconstrucción del tejido social. Es difícil establecer una prioridad con carácter general para la reposición de los servicios, pero las comunicaciones tienen siempre un carácter estratégico, ya que facilitan tanto la llegada de recursos de emergencia durante la primera fase de socorro, como de los recursos necesarios para ir consiguiendo paulatinamente el retorno a la normalidad, además de la evacuación de la población más afectada, a la que no se puede atender en la zona con los servicios paralizados o interrumpidos. La dinámica de la rehabilitación se caracteriza por una progresiva asunción de las tareas específicas de reconstrucción por los servicios ordinarios, tomando el testigo de los servicios de emergencia. Los planificadores y los técnicos económicos revisan sus programas y sus presupuestos para proveer recursos para la rehabilitación, replanteando prioridades y aplazando previsiones de gasto en partidas de menor urgencia. La vuelta paulatina de los servicios públicos a sus funciones específicas, aplicadas con prioridad a la población y a los servicios afectados, no significa que decae la dirección única de la emergencia, sino que progresivamente se traslada del responsable de los servicios de emergencia al responsable designado por los órganos de gobierno del país que retoman la gestión transversal de la emergencia. 86 I.T. N.O 74. 2006 Es el momento de la evaluación de los daños y de la reparación urgente de servicios básicos: suministro de agua potable, alcantarillado, vialidad, abastecimiento de alimentos, medicinas, transmisiones, etc., pero también de las primeras reflexiones, en los casos de grandes daños, sobre la orientación de las grandes inversiones de la rehabilitación. Por ejemplo: el traslado de un asentamiento urbano a un lugar más seguro, después de inundaciones sucesivas con destrucción de zonas urbanas, u otras alternativas estructurales al fenómeno. En general, las zonas más afectadas son las más humildes. Por ello, estos desastres pueden considerarse como oportunidades para mejorar a medio plazo las condiciones de vida de los afectados, no solo rehabilitando las viviendas y los servicios, sino reconstruyendo un tejido urbano de mejor calidad que el original, pero haciéndolo de forma que las plusvalías de la rehabilitación reviertan en los afectados y no en los circuitos de la especulación, habituales en las oportunidades de negocio. Todas estas reflexiones las hacemos en un contexto de cultura occidental con asentamientos humanos planificados a niveles razonables y con recursos propios más o menos importantes. Obviamente, trasladar estas reflexiones a países subdesarrollados supone considerar el incremento de la vulnerabilidad de su población y la disminución de sus posibilidades de respuesta por falta de recursos y, por lo tanto, un acrecentamiento en los daños en vidas y pérdida de bienes. A lo largo del análisis de la respuesta a la catástrofe, no hemos tratado un recurso importante que requiere mención especial como es la ayuda humanitaria, ya sea procedente de zonas limítrofes (normalmente la primera en recursos de urgencia) o bien de otros países. La gestión de dicha ayuda es un apartado importante, por cuanto en ocasiones supone un porcentaje considerable de los recursos puestos en juego para reducir los efectos de una catástrofe. La información La información, además de ser también un derecho del ciudadano, es otro de los componentes que intervienen en una catástrofe y casi siempre desde mucho antes de que ésta se produzca. Los vehículos de la información al ciudadano son los medios de comunicación y de entre ellos el más generalizado a los efectos del tema tratado es la televisión, que actualmente ha superado a la radio, más tradicional pero sin el atractivo de las imágenes, que en segundos pueden acercarle escenarios alejados espacial y culturalmente. No obstante, la radio sigue siendo el medio de comunicación por excelencia en las zonas afectadas por las catástrofes, por cuanto su uso autónomo de la red eléctrica posibilita su utilización a falta de suministro, permitiendo recibir la información y las instrucciones de las autoridades a la población afectada. En este sentido, hoy se dispone de información en tiempo real de catástrofes acaecidas en las antípodas, con imágenes reales y, en muchos casos, estremecedoras, en las que se ve a la gente morir en situaciones dantescas. La percepción social de las catástrofes es un factor ligado normalmente a los medios de comunicación, de forma que un desastre nos impresiona tanto más cuanto más cerca suceda. También la similitud del contexto cultural nos afecta más, a veces con independencia del número de afectados. Así mismo, permanece más tiempo dicha percepción trágica o de inseguridad en el ciudadano en la medida en que los medios la mantengan más tiempo en los noticiarios, introduciéndose así una componente de posible manipulación por parte de quien controle los medios. Los planes de emergencia contemplan entre sus previsiones la utilización de la información como herramienta para preparar a los ciudadanos con anterioridad a la catástrofe: • Informando sobre la naturaleza y el alcance de los riesgos. • Informando sobre los comportamientos adecuados para protegerse del riesgo. (autoprotección). • Informando sobre los comportamientos adecuados para ayudar en el caso de necesidad. La información tiene también una importancia notable durante la ocurrencia de la catástrofe: • Informando sobre lo que puede suceder mediante avisos y recomendaciones. • Informando sobre lo que está sucediendo (noticias). • Transmitiendo avisos e instrucciones de las autoridades a la población. • Informando sobre la evolución y las perspectivas. • Informando sobre las personas afectadas. Todo ello con ponderación, no siempre presente en los medios, evitando catastrofismos que generan alarma social, casi siempre innecesaria. Además de la información al ciudadano, incluso previa a ésta, se debe establecer un programa de información a los servicios e instituciones, dando a conocer los riesgos y los planes, especialmente aquellos elementos que más les afectan. Y como es lógico, en el caso de los servicios, sería imprescindible un programa de formación en el que se explicasen los procedimientos operativos para los diferentes supuestos, con prioridad decreciente en función de la frecuencia y la gravedad potencial, así como los equipos especiales a utilizar, sin olvidar la realización de simulacros conjuntos para validar procedimientos y equipos. Algunas asignaturas pendientes Después de este repaso apresurado a la protección civil y su actuación sobre las catástrofes naturales, dedicamos unas líneas finales a señalar algunas tareas que en el contexto español habría que intensificar para mejorar nuestro sistema de respuesta, después de una década de fuerte desarrollo en servicios, planificación, legislación, inversiones y tecnología: 1. Revisar el modelo de respuesta. Comenzábamos estas reflexiones haciendo referencia al impacto social del huracán Katrina en los responsables de planificar y gestionar la respuesta a las catástrofes en el mundo occidental; por ello, empezaríamos recomendando una reflexión sobre nuestra propia organización. 2. Mejorar la coordinación institucional, especialmente la transversal. En una política de escasez de medios (más aún en estos temas) es necesario un esfuerzo para optimizar los recursos disponibles. 3. Desarrollar una política de implantación de planes. Después de unos años de planificación intensiva, ahora toca implantar dichos planes, ya sea para validarlos, en unos casos, ya sea para dejarlos definitivamente en un cajón en otros, corrigiendo los desajustes habituales entre el papel y la realidad. ■ Ricardo Olabegoya Venturini Subdirector General de Servicios y Protección Civil del Gobierno de Cantabria Notas 1. Ley Foral 8/2005, de 1 de julio, de protección civil y atención de emergencias de Navarra. BOE nº 192, p. 28294. 2. Ley 2/1985, de 21 de enero, sobre protección civil. BOE nº 22, 25 de enero de 1985. Otras referencias – Ayala-Carcedo, F.J., Olcina Cantos, J. y otros, Riesgos Naturales, Barcelona, Editorial Ariel, 2002. – Real Decreto 407/ 1992, de 24 de abril, por el que se aprueba la Norma Básica de protección civil. I.T. N.o 74. 2006 87 PÁGINA INTENCIONALMENTE DEJADA EN BLANCO I.T. N.O 74. 2006