manuel nóvoa santiago hernández carlos soler liceras luis antonio

Anuncio
74
MANUEL NÓVOA
SANTIAGO HERNÁNDEZ
CARLOS SOLER LICERAS
LUIS ANTONIO VÁZQUEZ
P. FERNÁNDEZ CARRASCO
TEODORO ESTRELA
M. J. RODRÍGUEZ DE SANCHO
RAÚL MEDINA
FERNANDO J. MÉNDEZ
ÍÑIGO J. LOSADA
RICARDO OLABEGOYA
PÁGINA INTENCIONALMENTE
DEJADA EN BLANCO
I.T. N.O 74. 2006
© HIROSHI KITAMURA
Nº 74
CATÁSTROFES NATURALES
Tercera época. Año 2006
PVP: 6 €
CONSEJO DE ADMINISTRACIÓN
Antonio Allés Torres, Jesús A. Collado López,
Félix Cristóbal Sánchez, Pedro Ferrer Moreno,
Pedro Fabián Gómez Fernández, Juan Guillamón Álvarez,
Santiago Hernández Fernández, Rafael Jimeno Almeida,
José Miguel Mateo Valerio, Carmen Monzonís Presentación,
Javier Muñoz Álvarez, Carlos Nárdiz Ortiz,
Antonio Ortuño Alcaraz, Francisco J. Ramírez Chasco,
Pedro Rodríguez Herranz, Pedro Sánchez Lagarejo
y José Alfonso Vallejo Alonso.
Catástrofes naturales
CONSEJO DE REDACCIÓN
Lluís Agulló Fité, Antonio Allés Torres,
Francisco Bueno Hernández, Vicente Cerdá García de Leonardo,
Jesús A. Collado López, José María Coronado Tordesillas,
Félix Cristóbal Sánchez, Manuel Durán Fuentes,
Pedro Ferrer Moreno, Pedro Fabián Gómez Fernández,
Juan Guillamón Álvarez, Santiago Hernández Fernández,
Rafael Jimeno Almeida, Rosario Martínez Vázquez de Parga,
José Miguel Mateo Valerio, Carmen Monzonís Presentación,
José Javier Mozota, Javier Muñoz Álvarez, Juan Murcia Vela,
Carlos Nárdiz Ortiz, Manuel Nóvoa Rodríguez,
Miren Idoia Ortubia Rodríguez, Antonio Ortuño Alcaraz,
Mariano Palancar Penella, Santiago Pérez-Fadón Martínez,
Pedro Pisa Menéndez, Francisco J. Ramírez Chasco,
Pedro Rodríguez Herranz, Pedro Sánchez Lagarejo,
Jesús Urarte García y Pere Ventayol March.
INGENIERÍA Y TERRITORIO · 74
DIRECTOR
Ramiro Aurín Lopera
SUBDIRECTOR
2
Editorial
4
Percepción humana de las catástrofes
Joan Olmos Lloréns
REDACTOR JEFE
Manuel Nóvoa
Juan Lara Coira
SECRETARIA DE REDACCIÓN
Chelo Cabanes Martín
14
Fenómenos naturales y escala temporal
Santiago Hernández Fernández
COORDINACIÓN DEL CONTENIDO
Manuel Nóvoa
24
Teodoro Estrela Monreal, Pedro Fernández Carrasco,
Santiago Hernández Fernández, Íñigo J. Losada Rodríguez,
Raúl Medina, Fernando J. Méndez, Manuel Nóvoa,
Ricardo Olabegoya Veturini, María Jesús Rodríguez de Sancho,
Carlos Soler Liceras y Luis Antonio Vázquez López.
36
44
52
La gestión de las sequías en España
Teodoro Estrela Monreal
Hiroshi Kitamura
Kame editors
Cambio climático e ingeniería territorial: riesgos y oportunidades
Pedro Fernández Carrasco
ILUSTRACIONES
MAQUETACIÓN
La incertidumbre de las catástrofes climáticas
Luis Antonio Vázquez López
FOTOGRAFÍAS
Tony Blanco, Santiago Hernández Fernández,
J. Hugas, J. Jiménez, David J. Philip, Pat Sullivan/AP Photo.
La Tectónica de Placas: La Hidrotectónica
Carlos Soler Liceras
COLABORADORES
60
Incidencia ambiental de los incendios
María Jesús Rodríguez de Sancho
PUBLICIDAD
Paipus, S.L.
Avda. Corts Catalanes, 5-7 pl. baixa,
08190 Sant Cugat del Vallès
Tel. 679 364 482
E-mail: [email protected]
68
Raúl Medina y Fernando J. Méndez
76
IMPRESIÓN
Índice, S. L.
Tsunamis
Íñigo J. Losada Rodríguez
FOTOMECÁNICA
Estmar Color
Inundación costera originada por la dinámica marina
82
La protección civil y las catástrofes naturales
Ricardo Olabegoya Veturini
COORDINACIÓN Y PRODUCCIÓN
Juan Lara Coira
EDITA
Colegio de Ingenieros
de Caminos, Canales y Puertos
REDACCIÓN, ADMINISTRACIÓN Y SUSCRIPCIONES
Els Vergós, 16, 08017 Barcelona
Telf. 93 204 34 12 Fax. 93 280 29 24
E-mail: [email protected]
http://www.ciccp.es/revistaIT/
DEPÓSITO LEGAL
ISSN
1695-9647
PORTADA: DESPUÉS DEL DILUVIO*
AUTOR: HIROSHI KITAMURA
*Basado en “El arca de Noé” de El Bosco y Doré
Esta publicación no necesariamente
comparte las opiniones de sus colaboradores.
Está prohibida la reproducción total o parcial de cualquier texto
o material gráfico del presente número, por cualquier medio,
excepto autorización expresa y por escrito de los editores
previo acuerdo con los correspondientes autores.
Foto: TONY BLANCO
B. 8.909-2003
EDITORIAL
Catástrofe. Las catástrofes. Signos de la vitalidad del Planeta en cualquiera de sus manifestaciones materiales. Reequilibrios y ajustes de las dinámicas planetarias.
A nuestra escala, las catástrofes suponen cambios drásticos en nuestro entorno vital. Cuando
la humanidad está cerca, las catástrofes provocan desastres.
Desde el plano subjetivo, “la catástrofe” es un estado mental, el estado de la conciencia de
cambios y transformaciones formidables, a los que hay que adaptarse si queremos sobrevivir y
prevalecer como forma de vida inteligente y consciente del universo al que pertenecemos. Somos
(polvo de estrellas), no estamos.
Nuestras minúsculas catástrofes terrestres, tan inhumanas, son metáforas descoloridas de las
catástrofes cósmicas, de la explosión de una supernova, del nacimiento de una estrella, o de su
colapso en un agujero negro. ¿No es el big-bang la mayor de las catástrofes de las que tenemos noticia?
A nuestros efectos, la catástrofe siempre es una oportunidad de evolución. Es nuestro trabajo conocer, comprender, prevenir, y en su caso mitigar, las causas y los efectos de las catástrofes naturales.
Nosotros mismos somos una catástrofe en el contexto de la biosfera. No, no sin connotación
moralista, como tampoco la tienen los terremotos, los cambios climáticos, o los meteoritos que chocan contra otros cuerpos celestes.
La aparición de vida inteligente en un planeta supone si duda un cambio catastrófico, una
transformación radical de las condiciones para el resto de los seres vivos en ese planeta. Todos
los cambios que el ser humano ha provocado en el planeta Tierra son catastróficos, desde las extinciones masivas, ocurridas hace decenas de miles de años, a los efectos globales de la contaminación industrial en todas sus formas, o la explosión y descontrol demográficos, que en el pasado han garantizado cuantitativamente la existencia de la especie, pero que sin un recalibrado
de la conciencia demográfica nos alejarán de un futuro fruto de la evolución positiva y nos llevarán a un callejón sin salida, extinguiéndonos como todas las especies que en el pasado han sido.
Catástrofe fue nuestro advenimiento a la inteligencia y la conciencia evolucionando desde especies menos dotadas (siempre hay un umbral para la catástrofe) y ocupando y empleando el planeta y sus recursos como nuca había ocurrido, y catástrofe será la ocasión en que, si no ponemos
remedio, nos extingamos (pues largo es el camino hacia la inteligencia y la conciencia).
Catástrofe somos y polvo de estrellas. Conozcámonos. En las páginas que siguen va un granito de arena.
Nota de la Redacción
Periódicamente nos llega la carta de algún compañero que legítimamente discrepa por activa y/o por pasiva de las opiniones o criterios que se vierten en los artículos que publica Ingeniería y Territorio, y que hasta la fecha no han tenido cabida
en la estructura de la revista. Para solventar esa cuestión se dispondrá en breve en la página web de Ingeniería y Territorio
de un lugar para colgar esas cartas y darles publicidad, cartas de las que se dará noticia (título y autor, y artículo al que se
refieren) en el índice de la revista a medida que éstas vayan llegando (en formato electrónico) a la Redacción.
Os informaremos individualmente, y en particular a los que ya han solicitado la publicación de cartas, de la evolución
de este tema.
2
I.T. N.O 74. 2006
Efectos de una de las últimas erupciones del Etna. (Foto: Tony Blanco).
I.T. N.o 74. 2006
3
Percepción humana de las catástrofes
Manuel Nóvoa
DESCRIPTORES
CATÁSTROFES
DILUVIO UNIVERSAL
SANTORIN
VESUBIO
LISBOA
SAN FRANCISCO
TECTÓNICA DE PLACAS
ANTROPOCENTRISMO
MEDIO
CIENCIA
CAMBIO CLIMÁTICO
POLÍTICAMENTE CORRECTO
VICTIMISMO
¡Oh Dios! ¡Aquel que puede leer en el libro del destino
y ver que la revolución de los tiempos
hace que las montañas se allanen, y los continentes,
cansados de tan sólida firmeza, se derritan en los mares.
William Shakespeare. El rey Enrique IV.
Introducción
Entorno de la catástrofe
Toda catástrofe, por su carácter imprevisible, provoca en el
ser humano terror y espanto, máxime cuando se desencadenan y arrasan las fuerzas de la naturaleza. Verdades o mitos de la antigüedad, como el Diluvio o los cataclismos que
arrasaron ciudades o las sumergieron bajo las aguas, han
marcado profundamente en el ser humano un sentimiento de
miedo e inseguridad frente a la violencia de la naturaleza. Al
mismo tiempo, la componente racional del ser humano ha intentado comprender las causas de estos desastres. En la civilización occidental, conformada por la filosofía griega y la
religión judeocristiana, ha dominado de la lectura bíblica el
castigo divino por el pecado de soberbia, que finalizó en
una gran catástrofe. Desde el Renacimiento, y más intensamente con la filosofía natural durante la Ilustración, se ha intentado buscar explicaciones científicas a las catástrofes naturales, que se conformaron durante el siglo XX. En la actualidad, con una sensibilidad antropocentrista, se da más importancia al riesgo, vulnerabilidad o impacto en la sociedad,
que al propio origen del suceso, y la búsqueda obsesiva de
responsabilidades las hace recaer en el propio ser humano,
como culpable del deterioro global del medio ambiente, a
cuya alteración se atribuye una de las causas de los desastres naturales. Al menos, es lo políticamente correcto, circunstancia que tranquiliza muchas conciencias.
Al pensar en el origen de nuestro planeta, nuestra imaginación
suele enlazar una serie de imágenes en las que se mezclan diluvios, maremotos, colapsos de meteoritos, erupciones volcánicas, lava incandescente, fuegos y terremotos en un entorno de
vida primitiva. Nos acude a la memoria la imagen bíblica, ordenada y severa, de un mundo creado en seis días. Estas imágenes de espanto están asociadas al origen de los tiempos, pero no constituyen, en sí, una catástrofe. Para hablar de catástrofes, es preciso centrarse en un tiempo histórico, un espacio,
en el que se localiza el acontecimiento, y lo más determinante
es la presencia de seres humanos que padezcan el desastre y
lo transmitan para formar parte de la memoria colectiva.
La razón del ser humano percibe la catástrofe como terror
a lo imprevisto frente al cual los recursos humanos de defensa son desbordados por unas fuerzas infinitamente superiores,
ante las que no cabe ningún control. La presencia de un acontecimiento de esta magnitud, totalmente imprevisto y difícilmente vivido durante una vida humana, determina que éstos
se transmitan de generación en generación en forma de mitos. La documentación escrita es parcial, muy escasa, y solo es
conocida durante los últimos milenios en determinadas zonas
del planeta, por lo que las referencias de las catástrofes no
son homogéneas, sino sesgadas en determinadas culturas. Es
por tanto imprescindible que, cuando se produzcan, sus efec-
4
I.T. N.O 74. 2006
tos provoquen desastres en una determinada colectividad humana y que ésta pueda trasmitirlo. Todas estas circunstancias
determinan que se aprecie un mayor número de catástrofes
cuando se dispone de mayor información, como sucedió el
pasado año 2005. Estas circunstancias son debidas a que la
información es global, y los medios de comunicación tratan de
buscar en cada acontecimiento natural un hecho singular:
¡continuamente estamos viviendo el acontecimiento del siglo!
La catástrofe en el origen
de la cultura occidental
La imagen que más influencia tuvo en la cultura occidental fue
el mito bíblico del Diluvio, motivado por el sentido de castigo
divino, por la soberbia del hombre al abandonar sus mandatos. Moisés, que escribió los cinco primeros libros de la Biblia,
recoge la tradición oral del judaísmo desde que Abraham,
padre del pueblo judío, abandona Mesopotamia. La descripción de la cólera divina que provoca una lluvia de cuarenta
días con sus noches, y la salvación de los únicos siervos fieles, que eran Noé y su familia, sirvieron para dejar testimonio de este acontecimiento, en el que Dios interviene directamente en la naturaleza, alterando su evolución natural, y su
ira desencadena una catástrofe. La vida se ceñía al Paraíso,
y éste se localizaba en los terrenos fértiles de Mesopotamia,
regados por los ríos Tigris y Éufrates. Del entorno geográfico
de estas tierras, que hoy constituye Irak, solamente el 6 % del
territorio es agrícola, por lo que fácilmente se puede imaginar una importante inundación en el valle agrícola, pero las
causas y efectos se describieron siglos después. El instinto de
supervivencia lleva a los hombres a construir una torre, supuestamente para librarse de futuras inundaciones, y Dios
vuelve a castigar la soberbia del hombre confundiendo las
lenguas en la torre de Babel. Dos escarmientos sucesivos para castigar el pecado de soberbia. El zigurat de Elemank, que
mandó construir Nabucodonosor (604-562 a.C.), con unos
90 metros de altura, fue la supuesta torre de Babel que contemplaron los judíos en su cautividad en Babilonia.
El mito bíblico pasó con el cristianismo a ser ampliamente
difundido por la Europa medieval, y se mantuvo como mito dominante de las catástrofes hasta mediados del siglo XVIII, cuando, con la Ilustración, va despertando el conocimiento científico.
Fig. 1. Manuscrito La cité de Dieu. Miniatura del Arca de Noé, siglo XV.
Cataclismo en Santorin
Santorin fue el nombre dado por los venecianos en el siglo XVIII
a una serie de islas de origen volcánico que, geológicamente,
se pueden datar del orden de hace unos 150.000 años. Los
restos arqueológicos más antiguos tienen cinco milenios, y corresponden a la cultura Cicládica, de la Edad del Bronce antigua, y están constituidos por cerámica pintada y vasos de mármol, enterrados bajo una capa de lava y cenizas volcánicas.
Hacia el año 1.500 a.C. se produjo una fuerte erupción volcánica seguida de un maremoto, que devastó las costas de Creta y que supuestamente contribuyó a la desaparición de la civilización Minoica. Los movimientos sísmicos siempre han sido
frecuentes en estas islas, y el último se registró en el año 1956.
Esta catástrofe quizá han sido la fuente de información de Pla-
Fig. 2. Breviario Grimaldi, Construcción de la torre de Babel (1510-1520),
Venecia, Biblioteca Nazionale Marciana.
I.T. N.o 74. 2006
5
tón para idealizar el mito de la Atlántida, que gozó de gran interés dentro de las descripciones del mundo físico, a través de la
filosofía natural. Algunos autores han calificado esta catástrofe
como el cataclismo más violento en la historia de la humanidad.
La erupción del Vesubio
La erupción del volcán Vesubio, sobrevenida en agosto del
año 79 d.C., constituye un acontecimiento excepcional para
el mundo romano. De ella tenemos la descripción vulcanológica más antigua de todas las conocidas, por la presencia excepcional durante la erupción de Plinio el Viejo, que falleció
al segundo día de la erupción, y de su sobrino, Plinio el Joven, que en dos cartas dirigidas al historiador y político romano Publio Cornelio Tacito, describe la muerte de su tío y sus
impresiones sobre las manifestaciones de la erupción. Plinio
el Viejo había escrito una importante Historia Natural, en la
que recopiló buena parte del saber antiguo.
Plinio el Joven describió la erupción, cuando se presentó,
como una gran nube de gas y cenizas que se elevó hasta llegar a la alta atmósfera, donde se expandió en forma de pino. Se produjo una fuerte lluvia de piroclastos, cenizas y lapilli, que sembró el pánico en la población. No hace mención
a la nueva silueta creada en el Vesubio (1.277 m de altitud)
dentro de un volcán más antiguo, que es el Somma, cuyo origen data de hace unos 10.000 años.
El efecto más impresionante de la mencionada erupción fue
la desaparición de las ciudades de Pompeya y Herculano, de
las que Plinio el Joven no hace ninguna mención. Si bien en un
principio se supuso que las ciudades habían sido arrasadas
por la lava, su descubrimiento en el siglo XVII, bajo una espesa
capa de cenizas y lapilli, permitió recuperar enteramente estas
ciudades casi intactas de la degradación física y humana.
El Vesubio, que está aparentemente sin actividad desde el
año 1944, ha ejercido una gran fascinación, después de las
excavaciones de Pompeya, incentivadas por Carlos III, entre
pintores, escritores y viajeros, para los que la presencia del
riesgo creaba fascinación y estimulaba la imaginación, ante
un peligro probable aunque impredecible.
Fig. 3. Vista de los barrios del suroeste de Nápoles.
Al fondo el Vesubio. A su izquierda el Somma.
6
I.T. N.O 74. 2006
Época medieval
Reducida la filosofía clásica en algunos reductos de bibliotecas
monacales, tal como reflejó magistralmente Humberto Eco en El
nombre de la rosa, el pensamiento dominante en la Europa occidental es el mito del Diluvio, con el que Dios castigó a sus criaturas por abandonar sus mandatos. En las magníficas representaciones de los comentarios del último libro de la Biblia, el
Apocalipsis de San Juan, suelen tener incluidos los denominados Beatos representaciones del diluvio universal, con las imágenes del arca de Noé cargada con una pareja de animales de
cada especie, tal como le había encargado el mismo Dios.
Las explicaciones de las catástrofes eran claras, y atribuidas a los inescrutables designios divinos, alterados, casi siempre, por culpa de las caídas de la humanidad. La búsqueda
racional de las causas no solo no era admisible, sino incluso
perseguida, por dudar de la obra perfecta del Creador y sus
motivos, que no se debían cuestionar.
El mito de la torre de Babel, como creación humana para
escapar del castigo divino, se consideraba como un fruto de
la soberbia humana. El humanismo renacentista trata de soltar el lastre de esta visión teológica dominante durante la
Edad Media y enfatiza aquellos aspectos que liberan al individuo del determinismo religioso, y va afirmando el valor del
Humanismo. Las magníficas representaciones de la torre de
Babel pintadas por Bruegel son una muestra de confianza en
la potente arquitectura humana para elevarse muy por encima del alcance del castigo por la inundación.
Terremoto de Lisboa de 1755
Una de las catástrofes que tuvo más influencia en el futuro
desarrollo de la ciencia fue el terremoto de Lisboa, ocurrido el
1 de noviembre de 1755, no tanto por el desastre en sí, que
fue extraordinario, como por su valoración en plena Ilustración,
que lo utilizó como bandera para cuestionar, y poner en duda,
la idea dominante de la voluntad divina en este tipo de catástrofes, y abrió nuevos caminos para la investigación científica.
El terremoto de Lisboa, que se estima en la actualidad con
magnitud de 8,7 de la escala de Richter, provocó, junto con el
maremoto que le siguió, más de 60.000 víctimas. El número
de muertes fue muy importante debido a que buena parte de
la población se encontraba congregada, a las nueve y media
de la mañana, en las iglesias, que se desplomaron sobre los
fieles, que estaban celebrando la festividad de Todos los Santos. Fue la más aterradora catástrofe natural conocida en Europa, después del Vesubio. Las circunstancias de la muerte de
tantos cristianos estimularon el debate que enfrentaba el mito
cristiano de la catástrofe como castigo divino, a la razón ilustrada, que pretendía abrir caminos a la razón, que, a su vez,
conduciría al despegue del pensamiento científico. Este acontecimiento, en el que los afectados no fueron pecadores, sino
los fieles que estaban en las iglesias orando, estremeció los cimientos de estas creencias cristianas, y lo elevó al centro del
debate. Hasta ese momento, los teólogos de la Iglesia consideraban que el mundo estaba en armonía, como obra perfecta del Creador, y cuando se producía una catástrofe, el sufrimiento producido servía como lección y, solamente en oca-
Fig. 4. Imagen del terremoto de Lisboa del 1 de noviembre de 1755.
siones muy extremas, como castigo. Las circunstancias de la
muerte de tantos cristianos por desplome de las iglesias, plantearon cuestiones de conciencia sobre la armonía en la Tierra
y las causas finales de la naturaleza.
El filósofo Voltaire, en sus dos obras tituladas Poème sur le
désastre de Lisbonne y Cándido, toma partido para cuestionar
el supuesto orden divino de la Tierra, postura que mantiene en
su Diccionario Filosófico, de gran influencia desde la Ilustración.
En Cándido adopta una actitud irónica frente a la visión tradicional, que consideraba estas catástrofes como una lección o
castigo del Autor de una creación perfecta. De cualquier modo,
esta discusión solamente afectó a una minoría ilustrada, que tomaron diferentes posturas, puesto que la mayoría de la población cristiana aceptaba con conformismo la visión tradicional.
Fig. 5. Vista de San Francisco después del terremoto de 1906.
Terremoto de San Francisco
El terremoto de San Francisco, que destruyó la ciudad el 18
de abril de 1906, causó más de 3.000 víctimas. Si bien no
fue el más importante del siglo si lo comparamos con el ocurrido el 28 de julio de 1976 en Tangshan, en China, que dejó unas 240.000 víctimas, sí fue uno de los mejor estudiados
científicamente y del que se sacaron innumerables consecuencias, en diversos ámbitos. El terremoto, que alcanzó la magnitud de 8,2 en la escala de Richter, puso en evidencia que la
ciudad estaba atravesada por la denominada falla de San
Andrés. Posteriormente, con la teoría de la Tectónica de Placas, se explicaron los movimientos de esta falla.
La ciudad de San Francisco, situada en el rico estado de California, fue sacudida por el sismo, que se produjo por un deslizamiento en la falla de San Andrés. La parte situada al oeste de
la línea de falla se corrió hacia el noroeste, y la parte oriental
hacia el sureste, provocando en algunos lugares una separación
de hasta seis metros después de la catástrofe. La ciudad, que había sido un mito en la carrera hacia el oeste de los estados Unidos, fue devastada por el sismo, al que siguió un gran incendio.
Este terremoto sirvió de estímulo para los estudios sobre el
comportamiento del interior de la Tierra y, más que por la
magnitud del terremoto en sí, tuvo una gran importancia cienI.T. N.o 74. 2006
7
Fig. 6. Sección esquemática de la corteza terrestre con la dorsal oceánica y zona de subducción.
tífica y social. Pese al elevado factor de riesgo, la población
lo acepta, porque considera el riesgo inferior a la oportunidad de trabajo y a la bondad del clima. Pese a las incertidumbres, el desarrollo del Estado de California ha sido el más
vertiginoso del siglo XX en el país, y en determinadas zonas,
como Silicon Valley, está ubicada la mayor aglomeración de
industrias de alta tecnología informática del mundo.
Teoría de la deriva
continental de Wegener
Continuando con nuestra búsqueda durante el siglo XX de las
causas de las violentas catástrofes de la naturaleza, se presentaron diversas teorías que explicaron el comportamiento
de la superficie terrestre y el desencadenamiento de enormes
cantidades de energía, que se manifiestan en forma de erupciones volcánicas, movimientos sísmicos o grandes maremotos
que, en muchas ocasiones, constituyen auténticas catástrofes.
La coherencia del pensamiento científico, aunque no existen verdades absolutas, ha permitido explicar con bastante
precisión el mecanismo del comportamiento de la Tierra,
aunque, hasta el día de hoy, no estamos en condiciones de
preverlo y mitigar en lo posible los desastres naturales. En lo
que se ha avanzado es en desvincularlos de la voluntad divina, que queda como un reducto para un pequeño grupo de
fundamentalistas.
El geofísico alemán Alfred Lothar Wegener estableció, en
1912, la teoría de la deriva de los continentes, en su obra sobre El origen de los continentes y los océanos. Supuso que hace 255 millones de años todas las tierras emergidas estaban
unidas y constituían la Pangea. Hace 150 millones de años se
produjo una fragmentación de la Pangea y las diferentes partes flotan a la deriva. En períodos más recientes alcanzaron
las grandes unidades que hoy conocemos como continentes,
que continúan sometidos a la dinámica terrestre. Esta teoría,
muy criticada desde un principio, si no totalmente rigurosa,
abrió un camino cierto para las investigaciones posteriores.
8
I.T. N.O 74. 2006
Una segunda idea fue concebida por el minerólogo estadounidense Harry Hess (1906-1969), que, utilizando la sonda de un barco durante la segunda guerra mundial, descubrió la presencia de cañones marinos y cadenas montañosas,
más altas que las continentales. En mitad del Atlántico descubrió un cañón o grieta de más de 10 kilómetros de ancho y
19.000 kilómetros de longitud a lo largo de todo el océano,
demostrando que los continentes iban separándose. En la década de los años sesenta se descubrió que la corteza, en las
proximidades de los continentes, comenzaba a hundirse bajo
ellos, constituyendo un fenómeno denominado subducción. A
ello se debe que los fondos oceánicos sean relativamente jóvenes. En el año 1963, partiendo del estudio de los campos
magnéticos, se pudo comprobar que los lechos marinos estaban ensanchándose y que los continentes tienen movimientos.
En un artículo publicado en la revista “Journal of Geophysical Research” en 1968, denominó placas a los diferentes segmentos y a la nueva ciencia que se dedica a su estudio Tectónica de Placas, que, con ciertas dudas o posturas enfrentadas,
es aceptada en la actualidad por la comunidad científica. Las
zonas de contacto de estas placas son activas, y es donde se
localizan los volcanes y la mayor actividad sísmica. La Tectónica de Placas explica no solo la dinámica de la superficie terrestre sino muchos procesos internos, como los terremotos o la
formación de montañas. McPhee lo expresaba del siguiente
modo: Los geólogos se encontraban en una posición que causaba vértigo, en la que, de pronto, toda la Tierra tenía sentido.
La localización de los puntos activos del planeta, en donde
se han producido terremotos o actividad volcánica, se comprobó que coincide con los contactos de las diferentes placas, cuya
teoría explica los terremotos, los tsunamis, los volcanes, los pliegues, fallas y la formación de las cordilleras. Llegado a este nivel de conocimiento, tenemos una explicación de las causas de
los fenómenos naturales pero continuamos siendo tan vulnerables como antes, pues no solventa nada el saber que al cabo de
una vida América estará dos metros más alejada de Europa.
Fig. 7. Límites de las placas de la litosfera (amarillo) y epicentros de los terremotos registrados en 1980-1990 (rojo), Centro Nacional de Datos Geofísicos de EE UU.
El antropocentrismo es una doctrina que justifica que el ser
humano es el fin último del universo. No tiene su origen en el
principio filosófico de Protágoras, para el cual el hombre es
la medida de todas las cosas, sino en la justificación de los
científicos de la Ilustración, que designaron la especie humana como homo sapiens. Este sentimiento de superioridad conduce a numerosos individuos, sobre todo dentro de la cultura
occidental, a vivir de espaldas a la naturaleza, confiando en
los progresos científicos y técnicos e ignorando el miedo o temor que nos da el entorno, ya que con el apoyo de la tecnología que cree dominar, aumenta su soberbia. Hoy día, las
posiciones antropocéntricas resultan dominantes.
Las ideas deterministas del siglo XIX y primera mitad del XX,
herederas de los grandes descubrimientos del XVIII, llevaron a la
formulación de leyes con las que se tenía la falsa confianza de
comprender la naturaleza. Esta confianza llevó a hacer coincidir su conveniencia con las explicaciones científicas, olvidando
en ocasiones el rigor, que debe ser la base del conocimiento.
Una catástrofe de la naturaleza desborda toda capacidad de
respuesta del individuo y provoca una alteración psicológica en
la inestable confianza en su seguridad. El antropocentrismo en
la actual sociedad materialista se está transformando, como
describe Miguel Delibes, en un objeto-centrismo que al eliminar
todo sentido de elevación del hombre, lo ha hecho caer en la
abyección y la egolatría. Quizá simplemente en la estupidez.
Para integrar la incertidumbre en la vida social de estos
extraordinarios sucesos naturales en relación a sus efectos en
el medio humano, se introdujo el concepto de riesgo del impacto de la catástrofe, más como efecto psicológico, que como medio de valorar económicamente los posibles efectos de
un suceso, que puede ser incluso catastrófico. El concepto de
riesgo depende del entorno social donde se puede producir y,
en consecuencia, desde el que se realiza la estimación. Se
suele adaptar criterios estadísticos para valorar estas catástrofes como anomalías de la dinámica planetaria.
Los riesgos naturales han existido siempre y continuarán
siendo una amenaza, pues forman parte de la propia dinámica de la naturaleza. El progreso de la sociedad viene
asociado a comprender el riesgo y limitar el grado de su
amenaza. Para esto, se establecen estrategias de supervivencia o, como dice T. C. Nichols (1970): Si no podemos
dominar el riesgo, tendremos al menos que aprender a convivir con él.
Otro concepto que se ha desarrollado durante las últimas
décadas, para analizar el impacto de las catástrofes en el medio humano, es el de vulnerabilidad frente a cualquier amenaza que pueda producir inseguridad en las vidas. Expresa,
por tanto, un desequilibrio entre la estructura social que ocupa
el territorio y su medio físico. Cuando concebimos la vulnerabilidad como la componente de inseguridad del ser humano,
estamos valorándola desde una perspectiva antropocéntrica.
La catástrofe como riesgo
Los medios de comunicación
La característica fundamental de las catástrofes naturales es la
enorme dimensión de energía liberada e incontrolada en la naturaleza, con las variables espacial y temporal; esta última casi siempre es superior a la vida humana. Ante lo imprevisto del
suceso, provoca en el ser humano un sentimiento de pánico, inseguridad, e incertidumbre. En la actualidad, al intentar el análisis del impacto que provocan estos sucesos en la población,
se suelen utilizar los conceptos de riesgo y vulnerabilidad.
Los medios de comunicación suelen desempeñar la doble función de formación e información. Influyen poderosamente, a
falta de la vivencia personal, en la percepción de las catástrofes. Estos supuestos son en parte verdad, al presuponer un
comportamiento ético en el informador, pero en la mayoría
de las ocasiones también tienen un componente de simulación
por ignorancia o, incluso, por manipulación política. Somos
conscientes de que el lenguaje no es inocente; está cargado
Antropocentrismo
I.T. N.o 74. 2006
9
Fig. 8. Katsushika Hokusai, La gran ola en alta mar en Kanagawua, 1831.
Fig. 9. Tsunami en Maddampegama en Sri Lanka.
Olas de hasta 10 metros de altura el 26 de diciembre de 2004.
La tendencia de los medios consiste en centrar la noticia en
personas y sentimientos, más que en dar explicaciones científicas. Se inclinan por las historias que tengan una fuerte componente de drama humano y sufrimiento. La circunstancia de
una catástrofe que reviste dimensiones apocalípticas, más que
reflexionar sobre la naturaleza y sus enseñanzas, deriva la información hacia lo sensacional. Casi siempre la última imagen suele ser un niño indefenso o los restos de un juguete. No
se buscan actitudes ecuánimes y respetuosas sino que la noticia tiene la tendencia a transformarse en un realitty show.
Explicaciones científicas
de una fuerte dosis ideológica, que suele distorsionar la percepción del ciudadano. Ya la noticia tiene un componente de
improvisación, pues incluso las explicaciones científicas no
son creíbles totalmente, hasta que la comunidad científica las
acepta. No obstante, hoy en día no se habla de verdades
científicas, que pueden explicar el origen de las catástrofes,
sino de teorías, que suelen ser verdades relativas. Estos niveles de incertidumbre no contribuyen al aumento de nuestra seguridad, pues llegamos con rapidez a la conclusión de que
todo conocimiento es relativo.
Hoy día se cuestiona casi todo, al resultar generalmente
aceptada la manipulación política incluso del conocimiento
científico, y éste, una vez divulgado a través de los medios de
comunicación, cuyos profesionales no suelen dominar la profundidad de las teorías, contribuye a que la información llegue muy desvirtuada.
10
I.T. N.O 74. 2006
Aunque la ciencia se ha desarrollado, particularmente en el
ámbito de la biología y la genética, hasta límites insospechados hace pocos años, los conocimientos sobre la Tierra y su
clima siguen girando alrededor de hipótesis cada vez más
abiertas, que, no obstante, distan mucho de establecer certezas. Desde el determinismo científico, que partiendo de principios generales posibilitó un rápido progreso de la Física, del
conocimiento del comportamiento de la Tierra y, sobre todo,
del clima, se fue evolucionando durante el siglo XX con la Física moderna. A semejanza de la nueva mecánica relativista de
Einstein, que va desplazando las certezas, y el principio de incertidumbre de Heisemberg, que las aleja más, se van introduciendo cada vez más hipótesis en el análisis de entornos cada vez más complejos, denominados sistemas no lineales. Las
complicadas formulaciones matemáticas están asociadas a
simplificaciones y, en consecuencia, a niveles de probabilidad.
En la década de los años sesenta, el meteorólogo Edward
Lorenz, para tratar de explicar el comportamiento de la atmósfera, señaló que pequeños cambios al inicio de un proceso pueden provocar cambios drásticos en su evolución posterior. En este entorno se basó para enunciar la teoría del caos.
En un artículo inicial titulado “Previsibilidad: ¿Puede el aleteo
de una mariposa en Brasil causar un tornado en Texas?”, utilizó esa idea como metáfora para explicar la teoría del caos.
En un sistema complejo, como puede ser el que llega a producir una catástrofe, un fenómeno no obedece a una sola
causa sino que precisa la coincidencia de múltiples causas,
algunas esenciales y otras aparentemente de menor importancia pero que contribuyen a que se desarrolle el fenómeno.
El caos equivale a la componente de la incertidumbre, pero también es relativo, pues se asocia a la probabilidad del suceso. Representa más bien la incertidumbre de las probabilidades extremas e impredecibles. Pese a todas las incertidumbres,
el mundo diario, habitualmente, se puede seguir expresando
con la mecánica clásica con un elevado nivel de probabilidad.
Vivencias de catástrofes
El pasado 23 de marzo, como todos los años en esta fecha
desde 1950, promovido por la Organización Meteorológica
Mundial, se celebró el día meteorológico, para el que en esta ocasión, se escogió como tema La prevención de los desastres naturales y atenuación de sus efectos, debido a que el
90 % de los desastres naturales tienen que ver con el tiempo,
el clima y el agua. El año 2005 se había caracterizado por
padecer prolongadas sequías en Europa, Asia, Australia y
Brasil. En el mismo año, en el océano Atlántico se produjo un
récord en el número de huracanes desvastadores, entre ellos
el Katrina, que indujo la inundación de Nueva Orleáns. El
año 2004 también se había calificado como muy grave por
los desastres naturales, y en particular por el tsunami que devastó las costas del océano Índico, y que alcanzó unas dimensiones dantescas en pérdidas de vidas humanas.
Durante el período de diez años entre 1992 y 2001, los
desastres naturales causaron 622.000 víctimas, y afectaron a
más de 2.000 millones de personas. Los desastres acontecidos, y sentidos por toda la sociedad a través de los medios de
comunicación, nos permiten aproximarnos a la auténtica dimensión de las catástrofes y situarlas dentro del contexto de
la percepción humana. Podemos analizar, por su singularidad, la repercusión del tsunami del océano Índico y del huracán Katrina en el sur de los Estados Unidos.
El tsunami registrado el 26 de diciembre del año 2004,
que consistió en una ola producida por un movimiento sísmico, con epicentro en Indonesia, se trasladó por la superficie del
océano Índico a una velocidad del orden de 700 km/h y provocó en pocas horas la muerte de cientos de miles de vidas. Se
pudo presenciar en tiempo real en todo el mundo, a través de
la televisión, percibiendo la total indefensión de aquellas gentes frente las fuerzas desatadas de la naturaleza. Las cifras de
muertos, que se estimaron en principio en 10.000, fueron aumentando exponencialmente con cada nueva información, y a
partir de los 200.000 ya se dejó de contar el número de vícti-
mas, con una estimación de 250.000. A la vista de lo sucedido, se deduce que al valorar una catástrofe de esta magnitud
la contabilización de las víctimas es meramente indicativa, lo
mismo que sucede con los damnificados y las estimaciones de
pérdidas económicas. Si en la actualidad, cuando se dispone
de sofisticados medios de transmisión de la información, no se
consigue concretar estas magnitudes, las que llegan del pasado no pasan de ser indicativas del orden de magnitud.
Es habitual atribuir a países en desarrollo y atrasados, por
ser los más vulnerables, las mayores afecciones por las catástrofes. Esta afirmación, muy propia de la elevada autoestima de
los occidentales, resultó cuestionada después de la experiencia
del huracán Katrina, que, el 5 de septiembre del año 2005,
unido a la rotura de los diques de contención de agua, inundó
la ciudad de Nueva Orleáns y puso a prueba, no superada con
éxito, al país más poderoso de la Tierra. Si bien en el ámbito
económico los efectos del huracán fueron desastrosos, la información de los medios sobre la pérdida de vidas humanas fue
disminuyendo; las previsiones apocalípticas iniciales, que estimaban varias decenas de miles de víctimas, quedaron reducidas a una cifra final de 270 en la ciudad, contabilizándose un
total de 1.200 en toda el área de la trayectoria e influencia del
huracán, que constituyó el mayor desastre natural en los Estados Unidos. Las autoridades guardaron una total reserva sobre
estas cifras. Lo más penoso del desastre fue la pérdida del orden y la ley en una parte de la población incontrolada, que se
dedicó al saqueo, poniendo en evidencia la parte menos aparente de la condición humana, al manifestarse la lucha despiadada por la supervivencia, que llegó a desbordar a las fuerzas
del orden, asombrando al mundo por las muestras de descivilización. Las constantes noticias fueron una llamada de atención y reflexión a los gobiernos occidentales hacia las reacciones sociales frente a las catástrofes de esta magnitud, que desbordan el tratamiento de riesgos y la capacidad de respuesta
inmediata. Lo más patético es constatar cómo el hombre orgulloso se vuelve frágil e indefenso ante la magnitud de estas catástrofes naturales con sus devastadores efectos.
Cambio climático
Adentrados en el siglo XXI, las catástrofes naturales continúan
golpeando con intensidad el planeta, y con independencia del
conocimiento de sus causas, al ciudadano le llega el debate
en una discusión interminable sobre si éstas se deben a orígenes puramente naturales o derivados de acciones inconscientes de las Administraciones y, por tanto, responsabilidad
de los Estados. Las catástrofes que tienen su origen en la causa climática son las más numerosas, con grados diferentes de
magnitud, las que se viven con mayor intensidad, y las que
más víctimas y daños provocan. Durante los últimos treinta
años, el debate político dominante a través de los medios de
comunicación se centra en el nuevo paradigma del Cambio
Climático, que se supone inducido por el hombre, es decir, debido a cambios antropogénicos. Cuando debatimos sobre el
clima, es preciso recordar que éste viene determinado por un
entorno geográfico, y está representado por unos valores medios de los fenómenos meteorológicos durante largos períoI.T. N.o 74. 2006
11
dos temporales, que van desde meses hasta miles de años. Sin
embargo, lo que sentimos directamente es el tiempo atmosférico, que son los fenómenos que suceden en el entorno físico
con escalas temporales de minutos a varios días. Durante el
día, la temperatura puede oscilar entre cinco y diez grados, o
incluso mucho más. Lo mismo sucede con el valor medio mensual de la temperatura a lo largo del año, y entre años puede
variar varios grados. Cuando los científicos afirman que desde que se generalizaron los instrumentos de medición la temperatura media sobre el planeta aumentó 0,75 °C, de los cuales 0,5 °C corresponden a los últimos 50 años, están reseñando una cantidad que no se llega a sentir pero cuyos efectos, a escala planetaria, pueden tener un efecto significativo.
Fig. 10. Foto de satélite del huracán Katrina.
El Convenio Marco de Naciones Unidas sobre el Cambio
Climático, firmado en Río de Janeiro en 1989, llegó a la conclusión de que existía una peligrosa interferencia antropogénica, que estaba contribuyendo al calentamiento global del planeta con el efecto invernadero. Las Naciones Unidas establecieron un panel internacional sobre el cambio climático (PICC),
que se encargó de analizar el clima, y establecieron previsiones de emisión de CO2, debido preferentemente al consumo de
energías fósiles, que resultaron demasiado pesimistas. Este supuesto calentamiento global tiene dos efectos graves: la elevación del nivel medio del mar y la velocidad de fusión de las capas de hielo del planeta. Lo que en un principio fue una opinión de expertos para su discusión, a través de las Naciones
Unidas congregó a la Comunidad Científica Internacional, y
sus conclusiones fueron integradas en las políticas activas de los
diferentes gobiernos firmantes, después de que en el año 2005
entrase en vigor el Protocolo de Kyoto, que limita la emisión a
la atmósfera de gases responsables del efecto invernadero.
Los esfuerzos a nivel mundial para reducir las emisiones de
gases procedentes de las actividades humanas que pueden
provocar el efecto invernadero y, de este modo, alterar de forma apreciable el clima del planeta, se han materializado en la
Unión Europea el 1 de enero de 2005, con la firma de un régimen para el comercio de los derechos de emisión de gases
entre los diferentes países. Se pretende fomentar la innovación
Fig. 11. Louis Garveray (1783-1875). El Náufrago. Brest, Museo de Bellas Artes.
12
I.T. N.O 74. 2006
global y, en última instancia, desean aplicar el principio de
que quien contamine pague. El acuerdo político-científico tiene
como fin la defensa del medio ambiente. A través del control
de las emisiones y el pago de los países que contaminan se tiene previsto un efecto indirecto para ayudar a la lucha contra
la pobreza de los países que no contaminan. Las incertidumbres globales se centran en la incertidumbre de cómo se les
aplicarán limitaciones a las potencias emergentes, China, India o Brasil. No es seguro que el cambio climático se produzca, pero sí es importante la toma de conciencia en los diversos
escenarios: individual, local y global. James Hansen, que es el
científico responsable de la investigación sobre el clima de la
NASA, manifiesta que El calentamiento global es real. Las consecuencias podrían ser desastrosas. No obstante, ciertas actuaciones prácticas, que de paso nos proporcionan una atmósfera más limpia y sana, podrían retardar y, con el tiempo,
detener el proceso. Estas declaraciones esperanzadoras en la
capacidad y ética del ser humano están en otro plano distinto
al discurso de lo políticamente correcto, para el cual cualquier
irregularidad climática está motivada por el cambio climático
y éste es consecuencia de la combustión de productos fósiles,
que lanzan a la atmósfera CO2. En cualquier circunstancia, a
pesar del abuso informativo, no sabemos si estamos dentro de
la influencia originada por los cambios antropogénicos, o por
los cambios cíclicos naturales de más largo plazo.
El desatre como oportunidad:
Victimismo
La cultura popular recoge en refranes las experiencias ante
los desastres, que suelen revestir un carácter fatalista: “Poco
mal espanta y mucho amansa”. “La desgracia prevista anda
más despacio que la imprevista”. O aquel más reflexivo: En la
inseguridad hay miedo y en el miedo hay seguridad.
Una de las características de las democracias occidentales es la seguridad que garantiza a los ciudadanos dentro del
denominado Estado del Bienestar. Garantiza que puedan beneficiarse de seguridad jurídica, política, de educación, sanitaria, y de un buen número de privilegios que disfrutamos con
facilidad, olvidándonos de lo mucho que ha costado a las generaciones pasadas el conseguirlos, y de la duda de hasta
cuándo podremos seguir disfrutándolos. Esta seguridad ha influido en el estímulo del antropocentrismo psicológico, que
entra en crisis cuando se presenta una catástrofe, tanto por lo
impredecible como por su enorme dimensión, que desborda
la respuesta rápida de los Estados.
Como anécdota, el Consorcio de Compensación de Seguros, que depende del Ministerio de Hacienda, cubre, en determinadas circunstancias, los daños ocasionados por acontecimientos extraordinarios, entre los que incluyen los siguientes fenómenos de la naturaleza: terremotos y maremotos, inundaciones extraordinarias (incluyendo embates de
mar), erupciones volcánicas, tempestades ciclónicas atípicas
(incluyendo los vientos extraordinarios con rachas superiores
a 135 km/h, y los tornados) y caídas de cuerpos siderales y
aerolitos. ¡No está mal! Quedan incluidas las catástrofes naturales y podemos confiar seguros.
Transcurridas las primeras horas y contenido el desastre,
comienza la búsqueda de posibles responsables, que, en la
mayoría de las ocasiones, se atribuyen al entorno del Estado.
Superada la catástrofe con una sensación heroica, se va dejando paso al egoísmo materialista y buena parte de la población aparece como víctima por el abandono del Estado.
Asumiendo el victimismo, se hace culpable a otro, lo que lleva a obtener beneficios intangibles y materiales. En la actualidad el sentimiento de víctima se encuentra muy extendido.
Julián Marías lo describe magistralmente: Las víctimas siempre
tienen razón. No, las víctimas merecen toda compasión, la solidaridad, todo el posible apoyo que se les puede ofrecer, moral como económico, el máximo respeto y nuestro recuerdo.
Hay una idea muy extendida de que el sufrimiento tiene un
efecto limpiador, purificador y que ennoblece. Pero la razón
no la da el hecho de ser víctima. En la sociedad actual, enmarcada en el paradigma de la felicidad, la gente no soporta la inquietud ni la pesadumbre, cuando en la propia vida no
es posible vivir sin altibajos, sin miedos ni frustraciones, sin penas y sin dolor, pues todas estas adversidades, una vez superadas, hacen valorar positivamente la belleza de la vida. Hoy
día, con la pérdida de pudor que caracteriza al individuo, éste exagera los males y desgracias para fomentar la solidaridad. La felicidad que suponemos es privada y las desgracias
las hacemos partícipes. Necesitamos atribuir la culpabilidad a
otros para sentirnos víctimas y, curiosamente, importantes.
Los medios de comunicación intentan sacar noticias y presionan a la clase política, que, más por imagen que por convicción, promete actuaciones urgentes, no solamente de reparación de los daños ocasionados, sino de mejora de todas las
obras públicas necesarias para la seguridad de los ciudadanos. En estas circunstancias los ingenieros entran en acción,
desempolvando proyectos necesarios que no tuvieron su oportunidad, y realizan lo que les es natural: las obras públicas necesarias para la sociedad. El final de la catástrofe vuelve a atribuir al ingeniero su tradicional virtud de servidor público. ■
Manuel Nóvoa
Ingeniero de Caminos, Canales y Puertos
Jefe de la Demarcación de Costas en Cataluña
Bibliografía
– Alonso, Eduardo, et al., Riesgos naturales en la ingeniería civil, Ed. UPC, Barcelona, 1986.
– American Institute of Professional Geologist, Guía ciudadana de los riesgos geológicos, Colegio Oficial de Geólogos de España, Madrid,1997.
– Bryson, Bill, Una breve historia de casi todo, RBA, Barcelona, 2005.
– Calvo, Francisco, Sociedades y territorios en riesgo, Ed. del Serval, Barcelona, 2001.
– Corbin, Alain, y otros, El mar, terror y fascinación, Paidós, Barcelona, 2005.
– Glacken, Clarence, Huellas en la playa de Rodas, Ediciones del Serval, Barcelona, 1996.
– Goodwin, Joscelyn, Fludd, Robert, Claves para una teología del universo, Editorial
Swan, Madrid, 1987.
– Hacar Benítez, M., et al., Accidentes y catástrofes, Map&Sig Consulting, Madrid, 1996.
– Hansen, James, ”El calentamiento global”, Investigación y Ciencia, mayo 2004.
– Kenneth Galbrait, John, La cultura de la satisfacción, Ariel, Madrid, 1992.
– Marina, José Antonio, López Penas, Marisa, Diccionario de los sentimientos, Ed.
Anagrama, nº 273, Madrid, 1999.
– Nombela Cano, César, y otros, El conocimiento científico como referente político en
el siglo XXI, Fundación BBVA, Madrid, 2004.
– Nóvoa, Manuel, “Diluvios mitos y abundancias”, Revista O.P., Nº 47, Barcelona, 1999.
– Reader´s Digest, La tierra, un planeta espectacular, México, 1995.
– Redal, Enric Joan, y otros, Ciencias de la Tierra y del universo, Santillana, Madrid, 2005.
– Schwanitz, Dietrich, La Cultura, Colección Taurus, Madrid, 2003.
– Silver, Raymond, et al., “La superficie de la Tierra”, Investigación y Ciencia, Temas 20, 2000.
I.T. N.o 74. 2006
13
Fenómenos naturales
y escala temporal
Santiago Hernández Fernández
DESCRIPTORES
ESCALA GEOLÓGICA
ESCALA ECOLÓGICA
ESCALA HUMANA
GEODINÁMICA EXTERNA Y BIOSFERA
FENÓMENOS NATURALES
ADAPTACIÓN A LA NATURALEZA
INGENIERÍA Y CATÁSTROFES
Un universo sin reloj y sin programa
Parece que el universo tiene unos 13.700 millones de años,
nuestro planeta del orden de 4.600 millones de años, y es posible que la vida surgiera en la Tierra hace casi 4.000 millones de años. Puede decirse, por tanto, que la vida ha estado
presente durante buena parte de la compleja evolución geológica del planeta, acomodándose a las circunstancias, sobreviviendo a cataclismos regionales y generales, aprovechando todas las oportunidades para colonizar nuevos espacios y, felizmente, interfiriendo y regulando los grandes ciclos
planetarios, hasta conseguir las condiciones actuales, que
han permitido la evolución del Homo sapiens.
La evolución de la vida ha sido siempre difícil y compleja: dio sus primeros pasos en las aguas, en unas condiciones
verdaderamente inhóspitas; posteriormente, por numerosas
circunstancias puntuales, sufrió fuertes glaciaciones que pudieron ser completas en dos ocasiones, convirtiendo a la Tierra en una bola de hielo, hace unos 2.200 y 600 millones de
años, tras las cuales podrían haberse dado los grandes pasos hacia la vida actual (células procariotas y organismos
macroscópicos, recíprocamente) tras dos subidas bruscas, en
esas dos etapas, de la cantidad de oxígeno en la atmósfera;
después, la vida conquista la tierra firme, a lo que seguiría
la gran radiación cámbrica; y finalmente se han ido produciendo, de forma aparentemente aleatoria, hasta veinte períodos de extinciones de especies, con cinco grandes extinciones hace unos 440 millones de años (fin del Ordovícico),
14
I.T. N.O 74. 2006
365 millones de años (fin del Devónico), 225 millones de
años (fin del Pérmico), 210 millones de años (fin del Triásico)
y 65 millones de años (fin del Cretácico).
Buena parte de estas catástrofes eran globales y tenían
sus orígenes fuera del planeta, como consecuencia de choques de meteoritos (de los que incluso actualmente pueden reconocerse más de 150 cráteres causados por los impactos).
Otras, con efectos también globales, eran causadas por nuestro propio planeta, debido a cambios en los movimientos de
giro sobre su eje y de traslación alrededor del sol (precesión,
movimiento de balanceo del eje de giro de la tierra, que describe un cono cada 25.868 años; nutación, oscilación del eje
debido a la atracción lunar, con ciclos de 18,6 años; oblicuidad, cambio en la inclinación del eje terrestre respecto del
plano orbital o de la elíptica, con ciclos de 41.000 años;
cambio en la excentricidad de la elipse, debido a que la órbita que describe la tierra alrededor del sol es elíptica y su
excentricidad variable con ciclos de 100.000 años), y producían aisladamente, o de modo conjunto cuando las consecuencias negativas se sumaban, drásticos cambios climáticos
con efectos notables sobre los ecosistemas terrestres. Finalmente, y al mismo tiempo, se producían también grandes
erupciones volcánicas, los continentes se desplazaban, cerrando o abriendo mares y acercándose o alejándose de los
polos y el ecuador, y el resultado afectaba drásticamente las
condiciones climáticas regionales y locales.
Foto: SANTIAGO HERNÁNDEZ
Fig. 1. Los ríos de montaña, con fuertes pendientes, arrastran rocas enormes, aunque su intermitencia sea de décadas o siglos.
Hay que destacar que, curiosamente, a las grandes extinciones han seguido las grandes explosiones de vida. Lo
cierto es que la historia del planeta solo puede entenderse como una interacción permanente entre las interferencias del
espacio, los movimientos de giro y traslación terrestres, la actividad geológica del planeta (geodinámica interna y externa) y los procesos biológicos. El enorme grado de incertidumbre y aleatoriedad temporal de los principales acontecimientos ha producido una resultante caótica e impredecible
que no permite reconocer un programa previsible ni un objetivo final identificable, aunque sí parece que la biosfera incrementa su biodiversidad y logra mantener una cierta estabilidad climática general en el planeta; en todo caso, aunque
podamos percibir ciertas tendencias –reducción de los impactos de meteoritos, enfriamiento del interior del planeta,
aumento de la temperatura del Sol, alargamiento de los días
o alejamiento de la Luna–, no podemos garantizar que cualquiera de los acontecimientos pasados no se repita.
Vamos conociendo cada vez mejor el funcionamiento del
universo, de nuestro planeta y de los ecosistemas terrestres,
pero faltan siglos de investigación para que podamos entender sus bases. Por el momento vamos descubriendo algunos
de sus condicionantes más elementales, pero tenemos grandes lagunas, incluso en el conocimiento de sus orígenes: seguimos sin saber qué pasó en los primeros instantes del universo y en los primeros pasos de la vida.
Un planeta ordenado por la biosfera
Mientras nuestro planeta recorre el espacio en su giro alrededor del Sol, la erosión sigue limando sus relieves y llevando los sedimentos a los fondos oceánicos, los continentes (las
placas tectónicas) siguen desplazándose varios centímetros
por año, la corteza sigue desapareciendo en las zonas de
subducción y renaciendo donde las placas se separan, los
puntos calientes producen y mantienen los volcanes, las zonas
de fricción siguen generando los terremotos para restablecer
precariamente las fuerzas, etc.
En definitiva, el juego de intereses espacio-planeta-vida
continúa manteniendo su particular pugna, cuyo resultado es
un precario equilibrio dinámico, con el esfuerzo unilateral de
los seres vivos tratando de estabilizar y organizar los procesos. La vida se aferra a los ciclos reconocibles, a escala ecológica, que impone nuestro sistema solar y evoluciona permanentemente para adaptarse a los ritmos circadianos, las
mareas, las fases lunares, las estaciones, etc., dejando que
ordenen y regulen casi todos los ciclos biológicos. La vida
trata de crear rutinas, controlar las imprevisiones, establecer
sus propios procesos, independizarse de las condiciones externas y conseguir ecosistemas maduros que se autorregulen. En definitiva, la vida parece que pretende ordenar el
caos y regular su aleatoriedad, tratando de conseguir que
los procesos biológicos sean predecibles. A escala continental y regional parece haberlo logrado en sus ecosistemas
I.T. N.o 74. 2006
15
Foto: SANTIAGO HERNÁNDEZ
Fig. 2. La ocupación de valles en ríos de montaña presenta graves riesgos, que hay que valorar y cubrir.
más evolucionados, como es el caso de los bosques tropicales o los corales. A escala planetaria también parece que
puede controlar con escasas variaciones la temperatura media y los grandes ciclos.
Podemos reconocer cuatro escalas de medida para el factor tiempo, con órdenes de magnitud diferentes: geológica,
ecológica, humana (de especie Homo sapiens) y personal; y
tres escalas de medida para el factor espacio: local, continental y planetaria. Pero la vida solo encuentra su equilibrio
con sus dos variables fundamentales, el tiempo y el espacio,
a gran escala, es decir, a escala geológica y planetaria. A
medida que descendemos a escala de tiempo ecológica o humana y a escala de espacio continental o local, aumentan los
niveles de incertidumbre en la estabilidad de la biosfera.
Cuando decimos que la naturaleza se ha recuperado
siempre de las grandes catástrofes, aunque tarde en hacerlo
más de 100 millones de años como ocurrió con la mayor de
todas, a finales del Pérmico, queremos decir que ha vuelto a
recuperarse el número de familias que resultaron extinguidas.
En realidad lo que ocurre es que la vida “crea” nuevas especies que vuelven a ocupar los “espacios vacíos” que había dejado la catástrofe anterior. Pero la vida no retrocede en su
evolución ni se detiene en recuperar las especies perdidas ni
siente nostalgia del pasado. La evolución, aunque no parece
tener ningún programa definido, genera nuevas soluciones
para los viejos problemas, utilizando una renovada biodiver16
I.T. N.O 74. 2006
sidad (nuevo catálogo de especies) con las que prueba distintas combinaciones para construir los nuevos ecosistemas.
Su norma aparente es “dejar hacer” a cada especie y seleccionar rigurosamente a las energéticamente más eficientes, en
un permanente ajuste de las relaciones interespecíficas, que
llevan a crecientes complejidades ecosistémicas.
Finalmente, hay que destacar que la biosfera se reserva un
as en la manga, pues posee un canal de comunicación entre
los factores tiempo y espacio; se trata de su capacidad para
adaptar sus procesos a escala ecológica (es decir, rápidos en
términos geológicos, y lentos en términos humanos, al tiempo
que reducidos a escalas locales o continentales) a algunos
procesos geológicos (es decir, lentos y a escala planetaria).
Un ecosistema puede “viajar” sobre un continente desplazándose, a medida que éste se mueve, para conservar el mismo
lugar relativo en el planeta por sus características climáticas.
La naturaleza evita las riadas
La vida tiende a cubrir todo el territorio disponible con la vegetación, para construir sobre ella sus ecosistemas, interactuando con la litosfera y formando el suelo fértil. El suelo, en el
sentido edafológico, es la zona de interacción entre la litosfera
y la biosfera; es la capa intermedia entre la atmósfera y la roca madre. Bajo la acción de los agentes atmosféricos (viento,
lluvia, nieve, sol…) y de los seres vivos que forman la edafofauna (bacterias, algas, hongos, insectos, lombrices, raíces…)
Foto: SANTIAGO HERNÁNDEZ
Fig. 3. Los deslizamientos de ladera y los procesos erosivos pueden incrementarse por cambios de uso del suelo con pérdida de cobertura vegetal.
se van produciendo unos cambios en la roca madre, mecánicos, físicos y químicos, que transforman las sustancias minerales originales en materia asimilable por las plantas.
El suelo es la base del ecosistema, no hay plantas sin suelo ni suelo sin plantas. La eliminación de esta capa de suelo
por cualquier procedimiento supone el comienzo de un proceso de degradación que puede terminar con la destrucción
de la capacidad del terreno para soportar una comunidad
vegetal y, evidentemente, la correspondiente fauna. Así, debe
existir un equilibrio entre la formación del suelo y su erosión.
Como vemos, en cualquier lugar de la naturaleza encontramos, quiérase o no, un equilibrio dinámico de fuerzas contrapuestas que mantiene comunidades o circunstancias muchas veces aparentemente distintas, pero perfectamente interrelacionadas por múltiples conexiones que les dan una gran
estabilidad ante las variaciones naturales. La edafofauna representa una gran parte de la biomasa del ecosistema; en el
caso de un hayedo puede oscilar de modo general entre 700
y 200 kilogramos de biomasa por hectárea, contando lombrices, gasterópodos, ácaros, dípteros, diplópodos, colémbolos, insectos, arañas, etc. Las bacterias, por su parte, pueden,
en suelos buenos, aportar una biomasa de 500 kg/ha o más.
Por lo tanto debemos aprender una gran lección: el suelo
es una pieza imprescindible para el equilibrio del planeta, por
ser el primer escalón de la vida terrestre. Una cuenca en equilibrio edáfico estará cubierta de vegetación natural (plantas
herbáceas, arbustos y árboles) y, en consecuencia, los ríos que
la drenan recibirán agua con nutrientes disueltos para la biocenosis acuática y pocos elementos minerales en suspensión.
Las hojas interceptan un 15-30 % de la lluvia, dependiendo, naturalmente, del tipo de árboles, de la edad de éstos y de
la densidad. El agua así retenida escurre por las hojas y ramas
para terminar cayendo al suelo, aunque otra parte del agua
seguirá el camino de las ramas mayores y caerá escurriéndose por el tronco del árbol. Puede estimarse que el estrato arbóreo de un bosque retiene un 1,5-2 % de la precipitación, que
empapa el árbol y se evapora, y difiere por escurrimientos y
goteos entre un 15 y un 30 por ciento de las precipitaciones.
La vegetación evita el efecto goteo, aumenta la infiltración, alimentando los acuíferos, retrasa la formación de corrientes superficiales, reduce su velocidad y evita la formación de cárcavas, protege al suelo de la desecación y reduce la evaporación.
Resumiendo, las cuencas con vegetación natural dificultan, difieren y reducen los escurrimientos superficiales, produciendo una mayor infiltración que alimenta las fuentes y los
pozos. Por lo tanto las cuencas con vegetación natural tienen
un menor coeficiente de escorrentía y, al mismo tiempo, un
mayor tiempo de concentración. Es decir: para las mismas
precipitaciones producen una mayor laminación de las avenidas y menores caudales punta. Por tanto, en la medida de
sus posibilidades, la naturaleza trata de evitar las riadas, es
decir, sobresaltos a la ya difícil vida de la fauna fluvial.
I.T. N.o 74. 2006
17
La naturaleza se acopla
a la geodinámica externa
El ciclo natural de erosión, arrastre y sedimentación de la superficie continental, con las mil posibilidades de interferencias
y su compleja casuística, es el negativo de los procesos orogénicos que generan nuevos relieves en la corteza. Con ellos
la corteza cambia lenta y continuamente de forma, las rocas
cierran largos ciclos de miles de millones de años, y continentes y mares cambian de posición, forma y relieve.
En estos procesos globales, las distintas escalas temporales
(geológica, ecológica, humana –Homo sapiens– y personal) y
espaciales (local, continental y planetaria) adquieren todo su
protagonismo y trascendencia; la visión de las oscilaciones de
lo pequeño o de lo rápido puede entenderse abriendo la escala para percibir fenómenos más lentos y generales que, estudiados en su conjunto, permiten obtener una perspectiva global que, entonces, ilumina todos los procesos parciales.
Este debe ser nuestro punto de vista para entender los fenómenos que suceden de modo natural en la corteza terrestre. Terremotos, tsunamis, tempestades, tormentas, nevadas,
huracanes, inundaciones, desprendimientos de rocas, corrimientos de tierras, aludes de nieve, grandes incendios forestales, olas de frío o de calor, grandes sequías, etc., son manifestaciones puntuales de procesos globales identificables a
gran escala, temporal y territorial, cuya previsión a escala Homo sapiens puede ser problemática, difícil e incluso poco útil;
pero la ocurrencia de algunos de ellos a escalas local y personal (es decir en nuestro ámbito de vida profesional), puede
predecirse, al menos, en alcance, magnitud y probabilidad.
La naturaleza, parece evidente que ha evolucionado entre
estas complejas y catastróficas manifestaciones, controlándolas en parte en algunas ocasiones, a las que ha logrado
adaptarse con mayor o menor rapidez. Nuevamente la naturaleza puede servirnos de ayuda, en nuestro interés en conocer mejor estos sucesos, mostrándonos sus consecuencias y
las heridas que sufrió con ellos. Esta idea “abre” un nuevo
campo para el estudio de la naturaleza desde la ingeniería,
con la finalidad de adaptar mejor nuestras obras y la ocupación del territorio a estos procesos naturales capaces de producir grandes daños en infraestructuras y en vidas humanas.
En realidad deberíamos decir “reabre” una vieja y fructífera
relación ingeniero-territorio, quizás injustificablemente interrumpida, pues los comienzos de la ingeniería estaban íntimamente relacionados con el terreno, con sus formas, con su
comportamiento y con sus circunstancias.
Un nuevo campo para la ingeniería civil
La ingeniería debe ocuparse, en primer lugar y cada día con
mayor intensidad, de los problemas ambientales que pueden
derivarse de las obras civiles, para compatibilizar los caminos
de la naturaleza con las infraestructuras necesarias para el
desarrollo de la civilización; esta preocupación forma parte de
nuestra profesión y de nuestro compromiso con la sociedad;
no debemos olvidar que un proyecto de ingeniería es la respuesta técnica para resolver un problema social. En segundo
lugar, y no por eso menos importante, debemos tener también
18
I.T. N.O 74. 2006
presente que existen determinados fenómenos o acontecimientos, que suelen llamarse de modo genérico catástrofes naturales, que pueden producir cuantiosos daños personales y materiales, cuya prevención exige un mejor conocimiento de la naturaleza y de sus procesos geológicos y ecológicos. En tercer
lugar, todos estos fenómenos naturales tienen algo en común:
a. Suelen dejar huellas claras sobre el terreno, que permiten un
estudio científico, incluso muchos años después del suceso.
b. Responden a una lógica determinada por la combinación
de unas circunstancias locales del terreno (topografía, morfología, naturaleza, disposición, etc.) y otras propias del fenómeno (climáticas, geológicas, geotécnicas, etc.).
c. Cada uno de ellos sucede en lugares concretos, mientras
que en otros territorios son prácticamente imposibles.
d. Existe la posibilidad de deducir y obtener algunas hipótesis razonables sobre sus probabilidades de ocurrencia o
repetición.
f. Podemos realizar evaluaciones aproximadas sobre su peligrosidad y sobre los daños previsibles para cada lugar
concreto.
Estas emergentes actividades abren nuevas perspectivas
para el ejercicio profesional de los ingenieros civiles, que se
traducen directamente en un incremento notable de nuestra
aportación a la sociedad que servimos, lo que produce incrementos directos de la seguridad, y de la calidad de vida,
de los ciudadanos. Surge, en definitiva, un nuevo campo para la ingeniería civil, que deberá abordar complejos problemas relacionados con el uso del terreno y que está llamado a
desarrollar importantes servicios en las próximas décadas.
Un gran reto para el futuro de la ingeniería, cuyas consecuencias más importantes pueden ser las siguientes:
• Refuerzo notable de su tradicional función social, dando respuesta a nuevos problemas ligados sociales, cuyas consecuencias para la población suelen ser inversamente proporcionales al desarrollo económico y cultural de los pueblos.
• Modificación de los habituales campos de decisión, al afectar a problemas y sectores sociales en los que la técnica
puede ser un factor de menor peso. En estos ambientes las
soluciones de los problemas exigen un análisis complejo,
una negociación multisectorial y unos condicionantes fuera
del campo estrictamente técnico. El líder del proceso debe
ser conocedor de todos los factores implicados.
• Ampliación del carácter interdisciplinar en los estudios necesarios, lo que exige gran capacidad para desarrollar trabajos en grupo, reuniones de colaboración huyendo de los
personalismos y los proyectos personales, discusiones multisectoriales con especialistas de disciplinas muy diferentes
y constancia para sumar objetivos, admitir nuevas soluciones y construir ideas.
• Aproximación a la realidad territorial, como factor crucial
del problema y de las soluciones. La necesidad de conocer
y estudiar el terreno hace que el plano y el ordenador tomen
su tradicional función de elementos adicionales sobre los
que se ponen resultados. Lo que existe es el campo, el árbol, el río, el monte, el suelo, la edafofauna. Ellos son el objeto del estudio, ellos son los afectados y ellos deben ser el
Foto: SANTIAGO HERNÁNDEZ
Fig. 4. También las costas tienen sus espacios para el equilibrio a largo plazo y nos muestran que no debemos interferir su dinámica litoral.
objetivo de la solución. Así gana peso el trabajo personal,
la creatividad, la valoración de los ecosistemas naturales y
el conocimiento del funcionamiento de la naturaleza y sus
manifestaciones bruscas.
• Apertura de nuevos campos a la investigación, en los que
se conoce mucho menos de lo que resulta imprescindible
para tomar multitud de decisiones, cuya trascendencia social puede ser enorme. Es preciso incrementar notablemente la investigación para conocer los impactos verdaderos
de las obras sobre todos los factores que exige la ley estudiar, para realizar los estudios de impacto ambiental.
Igualmente es necesario desarrollar verdaderos programas
de investigación, a medio y largo plazo, para conocer la
eficacia de las medidas correctoras que se proyectan y,
posteriormente, poder aplicarlos para mejorarlas.
• Oferta de enormes posibilidades en la gestión, tanto de la
prevención de los problemas, como de la resolución de las
consecuencias inmediatas y de la restauración posterior de
los daños causados en las infraestructuras. Gestión que alcanza a todos los campos relacionados con el medio ambiente y los procesos naturales implicados en inundaciones,
deslizamientos, movimientos sísmicos, fuertes vientos, etc.
Hay que resaltar que el proceso de globalización mundial
afecta a todos los países y se aprecia en todos los sectores;
ha alcanzando también a la ingeniería civil. Las empresas del
sector de la construcción trabajan en todos los países y los in-
genieros van y vienen de unos a otros, en el ejercicio de su
actividad profesional. En este contexto debemos resaltar la
importancia de que los profesionales de la construcción, en
función de unos principios éticos admitidos por todos, actuemos en un país en desarrollo con los mismos parámetros socio-ambientales que nos exigen en los países desarrollados.
Las catástrofes naturales
La ONU advierte de que las catástrofes naturales afectan cada vez a más personas (Ginebra, 2 de noviembre de 2004);
254 millones de personas se vieron afectadas en diversos
grados por fenómenos tales como inundaciones, sequías, terremotos o huracanes, según un comunicado de la Conferencia Mundial para la prevención de catástrofes, citando estadísticas de la Universidad católica de Lovaina (Bélgica). El número de personas fallecidas fue de 83.000. Entre las causas
cita los cambios climáticos y las urbanizaciones incontroladas. Teniendo en cuenta la naturaleza imprevisible de estos
fenómenos, las cifras varían considerablemente de un año a
otro. “La gente es cada vez más vulnerable porque cada vez
más personas se ven obligadas a vivir en zonas urbanas con
riesgos”, declaró el director de la Estrategia internacional para la prevención de catástrofes (SIPC), Salvano Briceno. De
aquí al año 2025, más de 5.000 millones de personas vivirán en zonas urbanas, de las que 2.000 millones se alojarán
en barrios de chabolas expuestos a inundaciones, seísmos o
I.T. N.o 74. 2006
19
Foto: SANTIAGO HERNÁNDEZ
Fig. 5. Hemos de revisar los parámetros que condicionan las máximas avenidas (sin olvidar la gestión
de las actividades antrópicas en cuencas y cauces) para evitar estos sucesos.
corrimientos de tierra. De las 100 mayores ciudades del mundo, 70 estarán situadas en zonas de riesgo. Además, las catástrofes se suceden ahora de manera más frecuente, 337 fenómenos naturales de estas características registrados en
2003 frente a 261 en 1990. “Solo hay que ver el número de
ciclones de este año, es difícil retener los nombres”, apuntó un
responsable de la SIPC, John Harding. “Los investigadores
aseguran que la intensidad y la frecuencia de las catástrofes
probablemente van a incrementarse a corto plazo debido a
los cambios climáticos. “Este aumento parece que se está produciendo ya en la actualidad”, añadió Harding.
La naturaleza, en esencia, es el conjunto formado por las
leyes del universo; el complejísimo, dinámico y cambiante resultado final de la interacción de esas leyes universales con
nuestro prístino mundo físico más cercano ha formado la
biosfera y, seguramente, puede haber adoptado soluciones
muy diferentes en otros puntos del universo. Así, nuestra particular biosfera no sería la naturaleza sino su consecuencia:
un simple estado de equilibrio estacionario, entre los infinitos posibles, alcanzado arbitrariamente en nuestro pequeño
planeta al aplicar sobre él, en un momento concreto y con
unas condiciones iniciales determinadas, las leyes del universo (“la naturaleza”).
En este sentido carecería de sentido aplicar la, tan desafortunada como frecuente, afirmación de que la ingeniería,
la técnica o la civilización deben dominar a la naturaleza. Talar un bosque, trasladar una montaña, embalsar un río, pro20
I.T. N.O 74. 2006
ducir electricidad, viajar a la velocidad del sonido o urbanizar el planeta, no es dominar la naturaleza, sino diferentes
formas de alterar los equilibrios parciales logrados por “la
naturaleza” (las leyes del universo) en nuestro planeta.
Por el contrario, dominar la naturaleza sería controlar sus
leyes (de la gravedad, de la energía, de la entropía, de la relatividad, etc.) y esto, al menos hasta el momento, está fuera
de nuestras posibilidades; ni siquiera podemos controlar sus
más directas repercusiones, de las que dependen los factores
fundamentales que determinan el equilibrio del planeta, como
por ejemplo su ciclo energético, es decir, el flujo de energía
solar, los ciclos térmicos de la atmósfera o de los mares, la disipación de la energía interna del planeta o los movimientos
de los continentes (teoría de placas), etc.
Las manifestaciones de este ciclo energético planetario,
con sus diferentes velocidades según que el medio empleado
para el transporte y/o disipación de la energía sea el aire, el
agua o el terreno, nos sorprenden periódicamente en tiempo
y forma, recordándonos insistentemente la superioridad de su
escala. De él depende el equilibrio de la biosfera, es decir, de
todas las formas de vida terrestre, incluida nuestra propia especie; él controla la erosión, el balance hídrico, la formación
del suelo fértil, las corrientes oceánicas, los ciclos geológicos,
los movimientos de la corteza o el clima terrestre. Pero “regularmente” se producen concentraciones de energía que son
disipadas bruscamente; es el caso de los terremotos, las erupciones volcánicas, las grandes tempestades y tormentas, los
Foto: SANTIAGO HERNÁNDEZ
Fig. 6. Incluso cuencas reducidas y pequeñas ramblas pueden acabar con nuestras infraestructuras,
si no logramos unidad de acción en los terrenos del río.
tornados, las olas de calor o de frío, las terribles inundaciones, los aludes y corrimientos de laderas, los prolongados períodos de sequías, etc.; que cuando ocurren en zonas habitadas pueden causar grandes pérdidas materiales y, en muchas
ocasiones, humanas, y entonces las llamamos de forma genérica ”catástrofes naturales”.
Del análisis anterior puede deducirse que estas catástrofes
naturales son manifestaciones ”normales”, más o menos localizadas, periódicas y con frecuencia estadísticamente predecibles; por lo tanto, sus consecuencias también podrían ser
controladas; pero lo cierto es que parece ocurrir casi todo lo
contrario. ¿Por qué? La respuesta puede ser todo lo compleja
o sencilla que queramos, pero la realidad es que una riada
solo puede dañar a quienes se encuentran en su curso, un terremoto a quien tiene un techo pesado sobre su cabeza y un
tornado a quien está en su trayectoria. ¿Quién es el culpable
de que sigan construyéndose edificios, pueblos y ciudades en
lugares de alto riesgo? ¿Quién decide que la sociedad adopte soluciones con riesgos crecientes?
Nuestras ciudades son cada vez mayores y se van llenando con cantidades crecientes de sustancias explosivas (gas,
gasolina, pólvora…), de combustibles tóxicos (plásticos, pinturas, grasas, aceites…), de aparatos peligrosos (automóviles, ferrocarriles, ascensores, motores…), de locales con elevada concentración de personas (estadios, discotecas, cines,
almacenes…) y de zonas con alta densidad de edificación y
grandes rascacielos. Con ellas, está muy claro, estamos cons-
truyendo un hábitat “artificial” en el que asumimos, en nombre del progreso, unos riesgos crecientes; en estas condiciones las consecuencias de las conocidas ”catástrofes naturales”
tendrán unos efectos negativos mucho mayores.
En resumen, debemos asumir que nuestra civilización no
puede dominar a la naturaleza sino que ineludiblemente debe
convivir con sus leyes y adaptarse a sus ciclos naturales; solo
el mejor conocimiento de sus ritmos y nuestra integración en
ellos puede garantizarnos una convivencia pacífica que reduzca los elevados riesgos de un irresponsable enfrentamiento
a sus leyes y a los procesos naturales de disipación energética.
Creo que el campo profesional de los ingenieros civiles es
el más adecuado para encontrar soluciones posibles, y medidas eficaces, para la prevención de estas, mal llamadas, “catástrofes naturales”, tanto en Europa como en cualquier punto del planeta. Somos los proyectistas de las infraestructuras
que condicionan los asentamientos urbanos, las formas de urbanismo y el resto de infraestructuras energéticas, hidráulicas, de transporte, abastecimiento, etc. que permiten el funcionamiento y desarrollo de nuestra civilización. Sin duda tenemos ante nosotros un gran reto al que debemos dar solución en las próximas décadas.
■
Santiago Hernández Fernández
Doctor Ingeniero de Caminos, Canales y Puertos
I.T. N.o 74. 2006
21
PÁGINA INTENCIONALMENTE
DEJADA EN BLANCO
I.T. N.O 74. 2006
PÁGINA INTENCIONALMENTE
DEJADA EN BLANCO
I.T. N.o 74. 2006
La Tectónica de Placas:
La Hidrotectónica
Carlos Soler Liceras
DESCRIPTORES
EROSIÓN OCEÁNICA
HIDROTECTÓNICA
DINÁMICA PLANETARIA
Todas las convulsiones que sufre la superficie de la Tierra, tanto las súbitas y bruscas como son los terremotos o las erupciones, como aquellas constantes y que no conocen pausa, como son los desplazamientos continentales y los levantamientos
de cordilleras, se estudian mediante la dinámica terrestre.
A lo largo de la Historia de la Humanidad han sido muchos los intentos de encontrar una teoría que explique la causa de estos movimientos. El primero fue obra de Tales de Mileto cuando afirmó que el agua era el principio de todas las
cosas; con esta frase que la Historia se encargó de inmortalizar, dejaba claro que para él existía una causa primera y que
además el hombre, con su inteligencia, podía ser capaz de
encontrarla. Anaximandro, en cambio, pensó que era el aire,
luego Heráclito aportó el fuego y Empédocles la tierra. Aristóteles elevó a los cuatro elementos, agua, aire, fuego y tierra,
a la categoría de Elementos Primordiales y dijo “que su mixtión con natural artificio de especies compone sus calidades”.
Pero fue en el siglo XVII cuando nació la moderna geología, de
la mano de Steno y resumida en su magnífico libro Prodomus,
donde se vislumbran ya muchas de las grandes aportaciones
científicas posteriores e incluso se da una teoría de la dinámica terrestre, el diluvialismo, cuyo origen estaba basado en la
Biblia y que sobrevivirá durante siglos dando lugar al catastrofismo. Sin embargo hay que esperar hasta el siglo de la
Ilustración para ver al hombre elaborar una teoría científica,
sin reminiscencias metafísicas, que fuera capaz de explicar los
cambios que se gestan en la superficie de la Tierra. Podríamos
empezar en ese mismo siglo XVIII citando al neptunismo de
Werner, al vulcanismo de Desmarest y al plutonismo de Hutton. Las tres teorías se enfrentaron en una abierta polémica en
la que los espectadores, numerosos en esa época, asistían a
discusiones tan acaloradas como el magma, tan profundas como los abismos abisales y a la vez tan incisivas como los propios diapiros. La polémica alcanzó el plano personal y los
24
I.T. N.O 74. 2006
partidarios de una y otra se convirtieron en enemigos irreconciliables. Tras ellas y en siglo XIX aparece otro antagonismo
científico: el uniformitarismo de Lyell frente al catastrofismo de
Cuvier, pero ahora con discusiones más tranquilas e incluso
con respeto y admiración entre los contendientes, fruto quizás
del carácter sosegado y cortés de ambos científicos, sobre todo de Lyell, que no en balde era abogado. En el despuntar del
siglo XX la teoría de los desplazamientos continentales de Alfred Wegener se encontró con el rechazo, de nuevo sumamente virulento, de los fijistas, encabezados por Harold Jeffreys y partidarios de la teoría del geosinclinal de Dana.
Siempre ha habido una teoría y su antagónica, desgraciadamente nunca se estudió la posibilidad de que pudieran
ser complementarias; tal y como se expondrá al final de este
artículo, es ahí donde estaba la solución. El momento actual,
en cambio, resulta anómalo: por primera vez en la Historia
hay una sola teoría que todos aceptan y nadie discute.
Esta teoría que actualmente explica la dinámica terrestre
y por tanto la morfología del planeta, como nunca hasta ahora se había conseguido, es la Tectónica Global, formada a su
vez por la unión de tres teorías: la expansión de los fondos
oceánicos, la tectónica de placas y el punto caliente.
El nacimiento de estas teorías se debió a un descubrimiento que guardaba el fondo del océano: allí estaba la mayor cordillera de la Tierra, la dorsal oceánica, que con sus
más de sesenta mil kilómetros recorre los cinco océanos de
nuestro planeta. Esta impresionante cadena de elevaciones
está formada por materiales volcánicos recientes, y a ambos
lados de ella se descubrió también que se disponían bandas
paralelas y simétricas con antigüedades crecientes desde la
dorsal hacia los continentes. Esto quería decir que la corteza
oceánica está continuamente creciendo en la dorsal, haciendo que la separación entre continentes aumente de forma
continua. Con esta prueba incuestionable el fijismo y sus
Fig. 1. Según la Tectónica de Placas, el movimiento de las placas se produce según dos mecanismos. El primero está originado
por las corrientes de convección que ascienden atravesando todo el manto. El otro mecanismo invocado para explicar el desplazamiento
consiste en que la parte de placa que subduce al descender arrastra al resto provocando la rotura de la corteza en la dorsal.
puentes continentales saltaron hechos pedazos; el movilismo
y con él Wegener demostraron que tenían razón: los continentes no solo se movían, se trasladaban, colisionaban y se
partían. Durante un tiempo la Tierra se quedó huérfana de
una teoría que la explicara y fue en ese momento cuando surgieron las tres que forman la Tectónica Global.
La teoría de la expansión del fondo oceánico, magistral
por su sencillez, interpreta las bandas de corteza oceánica de
igual antigüedad, a ambos lados de la dorsal, como un proceso de crecimiento del fondo del océano a partir de dichas
dorsales. La segunda teoría, la tectónica de placas, divide a
la superficie de la Tierra en una veintena de placas rígidas
delimitadas por tres tipos de bordes según se genere o se destruya la corteza: uno constructivo en las dorsales, otro destructivo en las zonas de subducción, donde las placas se sumergen por debajo de los continentes, y otro borde pasivo en
los contactos de las placas contiguas. La teoría del punto caliente explica el relieve dentro de cada placa; de esta forma
la actividad volcánica en ella, en cualquier zona alejada de
sus bordes, tiene como justificación el ascenso de una pluma
térmica que, atravesando parte o la totalidad del manto y la
litosfera, emerge en superficie formando islas, archipiélagos
o relieves volcánicos dentro de los continentes.
Con estas tres teorías que forman la Tectónica Global se
explica la dinámica y la morfología terrestre. No obstante, a
medida que se ha ido profundizando en el conocimiento de
cada una de estas dos últimas teorías, la tectónica de placas
y el punto caliente, se han ido encontrando objeciones que cada vez cuesta más ir acomodando a las teorías vigentes. Así,
en el caso de la tectónica de placas y cuando se ha querido
explicar las causas del movimiento de las placas, han surgido
dos posibles mecanismos: la teoría gravitacional, en la que la
porción de placa que subduce sumergiéndose en el manto, al
descender, arrastra al resto de la placa en superficie; y la con-
vectiva, en la que el movimiento está provocado por una corriente ascendente que, al llegar a las dorsales, se ramifica en
dos horizontales que arrastran a la placa superficial y al descender provocan su hundimiento o subducción (ver figura 1).
Cada uno de estos mecanismos, considerados como excluyentes, plantea serias objeciones: el gravitacional, si bien
explicaría el movimiento de las placas del Pacífico, donde hay
una dorsal y una zona de subducción, no podría explicar el
movimiento de las placas americanas, donde sí hay dorsal,
pero en cambio no hay subducción; por lo que no hay porción de placa que al descender arrastre al resto. De todas formas, la hipótesis gravitacional implica que un trozo de la placa, al subducir, tira del resto, y eso supone que la placa está
sometida a un esfuerzo de tracción, y resulta comprobable
que este tipo de tensiones no los soporta la corteza si no es
partiéndose, con lo que deja de transmitirse el esfuerzo. La hipótesis convectiva también plantea otras incertidumbres: la
primera y quizás la más importante es que hasta la fecha nadie ha conseguido demostrar matemáticamente que la circulación del fluido, debido a las corrientes de convección, logre
trasladar la corteza que flota por encima y que incluso la sumerja en las zonas de subducción. Además las zonas de fractura, en algunos lugares, como en las dorsales del Atlántico
Norte, Pacífico Sur y Central, presentan fallas transformantes
(bordes pasivos) que desplazan la dorsal en cientos o incluso
mil kilómetros. Estos desplazamientos son totalmente bruscos,
la dorsal se interrumpe de forma súbita para aparecer de nuevo a una cierta distancia. Las corrientes convectivas deberían
presentar asimismo estas interrupciones y desplazamientos en
el manto, cosa totalmente contradictoria con la imagen de una
cortina continua y ascendente que propugna la teoría de la
célula convectiva. Existen más contradicciones para cada una
de estas hipótesis de movimiento. La gravitacional debería
guardar una relación entre el tamaño de la porción que subI.T. N.o 74. 2006
25
duce y la velocidad de traslación del resto de la placa; la convectiva se complica ante dorsales que se bifurcan, como la del
océano Índico, necesitando entonces de una cortina ascendente triple para así mantener las tres dorsales.
Si en vez de considerar las dos hipótesis de movimiento de
forma excluyente las consideramos como mecanismos que
pueden actuar a la vez, algo se arregla, pero no todo. Una
objeción la tendríamos en el Pacífico: considerando las longitudes de los bordes destructivos y constructivos, se debería obtener que las zonas de subducción a ambos lados de la dorsal deben coincidir en longitud entre sí y con la dorsal. Ello es
obligado de forma general, aunque de forma local se admitan
subducciones que se aparten ligeramente de esta norma. Las
longitudes de la dorsal y de la línea de subducción del Pacífico oriental (más concretamente por encima del paralelo 10° S)
coinciden someramente. No así entre la dorsal y el Pacífico occidental, donde el borde destructivo cuadruplica en longitud al
constructivo. Para que el mecanismo funcione, esto es, que lo
que se crea a lo largo de uno se destruya a lo largo de cuatro, es necesario que por el camino se añadan tres; por tanto,
debería haber una dorsal que agrandara la placa del Pacífico Norte; como no existe, llegamos a una total contradicción.
La teoría del punto caliente no está exenta tampoco de objeciones. Si bien es una teoría que explica satisfactoriamente
la formación de cordilleras submarinas y archipiélagos como
el de Hawaii, no satisface otros datos geológicos de archipiélagos situados relativamente próximos, como son los de las islas Cook del Sur, o en otros océanos, como es el caso de Madeira y Canarias en el Atlántico Norte. En el Atlántico Sur el
volcanismo oceánico y continental del Camerún también escapa a esta explicación. Hace algunos años y con idea de evitar estas incongruencias se adoptó una variante de esta teoría que se llamó la fractura propagante. Mejoró en algunas
cosas pero no consiguió explicar los grandes problemas de
secuencias volcánicas en los archipiélagos oceánicos como
los que se han gestado en la formación de las islas Canarias.
Pero las objeciones a la tectónica de placas y al punto caliente no solo se localizan en nuestro planeta, en el resto de los
planetas y satélites que nos acompañan en este Sistema Solar
las divergencias son más acusadas. En aquellos que presentan una masa sólida, como son los llamados terrestres: Mercurio, Venus y Marte, no se observan ni dorsales, ni placas, ni
tan siquiera actividad, no tienen dinámica planetaria. Sin embargo, las corrientes convectivas dentro del manto de estos
planetas deberían ser igual de activas que en la Tierra, sobre
todo en Venus, planeta muy similar al nuestro en diámetro y
densidad. Esto conduce a que estas teorías y el planeta Tierra
presentan una relación biunívoca singular; se trata entonces
de una teoría de ámbito únicamente terrestre, y la Historia nos
puede enseñar cuán equivocada es esa restricción.
En definitiva, la Tectónica Global explica los grandes rasgos de la morfología de este planeta; no obstante, a medida
que el conocimiento de la geología y el relieve submarino aumenta, las teorías del punto caliente y la tectónica de placas
se muestran insuficientes. Algo falta para llegar a encajar las
piezas del rompecabezas.
26
I.T. N.O 74. 2006
¿Qué es lo que falta por considerar? La respuesta aparece al incorporar la Oceanografía y la Hidráulica a las ciencias que estudian este planeta y que hasta ahora era solo el
ámbito de la Geología y la Geofísica, olvidando con ello que
el 70 % del planeta está sumergido bajo 3.700 metros de
agua que se mueve sin cesar. Como muchas veces ha sucedido, no se ha considerado algo que está tan a la vista que hasta ahora ha pasado inadvertido: el agua de los océanos, al
circular por el fondo lo está erosionando. Si añadimos este
nuevo dato de la erosión oceánica a la Tectónica Global obtenemos una nueva teoría, la Hidrotectónica, donde se asume
la anterior y se logra explicar todas aquellas cosas que su
predecesora no explicaba, o necesitaba de una complicación
excesiva que empañaba esa primera virtud de la simplicidad
que tuvo esta teoría en sus momentos iniciales: simplex veri sigillum (la señal de la verdad está en la sencillez).
La clave de la Hidrotectónica está en la erosión oceánica;
admitido este concepto, el resto solo es la explicación de los
mecanismos, más o menos complicados, que usa la Tierra para generar su dinámica o actividad tectónica. Existen varios
argumentos que pueden demostrar la existencia de ese proceso erosivo y veremos que la sedimentación oceánica es su
consecuencia ineludible. De todos ellos, el que más directamente nos afecta a los ingenieros es el que se deduce de aplicar estrictamente la hidráulica. Gracias a la Oceanografía sabemos que el agua de los océanos se mueve en un ciclo convectivo impulsada por el gradiente térmico y la rotación de la
Tierra. En general este movimiento, condicionado por los taludes de los continentes, está formado por corrientes superficiales que se dirigen desde el ecuador hacia los polos; allí,
enfriada el agua y con el aporte de sal de la banquisa polar,
se hunde, iniciando las corrientes profundas que desde ambos
polos se encaminan hacia el ecuador, donde ascienden para
completar el ciclo. Las corriente superficiales son importantes
al ser las causantes de buena parte del clima terrestre, pero
ahora y para comprender la dinámica de la Tierra debemos
quedarnos con las corrientes profundas, aquellas que discurren por los fondos de los océanos. La hidráulica nos dice que
siempre que una corriente de agua circula por un cauce provoca una erosión, un transporte y una sedimentación. Los tres
factores están tan relacionados que cuando el agua erosiona
el cauce aumenta el transporte y anula la sedimentación; y al
contrario, cuando sedimenta sobre el cauce disminuye el
transporte y se anula la erosión. Solo por el mero hecho de
considerar la existencia de estas corrientes profundas que discurren por el fondo del océano, sean cuales sean sus velocidades, estamos obligados a asumir la erosión oceánica como
una consecuencia ineludible de la interacción agua-fondo.
Aceptar que las corrientes profundas del océano erosionan el cauce por el que circulan es asumir una auténtica novedad en las teorías geológicas y por tanto constituye una
revolución científica. Nunca hasta ahora se ha había pensado que el agua del mar podía erosionar su fondo; quizás la
razón estriba en esa ya tan señalada, como inexplicable,
ausencia de expertos en hidráulica en las teorías geológicas;
sí, en cambio, se había estudiado la sedimentación en los
océanos, buenos ejemplos de ello son la teoría ilustrada del
neptunismo o la terriblemente complicada del geosinclinal,
pero en todos los casos los sedimentos que se consideraban
eran únicamente los pertenecientes a la erosión fluvial de los
continentes y que los ríos vierten al mar. En cuanto a la erosión oceánica, el único aspecto que se ha considerado hasta ahora han sido las corrientes de turbiditas, asociadas a
los taludes continentales, a las desembocaduras de los ríos y
formadas por flujos ocasionales compuestos por partículas
en suspensión. En comparación a la erosión oceánica a la
que nos referimos, las turbiditas no llegan a ser ni tan siquiera la punta del iceberg de los procesos erosivos que se
están gestando en el océano.
Por otra parte, si aceptamos la existencia de la erosión
oceánica deberíamos considerar que la capacidad de transporte del agua de los océanos se incremente con el tiempo
debido a la aportación de las sustancias diluidas con la erosión; sin embargo esta capacidad de carga, el contenido en
sales que lleva disuelto el agua de los océanos, permanece
constante. La salinidad de los océanos, ligeramente variable
de un océano a otro o entre mares diferentes, permanece a
grandes rasgos asombrosamente constante. Así fue demostrado por Osmond Fisher a mitad del siglo XIX cuando analizó la composición de los fósiles marinos desde el Silúrico hasta el momento actual. Estudios realizados por el equipo de
Ramón Margalef, en la década de los ochenta, amplían esta
constancia a los últimos 2.000 millones de años. Entonces…
si la erosión es continua y la cantidad de sales que tiene el
agua de los océanos es constante… esto nos conduce inevitablemente a que todo lo que se erosiona se sedimenta: la tasa de sedimentación oceánica es entonces igual a la tasa de
erosión continental más la tasa de erosión oceánica, siendo
esta última de proporciones mucho mayores que la primera.
Existen además factores que pueden aumentar la capacidad erosiva de las corrientes profundas del océano. Una de
estas causas es la variación de la velocidad, que puede aumentar en varios órdenes de magnitud en aquellas zonas del
fondo donde toda una corriente profunda se vea obligada a
pasar por un estrecho. Es el caso del estrecho de Dinamarca,
donde a finales de los años ochenta Whitehouse midió con
corrientímetros velocidades de al menos 1,2 m/s. Más recientemente, en octubre de 2004, nosotros mismos hemos llegado a medir 2,4 m/s, con medidores doppler suspendidos
desde el buque oceanográfico Vizconde de Eza, en el fondo
del estrecho de Gibraltar, a la profundidad de 300 metros, en
el umbral submarino de Camarinal. Estas velocidades están
esculpiendo el fondo submarino con su erosión; fruto de su
acción es la morfología que presenta, donde se observa una
acción erosiva lenta y constante que podríamos denominar
química y otra, también muy visible, más brusca y esporádica, denominada física, formada por derrumbes y deslizamientos de ladera (ver figura 2).
Pero hay otro efecto que provoca un aumento aún más espectacular de la erosión de los fondos oceánicos. Es sabido
que la mayor parte del vulcanismo se produce bajo los océanos y concretamente a lo largo de la dorsal; este proceso
Fig. 2. Fondo del estrecho de Gibraltar desde el Atlántico hacia el Mediterráneo.
Se aprecia la elevación en el Umbral de Camarinal. Todo el relieve submarino es
consecuencia de los procesos de levantamiento a que está sometida esa zona
de choque entre dos placas, modelado todo por un proceso erosivo debido a las
velocidades de la corriente profunda de salida de las aguas del Mediterráneo.
además de emitir productos sólidos también aporta gases y
calor en proporciones muy elevadas. Sabemos que el aumento de la temperatura provoca un aumento de la capacidad erosiva de las corrientes profundas, pero los gases también colaboran y en un orden de magnitud similar o incluso
mayor. Los gases más comunes que arroja un volcán, emergido o sumergido, son principalmente dióxido de carbono,
cloruros y sulfuros. Al diluirse estos gases en el agua provocan la formación de ácidos carbónicos, clorhídricos y sulfúricos que rebajan el pH del agua tornándola agresiva. Esta
agresión genera un ataque a los materiales que forman el
fondo de los océanos, eminentemente volcánicos, entre los
que abunda el sodio, dando lugar a sales como el cloruro sódico, del que hasta ahora se desconocía su procedencia, creyéndose que todo el que hay en el mar procedía de la disolución de sal común por los ríos continentales. Con lo expuesto se contesta al fin a una de las preguntas más antiguas
del hombre y que hasta hoy seguía sin una respuesta válida:
¿Por qué el agua del mar es salada?
Hasta aquí se ha expuesto la existencia de la erosión oceánica, y por consiguiente la sedimentación que lleva aparejada, como una deducción lógica al considerar la Hidráulica
como aquella ciencia que debe regir en la interpretación de
la interacción agua-fondo. Pero no es el único argumento que
demuestra la existencia de ese proceso erosivo, hay otros
más. Entre ellos podemos citar la distribución de los sedimentos a lo largo de los océanos y la morfología de su fondo.
Tal y como se ha expuesto en párrafos anteriores, las teorías geológicas actuales, e incluso las anteriores, no consideran que el agua de los océanos erosione su fondo. Por esta
razón, estas teorías actuales dicen que la sedimentación en
los océanos procede únicamente de los materiales que arrojan al mar todos los ríos del mundo y que se reparten uniformemente por todo el fondo. De acuerdo con la tasa de denudación continental calculada, el aporte de sedimentos al fondo del mar es homogéneo y ha sido cuantificada por diversos autores en cinco milímetros cada 1.000 años. Según este
I.T. N.o 74. 2006
27
dato y esta hipótesis, como el fondo más antiguo pertenece al
Jurásico, la costa atlántica de Estados Unidos, y tiene una antigüedad de 200 millones de años, la mayor potencia de sedimentos en el fondo de los océanos no debería ser nunca superior a los 1.000 metros.
Sin embargo los datos reales no concuerdan con estos cálculos. Se han realizado diversas campañas de sondeos geofísicos y mecánicos para determinar la potencia de sedimentos en el océano (Proyectos JOIDES y DSDP), obteniéndose espesores que superan los 10 kilómetros en la costa oriental de
los EE UU. También se ha llegado a representar la distribución
de sedimentos, viéndose claramente que no es homogénea,
hasta el punto de que V. Beloussov llegó a decir que el reparto era totalmente aleatorio aunque, tal y como señaló Seiya
Uyeda, parecía haber una cierta acumulación en el Ecuador.
Estas conclusiones invalidan la hipótesis de que los sedimentos que hay en el fondo de los océanos tengan un origen
continental y, en cambio, demuestran la existencia de la erosión oceánica. En primer lugar la acumulación en el Ecuador
es una consecuencia obligada de la circulación convectiva de
las corrientes oceánicas profundas, que al llegar a estas zonas ecuatoriales ascienden, aligerando peso y por tanto precipitando sus sales, para formar las corrientes superficiales
que cerrarán el ciclo. En segundo lugar, para un científico que
no sea experto en Hidráulica, y en algunos casos aun siéndolo, la distribución de sedimentos, no ya solo en el océano
sino incluso en un río, le puede parecer un proceso aleatorio.
Por último, el hecho de que se encuentren en diversas zonas
del océano potencias de sedimentos de más de 10 kilómetros
donde según la teoría solo debería haber uno, nos facilita el
orden de magnitud de la sedimentación debida a la erosión
oceánica (ver figura 3).
Existen más argumentos y razones que avalan la existencia de este proceso de erosión, transporte y sedimentación
oceánica. Entre ellos el ya citado de la morfología del fondo
del mar. Al igual que sucede en los continentes, el relieve que
presenta esta superficie submarina es el resultado de la erosión, las fracturas, los hundimientos y los levantamientos. Estos últimos son los protagonistas en zonas como la dorsal;
pero, igual que sucede en las cordilleras continentales, aunque se levanten, su morfología también es el resultado de la
erosión. No obstante hay otros lugares donde, aun habiendo
Fig. 3. Distribución de sedimentos en el fondo del océano Atlántico, entre la dorsal y el entronque con el talud submarino del continente americano. En gris oscuro se indica la distribución de sedimentos según las teorías actuales, en gris
más claro la distribución real obtenida mediante sondeos mecánicos y geofísicos.
28
I.T. N.O 74. 2006
fracturas, el estrellato lo asume con toda justicia la erosión
oceánica: tal es el caso del fondo del océano Antártico al este del estrecho de Drake, donde el relieve reproduce de manera fidedigna, pero a una escala grandiosa, la rotura de
una presa de materiales sueltos (ver figura 4). O también, en
la misma proporción de escalas, la forma adoptada por el
fondo del Pacífico frente a las islas Salomón, donde una corriente oceánica profunda, canalizada por la fractura de
Clipperton desde América Central, choca contra el avance
de Australia. El resultado es la imagen de ese fondo con el
aspecto de cuernos de carnero, la forma típica que resulta
del choque de un fluido contra un obstáculo que se levanta
ortogonalmente a su dirección de circulación. En este caso
las líneas de corriente han excavado enormes valles cuyos
cauces están erosionando la corteza oceánica y por tanto
adelgazándola, provocando con ello el levantamiento isostático de sus laderas y haciendo que emerjan islas o archipiélagos. La envergadura del proceso es enorme: mientras que
la testuz se sitúa en esas islas Salomón, vanguardia del movimiento de Australia, las astas curvadas engloban por el sur
a las islas Fidji y por el norte a las Marshall (ver figura 5). En
cuanto a la morfología de la sedimentación, una de las más
espectaculares es la llanura abisal del Atlántico Sur en la
margen americana: un llano del tamaño de Europa donde,
como si fuera una fina lluvia permanente, están continuamente precipitando toneladas de sales, logrando, con su posterior compactación, que la corteza se hunda por isostasia
cada vez más en el manto.
Aquí radica la causa de los movimientos verticales en las
placas oceánicas: la erosión corta y levanta mientras que la
sedimentación acumula y hunde la corteza oceánica. Esta es
la causa que explica la dinámica terrestre pero también la de
todos los demás planetas y satélites que nos acompañan en el
largo deambular por el universo. Cualquier teoría que explique la dinámica de la Tierra no puede ni debe abarcar solo
a nuestro planeta, debe tener una amplitud de miras mucho
mayor y convertirse en una teoría de la dinámica planetaria,
y así, deberá explicar la ausencia de actividad tectónica en la
Luna, Mercurio, Marte y Venus y, sin embargo, justificar la dinámica desenfrenada y espectacular de Io, satélite de Júpiter
y del tamaño de nuestra Luna, y también la de Europa, Ganímedes, Calixto y Titán.
Volviendo a la Tierra y dejando para más tarde los problemas espaciales, conocer la causa de los movimientos verticales de la corteza oceánica es saber por qué surgen las islas, por qué se transforman en archipiélagos (ver figura 6) y
cuál es el proceso de partición de un continente. Los ascensos
y hundimientos que se están gestando en el fondo del mar explican estas tres transformaciones que genera la dinámica
planetaria. Pero no todo acaba aquí, quedan otras muchas
cosas, tan importantes como averiguar cuáles son las fuerzas
que consiguen levantar las cordilleras continentales: ¿cuál es
la fuerza que empuja a los continentes?, ¿por qué de forma
reiterada los continentes se empeñan en reunirse formando
pangeas?, ¿qué efectos orogénicos provoca en la corteza
continental y oceánica la traslación de los continentes?...
Fig. 4. Conexión del Pacífico con el Atlántico a través del estrecho de Drake. El relieve del fondo y la curvatura de los continentes americano y antártico
reprodcen la rotura de una presa de materiales sueltos. Esta morfología es sin duda hidráulica y es el resultado de la acción erosiva
de las corrientes profundas que circunvalan la Antártida sobre el fondo por el que discurren.
Fig. 5. Erosión oceánica en forma de cuernos de carnero. Desde la dorsal de Tehuantepec en la costa occidental de México, esquina superior derecha, discurre
una corriente profunda que se dirige hacia el oeste canalizada por la fractura de Clipperton. Tras atravesar las islas Christmas, las Fénix y las Ellice, choca contra
el talud de las islas Salomón y se abre en dos gigantescas astas curvadas que alcanzan a las islas Carolinas por el norte y a las Fidji por el sur.
I.T. N.o 74. 2006
29
Fig. 6. Proceso de formación de una isla. La continua acumulación de sedimentos en una cierta zona del fondo del océano provoca el progresivo hundimiento de la corteza oceánica en el centro y el levantamiento en los bordes o extremos de la zona deformada. En estas zonas levantadas se producen tracciones en la cara superior
de la corteza que generan la aparición de grietas en las que se introduce el agua. El progresivo hundimiento hace que aumente la presión sobre el manto haciendo que
el magma emigre hacia las zonas exteriores, donde se acumula produciendo el levantamiento de bloques de corteza y posteriormente la aparición de vulcanismo.
Por motivos de espacio me debo restringir a una pregunta y la escogida es sin duda la de detallar cuál es la fuerza
que consigue desplazar a los continentes. La elección obedece a varios motivos: con esa respuesta se explica el mecanismo por el que los movimientos verticales se transforman en
empujes horizontales, también llamados tangenciales; ese
mecanismo es el que hubieran necesitado saber los partidarios del geosinclinal para no tener que abandonar su teoría
cuando surgió la expansión del fondo de los océanos; también porque por primera vez en la historia de las teorías de
la dinámica planetaria se puede demostrar matemáticamente
que esa fuerza que se expondrá es capaz de trasladar a un
continente; y también como justo y merecido homenaje a Alfred Wegener, puesto que esa fuerza fue la que buscó durante los últimos 18 años de su vida, y al final, yendo tras ella,
encontró la muerte en Groenlandia.
¿Cuál es esa fuerza que empuja a los continentes hasta lograr su desplazamiento? Para averiguarlo solo hay que mirar
con detenimiento el fondo del mar, a popa de los continentes
que se están trasladando, al lado contrario al de avance. Fijemos nuestra atención en América como ejemplo de continente que se traslada, concretamente en este caso hacia el
Pacífico, y de acuerdo con lo que acabamos de decir observemos detenidamente el lado contrario, el fondo del Atlántico (ver figura 7). En él se puede observar que a lo largo de
toda la dorsal el fondo presenta una menor profundidad, alrededor de dos mil metros; en cambio, en ambas márgenes,
cerca de donde acaban los taludes continentales y en concreto el americano, el fondo se encuentra a una profundidad de
unos cinco mil metros; pero además, allí aparece una llanura
abisal donde se han medido espesores de sedimentos que oscilan entre 10 y 15 kilómetros que se sitúan encima de la corteza oceánica (ver figura 8).
De acuerdo con este esquema descrito, la corteza oceánica en el Atlántico se encuentra, en la zona de contacto con el
continente americano, hundida entre 15 y 20 kilómetros de
profundidad respecto al nivel del mar (5 de agua y entre 10
y 15 de sedimentos); en la dorsal atlántica esa misma corteza
está levantada y a tan solo dos kilómetros de la superficie.
30
I.T. N.O 74. 2006
Así, podemos decir que la corteza oceánica está inclinada hacia el continente formando un cierto ángulo de basculamiento (α). Esta disposición de la corteza oceánica, basculada sobre el continente americano, va a generar que una parte de
su peso se transmita a la corteza continental, originando una
fuerza que tiende a desplazar al continente en dirección contraria al lugar de donde proviene el esfuerzo. El valor de esta fuerza de empuje es el peso de la corteza oceánica multiplicado por el seno del ángulo de basculamiento: F = P·sen α.
La cuestión que surge de forma inmediata es si esta fuerza
es suficiente para provocar el desplazamiento de América del
Norte hacia el Pacífico. Para averiguarlo usaremos una ciencia
que comenzó Galileo y la concluyó Newton: es el desplazamiento de un bloque, apoyado en una superficie con rozamiento y empujado por una fuerza constante. El bloque a desplazar es el continente americano; concretamente vamos a
quedarnos con una sección continental de ancho unidad, según un paralelo que pasa por el norte de Florida, que tiene la
virtud de tener una longitud de unos 3.000 kilómetros, igual a
la distancia que hay entre la costa atlántica y la dorsal (escoger esta sección en concreto no tiene más objeto que eliminar
factores en la división que luego efectuaremos). El siguiente paso es definir el espesor de la sección que se mueve; en nuestro
ejemplo sería la altura del bloque. Según la tectónica de placas este espesor es el de la totalidad de la litosfera, que equivale a unos 100 kilómetros, tanto si la placa abarca corteza
continental como oceánica. En nuestra hipótesis, y como veremos después, este sería el caso más favorable; existe un espesor inferior que va a generar un caso más desfavorable que es
el que debemos comprobar: éste surge al considerar como altura del bloque los últimos 15 kilómetros de corteza continental, allí donde el predominio es el de los materiales graníticos
y donde por presiones y temperatura, según demostró Peter
Molnar en 1988, existe una superficie de despegue que permite que la parte de sección continental que se sitúa por encima se desplace con un rozamiento muy bajo debido a la fusión
parcial del cuarzo y del feldespato. Tenemos entonces el bloque
a desplazar que es una sección del continente americano de
3.000 kilómetros de longitud y un espesor de 15 kilómetros.
Fig. 7. Morfología del fondo del océano Atlántico. En el centro la zona de levantamiento de la corteza oceánica, coronada por la dorsal. Su morfología es el resultado, como sucede en todas las cordilleras, de la acción conjunta de los levantamientos, las fracturas y la erosión hidráulica canalizada en estas últimas. A ambos
lados, y en el entronque con los taludes continentales, la corteza se encuentra hundida, en algunos lugares bajo el peso de miles de metros de sedimentos.
Fig. 8. Perfiles de los taludes submarinos de América del Norte. En ellos puede observarse el proceso de hundimiento
al que están sometidos la corteza oceánica y el propio talud continental por la acumulación de miles de metros de sedimentos compactados.
I.T. N.o 74. 2006
31
La fuerza que empuja es el peso de corteza oceánica que
se sitúa entre el borde del talud submarino de América del
Norte hasta la dorsal mesoatlántica, multiplicado por el seno
del ángulo de basculamiento. Al igual que sucede en el párrafo anterior, el caso más desfavorable surge al considerar
que el espesor de corteza oceánica que empuja es el menor
posible, y éste corresponde al contacto entre corteza oceánica y manto, es la discontinuidad de moho y se sitúa entre cinco y siete kilómetros de profundidad por debajo del fondo del
océano allí donde no hay sedimentos. Esta superficie de deslizamiento permite el desplazamiento con ángulos de fricción
muy bajos. El ángulo de basculamiento se obtiene de la inclinación de la corteza oceánica, que para el ejemplo escogido,
paralelo que pasa por el norte de Florida, es igual a:
a = arc tang {(15-2)/3.000} => a = 0,25° => sena = 4,3 ·10-3
Tenemos por tanto que la fuerza que empuja al continente es algo más de cuatro milésimas del peso de una rebanada de corteza oceánica de 3.000 kilómetros de longitud y
cinco kilómetros de espesor.
Queda por definir el coeficiente de rozamiento entre esos
15 kilómetros de corteza continental flotando sobre ese mismo material pero en un estado, definido por los geofísicos, de
fusión incipiente (fase en la que conviven partes sólidas y líquidas, similar a un vaso conteniendo hielo y agua según la
acertada imagen de F. Anguita).
Para averiguar este coeficiente volvemos a la Historia, y
más concretamente a la década de los años veinte del siglo
pasado, cuando Wegener intentaba demostrar que era la fuerza centrífuga, procedente de la rotación de la Tierra, la que
empujaba a los continentes. Esta hipótesis surgió en la mente
del alemán debido a que llegó a la conclusión de que los continentes emigraban desde posiciones situadas próximas a los
polos hacia el Ecuador; por esta razón, y aun sin haber encontrado la fuerza que tanto buscó, la bautizó con el nombre
de “Polhflucht” (fuga polar). En la última edición de su libro: El
origen de los continentes y de los océanos, y debido a los cálculos de Epstein, Lambert, Schweydar y sobre todo Wavre y
Bersier, que daban como coeficiente de rozamiento el valor de
una millonésima, tuvo que abandonar esta hipótesis, y lo hizo
diciendo que ese valor, expresado como cociente entre la fuerza que empuja y el peso del continente, si bien era capaz de
“... desplazar los bloques continentales a través del Sima, es
insuficiente para producir las grandes cadenas plegadas de
montañas que se originan en conexión con la fuga polar de los
continentes”. Esto quería decir que el valor de una millonésima
era el umbral del inicio del movimiento, el valor que estudiaba
Galileo con su sistema de rampas. Al igual que le sucedía al
pisano y a diferencia de Newton, a nosotros nos interesan los
momentos estrictos del inicio del movimiento, justo cuando el
empuje supera el valor de las fuerzas de rozamiento.
Este es el dato que necesitamos para nuestro cálculo, el
umbral de inicio, que equivale a decir que un bloque continental de un millón de toneladas, flotando sobre su mismo material en fusión incipiente, comenzaría a trasladarse si lo em32
I.T. N.O 74. 2006
pujáramos constante y horizontalmente con una fuerza de una
tonelada. En principio puede parecer un coeficiente de rozamiento muy bajo y más para los ingenieros, que estamos
acostumbrados a usar en geotecnia y para el estudio de estabilidad de laderas valores mucho más altos. Pero también es
cierto que en el caso de los desplazamientos continentales, éstos están flotando sobre la superficie de deslizamiento y a más
de 1.000 °C de temperatura. Quizás fuéramos capaces de
asimilar mejor ese valor de una millonésima si nos imagináramos que el continente es una barca de quilla plana a la que
empujamos transversalmente.
Con todo lo expuesto estamos en condiciones de concluir
con la demostración matemática. Una vez calculados los pesos de la rebanada de la corteza oceánica que empuja y de
la correspondiente de continente que desliza, siempre en ese
paralelo de Florida, obtenemos que el cociente entre la fuerza
empujante y el peso del bloque a desplazar es de 1,7 · 10-4.
Este valor es mil setecientas veces superior al de una millonésima, definido como umbral de inicio del movimiento. Tenemos entonces que el basculamiento de la corteza oceánica del
Atlántico Norte sobre el continente americano proporciona
una fuerza más de mil veces superior a la necesaria para producir el desplazamiento (ver figura 9).
En todo el cálculo realizado y de forma premeditada se
ha pospuesto el rigor científico en aras de una mayor claridad, tal y como creo que demanda el foro donde ahora se
expone esta demostración. Pero esto no debe inducir a error,
la exposición se ha hecho con todo rigor y, por primera vez
en una teoría de la dinámica terrestre, se ha demostrado matemáticamente que el mecanismo de empuje propuesto es capaz de desplazar a los continentes. Ahora, y como ya se
anunció, momento es para convertir lo particular en general.
Si el cálculo lo quisiéramos hacer para los espesores de
placa que propugna la Tectónica Global, tendríamos que aumentar el espesor de la corteza oceánica de cinco a 100 kilómetros y el bloque continental de 15 a 100, por lo que el
resultado se vería multiplicado por tres, luego se desplazaría
con mayor motivo.
Con esa misma premisa de no complicar la exposición se
ha prescindido de dos fuerzas que colaboran en el movimiento. La primera es el peso de 10 ó 15 kilómetros de sedimentos saturados y compactados que se apoyan sobre el talud
continental y que empujan al continente en la misma dirección
que la corteza oceánica basculada. La otra fuerza, más pequeña que la anterior, es la presión hidrostática de los cinco
kilómetros de agua sobre ese mismo talud submarino del continente. Si se tienen en cuenta ambas fuerzas el coeficiente aumenta pero mantiene los órdenes de magnitud determinados.
La demostración está hecha para la sección de EE UU, escogida por ser la que tiene más datos gracias a los perfiles
con sondeos mecánicos y geofísicos. Quizás sea ésta una de
valor intermedio en lo que respecta a la anchura del continente americano pero es una de las más grandes en cuanto
a corteza oceánica. Si hiciéramos este mismo cálculo para
paralelos más altos encontraríamos más longitud de continente y menor de corteza oceánica; en principio parecerían
Fig. 9. Desplazamiento del continente americano según la Hidrotectónica. La fuerza que empuja a los continentes, la “Polhflucht” que tanto buscó Wegener, es la consecuencia del basculamiento de la corteza oceánica, al estar levantada en la dorsal y hundida en el entronque con el continente. La inclinación provoca que parte del
peso de la corteza oceánica se transmita al continente. Calculada esta fuerza, para el caso de la figura resulta ser 1.700 veces superior al coeficiente de rozamiento
calculado para la superficie de deslizamiento de Molnar. Por tanto, esta fuerza empuja al continente con un valor mil veces superior al estricto para iniciar el movimiento.
Fig. 10. Proceso de apertura de un continente. Perfil del mar Rojo donde se observa la posición de la corteza oceánica, que se encuentra levantada en la dorsal,
a 1,5 kilómetros de profundidad, y hundida en los contactos con los taludes continentales submarinos de África y Asia bajo el peso de cinco kilómetros de sedimentos. El ángulo de basculamiento resultante es de 2°, diez veces mayor que el mismo calculado para América a la altura de Florida. El empuje provocado por
la corteza oceánica con este ángulo de basculamiento es 500 veces superior al coeficiente de rozamiento.
casos más desfavorables pero no es así si nos fijamos en que
el ángulo de basculamiento aumenta en mayor proporción y
con él aún más el valor del seno. Con un aumento muy pequeño de α se compensan disminuciones muy grandes de la
longitud de la corteza oceánica.
Esto mismo sucede en las zonas donde se está produciendo un proceso de corte de un continente, como es el caso del
mar de Cortés en el golfo de California y el mar Rojo en el
golfo de Adén. En ambos mares existe una gran cantidad de
sedimentos, que incluso llegan a dar el nombre en el caso
africano. Ninguno de ellos tiene un río que les aporte esa in-
gente cantidad de sedimentos, puesto que el río Colorado
apenas tiene agua que llegue a su desembocadura e incluso
tiene a la presa Hoover como punto de retención de toda su
erosión a la salida del Gran Cañón. En el fondo de ambos
mares existe una dorsal levantada en el centro y que recorre
longitudinalmente el golfo, mientras que en ambas márgenes,
donde el fondo contacta con los taludes continentales, la corteza oceánica está hundida bajo cinco kilómetros de sedimentos. En el caso del mar Rojo el basculamiento de la corteza oceánica es de 2°, diez veces superior al obtenido para
el caso del Atlántico y a la altura de Florida (ver figura 10).
I.T. N.o 74. 2006
33
Fig. 11. En rojo se señalan los terrenos continentales que tienen una antigüedad inferior a los 200 millones de años.
En todos los casos, éstos se sitúan en la proa del avance de los continentes y se han creado durante el tiempo
en que los continentes se están desplazando después de la última Pangea.
Fig. 12. Desplazamiento de los continentes según la Hidrotectónica. Perfiles a proa y a popa de un continente que se desplaza.
A proa del movimiento, lado izquierdo, se caracteriza por la compresión que se genera en la corteza oceánica. En el lado a popa del movimiento,
la característica principal es el proceso de hundimiento de la corteza oceánica ante la acumulación y compactación de sedimentos.
En cuanto al desplazamiento de las masas continentales,
cabe mencionar que cuando un continente avanza lo hace
venciendo la resistencia que opone la corteza oceánica situada a proa del movimiento. En esta oposición el continente consume una parte importante de la fuerza de empuje, que se emplea en generar las cordilleras que ya Wegener intuyó que estaban asociadas al desplazamiento de los continentes, y en deformar, adosar y hundir a dicha corteza oceánica. Las cordilleras que se gestan con el desplazamiento de los continentes
las podemos observar elevándose en una franja paralela a la
costa y perpendicular al desplazamiento para el caso de continentes que avanzan sobre océanos, como es el caso de América con los Andes y las Rocosas, en el que a medida que
avanza va aumentando por obducción la superficie continen34
I.T. N.O 74. 2006
tal (ver figuras 11 y 12). En el caso de masas continentales que
se empotran en otras, como Europa y la India lo hacen en África y Asia respectivamente, las cordilleras también se levantan
pero con direcciones y plegamientos más complejos.
Hemos visto que la Polhflucht que tanto buscó Wegener nace como consecuencia de la inclinación que presenta la corteza oceánica, generada a su vez por el hundimiento en las llanuras abisales al concentrarse allí la sedimentación oceánica.
Este proceso de precipitación se concentra en zonas determinadas gracias a las corrientes oceánicas profundas, cuya trayectoria está causada y mantenida por el gradiente térmico y
la rotación de la Tierra. De nuevo hay que darle la razón a
Wegener y a su fina intuición, la rotación es una condición necesaria para que se produzca la dinámica en un planeta o sa-
Fig. 13. La corteza oceánica a popa del movimiento, lado derecho de la figura, está basculada, hundida en el entronque con el talud continental
y levantada en la dorsal. Esta inclinación provoca que una parte del peso de la corteza oceánica empuje al continente mediante una fuerza horizontal
y un momento que levanta la proa y hunde la popa. De esta forma el continente avanza como si fuera un barco, a la vez que va obduciendo
y subduciendo la corteza oceánica que se encuentra por delante de su desplazamiento.
télite, pero no es bastante, la condición suficiente es que el astro tenga una capa externa compuesta por un fluido que tenga una capacidad de transporte capaz de acumular los efectos erosivos y sedimentarios sobre la corteza y así generar los
movimientos verticales de ascenso o de hundimiento. Aquí radica la causa de la ausencia de dinámica en la Luna, Mercurio, Venus y Marte. Ninguno de ellos tiene esa capa externa
formada por un fluido con capacidad de transporte suficiente,
incluso alguno de ellos no tiene tampoco rotación, como la Luna, o es muy pequeña, como le sucede a Venus, que tiene el
día tan largo como el año. En cambio, los llamados con justicia satélites galileanos de Júpiter, Io, Europa, Ganímedes y
Calixto e incluso Titán, el satélite de Saturno, presentan rasgos
inconfundibles de actividad tectónica. En algunos casos es indudable, como es el caso de Io, donde se han observado
erupciones volcánicas lanzando penachos de materia fundida
a centenares de kilómetros de altura; en otros, como los restantes satélites mencionados, se deduce su actividad por la ausencia o escasez de impactos de meteoritos en su superficie,
que obliga a pensar en un proceso de renovación de la corteza externa, que en algunos casos está constituida por hielo y
de varios kilómetros de espesor. En todos los casos existen evidencias de océanos, formados por compuestos de azufre como en Io o de agua o metano para los restantes y en la zona
de contacto entre el hielo y la parte rocosa del planeta.
Pero la Hidrotectónica no solo mira hacia el futuro y al espacio, convirtiéndose con ello en la primera teoría de dinámica planetaria, también justifica algunas de las teorías geológicas pasadas dándoles la razón a muchos que la perdieron. Tal es el caso de los neptunistas, vulcanistas y plutonistas,
enfrentados en polémicas para hacer prevalecer que sus respectivas causas eran únicas, cuando ahora, y gracias a la Hidrotectónica, sabemos que en verdad había una sola causa
que se manifestaba en las tres. O cuando los fijistas exigían
a los movilistas que definieran la fuerza que empujaba a los
continentes sin saber, ni unos ni otros, que por irónico que parezca, ese empuje estaba bajo los sedimentos, inmerso en la
propia teoría del geosinclinal que los fijistas esgrimían como
arma contra los movilistas (ver figura 13). En cuanto a la Tectónica Global, solo le falta considerar la existencia de la erosión oceánica para que vuelva a ser esa teoría sencilla que
inicialmente explicaba los hechos y no la cada vez más complicada que surge de ir acomodando soluciones particulares
para hechos concretos. Asimilando ese concepto de la erosión oceánica se explican todas las cuestiones que actualmente no tienen respuesta en este y en los demás planetas y
satélites del Sistema Solar.
Por último, la Hidrotectónica también nos da la clave para apreciar el mérito del milesio en su justa medida. El primer
sabio de Grecia no solo llegó a pensar que había un principio, una causa, un motor… sino que además acertó: al agua
solo hay que darle tiempo y movimiento, lo demás, por increíble que parezca, lo hace sola.
■
Carlos Soler Liceras
Ingeniero de Caminos, Canales y Puertos
Especialidad: Hidráulica y Energética
Dirección General de Aguas del Gobierno Autónomo de Canarias
Bibliografía
– Soler Liceras, Carlos, El Agua y la Tierra (la Hidrotectónica), Madrid, Colegio de
Ingenieros de Caminos, Canales y Puertos, Colección Ciencias, Humanidades e
Ingeniería, Nº 71, 2005.
I.T. N.o 74. 2006
35
La incertidumbre
de las catástrofes climáticas
Luis Antonio Vázquez López
DESCRIPTORES
SISTEMA CLIMÁTICO
CAOS
NO LINEAL
VULNERABILIDAD
Las características no lineales del clima de la Tierra aparecen
por todas partes. Ejemplos típicos de ello son aquellos que
cuando atendemos a su relativa rareza o intensidad llamamos fenómenos climáticos extremos y cuando lo hacemos
atendiendo a los desastres sociales que acarrean los solemos
denominar catástrofes. El sistema climático de la Tierra está
formado por las esferas naturales (atmósfera, biosfera, hidrosfera y geosfera), las esferas antrópicas (economía, sociedad, cultura), así como las interacciones complejas entre todas ellas y dentro de cada una de ellas. Estas interacciones o
intercambios son la principal fuente de no linealidad en el sistema o, lo que es equivalente, resultan ser una de las principales fuentes de incertidumbre en los supuestos de predicción
y prevención de eventuales catástrofes y de los efectos y consecuencias que ellas pueden acarrear.
Una descripción fundamental y simplificada de la Tierra
considera no únicamente sus partes constitutivas, sino también a todas estas componentes interconectadas y abiertas
traspasándose unas a otras flujos de masa, energía y momento. Puesto que la Tierra, como un todo, se comporta como un sistema natural cerrado (que no aislado, pues le llega
la energía esencial desde el Sol y emite infrarrojos hacia el
espacio exterior), todos esos flujos se conectan en el interior
del sistema por medio de “ciclos” a través de los subsistemas
o esferas antes aludidas (ciclo del carbono, ciclo hidrológico),
de modo que lo que sale de una de sus partes vuelve a reincorporarse al sistema como entrada en otra de ellas, formando una extensa y compleja cadena de realimentaciones. Es
precisamente esta cadena de realimentaciones entre las partes del clima o, como también ha sido llamada, “conversación
cruzada”, lo que invalida el principio de superposición propio
de los sistemas lineales (el todo es exactamente igual a la suma de sus partes). En un sistema no lineal, como el climático,
donde falla el principio de superposición, “el todo es más
(otra cosa) que la suma de sus partes”.
36
I.T. N.O 74. 2006
El aspecto que ofrecen las secuencias de observaciones y
registros climáticos en todas las escalas (Fig. 1) es el de un
comportamiento muy variable, con muchas irregularidades,
frecuentes cambios bruscos, inesperados, y en ocasiones enfrentados a lo intuitivo. Con extraña apariencia respecto a lo
que muchas veces cabría suponer.
¿Cuándo hay no linealidad? Ingredientes
de un sistema climático no lineal
Caos, complejidad,
realimentaciones y umbrales críticos
En la dinámica lineal predomina lo relativamente suave, tanto en espacio como en tiempo; es representable por funciones
matemáticas continuas. En la dinámica no lineal se dan transiciones y saltos rápidos, variaciones irregulares. Es como si
en su evolución el sistema llegara a cruzar algún punto o umbral de equilibrio inestable. En los sistemas lineales hay proporción entre los estímulos y las respuestas. Muy al contrario,
en los no lineales, a pequeños estímulos o forzamientos que
operen sobre ellos pueden seguir fuertes cambios de comportamiento, dada la naturaleza caótica de los mismos. Aunque
el sistema climático terrestre está principalmente forzado por
los ciclos astronómicos de radiación solar, en él podemos observar ciclos y frecuencias que no aparecen en ese ritmo muy
regular de acción solar, como veremos, por ejemplo, al comentar los cambios climáticos del Pleistoceno.
Si la no linealidad en el sistema climático da lugar a fluctuaciones, transiciones rápidas, irregularidad y comportamiento
inesperado y apariencia aleatoria, las interacciones entre sus
muchas componentes, su complejidad, que no están bien comprendidas todavía, producen también fenómenos de autoorganización espontánea y coherente que denominamos comportamiento emergente. Estos dos aspectos, caos y complejidad, aunque son propios de la evolución no lineal de los sistemas de la
naturaleza como lo es el climático, son también cosas diferentes.
El caos se refiere al comportamiento complicado que pueden mostrar sistemas sencillos, y se da cuando pequeñas diferencias entre dos estados dinámicos en un instante dado pueden alcanzar grandes diferencias en no muy distantes tiempos
posteriores: sus trayectorias divergen rápidamente. El acoplamiento entre la atmósfera y el océano en el Pacífico ecuatorial
alterna con apariencia aleatoria, caóticamente, entre sus tres
estados cuasi-estables característicos y, como es sabido, muy
diferentes en sus efectos regionales (normal, la Niña y el Niño).
Por el contrario, la complejidad se refiere al comportamiento singular de sistemas complejos que tienen muchas componentes y procesos. Por ejemplo, un terremoto puede verse como
un fenómeno que emerge del comportamiento del complejo sistema geotectónico; así también una extinción de especie del
comportamiento de la biosfera; o los episodios de calentamiento global al final de las glaciaciones (como el calentamiento del
Holoceno al final de la última glaciación); o los cambios drásticos hidroclimáticos regionales, como la desecación del Sahara
o los cambios bruscos en los caudales de los lagos ecuatoriales
africanos en escala de tiempo decadal, o la acumulación multianual de períodos de sequía tras otros períodos mucho más
húmedos en la Península Ibérica o la inundación rápida asociada a un desarrollo tormentoso intenso, etc. Un inacabable
muestrario de ritmo climático plagado de cambios súbitos, rápidos o, frecuentemente, inesperados en todas las escalas temporales y espaciales, que hacen del clima un sistema de limitada y difícil predicción.
Hay diferentes tipos de realimentaciones en el clima, las de
amplificación (positivas) y las de control (negativas); unas implican procesos fisicos (realimentación albedo-criosfera), otras físicos y biológicos (realimentación albedo-vegetación) y otras
biogeoquímicos, como la interacción atmósfera-gases antropogénicos. Visto el ambiente relativamente benigno de la Tierra,
sobre todo si se la compara con otros planetas, como es el caso de Venus, podemos suponer que a diferencia de lo que debió de suceder en ese planeta, la naturaleza aquí, en la Tierra,
se las ha arreglado para que por término medio el equilibrio
neto entre las innumerables realimentaciones de todo tipo que
operan en ella resulte negativo (control) y ligeramente mayor
que las positivas, al menos para relativamente no muy grandes
o drásticas variaciones de los forzamientos externos (como las
variaciones de la energía solar que nos llega) o internos (como
la modificación de uso de suelos por razones culturales). Un
umbral crítico puede ser el punto en el que dos realimentaciones en competencia están equilibradas, y como todo está pleno
de realimentaciones y umbrales críticos en juego, la probabilidad de que se den amplificaciones en alguna variable es muy
alta, y por ende también la de que se den los extremos meteorológicos y climáticos a los que, bien por padecimiento propio
bien por información, ya estamos más o menos acostumbrados.
El clima no es en absoluto lento y gradual, digamos de buen
carácter, previsible, y puede reaccionar rápida y violentamente
en la práctica totalidad de escalas temporales y espaciales. Al
considerar su historia esto parece ser la norma más que la excepción. Es desde este punto de vista, el de la irregularidad e
incertidumbre inherentes al sistema climático, desde el que quisiéramos ilustrar a continuación algunos ejemplos de catástrofes
climáticas en tiempos lejanos o más recientes para, finalmente,
proponer algún aspecto general de método y estrategia frente
al reto de las consecuencias de la acción humana sobre el clima terrestre y las del clima terrestre en las sociedades humanas.
Dientes de sierra
en distintas escalas climáticas
¿Qué es lo que ha regulado no linealmente las glaciaciones
del Pleistoceno que crearon las condiciones para la humanización de la Tierra, o las oscilaciones rápidas calor-frío durante los estadiales fríos de las edades de hielo, o la desecación subsahariana del Holoceno Medio cuando se formaron
las primeras civilizaciones neolíticas y de los grandes ríos?
Es intrigante, cuando no sorprendente, esta forma de dientes de sierra que muestra la variación temporal del clima en
escalas de cientos de miles de años, las glaciaciones (Fig. 1),
y que con esta semejanza lo hagan también las dramáticas
oscilaciones calor-frío, llamadas D/O, de un orden temporal
inferior (miles de años y mucho menos) que debieron de producirse en el transcurso del largo tramo frío-helado de la
edad de hielo. Es como si dentro de unos dientes de sierra
descubriéramos otros más pequeños en una cascada de autosemejanza en distintas escalas que sugiere si no serán procesos del mismo tipo los que dan lugar a esos fenómenos, por
otra parte diferentes en su extensión, duración y efectos.
¿Qué regula las edades del hielo?
Fig. 1. Dientes de sierra en la evolución térmica y otros parámetros extraídos
de los núcleos de hielo de Vostok (Antártida) para las cuatro últimas glaciaciones. Semejanza entre estas secuencias largas y las de calentamiento rápidoenfriamiento lento dentro de ellas (diferentes escalas de tiempo).
Las edades del hielo ocupan en conjunto no más que una décima parte de la historia documentada de la Tierra. Su interés reside en que su variabilidad natural es más alta que en
otros tiempos geológicos más benignos. Las glaciaciones del
Pleistoceno se produjeron casi periódicamente y en su tramo
más frío la temperatura global terrestre era unos 4 °C más baja que la actual. Enormes capas de hielo de varios kilómetros
de espesor cubrían el norte de América y Eurasia.
Un análisis espectral de estas oscilaciones muestra picos
anchos de concentración de energía alrededor de las frecuencias 20.000, 40.000 y 400.000 años, coincidiendo con las
variaciones de la energía del Sol que llega a la Tierra a causa
I.T. N.o 74. 2006
37
de las variaciones seculares de precesión, rotación axial y excentricidad orbital. No obstante, la respuesta del sistema climático a estos forzamientos, que se supone dirigen sus cambios, es fuertemente no lineal y aún se está lejos de su comprensión. Por ejemplo, si bien es sabido que la frecuencia principal entre las edades del hielo es de unos 100.000 años (Fig.
1), este período ha venido aumentando gradualmente desde
unos 80.000 a unos 120.000 durante el último medio millón
de años. Por otra parte, la respuesta climática al forzamiento
de la variación de excentricidad de 413.000 años es casi inexistente y en cambio en el clima aparecen algunas frecuencias significativas que no están en el forzamiento solar orbital.
Hace aproximadamente un millón de años, el clima pasó de un
ritmo de glaciaciones cada 41.000 años a un nuevo período
de unos 100.000 sin cambio correspondiente en las frecuencias del forzamiento solar; se ha denominado la Transición del
Pleistoceno Medio y continúa siendo uno de los más extraños
ejemplos del carácter no lineal del sistema climático. El clima
no sigue proporcionalmente a los ritmos de forzamiento solar,
aunque depende de ellos. Reacciona no linealmente.
Calor inesperado en medio del frío.
El inquietante océano Atlántico
Muchos investigadores del clima quedaron sorprendentemente impactados por la historia revelada en el libro de hielo obtenido sobre las cimas de los mantos helados de Groenlandia
y la Antártida durante los primeros años noventa, en lo que
se ha considerado uno de los principales logros científicos del
siglo XX. La resolución temporal proporcionada por las perforaciones y muestras de las capas de hielo de la última glaciación nunca antes se había alcanzado y alteró a fondo la
compresión de la dinámica del clima.
Por primera vez se vio que en otra secuencia de episodios
en dientes de sierra la temperatura de Groenlandia había subido rápida y dramáticamente hasta unos 8-10 °C en unos
pocos años, y tras cada uno de estos calentamientos súbitos se
retornaba lentamente, tras varios siglos, a los niveles de fríos
de la glaciación, época en que esto sucedía. Se han identificado más de 20 episodios D/O durante la última glaciación.
Se repiten en intervalos casi iguales y no muestran una clara
relación con el forzamiento astronómico.
Si este patrón se ha dado en el pasado, probablemente podrá ocurrir en el futuro. ¿Por qué la fase cálida es más rápida
que la de enfriamiento? ¿Cómo un cambio lento como el orbital puede disparar este cambio climático tan brusco? ¿El ritmo
de calentamiento antropogénico actual podría provocar uno de
estos episodios típicos de la edad del hielo? Se piensa que estos cambios son resultado de inestabilidades, traspaso de puntos críticos y otras no linealidades cuyos mecanismos físicos y
naturaleza todavía no se conocen bien. Se ha propuesto que estuvieron asociados a los patrones de circulación de las corrientes del Atlántico en esas épocas frías. Esta circulación pudo darse en un estado estable y otros dos inestables. De estos dos inestables, uno es parecido a como circula hoy en día (Fig. 2) (si
bien ahora estaríamos en un período interglacial cálido) y en el
otro modo cesarían o se debilitarían las corrientes oceánicas.
38
I.T. N.O 74. 2006
Estado excitado
(interestadial)
Estado básico
(estadial)
Fig. 2. Dos modos posibles de circulación oceánica en el Atlántico durante la última edad glacial. El de la izquierda, modo frío, es estable y prevalece en la glaciación, extensión del hielo. El agua atlántica cálida solo llega hasta latitudes
medias. A la derecha, fase cálida del episodio D/O. La circulación penetra hasta los mares nórdicos y suben las temperaturas; se asemeja a la circulación actual. (Fuente: Instituto Potsdam para la investigación de los impactos del clima).
¿Qué perturbación dispararía uno u otro de estos estados
oceánicos? Se sabe que las variaciones de densidad de las
aguas de los mares del norte atlántico. Pero, ¿qué dispararía
las variaciones de los flujos de agua dulce y la modificación de
la densidad salina? Se ha llegado a simular eficientemente con
modelos numéricos que estos ritmos calor-frío pudieron estar
asociados a la circulación termosalina atlántica en tanto que
sistema no lineal capaz de amplificar un forzamiento de origen
desconocido por ahora (quizás astronómico) debido a que en
su circulación pueden coexistir dos modos, uno estable y otro
inestable. Esta coexistencia de distintos modos de equilibrio no
es posible en un sistema lineal. Según qué factores ambientales operan sobre un sistema no lineal, éste se sitúa en uno u
otro de sus estados posibles. La transición entre ellos puede ser
veloz e intensa, mucho más veloz e intensa que la causa que
los ha forzado y, desde esta perspectiva, catastrófica.
El avance del desierto del Sahara
Durante el óptimo climático del Holoceno, hace de 6.000 a
9.000 años, África era más húmeda y el Sahara mucho menos
extenso que como lo conocemos hoy día. Coincidía con unos
parámetros orbitales (mayor excentricidad de la órbita y mayor
inclinación del eje de rotación de la Tierra) y, sobre todo, una
fecha del perihelio hacia julio (hoy día es hacia primeros de
enero) que favorecían una mayor insolación en el hemisferio
norte durante el verano y una más intensa entrada de los monzones desde el golfo de Guinea, con grandes aportes de humedad sobre el interior profundo de África. Las hierbas y arbustos
Fig. 3. Insolación en julio y reconstrucción paleobotánica con material terrígeno de las costas norteafricanas de los últimos 10.000 años. La insolación disminuye suavemente y en cambio la aridez (material terrígeno) se dispara dramáticamente hacia 5.500 años antes del presente.
Fig. 4. Tres modos de oscilación del Niño que son resultado de interacciones no lineales océano-atmósfera en el Pacífico tropical.
Transita de uno a otro de manera irregular, como muestra la marcha del índice de la figura 5.
extendían el Sahel hasta los 23° N más o menos. Posteriormente, la insolación debió de ir disminuyendo paulatinamente
(Fig. 3), y así mismo la succión de humedad desde el Atlántico.
No obstante, cuando los modelos climáticos tratan de simular esta relación no logran reproducir el rápido, intenso y
extenso aumento de la aridez y el desplazamiento hacia el Sur
del desierto del Sahara que se dio hacia el 5500 antes del presente. Aunque la suave variación de la insolación haya sido el
mecanismo general forzante, se hace necesario un mecanismo
de realimentación biogeofísica, positiva, no lineal, entre el albedo y la vegetación del área: con el descenso de lluvias monzónicas debió de disminuir el manto vegetal y aumentar el albedo (energía solar reflejada por el suelo), aumento que favorece a su vez la disminución de la humedad y en consecuencia más descenso de vegetación, en un proceso amplificado
hasta un punto umbral en que se quebró el reciclado de humedad atlántica que penetraba en el continente y su adentramiento en el Sahara. Cuando se considera esta realimentación,
los modelos sí simulan este cambio de estado del ambiente en
el que un umbral crítico de reducción de lluvias pudo haberse
rebasado con una aceleración que contrasta netamente con la
disminución lenta de la energía que llegaba del Sol, y que se
ajusta a las reconstrucciones paleobotánicas (Fig. 3).
Caos y orden en tiempos más recientes
El carácter cambiante de los mares del Sur: el Niño
La Oscilación del Sur-El Niño (ENSO) representa una interacción no lineal entre el océano y la atmósfera en el Pacífico tropical. El Niño alude a la parte oceánica de este proceso de
acoplamiento en su fase cálida, y alcanza su máxima intensidad frente a las costas del Perú. Un debilitamiento de los vientos alisios que prevalecen allí facilita la propagación hacia el
Este de aguas superficiales cálidas que normalmente se acumulan en el oeste del Pacífico (Fig. 4). El área de estas aguas
anómalamente cálidas es de unos 30 millones de kilómetros
cuadrados (unas tres veces Canadá) y es por ello por lo que
el intercambio de calor latente y sensible entre el océano y la
atmósfera allí tenga entidad suficiente como para influir en los
patrones climáticos a escala de todo el globo terráqueo. Durante la fase fría del ENSO, llamada la Niña, aguas frías invaden esta zona del Pacífico tropical. La Oscilación del Sur es
la parte atmosférica asociada al Niño y tiene mucha más extensión que la oceánica, con implicaciones en todo el planeta.
Fig. 5. Índices de evolución temporal del Niño (arriba)
y de la Oscilación del Sur (abajo).
El análisis de variabilidad de este acoplamiento ENSO
muestra elevada irregularidad (Fig. 5), con tres modos diferenciados: una componente estacional que se recoge en la
propia denominación “el Niño”, que alude a la época navideña en que acostrumbra a manifestarse; tiene también una
componente casi bianual con tiempo de recurrencia entre dos
años y dos años y medio. Finalmente, hay otra variación propia de recurrencia entre cuatro y cinco años. La interacción
de estos tres modos casi periódicos de variación hace que los
cambios térmicos en el Pacífico ecuatorial sean finalmente
bastante irregulares. A esta irregularidad contribuye también
la realimentación sobre el océano que suponen la gran cantidad de perturbaciones meteorológicas convectivas, tormentosas, que se forman en el área (Fig. 4).
Mediáticamente muy divulgado por sus características y los
efectos desastrosos que en ocasiones produce, lo que se quiere destacar aquí es que desde el punto de vista dinámico las
oscilaciones irregulares del ENSO se ajustan aceptablemente a
la física de un oscilador caótico y no lineal de bajo orden (atmósfera-océano), influido por el ciclo estacional. La interferencia positiva del modo casi bianual (2-2,5 años) con el de baja
frecuencia (4-5 años) da lugar a los episodios cálidos y fríos
más intensos, más catastróficos, como el de 1997-98, pero que
por otra parte son todavía más irregulares en su aparición.
Los sistemas caóticos no son totalmente impredecibles en
escalas temporales relativamente cortas, y así como la parte
de regularidad del ENSO facilita algo su predicción a corto
plazo, de meses, su naturaleza caótica imposibilita por el momento esa misma certidumbre más allá de los seis meses.
I.T. N.o 74. 2006
39
Aire atlántico vacilante
Otro fenómeno que también se manifiesta con oscilaciones
irregulares no lineales entre los diferentes estados en los que
puede producirse y como caos en las interacciones océanoatmósfera es la Oscilación del Atlántico Norte (NAO). Es una
estructura muy importante de variabilidad climática atmosférica atlántica y su interés radica en que explica casi un 50 %
de la variación de la presión atmosférica al nivel del mar en
el Atlántico y ejerce una clara influencia en el clima regional
del este de Norte América y el oeste de Europa durante todo
el año, pero principalmente en invierno.
Consiste en una alternancia a gran escala de los campos
de presión atmosférica con centros de acción cerca de la baja de Islandia y del anticiclón de las Azores. El índice que da
su valor y signo se calcula como diferencia de presión al nivel del mar entre las Azores e Islandia o zonas próximas respectivas (Fig. 7). Esta oscilación atmosférica tiene dos fases
que representan típicamente dos regímenes de tiempo para el
Atlántico norte (Fig. 6).
Proyecta su señal en rangos temporales muy diversos, incluso a escala diaria. Una interesante y aún no comprendida
característica de la NAO es el agrupamiento de días con índice del mismo signo, como paquetes de flujo aéreo más o menos persistente, llamados regímenes de tiempo. Un mes, un año
o una década marcados por una señal positiva o negativa de
la NAO indica la prevalencia de una u otra fase de este régimen de flujo atmosférico. El interés de esto se basa en que, por
ejemplo, un flujo de régimen positivo de la NAO puede signi-
Fig. 6. Las dos fases extremas de la NAO y algunos impactos climáticos (cortesía de Damont Doherty Earth Lab./NOAA). Según la fase de la NAO, las trayectorias de las borrascas atlánticas llegan (fase -) o no (fase +) hasta la Península Ibérica. En el primer caso, abundancia de lluvias, en el segundo sequía.
Fig. 7. Alta irregularidad en la evolución del índice NAO. Los promedios de cinco años consecutivos, en negro, destacan las variaciones plurianuales. Apréciese el agrupamiento de valores positivos durante las últimas décadas de calentamiento global y las fluctuaciones casi decadales durante el último medio
siglo (Fuente: Earth Lab./NOAA).
40
I.T. N.O 74. 2006
ficar que las borrascas alejen su trayectoria de la Península
Ibérica (Fig. 6) y sobre ella se instalen frecuentes anticiclones,
la reducción de las lluvias y consiguientemente la sequía, la
caída de caudales hídricos, etc., como ocurrió en los primeros
años noventa del siglo XX. Con argumentos parecidos podríamos explicar la ocurrencia de fases de distinto signo, con abundancia pluviométrica y otros extremos climáticos regionales.
Durante las últimas décadas de calentamiento climático global
ha prevalecido la fase cálida-positiva de la NAO (Fig. 7). Tan
destacable es esta asociación NAO-clima regional, que la explicación y la simulación de estos regímenes nos ayudarían a
explicar y predecir el clima regional ibérico, la evolución de los
ecosistemas y sus fuertes cambios naturales o antropogénicos.
De nuevo, nos encontramos ante otro fenómeno destacable del clima del cual podemos describir muchas de sus características morfológicas y estadísticas, pero del que todavía
no conocemos el mecanismo dinámico caótico subyacente y
los procesos que lo controlan como para poder definirlo sin
ambigüedades y estimar su predictibilidad.
Entonces, ¿no se pueden predecir
las catástrofes climáticas?
Enormes esfuerzos de investigación están tratando de conseguirlo por medio de modelos numéricos y grandes ordenadores. Estos modelos matemáticos del clima están basados en un
conjunto de ecuaciones diferenciales no lineales (Navier-Stokes) que tratan de ajustarse a la evolución de unos fluidos moviéndose sobre una esfera en rotación y con grandes arrugas
(montañas, profundidades abisales). Expresan las leyes del
movimiento (Newton), los principios de conservación de la masa y la energía y otras transformaciones termodinámicas (evaporación, condensación). Si repitiéramos varias veces una simulación con un mismo modelo de atmósfera-océano-criosfera
acoplados, que supuestamente representa al clima real, con un
mismo ordenador, un mismo código y unas mismas condiciones iniciales y de contorno, los resultados finales serían idénticos. Si modificáramos un poco alguno de los ingredientes de
este laboratorio climático el resultado variaría sensiblemente. El
interés de esto radica en si este clima del modelo coincide o no
con el clima real. Los datos “proxy” paleoclimáticos (núcleos de
hielo, polen, sedimentos marinos) que nos informan sobre los
cambios catastróficos del pasado, tal como hemos visto, indican que éstos fueron más intensos que lo que con frecuencia
los modelos nos dicen. Muchos de estos modelos subestiman la
cantidad de humedad perdida en el Sahara durante los últimos
miles de años, o no simulan bien el gran calentamiento de los
polos cuando vivían los dinosaurios, o los intensos fríos en lo
más extremo de la última glaciación. Y esto, ¿por qué?
Lo más probable es que estos y otros desacuerdos se deban
a una menor o diferente sensibilidad del clima de los modelos
respecto a la sensibilidad del propio clima real y, posiblemente, también porque desconocemos realimentaciones y umbrales
que de otro modo podrían ayudarnos a predecirlos. Tenemos
un bello edificio matemático “determinista” que debe interpretar un clima enormemente irregular, con apariencia aleatoria.
Al tratar de conseguir que el clima del modelo se parezca al
real se vienen desarrollando incontables “trucos” para introducirles ruido explícito, perturbaciones, que fuercen el sistema simulado hasta crear variaciones estadísticas realistas, que se
parezcan al clima observado o que lo reproduzcan.
En una mirada caótica, encontraremos el “efecto mariposa”, el pequeño aleteo de una mariposa capaz de inducir un
huracán a gran distancia. El problema es que no hay solo
una mariposa, sino millones de ellas batiendo sus alas en todo tiempo y por todas partes. Este ruido omnipresente, interno, que es también fuente de variabilidad del sistema climático, requiere del pensamiento y las ideas probabilísticas, requiere de una mirada estocástica en la que el ruido climático
unas veces oculta, otras veces cancela y otras es fuente creativa de variabilidad y fenómenos del clima.
Las no linealidades y los equilibrios inestables hacen al sistema climático “impredecible” más allá de ciertas escalas de
tiempo característico dentro de las cuales sí se puede predecir.
Este plazo de predicción característico es diferente y no siempre conocido, según el subsistema de que se trate, el océano,
la troposfera tropical, los glaciares, la sequía, el bloqueo anticiclónico de latitudes medias…
¿Proteger la sociedad de la naturaleza
o la naturaleza de la sociedad?
Nos hemos asomado a una pequeña ventana entre la multitud de interacciones no lineales reconocibles en la variabilidad de los procesos climáticos de la Tierra. Y vislumbramos
un paisaje de dificultades y limitaciones de la predicción a
pesar de los indiscutibles avances realizados en ello. No obstante, la interpretación de las relaciones entre las sociedades
y el clima se articula, hoy día, bajo el predominio de un discurso con varios tramos destacables:
1. Las sociedades son vulnerables a los extremos climáticos.
2. Las catástrofes meteorológicas y climáticas actuales son debidas al calentamiento antropogénico, principalmente inundaciones y grandes tormentas (aunque esto acostumbra a
estar erróneamente atribuido).
3. Este calentamiento es real, se acelerará en el futuro y también los extremos climáticos.
El grueso del conocimiento climático que se concentra en los
informes periódicos del Panel Intergubernamental para el Cambio Climático (IPCC) sustenta una dramática expectativa: si no
se produce regulación de emisiones, hay que esperar el cuádruple de concentración atmosférica de gases de invernadero a
finales de este siglo. Y si se consigue una reducción, la cosa quedaría en el doble. En todo caso, no evitaremos su incremento.
Dos líneas estratégicas se han formulado para responder
a estos cambios: la adaptación, que trata de reducir la vulnerabilidad a las catástrofes actuales y futuras, y la mitigación del cambio climático antropogénico, que trata de reducir las emisiones de los gases y aerosoles que supuestamente
lo provocan. Quizás, el complemento de ambas vías fuera lo
más sensato. Pero cabe preguntarse qué razones culturales y
políticas vienen abonando tantos favores para la mitigación
(protocolo de Kyoto, etc.) en perjuicio de la estrategia de
adaptación, cuando este sesgo puede propiciar incluso el au-
mento de la vulnerabilidad, que no depende solo de la intensidad del extremo climático, que si ha ocurrido probablemente volverá a hacerlo, sino también de la capacidad del
sistema afectado para hacerle frente y resistirlo, como se ha
visto con Katrina, por ejemplo. La reducción de la vulnerabilidad de las sociedades actuales a los extremos climáticos que
ya conocemos puede resultar una estrategia doblemente beneficiosa. Primero, porque trata de reducir el riesgo de hoy
día, y, también, porque si algún tipo de catástrofes pudieran
en el futuro empeorar, siempre se estaría en mejores condiciones de hacerles frente si hubiéramos aprendido a enfrentarnos mejor con las que ya conocemos.
Las dificultades y limitaciones de la predicción aconsejan
estrategias preventivas basadas en diagnósticos integrados
de la vulnerabilidad de los sistemas sociales, en los que se trata de diferenciar la importancia relativa del clima junto a
otros muchos factores de influencia ambiental. Por ejemplo,
que el crecimiento y concentración de las poblaciones pueda
suponer una amenaza mucho mayor para las provisiones de
agua que el cambio climático previsto por el IPCC.
Los datos, los modelos, los registros históricos y paleoclimáticos y el estudio de casos singulares pueden ayudar a
evaluar qué vulnerabilidades tienen probabilidad de ocurrir y
cómo prepararse mejor para ello. Esto incluye la elaboración
de escenarios del tipo “qué, si” en caso de que algo como esto, por ejemplo, fuera a ocurrir:
— Un calentamiento rápido, tipo D/O.
— Una sequía ibérica como la de los años noventa.
— Un huracán del tipo Katrina.
— Un episodio El Niño como el de 1997.
— Una ola de calor como la del verano de 2003.
— Una Pequeña Edad de Hielo en Europa, como las de los
siglos XVI al XIX.
— Etc., etc.
¿Cuál es la probabilidad de ocurrencia y las consecuencias de este tipo de catástrofes en nuestras condiciones económicas y culturales actuales?
■
Luis Antonio Vázquez López
Meteorólogo
Instituto Nacional de Meteorología
Referencias bibliográficas
– Uriarte Cantolla, Antón, 2003, Historia del clima de la Tierra, Servicio Central de Publicaciones del Gobierno Vasco.
– Rial, José A., 2004, Abrupt climate change: chaos and order at orbital and millennial scales, Elsevier.
– Rahmstorf, Stefan, 2002, “Ocean circulation and climate during the past 120.000
years”, Nature, 419.
– Storch, Hans von, 2003, “On adaptation. An essay about our perceptions and responses to the concern of anthropogenic climate change”, Actas del Simposio Klimaschutz als Unternehmerishe Verautwortung, 1 de noviembre de 2003, Zürich.
– IPCC, 2001, Climate Change 2001, Synthesis Report, Cambridge University Press.
I.T. N.o 74. 2006
41
PÁGINA INTENCIONALMENTE
DEJADA EN BLANCO
I.T. N.O 74. 2006
PÁGINA INTENCIONALMENTE
DEJADA EN BLANCO
I.T. N.o 74. 2006
Cambio climático
e ingeniería territorial:
riesgos y oportunidades
Pedro Fernández Carrasco
DESCRIPTORES
CAMBIO GLOBAL
CLIMA
INGENIERÍA TERRITORIAL
CAMPOS CLIMÁTICOS
Introducción
A nivel mundial se está realizando un esfuerzo importante
para poder entender y en su caso mitigar el fenómeno conocido como cambio climático, invirtiendo en valiosos recursos
humanos y materiales, así como empleando el tiempo y el esfuerzo de grupos y personas con responsabilidades a nivel internacional, regional, nacional y local; y sin embargo, parece que seguirá siendo vigente el comentario de Antonio Mingote (2005a) para la primera meta volante, 2050, de los escenarios establecidos por el IPCC (Grupo Intergubernamental
de Expertos sobre el Cambio Climático): “Nos ha sorprendido la ola de frío en pleno invierno, en verano nos sorprenderá una impresionante ola de calor, y no me extrañaría que
nos sorprendiera la inundación de todos los años, no paramos de sorprendernos de las cosas que van a suceder”.
Es cierto, y siguiendo el Tercer Informe de Evaluación:
Cambio climático 2001, 1) La base científica, 2) Impactos,
adaptación y vulnerabilidad y 3) Mitigación, Resúmenes para responsables de políticas y Resúmenes técnicos, como parte de las contribuciones de los Grupos de trabajo I, II y III, respectivamente, al Tercer Informe de Evaluación del IPCC
(2001), que parte de la tareas están comenzándo a hacerse,
y esta revista es buen reflejo de las iniciativas que se están
desarrollando a través de tres publicaciones previas: “Cambio Climático y subida del nivel medio del mar. Impacto sobre
la costa” (Acinas, 2002), “Cambio Climático” (Ruiz, 2004) y
“Cambio climático y recursos hídricos en la planificación hidrológica” (Cabezas, 2004).
Entre las tareas básicas podemos citar los compromisos a
los que los países industrializados se comprometieron al ratificar el Protocolo de Kyoto. Recordemos que cuando el Boletín
44
I.T. N.O 74. 2006
Oficial del Estado publicó el día 8 de febrero de 2005 el Instrumento de Ratificación del Protocolo de Kyoto al Convenio
Marco de Naciones Unidas sobre el Cambio Climático, faltaban solo ocho días para que el 16 de febrero entrase en vigor
este acuerdo internacional y se convirtiese en jurídicamente
obligatorio para los 128 países que lo han ratificado, y que
la entrada en vigor del Protocolo supone que treinta países industrializados estarán obligados jurídicamente a cumplir los
objetivos cuantitativos para reducir sus emisiones combinadas
de los seis grandes gases de efecto invernadero durante los
cinco años comprendidos entre 2008 y 2012 a niveles inferiores a los de 1990.
Sin embargo no estamos en posición de asegurar que
efectivamente el hipotético cambio climático se está produciendo, y resalto hipotético, pues a pesar de todos los esfuerzos empleados, el cien por cien de la comunidad científica no
está honestamente de acuerdo con los resultados de escenarios futuros planteados por el IPCC. El norte de Japón sufre estos días, finales de diciembre de 2005 a primeros de 2006,
los estragos de la mayor ola de frío de las últimas seis décadas, soportando temperaturas de hasta 30 y 40 grados bajo
cero, y hasta 34 puntos de observación meteorológica han
registrado récords históricos de nieve caída en el mes enero.
Así mismo, India registró el 8 de enero pasado la temperatura más baja en los últimos setenta años, y Moscú alcanzaría
su record frío de los últimos 100 años, bajando de los -32 °C
el pasado 19 de enero de 2006.
Por otro lado, los resultados presentados por el Grupo de
trabajo I del mencionado IPCC son, además de razonables,
muy plausibles, y por tanto obligan a plantear los conceptos
de riesgo y oportunidades originados por el cambio climático dentro de un cambio global para un desarrollo humano
claramente más racional, equitativo y sostenible.
Es posible que el cambio climático no se produzca en las
condiciones que se plantean, pero no cabe duda de que la toma de conciencia de que los escenarios de desarrollo parten
de lo local y tienen consecuencias globales, y que éstas comprometen el futuro, es una enseñanza más que positiva.
El gran problema que se plantea es el de bajada de escala, de lo global a lo local e incluso a lo individual. Hasta
ahora estamos familiarizados con la bajada de escala de los
modelos de circulación general atmósfera-océano, mediante
las llamadas técnicas de anidamiento, a los modelos climáticos regionales, que permite pasar de celdas de 200 kilómetros cuadrados a celdas de 50 o incluso 20 kilómetros cuadrados. Siguiendo esta línea se han planteado los objetivos
cuantitativos para reducir sus emisiones combinadas de los
seis grandes gases de efecto invernadero durante los cinco
años comprendidos entre 2008 y 2012 a niveles inferiores a
los de 1990, modificando y favoreciendo las iniciativas de
producción energética menos contaminante en términos de
CO2 equivalente. Esto está ayudando, por ejemplo, a poblar
nuestro territorio de aerogeneradores, estrategias que están
dentro del razonamiento conceptual de ser los elementos de
entrada de los escenarios de desarrollo globales planteados
en cada una de las familias de escenarios de desarrollo socioeconómico futuros.
Los campos climáticos
y la ingeniería del territorio
Otra línea de aplicación de los resultados de los mencionados modelos climáticos globales es el utilizar los campos climáticos generados para estudiar cómo están respondiendo
los sistemas naturales, y si éstos tienen la capacidad para
adaptarse a los cambios que se pronostican, ya que parece
evidente que la horquilla donde se mueven los seres vivos es
relativamente estrecha. Bien, pero ¿cómo emplear estos resultados para determinar los efectos directos sobre el ser humano y en concreto en las actividades que éste desarrolla, siendo como es un ser con una extraordinaria capacidad para
adaptarse y sobrevivir en los ambientes más extremos y dispares? ¿Puede un cambio de 0,8 °C en los próximos 10 años
inquietarnos? La respuesta es no; sin embargo, sí somos conscientes de la trascendencia de este brusco cambio.
Centrándonos en las actividades de la ingeniería que tienen
un trasfondo territorial, y por la importancia que éstas tienen en
el desarrollo humano, nos gustaría establecer un criterio que
nos permitiese incluir en el análisis general y en el desarrollo
de cada actuación o proyecto las metodologías imperantes
del cambio global y en particular del cambio climático.
Tenemos dos planteamientos, por un lado aquellas medidas que van en la línea de disminución de las actividades que
generan gases equivalentes de efecto invernadero, como claramente son las relacionadas con el transporte y la adecuada selección de modos e implantación de actividades generadoras de desplazamientos, y que en general son poco o
nada sensibles a los cambios climáticos pronosticados. Bajo
otro planteamiento debemos incluir aquellas actividades que
son sensibles al cambio climático, que admitimos se está produciendo, de un modo directo y que no pueden esperar a
que las medidas de disminución en las emisiones les salvaguarden del cambio. En este caso podemos señalar entre las
más preocupantes las actividades relacionadas con la evaluación del recurso agua, las actividades en las zonas litorales y las de riesgo climático con carácter extraordinario, como puede ser una inundación.
El transporte
En la Unión Europea las emisiones cubiertas por la directiva
de comercio de emisiones llegan al 54 %, 60 % para España,
y por fuentes de emisión, las que más han crecido en nuestro país son la gestión de residuos (61%), el transporte
(58 %), sector residencial, comercial e institucional (35 %)
(Cañas, 2004). Recordemos que según el Ministerio de Medio Ambiente (2004) el transporte supone el 22,6 % de emisiones de gases CO2 equivalentes, en segundo lugar detrás
de la producción eléctrica 27,2 %, y que de acuerdo con el
Centro de Investigación del Transporte (Pérez-Martínez,
2005), España generó en 2002 120 g de CO2 por viajero y
kilómetro, con un valor máximo para la Comunidad de Madrid de 140 y mínimo de 110 para las ciudades autónomas
de Ceuta y Melilla. Se está manejando un límite de referencia para 2012 por parte de la asociación de constructores
europeos de automóviles de no más de 120 g de CO2 por
kilómetro recorrido.
El transporte, dentro de las estrategias para los sectores no
incluidos en los derechos de emisión, es claramente uno de los
que con mayor urgencia necesita de políticas de sostenibilidad; presenta un desequilibrio en la distribución modal, el sistema de transporte actual no optimiza el uso de la capacidad
existente de infraestructuras, los costes y precios del transporte no garantizan la internalización de los costes externos y las
mayores eficiencias de los vehículos son irrelevantes frente al
crecimiento de la movilidad y son insuficientes para solucionar por sí solas el problema.
En este sentido iniciativas y recomendaciones de establecimientos de observatorios medioambientales del transporte
permitirán ser un punto de partida en la búsqueda de un sistema “ideal” de indicadores que controle la movilidad, aportar una imagen comprensible de las actuales presiones e impactos, identificar los factores causales como tecnológicos,
socio-económicos, vincular los indicadores de presión medioambiental con los valores relevantes de referencia, medir
el cumplimiento de los compromisos políticos, objetivos para
una movilidad sostenible, y alimentar de información a los
procesos donde se formulan y se ponen en práctica las políticas relevantes de movilidad, como propugna Pérez-Martínez
(2005). Con todo ello las estrategias actuales son claramente
insuficientes y el margen pequeño con medidas complementarias, como los combustibles alternativos, el fomento de la intermodalidad y las actuaciones en entornos urbanos, que parecen aún lejanas en el futuro control a medio plazo.
I.T. N.o 74. 2006
45
Sin hacer un repaso exhaustivo y pormenorizado de cada
una de las actividades que son susceptibles de entrar en este
análisis, nos centraremos en tres ejemplos donde esta metodología se ha empleado: la evaluación de la disponibilidad
de agua, la evaluación de aporte sedimentario a las costas y
el establecimiento de un protocolo de estudio frente a situaciones climáticas extremas.
tos de precipitación y temperatura mensual del mismo período modificado por los campos climáticos para el año 2050
obtenidos en las simulaciones 1xCO2 y 2xCO2 del Modelo
Climático Regional PROMES.
En este trabajo se consideraron un total de 15 simulaciones hidrológicas, que se dividieron en dos grupos principales:
a) nueve simulaciones anuales según Budyko (Budyko y Drozdnov, 1953), y b) seis simulaciones mensuales mediante el módulo mensual del modelo hidrológico SIMPA.
Evaluación de la disponibilidad de agua
a) Simulaciones anuales según Budyko
La evaluación de la disponibilidad futura de agua ha venido
utilizando, en general, valores de series meteorológicas, considerando el período pretérito registrado representativo del
clima de la región a estudiar. Esta representatividad se pierde al admitir las hipótesis o evidencias, según los autores, de
cambio climático. Por lo tanto, parece lógico introducir en la
cadena de evaluación de los recursos hídricos futuros los resultados obtenidos de los modelos climáticos, mediante la utilización conjunta de modelos climáticos regionales y modelos hidrológicos.
Este tipo de evaluación solo se ha realizado a nivel de todo el país en una ocasión (Fernández, 2002). Otro tipo de
evaluaciones estimativas se realizaron durante la evaluación
hidrológica para el Libro Blanco del Agua (MIMAM, 2000b),
con el mal llamado análisis de sensibilidad y sin el menor sentido de lo que se estaba evaluando.
La evaluación hidrológica que nos ocupa (Fernández,
2002) empleó los campos climáticos elaborados para la Península Ibérica por el modelo climático regional PROMES,
modelo regional que calcula las condiciones de contorno e
iniciales a partir de las salidas del modelo de circulación general HADCM2. Se estima la vulnerabilidad al cambio climático de los recursos hídricos en diecinueve pequeñas cuencas y en las diez grandes cuencas españolas, en su aspecto
cuantitativo, al comparar la evaluación hidrológica, en régimen natural, para el año 2050 frente a la evaluación hidrológica de un período base sin modificar, de 50 años, comprendido entre 1945 y 1995. Para las simulaciones hidrológicas se empleó el modelo hidrológico SIMPA (Sistema Integrado para la Modelización de la Precipitación-Aportación)
desarrollado en el Centro de Estudios Hidrográficos del CEDEX, con base en los trabajos de Témez (1977). El modelo
simula, a escala mensual, los procesos del ciclo hidrológico
en su fase terrestre mediante ecuaciones de balance y transferencia, que se aplican en un mallado regular compuesto
por celdas de igual tamaño con el que se divide la cuenca.
Mediante el empleo de un sistema de información geográfica de tipo matricial, el modelo ejecuta las ecuaciones del ciclo hidrológico y estima los recursos hídricos subterráneos y
superficiales, mostrando una información distribuida y agregada de las principales variables hidrológicas. Para cada
una de las cuencas estudiadas se llevó a cabo dos simulaciones hidrológicas con el modelo SIMPA. La primera de ellas
utiliza datos mensuales de precipitación y temperatura del
período 1945 a 1995. La segunda simulación emplea los da-
Hipótesis H10: Simulación de la aportación media interanual
en las diecinueve pequeñas cuencas estudiadas para el período 1940 a 1995. A partir de la simulación para el Libro Blanco del Agua (MIMAM, 2000b), y mediante el procesado de la
información en los mapas matriciales de resultados en los ámbitos de la planificación hidrológica sobre los mapas de las
diecinueve pequeñas cuencas. Hipótesis H11: Simulación de
la aportación media interanual en las diecinueve pequeñas
cuencas estudiadas para el período 1940 a 1995 con la primera hipótesis considerada en el Libro Blanco del Agua: aumento de 1 °C de la temperatura media anual y sin cambios
en la precipitación del período 1940-95. A partir de la simulación para el Libro Blanco del Agua (MIMAM, 2000b), y mediante el procesado de la información en los mapas matriciales de resultados en los ámbitos de la planificación hidrológica sobre los mapas de las diecinueve cuencas. Hipótesis H12:
Simulación de la aportación media interanual en las diecinueve pequeñas cuencas estudiadas para el período 1940 a
1995 con la segunda hipótesis considerada en el Libro Blanco del Agua: aumento de 1 °C de la temperatura media anual
y descenso de la precipitación media anual del período 19401995 en un 5 %, a partir de la simulación para el Libro Blanco del Agua (MIMAM, 2000b), y mediante el procesado de la
información en los mapas matriciales de resultados en los ámbitos de la planificación hidrológica sobre los mapas de las
diecinueve cuencas. Hipótesis H13: Simulación de la aportación media interanual en las diecinueve pequeñas cuencas estudiadas para el período 1940 a 1995, aumento de 4 °C de
la temperatura media anual y descenso de la precipitación
media anual del período 1940 a 1995 en un 15 %. Hipótesis
H20: Simulación de la aportación media interanual en las diecinueve pequeñas cuencas estudiadas para el período 19451995 a partir de los valores medios anuales obtenidos en la
simulación mensual del período 1945-1995. Hipótesis H21:
Simulación de la aportación media interanual en las diecinueve pequeñas cuencas estudiadas para el período 1945 a
1995 modificadas a partir de los valores del período 2040 a
2049, resultantes de los campos climáticos PROMES, y a partir de los valores medios anuales obtenidos en la simulación
mensual de cambio climático con base en PROMES. Hipótesis
H30: Simulación de la aportación media interanual por ámbitos del Libro Blanco del Agua para el período 1940 a 1995
(MIMAM, 2000b). Hipótesis H31: Simulación de la aportación media interanual por ámbitos del Libro Blanco del Agua
para el período 1940 a 1995. Primera hipótesis del Libro
Actividades con sensibilidad
directa al cambio climático
46
I.T. N.O 74. 2006
Blanco del Agua: aumento de 1 °C de la temperatura media
anual y sin cambios en la precipitación del período 1940 a
1995 (MIMAM, 2000b). Hipótesis H32: Simulación de la
aportación media interanual por ámbitos del Libro Blanco del
Agua para el período 1940 a 1995. Segunda hipótesis del Libro Blanco del Agua: aumento de 1 °C de la temperatura media anual y descenso de la precipitación media anual del período 1940 a 1995 en un 5 % (MIMAM, 2000b).
b) Simulaciones mensuales
mediante el modelo hidrológico SIMPA
Hipótesis H40: Simulación de la aportación mensual en los
ámbitos territoriales de la planificación hidrológica para el
período 1940 a 1995 (CEDEX, 1998). Hipótesis H41: Simulación de la aportación mensual en los ámbitos territoriales de
la planificación hidrológica para el período 1940 a 1995, al
modificar los mismos con los valores medios mensuales de la
diferencia 2xCO2 - 1xCO2 de los campos climáticos del modelo climático global UKMO, para el período 2040 a 2049
(CEDEX, 1998). Hipótesis H42: Simulación de la aportación
mensual en los ámbitos territoriales de la planificación hidrológica para el período 1940 a 1995, al modificar la temperatura media de cada mes con los valores medios mensuales
de la diferencia 2xCO2 - 1xCO2 de los campos climáticos del
modelo climático regional PROMES, para el período 2040 a
2049, y sin modificar los valores de la precipitación mensual
del período 1940 a 1945 (CEDEX, 1998). Hipótesis H43: Simulación de la aportación mensual en los ámbitos territoriales de la planificación hidrológica para el período 1940 a
1995 al modificar la temperatura mensual a partir de los valores del período 2040 a 2049, mediante los resultados de
los campos climáticos del modelo climático regional PROMES
(Fernández, 2002). Hipótesis H50: Simulación de la aportación mensual en las diecinueve pequeñas cuencas para el período 1945 a 1995 (Fernández, 2002). Hipótesis H51: Simulación de la aportación mensual en las diecinueve pequeñas cuencas para el período 1940 a 1995 al modificar la
temperatura mensual a partir de los valores del período 2040
a 2049, mediante los resultados de los campos climáticos del
modelo climático regional PROMES (Fernández, 2002).
Los campos climáticos adoptados para las diecinueve pequeñas cuencas evaluadas presentan un aumento en la temperatura de 2 a 3 °C más que las hipótesis del Libro Blanco
del Agua. En seis de estas cuencas se produce descenso de la
precipitación, con valores por debajo del 10 % en cuatro de
ellas y hasta el 22 % en la de mayor descenso.
TABLA 1
Simulaciones hidrológicas utilizadas
Hipótesis
Zona
Escala
temporal
Período
base
Cambio
Cambio
precipitación temperatura
Modelización
hidrológica
1: H10
19 cuencas
Anual
1940-95
0
0
BUDYKO
2: H11
19 cuencas
Anual
1940-95
0
+1 °C
BUDYKO
3: H12
19 cuencas
Anual
1940-95
-5%
+1 °C
BUDYKO
4: H13
19 cuencas
Anual
1940-95
-15%
+4 °C
BUDYKO
5: H20
19 cuencas
Anual
1945-95
0
0
BUDYKO
6: H21
19 cuencas
Anual
1945-95
PROMES
PROMES
BUDYKO
7: H30
ámbitos
Anual
1940-95
0
0
BUDYKO
8: H31
ámbitos
Anual
1940-95
0
+1 °C
BUDYKO
9: H32
ámbitos
Anual
1940-95
-5%
+1 °C
BUDYKO
10: H40
ámbitos
Mensual
1940-95
0
0
SIMPA
11: H41
ámbitos
Mensual
1940-95
UKMO
UKMO
SIMPA
12: H42
ámbitos
Mensual
1940-95
0
PROMES
SIMPA
13: H43
ámbitos
Mensual
1940-95
PROMES
PROMES
SIMPA
14: H50
19 cuencas
Mensual
1945-95
0
0
SIMPA
15: H51
19 cuencas
Mensual
1945-95
PROMES
PROMES
SIMPA
TABLA 2
Cambio medio mensual de las precipitaciones y las temperaturas, años 2040 a 2049,
en la Península de acuerdo con el modelo PROMES
Octubre
Lluvia (mm)
Temperatura ( °C)
Noviembre
Diciembre
Enero
Febrero
Marzo
Abril
Mayo
Junio
Julio
Agosto
Septiembre
Media
-29
10
-29
68
25
11
-2
7
-17
-39
-21
-36
-4
4
4
3
3
4
3
3
2
3
5
4
4
3
I.T. N.o 74. 2006
47
TABLA 3
Cambio anual en la simulación mensual frente al cambio de la aportación anual según Budyko
Cuenca
P (mm)
1107
2147
9063
1765
P1 (mm)
ETP (mm) ETP1 (mm)
ET (mm)
ET1 (mm)
As (mm)
As1 (mm)
%Cambio
PRE
%Cambio
ETP
%Cambio
ET
%Cambio
As
Budyko
A(mm)
Budyko1
A1(mm)
% Cambio
A
731
731
836
730
821
1413
1057
-12
14
12
-25
1527
1205
-21
1156
961
717
822
619
594
535
365
-17
15
-4
-32
622
409
-34
1189
1344
732
842
578
582
612
762
13
15
1
25
642
718
12
9006
816
636
712
818
550
479
265
156
-22
15
-13
-41
341
176
-48
10009
966
1031
813
986
701
663
265
368
7
21
-5
39
416
396
-5
2049
568
543
736
869
453
422
116
122
-4
18
-7
5
155
110
-30
10028
529
568
806
956
470
487
58
80
7
19
4
38
115
106
-8
9058
505
504
748
898
423
393
77
105
0
20
-7
37
115
85
-26
8028
475
411
691
838
435
342
40
69
-13
21
-21
74
111
53
-52
3001
850
770
722
870
547
499
301
269
-9
20
-9
-11
364
249
-32
8087
536
581
762
918
422
424
112
155
8
20
0
38
129
120
-7
4251
977
1026
1032
1245
575
570
402
456
5
21
-1
13
340
305
-10
4206
450
457
919
1117
408
411
43
47
2
22
1
9
58
40
-32
4101
475
490
921
1122
393
408
82
81
3
22
4
-1
68
50
-27
4160
845
913
995
1198
570
575
276
338
8
20
1
22
260
246
-6
6005
472
508
881
1046
413
427
58
81
8
19
3
40
73
65
-11
6011
703
714
975
1172
474
471
230
242
2
20
-1
5
176
138
-21
6015
789
810
985
1191
517
524
271
284
3
21
1
5
226
186
-18
6052
662
703
1043
1268
460
468
200
232
6
22
2
16
137
116
-15
1 valores del escenario PROME
SP: Precipitación; ETP: Evapotranspiración Potencial; ET: Evapotranspiración Real; As: Aportación total simulada, A: aportación según Budyko)
TABLA 4
Disminución (–) o aumento de la aportación total
(100 · (Aportación actual – Aportación escenario i) / Aportación actual))
Ámbito
Escenario Escenario
previsible 1 previsible 2
(H31)
(H32)
Galicia costa
-2
-9
Norte I
-3
Norte II
Ámbito
Escenario
general 3
(H41)
Escenario
regional 4
(H42)
Escenario
regional 5
(H43)
Galicia costa
-15
-5
6
-10
Norte I
-12
-6
24
-2
-10
Norte II
1
-8
-4
Norte III
-2
-9
Norte III
4
-8
-21
Duero
-6
-16
Duero
23
-17
38
Tajo
-7
-17
Tajo
14
-14
38
Guadiana I
-11
-24
Guadiana I
59
-20
25
Guadiana II
-8
-19
Guadiana II
100
-22
30
Guadalquivir
-8
-20
Guadalquivir
82
-17
5
Sur
-7
-18
Sur
76
-18
4
Segura
-11
-22
Segura
35
-16
-22
Júcar
-9
-20
Júcar
-20
-15
19
Ebro
-5
-15
Ebro
-9
-14
-5
C.I. Cataluña
-5
-15
C.I. Cataluña
-40
-20
39
Baleares
-7
-18
Baleares
Sin evaluar
Sin evaluar
Sin evaluar
Canarias
-10
-25
Canarias
Sin evaluar
Sin evaluar
Sin evaluar
España
-5
-14
España
peninsular
10
48
I.T. N.O 74. 2006
-14
13
Son importantes las grandes discrepancias que presenta
el análisis anual, a partir de los valores mensuales, con los resultados que podríamos obtener al aplicar a los valores medios anuales de la precipitación y la evapotranspiración potencial una ley de carácter regional, como por ejemplo la ley
de Budyko (Tabla 3).
Los resultados son similares en las grandes cuencas peninsulares, como se pone de manifiesto en la tabla 4. En los escenarios 1 y 4 se mantienen los patrones de lluvia existentes,
por lo que los resultados vienen condicionados con respecto
al clima histórico por el aumento de la evapotranspiración potencial en el escenario 1 y por el aumento de la evapotranspiración real en el escenario 4 en todos los ámbitos territoriales, lo que da lugar a una disminución de la aportación en todos los casos. En el escenario 2 se acentúan las disminuciones
en la aportación anual debido a estar condicionada por la
evapotranspiración potencial, que se mantiene como en el escenario 1 agravada por la disminución en las precipitaciones.
En los escenarios 3 y 5 no se mantienen los patrones de
lluvia existentes, por lo que los resultados vienen condicionados, con respecto al clima histórico, por la ratio mensual entre la precipitación y la evapotranspiración real, que permite
moderar el impacto del cambio climático, debido a que los
aumentos de la precipitación se producen en los meses de invierno, cuando si bien se produce un aumento de la evapotranspiración potencial no se produce un aumento en la evapotranspiración real, de rango inferior, produciéndose descensos en las precipitaciones en los meses de verano, cuando
el aumento de la evapotranspiración real se ve más limitado.
Los resultados del escenario 3 vienen muy condicionados por
la resolución adoptada, así como por el mar en las celdas de
borde, lo que resta validez.
Esta discrepancia de resultados entre evaluaciones hidrológicas mensuales y anuales demuestra claramente que las simulaciones anuales no pueden ser utilizadas para describir la
variación del cambio climático producida por un aumento de
la temperatura y cambios en la precipitación. Las evaluaciones anuales no tienen en cuenta la distribución de la precipitación a lo largo del año, factor que se ha revelado fundamental para evaluar el impacto del cambio climático sobre los
recursos hídricos.
Estos resultados indican que la evaluación hidrológica de
las consecuencias del cambio climático sobre el agua requiere partir de unos escenarios de desarrollo futuros establecidos
por la comunidad científica internacional y de los resultados
de los modelos climáticos disponibles, y que esta circunstancia
hace que a las deficiencias correspondientes a la evaluación
hidrológica debamos unir las propias de los escenarios elegidos, así como las de los modelos climáticos seleccionados.
Parece claro que estimar el impacto del cambio climático
en el ciclo hidrológico es de vital importancia en la gestión
correcta del recurso, y que, como se ha puesto de manifiesto,
se debe realizar este balance con campos de variaciones de
las variables climáticas al menos a escala mensual, ya que la
simulación hidrológica a escala anual no tiene resolución suficiente para describir las variaciones que se pueden producir. Sin olvidar que los resultados obtenidos en las evaluaciones hidrológicas mensuales deben hacer referencia a los escenarios de emisiones elegidos, así como a la resolución del
modelo climático seleccionado.
Estamos en el comienzo de las mejoras en las resoluciones
espaciales de los modelos climáticos regionales que permitirán
campos de precipitaciones más fiables, y por lo tanto resultados
hidrológicos más próximos a la realidad, y que podrán confirmarnos o desmentirnos la tendencia a ligeros aumentos o disminuciones de la aportación media anual, así como la aparente concentración de esta aportación en determinados meses del
año, tendiendo a dividir el año hidrológico en dos estaciones,
húmeda y seca. No debemos olvidar la fuerte dependencia de
los modelos climáticos del conocimiento real del fenómeno climático global, sometido hoy día a incertidumbres que una vez
resueltas harán cambiar la arquitectura de los modelos.
racterísticas del suelo, y, por último, los elementos de cubierta
del suelo, asociados a la ordenación del territorio y la ordenación de cultivos, y que distorsionarán los resultados de los
dos elementos anteriores, erosividad y erosionabilidad.
Si nos centramos en la erosividad, y por tanto en la lluvia,
motor inicial del proceso, podemos intuir que cualquier cambio en los patrones de la misma modificará las estimaciones
de aporte que se han de evaluar.
En este sentido se presenta la evaluación del sedimento que
llegaría a la costa con dos hipótesis de trabajo, sin cambio climático y con campos climáticos asociados a escenarios vinculados con las tendencias mostradas por los informes sobre cambio climático desarrollados por el Panel Intergubernamental de
Expertos sobre el Cambio Climático, IPCC. Para ello se ha seleccionado la formulación clásica en la evaluación de la erosión
hídrica en un territorio, la ecuación universal de pérdida de
suelo, U.S.L.E. (Wischmeier et al., 1978), y se ha aplicado junto a un coeficiente de entrega de sedimentos en la cuenca del
río Francolí, con desembocadura en el puerto de Tarragona.
El puerto de Tarragona, situado en el mar Mediterráneo, está localizado en el noreste de la Península Ibérica y recibe los
sedimentos generados en la cuenca del río Francolí. El Francolí nace en la llamada “Conca de Barberá” entre las provincias
de Lérida y Tarragona. Para la determinación de los estados
erosivos de la cuenca del Francolí, de 830 km2, se ha utilizado
el trabajo realizado por el Instituto Nacional para la Conservación de la Naturaleza a partir de la ecuación U.S.L.E. y reflejado en sus Mapas de Estados Erosivos en España. Este mapa está disponible en formato digital como una cobertura (MIMAM,
2003) manejable por un sistema de información geográfica.
Empleando el mapa vectorial de la cuenca y el mapa temático de estados erosivos de España se ha determinado el
mapa de estados erosivos para la cuenca del río Francolí
(Fig. 1). A partir del mismo podemos determinar que la erosión producida en la cuenca oscila en el intervalo comprendido entre dos y 4,6 millones de toneladas al año, de las cuales solo del orden del 11% llegaría a la costa anualmente, es
decir, entre 260.000 toneladas y 535.000 toneladas como
valores medios, de acuerdo con el coeficiente de entrega de
sedimentos empleado (Avendaño et al., 1995).
Evaluación de aporte sedimentario a las costas
Las diferentes técnicas de evaluación del aporte de sedimentos
a las zonas costeras, transportados por las corrientes de agua
que desembocan en ellas, permiten estimar los datos de partida
para trabajos posteriores que afectan tanto a la dinámica litoral
como a las actuaciones que debemos realizar en algunas de
nuestras obras portuarias con objeto de mantenerlas en servicio.
Independientemente de la metodología de cálculo empleada, siempre nos encontraremos con tres elementos principales
que determinarán la erosión susceptible de ser generada: la
erosividad, asociada a la energía que desmenuza el suelo,
provocada por la lluvia, la erosionabilidad, asociada a las ca-
Fig. 1. Mapa de estados erosivos de la cuenca del río Francolí.
I.T. N.o 74. 2006
49
TABLA 5
Relación entre el aporte de sedimentos para un evento extremo y los valores medios anuales
Período de retorno
T2
T10
T25
T50
T100
T500
años
Aporte sedimentos (Williams, 1981)
208 – 429
125.508 – 259.254
321.036 – 663.146
524.299 – 1.083.015
796.186 – 1.644.635
1.669.670 – 3.448.942
toneladas
Ratio con respecto a USLE+CES
0,1
50
129
211
320
672
%
Cambio climático. Nuevo ratio
0,19
93
241
394
598
1.256
%
Estos resultados están asociados con un índice de erosión
pluvial, R, comprendido entre 150 y 250 (ICONA, 1990), y
obtenido según la expresión:
R= 2,375 (PD2) + 0,513 (PMEX) - 94,4 - 89 (Z4)
— PD2: precipitación máxima diaria con un período de retorno de dos años.
— PMEX: el valor medio interanual de la precipitación del
mes más lluvioso de cada año.
— Z4: factor de zonificación, igual a 1 para la cuenca del río
Francolí.
Si tomamos como período base el comprendido entre
1945 y 1995, tenemos como valores de PD2 51 milímetros y
PMEX 66 milímetros en el mes de octubre, y el valor de R sería de 150 en la cabecera de la cuenca.
Bajo las hipótesis de cambio climático, y de acuerdo con
los campos climáticos generados por el modelo regional PROMES (Fernández, 2002), el mes con precipitación mayor pasaría a ser el de enero, para el período comprendido entre
los años 2040 y 2049, con un valor medio de 87 milímetros.
Manteniendo el mismo valor para PD2, debido a que el modelo climático del que se dispone no evalúa este dato, y asumiendo que en cualquier caso sería del mismo orden de magnitud o ligeramente superior, el nuevo valor de R pasaría a ser
160, un incremento de un 7 %.
Este aumento supondría, a igualdad de los demás factores,
que las aportaciones medias de sólidos en suspensión y disolución (del orden del 85 % del total), pasarían a estar comprendidas entre las 280.000 y las 572.000 toneladas medias anuales.
A estos valores deberíamos añadir los ocasionados por
eventos de carácter extremo, que pueden suponer aportes del
orden de hasta el 200 % de los valores medios para períodos
de retorno en el entorno de los 50 años.
De acuerdo con estudios previos, el río Francolí tiene un
caudal comprendido entre 3 m3/s y 1.550 m3/s para períodos de retorno de entre dos y 500 años respectivamente. Esto implicaría que la horquilla de valores de aporte adoptaría
el rango entre la horquilla de 200 a 430 toneladas y
1.669.700 y 3.448.942 toneladas respectivamente (tabla 3).
Estos valores, y siempre teniendo en cuenta los resultados de
Palmer et al. (2002), presentaran una frecuencia para nuestro territorio entre 1 y 2 veces mayor, y la nueva relación entre la entrega anual de sedimentos y la entrega en un evento
extremo pasaría de 0,1 a 0,19 % para un período de retorno
de dos años y de 672 a 1.256 % para un período de retorno
de 500 años (tabla 5) (Fernández, 2003).
50
I.T. N.O 74. 2006
Protocolo de actuación y necesidades del mismo
Se establece, a modo de ejemplo, un guión o protocolo de actuación primario para un riesgo climático con carácter extraordinario, con el evento climático acaecido a finales de
marzo de 2004 en el sur andaluz, y que podría servir de modelo a seguir.
Durante los días 26, 27, 28 y 29 de marzo de 2004, un
temporal de viento y lluvia ocasionado por el paso de una borrasca que se desplazó desde el sur andaluz hacia el levante
de las comunidades de Murcia, Valencia y Cataluña, provocó inundaciones en diversas carreteras, dificultando el tránsito por muchas vías. En concreto en el municipio malagueño
de El Rincón de la Victoria, donde cayeron 220 litros por metro cuadrado en 24 horas, ocasionó perjuicios a cerca de un
millar de familias, 700 vehículos dañados y roturas en la infraestructura pública del orden de 18 millones de euros.
Podríamos pensar que este último acontecimiento estaba
asociado a un suceso poco frecuente, al menos en el pasado,
pero solo hace falta buscar en los archivos para encontrar
que hacía menos de tres años, el 28 de septiembre de 2001,
ocurría una riada en El Rincón de la Victoria, lo cual pudo hacer pensar a sus planificadores que era alto improbable tener
un suceso similar en los próximos 50 años.
La red de drenaje resultó insuficiente e inadecuada y parecía haber sido calculada, como se ha hecho muchas veces,
teniendo en cuenta únicamente como elemento a transportar
el agua de escorrentía, ignorando o minimizando los sólidos
que son erosionados y transportados por la misma hasta el
mar, y que éstos suelen taponar los pasos de las infraestructuras de transporte que cruzan la zona. Se acusó también al
paseo marítimo de actuar como dique de contención del
agua vertida por la cuenca aguas arriba del municipio, hecho no contrastado.
En estos momentos se está iniciando un estudio global del
suceso contemplando el conjunto del fenómeno y tratando de
introducir escenarios de cambio climático en los diferentes aspectos previos a la planificación y que son de aplicación al
resto del litoral:
• Aspectos físicos de primer orden:
1. Elevación del nivel medio del mar, cinco milímetros por
año, resultados de escenarios IPCC (2001).
2. Variación del régimen de presiones y vientos, posible
relación con índices climáticos, NAO.
3. Variaciones en las precipitaciones, aplicación de modelos climáticos regionales (Palmer, et al., 2002).
• Aspectos físicos de segundo orden:
4. Determinación de límites de inundación. Mareas astronómicas, mareas meteorológicas y sobreelevaciones
debidas a la incidencia del oleaje (Acinas, 2002).
5. Transformación precipitación escorrentía. Factores relativos a usos y tipos de suelo.
6. Procesos de erosión y generación de sedimentos fluviales (Fernández, 2003).
• Aspectos de sostenibilidad de primer orden:
7. Evaluación de recursos hídricos medios. Escenario climático regional (Fernández, 2002).
8. Evaluación del incremento de la demanda hídrica.
9. Proyecciones de la población y número de viviendas.
10. Demanda energética. Edificación sostenible.
• Aspectos de sostenibilidad de segundo orden:
11. Equilibrio sedimentario litoral.
12. Equilibrio medioambiental compatible con las repuestas
de mitigación de impactos.
Conclusiones
Incluir el cambio global en los elementos de la ingeniería territorial es necesario y posible, y está de manifiesto en iniciativas de desarrollo limpio incluidas en los procesos de adaptación al cambio climático en el marco de la red iberoamericana de oficinas de cambio climático, pero, y se pone de manifiesto en los ejemplos previos, la necesidad de incluir como
una hipótesis de futuro a añadir al conjunto de hipótesis a
evaluar, a través del concepto de escenario futuro, no está disponible en la mayoría de los procesos que se están evaluando. Para esta tarea es imprescindible la utilización de campos
climáticos futuros, y éstos, al igual que se ha venido haciendo
hasta la fecha con los datos climáticos con origen en las redes
de medida gestionadas por organismos públicos, deben ser
facilitados por organismos públicos. Éstos deben recuperar las
costosísimas inversiones en universidades y centros de investi-
gación para que los resultados de las bajadas de escala de los
modelos climáticos estén al alcance de todos, y no solamente
de especialistas para trabajos de investigación muy concretos.
La disposición de campos climáticos permitirá elaborar
nuestra actividad con un grado de incertidumbre menor, y
contribuirá a que los desastres naturales asociados al clima
tengan un tratamiento más racional, tarea que sugiero debe
añadirse a la Oficina de Cambio Climático del Ministerio de
Medio Ambiente.
En este sentido, la idea generalizada de aumento de la
frecuencia de eventos extremos exige un posicionamiento de
adaptación diferente al actual. No se tratará de resistir inflexiblemente a cualquier circunstancia sino más bien de cómo
minimizar los efectos de unos sucesos que irremisiblemente se
van a repetir. En esta línea la reconstrucción y nuevas estrategias de defensa de ciudades como Nueva Orleáns tras el
triste paso del huracán Katrina deberían ser un ejemplo para
el resto del mundo de cómo prepararnos para el cambio no
ya climático sino conceptual de nuestra actitud frente a la naturaleza de la que formamos parte.
Se nos plantea hoy día una posición frente al cambio climático en términos de riesgo y oportunidad. Riesgo de no acometer con perspectiva diferente nuestra actitud frente al clima
y de no utilizar todo el potencial del que nuestras sociedades
son capaces, y oportunidad de hacer que el cambio global se
produzca en la dirección menos perturbadora del planeta donde vivimos, evitando que éste nos sorprenda, como apuntó Antonio Mingote (2005b) en su viñeta: “Esto del cambio climático me recuerda el día en el que al volver del veraneo encontramos que nos habíamos dejado abiertos todos los grifos”. ■
Pedro Fernández Carrasco
Doctor Ingeniero de Caminos, Canales y Puertos
Adjunto Subdirección Cooperación al Desarrollo y Movilidad Estudiantil
E.T.S. de Ingenieros de Caminos, Canales y Puertos
Universidad Politécnica de Madrid
Referencias bibliográficas
1. Mingote, A., 2005a, “ABC”, miércoles 26 de enero de 2005.
2. IPCC, 2001, Summary for policymakers: climate change 2001: The Scientific Basis. Impacts, Adaptation, and Vulnerability. Mitigation. WMO-UNEP.
3. Acinas, J.R., 2002, “Cambio climático y subida del nivel medio del mar. Impacto
sobre la costa”, Ingeniería y Territorio, Nº 61, pp. 60-67.
4. Ruiz, A., 2004, “Cambio Climático”, Ingeniería y Territorio, Nº 68.
5. Cabezas, F., 2004 “Cambio climático y recursos hídricos en la planificación hidrológica”, Ingeniería y Territorio, Nº 68.
6. Cañas, J., 2004, “El papel de las Comunidades Autónomas en la organización de
la respuesta al cambio climático”, IV Seminario Internacional sobre Cambio Climático. 16 de noviembre de 2004. Cambio Climático: la hora de la verdad, Fundación Gas Natural.
7. MIMAM, 2004, Distribución por sectores de las emisiones de España en el año
2002, Ministerio de Medio Ambiente.
8. Pérez-Martínez, P.J., 2005, Observatorio medioambiental del transporte. “Los criterios jurídicos y económicos frente al protocolo de Kioto”, Madrid, 3 de marzo de
2005. Instituto Iberoamericano de Derecho Marítimo. Departamento de Ingeniería
Civil: Ordenación del Territorio, Urbanismo y Medio Ambiente de la E.T.S. de Ingenieros de Caminos, Canales y Puertos de Madrid.
9. MIMAM, 2000b, El Libro Blanco del Agua en España, Ministerio de Medio Ambiente.
10. Fernández, P., 2002, “Estudio del impacto del cambio climático sobre los recursos
hídricos. Aplicación en diecinueve pequeñas cuencas en España”. Tesis Doctoral.
Universidad Politécnia de Madrid, E.T.S.I. Caminos, Canales y Puertos de Madrid.
11. Témez J.R., 1977, Modelo mensual precipitación-aportación, ASINEL.
12. Budyko, M.I., y Drozov, O.A., 1953, The laws of water cycle in the atmosphere,
Bull. Acad. Sci. USRR. Scr.:Georg., 4. 167-170.
13. CEDEX, 1998, Estudio sobre el impacto potencial del cambio climático en los recursos hídricos y demandas de agua de riego en determinadas regiones de España, Informe técnico para el Ministerio de Medio Ambiente. CEDEX: 43-496-1-089. 1998.
14. Wischmeier, W.H. y Smith, D.D., 1978, Predicting Rainfall Erosion Losses - a guide to conservation planning, U.S. Dept. Agriculture Handbook, 537.
15. MIMAM, 2003, Ministerio de Medio Ambiente, 2003, Mapa de estados erosivos,
Dirección general de la conservación de la naturaleza. Banco de Datos de la Naturaleza.
16. Avendaño, C., Cobo, R., Gómez-Montaña, J.L. y Sanz, M.E., 1995, “Procedimiento para evaluar la degradación específica (erosión) de cuencas de embalses
a partir de los sedimentos acumulados en los mismos. Aplicación al estudio de
embalses españoles”, Ingeniería Civil, 99, 50-58.
17. Palmer, T. N. and Räisänen, J., 2002, “To quantifying the risk of extreme seasonal
precipitation events in a changing climate”, Nature, 415, 512 - 514 (2002);
doi:10.1038/415512a, Nature, 31 January 2002.
18. Fernández, P., 2003, “Variation of the average sediment yield in the Spanish coast
and the sediment yield associated to extreme events ratio under climatic change
hypothesis”, 3rd IAHR Symposium on River, Coastal and Estuarine Morphodynamics, Barcelona, septiembre 2003, Universidad Politécnica de Cataluña.
19. Williams, J.R., 198, “Mathematical modelling on watershed sediment yield”, International Symposium on Rainfall-Runoff Modelling. Mississippi State University.
20. Mingote, A., 2005b, “ABC”, jueves 17 de febrero de 2005.
I.T. N.o 74. 2006
51
La gestión de las sequías en España
Teodoro Estrela Monreal
DESCRIPTORES
SEQUÍAS
ESPAÑA
INDICADORES DE SEQUÍA
PLANES ESPECIALES DE SEQUÍAS
Introducción
No existe una definición unánimemente admitida para el concepto de sequía y ello se explica por los distintos tipos de sequías que pueden producirse, dependiendo de la variable
que se considere como referencia.
Se dice que se está en sequía meteorológica cuando se
produce una escasez continuada de las precipitaciones. Es la
sequía que da origen a los restantes tipos de sequía y normalmente suele afectar a zonas de gran extensión. El origen de la
escasez de precipitaciones está relacionado con el comportamiento global del sistema océano-atmósfera, donde influyen
tanto factores naturales como factores antrópicos, como la deforestación o el incremento de los gases de efecto invernadero.
La sequía hidrológica se produce cuando hay una reducción continuada de caudales en los ríos o de agua almacenada en los embalses y acuíferos, mientras que se dice que
está ocurriendo una sequía agrícola o hidroedáfica cuando
no hay humedad suficiente en la zona radicular para satisfacer las necesidades de un cultivo en un lugar y en una época
determinada. En los cultivos de secano la oferta de agua viene dada por la precipitación sobre la zona durante la temporada de desarrollo del cultivo, mientras que la demanda
corresponde a la evapotranspiración potencial, que depende
de las condiciones climáticas, del tipo de cultivo y de su etapa de desarrollo.
Finalmente, se dice que se está en sequía operativa cuando se producen períodos de tiempo en estado de fallos (no satisfacción de un uso) anómalos en un sistema de explotación
de recursos hídricos desarrollado. Las causas pueden ser: la
escasez recursos (sequía hidrológica), el exceso de demanda
o la gestión o el diseño no adecuado del sistema de explotación de recursos y de sus reglas de explotación.
Una posible definición que engloba a todos los tipos de
sequías mencionados anteriormente podría ser la siguiente:
La sequía es un fenómeno hidrológico extremo que puede de52
I.T. N.O 74. 2006
finirse como una disminución temporal significativa de los recursos hídricos durante un período suficientemente prolongado que afecta a un área extensa con consecuencias socioeconómicas adversas.
Las sequías, a diferencia de las avenidas, tienen un carácter lento y progresivo, de tal manera que, cuando se manifiestan, ya se está de lleno en ellas. No es posible predecirlas ni identificar fenómenos periódicos o cíclicos. Estas características hacen que normalmente no se busquen las causas y
remedios de la sequía hasta que la zona se halla en situación
de crisis, lo que conlleva que las medidas sean de emergencia y en ocasiones poco eficientes.
Las alternativas en la gestión de las sequías son básicamente dos: a) como situación de emergencia, considerando
que es una situación de crisis, a la que hay que hacer frente
movilizando recursos de carácter extraordinario, y b) en el
marco de la planificación general, haciendo un análisis del
riesgo existente, e introduciendo la sequía en la planificación
como un escenario distinto.
En España tradicionalmente las sequías se han gestionado por emergencia, aunque como en apartados siguientes se
describe, en la actualidad se están realizando planteamientos
basados en la gestión planificada de las sequías.
Las sequías históricas y la sequía actual
Las sequías se han venido produciendo de forma periódica en
España afectando a territorios más o menos extensos. En la
actualidad se está inmerso en un ciclo de sequía que afecta
especialmente a los territorios con mayor escasez de recursos.
Las sequías intensas y prolongadas tienen graves efectos
sobre el territorio. La última sequía que se produjo en España, la ocurrida en el período comprendido entre los años
1991 y 1995, permitió valorar los efectos socio-económicos
y medioambientales en España.
Fig. 1. Evolución de las precipitaciones totales trimestrales en España (mm).
Respecto al abastecimiento urbano, 12 millones de habitantes sufrieron restricciones en 1995, y se presentaron problemas agudos en las poblaciones de Sevilla, Cádiz y Palma
de Mallorca.
En cuanto a la producción agrícola, sufrió una reducción
anual de 200.000 a 300.000 millones de pesetas entre los
años 1992 y 1995 respecto a las producciones de los años
anteriores y posteriores.
Se produjo una multiplicación de los seguros agrarios por
1,6 en 1999 respecto a los contratados en 1995 (750.000
millones de pesetas) para el secano.
Los efectos medioambientales no están tan cuantificados
como los efectos socioeconómicos, aunque se tienen referencias de mortandades de ictiofauna en embalses y de avifauna en humedales de interior.
Esta sequía sirvió para sentar las bases de incorporación
de la gestión de sequías en el proceso de planificación general en lugar de como situación de emergencia.
La sequía actual se inició a principios del año hidrológico 2004, extendiéndose prácticamente a la mayoría de los
territorios españoles durante ese año hidrológico. En el presente año hidrológico la sequía está afectando especialmente a los territorios de la cabecera del Guadiana, la cuenca
del río Júcar, la cuenca del Segura y algunas zonas del Tajo
y Guadalquivir.
El seguimiento de esta sequía se realiza con periodicidad
semanal desde la Dirección General del Agua, con información procedente de los Organismos de cuenca. También, con
periodicidad trimestral, el Ministerio de Medio Ambiente publica en su página web los Informes sobre el estado hidrológico de las cuencas en España, cuyo objetivo es mostrar al
ciudadano la situación hidrológica de las cuencas y los sistemas de explotación de recursos, así como los problemas existentes y las medidas adoptadas.
Fig. 2. Evolución de reservas totales en los embalses españoles.
En la figura 1 se muestra la evolución de las precipitaciones totales trimestrales en España en milímetros, desde el año
hidrológico 1969-70 hasta la actualidad (MIMAM, 2006). La
precipitación total anual está descompuesta en la correspondiente a cada uno de los cuatro trimestres del año hidrológico (de octubre a diciembre, de enero a marzo, de abril a junio y de julio a septiembre). Esta descomposición permite visualizar el valor alcanzado de precipitación durante cada trimestre, su importancia relativa respecto al valor normal de
ese trimestre y la relación de ese trimestre en el total anual.
Un indicador del estado hidrológico de las cuencas lo
constituye el estado de sus reservas, y muy especialmente del
agua almacenada en los embalses. El Boletín Hidrológico de
la Dirección General del Agua del Ministerio de Medio Ambiente proporciona información sobre el estado de almacenamiento de los grandes embalses existentes en España.
El pasado año hidrológico las reservas del conjunto de
embalses españoles sufrieron un acusado descenso, lo que
hace que la condición inicial de partida en el año hidrológico 2005/06 haya sido muy baja. La figura 2 muestra el agotamiento de reservas durante el pasado año hidrológico y la
recuperación que en valores medios se ha producido en el último trimestre para el conjunto de los embalses en España.
I.T. N.o 74. 2006
53
En los últimos años la situación de algunos humedales españoles ha pasado a ser crítica por el efecto de la sequía, llegando a reducirse de manera preocupante su superficie. En la
figura 3 se presenta la evolución de la situación de un humedal muy significativo que ilustra la afirmación anterior: las Tablas de Daimiel. La superficie inundada de las Tablas de Daimiel se encuentra actualmente en niveles alarmantemente bajos, después de haber registrado niveles muy superiores a la
media durante gran parte del pasado año. Estos bajos niveles son similares a los que se alcanzaron en el año 2003/04,
y muy inferiores a los marcados por la media.
Aunque durante el presente año hidrológico el estado hidrológico global en España ha mejorado, existen algunos sistemas de explotación de recursos donde los niveles de reservas en sus embalses son todavía muy bajos. Un ejemplo lo
constituye el conjunto de los embalses de Alarcón, Contreras
y Tous en el sistema Júcar. Los niveles máximos alcanzados en
Fig. 3. Comparativa de la evolución de la superficie encharcada
en las Tablas de Daimiel.
la serie representada en la figura 4 sobrepasan ligeramente
los 900 hm3. Durante el pasado año hidrológico se redujo la
disponibilidad en unos 366 hm3 y en el primer semestre de
este año solo se acumula un llenado de unos 80 hm3.
Marco legal de la gestión
de sequías en España
Tradicionalmente, en España y en la mayoría de los países
de nuestro entorno, las gestión de las sequías se ha abordado como situación de crisis, mediante medidas de emergencia que hacen frente a ella. Este enfoque se ilustra claramente en el Texto Refundido de la Ley de Aguas (T.R.L.A.), que,
en su artículo 58, prevé en circunstancias de sequías extraordinarias la adopción, mediante Decreto acordado en
Consejo de Ministros y oído el organismo de cuenca, de las
medidas que sean precisas para la superación de dichas situaciones, en relación con la utilización del dominio público
hidráulico. Estas medidas llevan implícitas la declaración de
utilidad pública de las obras, sondeos y estudios necesarios
para desarrollarlos, a efectos de la ocupación temporal y expropiación forzosa de bienes y derechos, así como la urgente necesidad de la ocupación.
En cumplimiento del citado artículo 58 del T.R.L.A. y en relación con la actual sequía, se han producido las principales
actuaciones normativas:
• Real Decreto 1265/2005, de 21 de octubre, por el que se
adoptan medidas administrativas excepcionales para la
gestión de los recursos hidráulicos y para corregir los efectos de la sequía en las cuencas hidrográficas de los ríos Júcar, Segura y Tajo.
Fig. 4. Evolución interanual de las reservas conjuntas de los embalses de Alarcón, Contreras y Tous.
54
I.T. N.O 74. 2006
• Real Decreto 1419/2005, de 25 de noviembre, por el que
se adoptan medidas administrativas excepcionales para la
gestión de los recursos hidráulicos y para corregir los efectos de la sequía en las cuencas hidrográficas de los ríos
Guadiana, Guadalquivir y Ebro.
• Real Decreto-Ley 15/2005, de 16 de diciembre, de medidas urgentes para la regulación de las transacciones de derechos al aprovechamiento de agua.
• Real Decreto 287/2006, de 10 de marzo, por el que se regulan las obras urgentes de mejora y consolidación de regadíos, con objeto de obtener un adecuado ahorro de
agua que palíe los daños producidos por la sequía.
Este planteamiento de aplicación de decretos con medidas de urgencia se ha venido utilizando y sin duda seguirá
utilizándose en el futuro. Sin embargo, desde el año 2001,
la Ley 10/2001, de 5 de julio, del Plan Hidrológico Nacional, ha establecido las bases para una gestión más planificada de las sequías.
En el apartado 1 de su artículo 27, Gestión de sequías, dice que El Ministerio de Medio Ambiente, para las cuencas intercomunitarias, con el fin de minimizar los impactos ambientales, económicos y sociales de eventuales situaciones de sequía, establecerá un sistema global de indicadores hidrológicos que permita prever estas situaciones y que sirva de referencia general a los Organismos de cuenca para la declaración formal de situaciones de alerta y eventual sequía. Dicha
declaración implicará la entrada en vigor del Plan especial a
que se refiere el apartado siguiente.
Seguidamente, en el apartado 2 de ese mismo artículo 27,
establece que Los Organismos de cuenca elaborarán en los
ámbitos de los Planes Hidrológicos de cuenca correspondientes, en el plazo máximo de dos años desde la entrada en vigor de la presente Ley, planes especiales de actuación en situaciones de alerta y eventual sequía, incluyendo las reglas de
explotación de los sistemas y las medidas a aplicar en relación
con el uso del dominio público hidráulico. Los citados planes,
previo informe del Consejo de Agua de cada cuenca, se remitirán al Ministerio de Medio Ambiente para su aprobación.
Finalmente, en el apartado 3 del mismo artículo 27, dice
que Las Administraciones públicas responsables de sistemas de
abastecimiento urbano que atiendan, singular o mancomunadamente, a una población igual o superior a 20.000 habitantes deberán disponer de un Plan de Emergencia ante situaciones de sequía. Dichos Planes, que serán informados por el Organismo de cuenca o Administración hidráulica correspondiente, deberán tener en cuenta las reglas y medidas previstas en
los Planes especiales a que se refiere el apartado 2, y deberán
encontrarse operativos en el plazo máximo de cuatro años.
Fig. 5. Cronología para el desarrollo
de los planes especiales de sequía y los planes de alerta.
Durante los últimos meses, los Organismos de cuenca
desarrollaron y aprobaron los Protocolos de Sequía con objeto de hacer frente, de la forma más organizada y eficiente
posible, a la situación hidrológica que se viene padeciendo.
Dichos documentos constituyen un avance de los Planes Especiales de Actuación ante la Situación de Alerta o Eventual
Sequía, que, conforme al artículo 27 de la Ley 10/2001, es
necesario elaborar por los Organismos de cuenca.
Instrumentos para la gestión
de sequías en España
La anticipación en la aplicación de las medidas de mitigación
es un elemento clave en la reducción de los efectos socioeconómicos de las sequías. El desarrollo de los sistemas de indicadores debe considerarse como un elemento esencial en la
gestión de los eventos de sequía y en la planificación estratégica de las acciones a llevar a cabo.
Las principales herramientas para la planificación de las
sequías en España son, por tanto:
• Sistemas de indicadores de estado hidrológico de los Organismos de cuenca y del conjunto del territorio español.
• Planes especiales de Sequía de los Organismos de cuenca.
• Planes de emergencia para los abastecimientos urbanos
mayores de 20.000 habitantes.
En los Organismos de cuenca se están desarrollando sistemas de indicadores con motivo de los trabajos en curso de
los Planes Especiales de Actuación en Situación de Alerta o
Eventual Sequía.
Las fases en el desarrollo de estos sistemas de indicadores
son: a) definición de unidades de demanda, b) selección del
indicador más representativo de evolución del recurso disponible para cada unidad de demanda, c) recopilación de series hidrológicas asociadas a cada indicador, d) ponderación
de los distintos indicadores por sistema de explotación y para todo el ámbito del Organismo de cuenca, y e) seguimiento continuo de la evolución de los indicadores.
Estos sistemas están formados por puntos de control distribuidos por los respectivos ámbitos territoriales de los Organismos de cuenca que incluyen información sobre volumen almacenado en embalses superficiales, niveles piezométricos en
acuíferos, aportaciones fluviales en régimen natural, pluviometría en estaciones representativas, etc.
A partir de los valores de los indicadores en los puntos de
control, en cada Organismo de cuenca se obtienen, por diversos procedimientos de agregación, unos valores medios
representativos de cada uno de los sistemas de explotación
que conforman su ámbito territorial.
En la Guía para la Redacción de los Planes de Sequía
(DGA, 2004) elaborada por la Dirección General del Agua
del Ministerio de Medio Ambiente se establecen los criterios
comunes que deben reunir los Sistemas de Indicadores de los
diferentes Organismos de cuenca.
De acuerdo con estos criterios, los indicadores adoptan
valores comprendidos entre 0 y 1, correspondiendo los valores bajos a situaciones de sequía y el valor de 0,5 a la situación media. Mediante la ponderación del valor del indicador
I.T. N.o 74. 2006
55
en cada zona o sistema (teniendo en cuenta la importancia
de la demanda atendida) se obtiene el valor del indicador
global. Estos indicadores clasifican los estados hidrológicos
de los sistemas de explotación de recursos hídricos en cuatro
categorías, tal y como se indica en la tabla 1.
En la figura 6 se muestra la clasificación de los sistemas
de explotación en las cuencas intercomunitarias a finales de
marzo de 2006.
Por su singularidad, el estado de los sistemas de Alto Tajo
(Entrepeñas-Buendía), abastecimiento al conglomerado urbano
de Madrid y el sistema Alberche (ligado al anterior) no se han
caracterizado conforme al criterio general y su situación se ha
descrito separadamente: a) la cabecera del Tajo se encuentra
en situación hidrológica excepcional, b) el abastecimiento a
Madrid y su área de influencia hidráulica se encuentran en situación de sequía severa, y c) en el Sistema Alberche los embalses se encuentran a niveles muy bajos respecto a lo habitual.
TABLA 1
Clasificación de los estados hidrológicos
Riesgo de restricciones
Estado hidrológico
Muy Bajo – Bajo
Normalidad
Medio
Prealerta
Alto
Alerta
Muy Alto
Emergencia
Los planes especiales de sequía
y los planes de emergencia
El objetivo de los Planes especiales de sequía es anticiparse a
las sequías, previendo soluciones para satisfacer las demandas y cumplir con los requerimientos medioambientales.
Los planes especiales de sequía se basan en:
a. Conocimiento del sistema de recursos y la capacidad de
sus elementos para ser forzados en situación de escasez.
b. Conocimiento del sistema de demandas y de su vulnerabilidad frente a la sequía.
c. Sistema de indicadores que pongan de manifiesto la situación de sequía con anticipación suficiente para actuar según las previsiones del Plan.
d. Aplicación de medidas para reducir el impacto de la sequía en función del estado de los indicadores.
e. Adecuación de la estructura administrativa para su seguimiento y coordinación entre las distintas administraciones
implicadas.
f. Plan de información pública y a los responsables de los sistemas de abastecimiento.
Los planes especiales de sequía contemplan tres tipos de
medidas: estratégicas, tácticas y de emergencia.
Las medidas estratégicas proporcionan respuesta a largo
y medio plazo. Suelen estar apoyadas en textos normativos
(leyes, decretos…) y suelen requerir inversiones considerables. Algunos ejemplos son la construcción de nuevos embalses, desaladoras, esquemas de reutilización, etc.
Fig. 6. Estado de los sistemas de explotación en marzo 2006.
56
I.T. N.O 74. 2006
Fig. 7. Actuaciones de emergencia:
pozos de sequía de las áreas costeras del Júcar.
Las medidas tácticas dan respuesta a corto plazo. Los planes especiales recogen las medidas a adoptar durante las sequías, los parámetros para imponerlas, los procesos de decisión, las formas de involucrar e informar al público, etc.
Es conocido que las pérdidas por fallos en los suministros
de agua no son lineales con el déficit. Es preferible anticiparse mediante el establecimiento de ahorros en los suministros
(pequeños déficits repartidos son mejores que un gran déficit
de igual magnitud concentrado). Los modelos matemáticos de
simulación y optimización se utilizan para estudiar las reglas
de explotación y los suministros de las demandas de agua para alcanzar una gestión óptima de la sequía.
Las medidas de emergencia dan respuesta a circunstancias inesperadas, cuando se producen sequías más severas o
más largas de lo previsto, por ejemplo mediante la construcción de pozos de emergencia, el establecimiento de restricciones al suministro, la prohibición de usos, la modificación
temporal de los derechos etc.
El uso de las aguas subterráneas permite incrementar los
recursos necesarios para atender las demandas. Tiene la ventaja de no necesitar grandes infraestructuras para su explotación. Algunos acuíferos pueden ser temporalmente explotados
por encima de sus recursos renovables aunque se deberá ser
muy cuidadoso al hacerlo, estableciendo procedimientos de
control sistemático, para evitar que se produzcan afecciones
medioambientales a ecosistemas de ellos dependientes. Durante situaciones de crisis se puede por tanto construir o poner
en operación pozos de emergencia de aguas subterráneas. En
la figura 7 se muestran los pozos de emergencia existentes en
las áreas costeras de la cuenca del Júcar (CHJ, 2005).
Los Planes Especiales de Sequía se encuentran en fase de
elaboración por las distintas Confederaciones Hidrográficas.
La Dirección General del Agua ha elaborado una Guía para
la redacción de Planes Especiales de Actuación en situación
de Alerta y Eventual Sequía (DGA, 2004), donde se establecen los criterios de coordinación necesarios para el desarrollo de los planes. En la actualidad los trabajos técnicos están
muy avanzados y se ha iniciado el proceso de tramitación de
la evaluación ambiental estratégica del Plan con la redacción
del Documento Inicial, que se encuentra en fase de consultas.
Está previsto que los Planes especiales de sequía se terminen
durante el presente año 2006 y establezcan las condiciones
de contorno para el desarrollo de los planes de emergencia
de los abastecimientos urbanos.
El objetivo de los Planes de emergencia de los abastecimientos a núcleos urbanos mayores de 20.000 habitantes es
gestionar la sequía para garantizar el abastecimiento a la población. Las bases de estos planes de emergencia son: a) sistema de valoración y control del riesgo de desabastecimiento, b) aplicación de actuaciones en función del estado de los
indicadores, c) gestión de la demanda, y d) actuaciones sobre la oferta. Un ejemplo de este tipo de planes lo constituye
el Canal de Isabel II en Madrid con su Manual de abastecimiento (CyII, 2003), donde se establecen las responsabilidades, los métodos de alerta, las medidas a aplicar según la severidad de sequía y las estrategias de futuro.
■
Teodoro Estrela Monreal
Ingeniero de Caminos, Canales y Puertos
Subdirector General de Planificación Hidrológica
y Uso Sostenible del Agua
Ministerio de Medio Ambiente
Bibliografía
– Álvarez, J. and Estrela, T., 2003, “Regionalisation and identification of droughts in
Mediterranean countries of Europe”, in Rossi, G., Cancelliere, A., Pereira, L., Oweis,
T, Shatanawi, M. and Zairi, A., editors, Tools for drought mitigation in Mediterranean regions, Kluwer Academic Publishers, London, 2003.
– Andreu, J., Rossi, G., Vagliasindi, F., Vela, A., editors, 2006, Drought Management
and Planning for Water Resources, CRC Press, Taylor and Francis, 2006.
– Cabrera, E. and García-Serra, J., editors, 1999, Drought Management planning in
water supply systems, Kluwer Academic Publishers, London, 1999.
– CEDEX, 2000, Las aguas continentales en los países mediterráneos de la Unión
Europea, CEDEX-Ministerio de Medio Ambiente, 293 pp.
– CHJ, 2005, Protocolo de actuación en situación de alerta y eventual sequía, Confederación Hidrográfica del Júcar, Valencia, noviembre 2005.
– Cubillo, F.L., Ibáñez, J.C., CyII (Canal de Isabel II), 2003, Manual de abastecimiento del Canal de Isabel II, Canal de Isabel II, marzo 2003.
– DGA, 2004, Guía para la Redacción de los Planes de Sequía, Dirección General del
Agua, Madrid, noviembre 2004.
– Dracup, J.A., Lee, K.S. and Paulson, E.G. (1980), “On the definition of droughts”,
Water Resources Research, 16(2), p. 297-302.
– Estrela, T., Fidalgo, A., and Pérez, M.A., 2006, “Droughts and the European Water
Framework Directive: Implications on Spanish River Basin Districts”, in Andreu, J.,
Rossi, G., Vagliasindi, F., Vela, A., editors, Drought Management and Planning for
Water Resources, chapter 7, CRC Press, Taylor and Francis. 2006.
– Llamas, M.R. (1999), “Efectos de –y acciones mitigantes contra– las sequías”, Revista de la Real Academia de Ciencias Exactas, Físicas y Naturales, en El clima y
sus efectos: conocimiento e incertidumbres, volumen 93, nº 1, pp. 127-135.
– MIMAM, 2006, Informes sobre el estado hidrológico de las cuencas en España (período enero 2006-marzo 2006), Ministerio de Medio Ambiente, España, Madrid.
– MIMAM, 2000, El Libro blanco del Agua en España, Ministerio de Medio Ambiente,
España, Madrid.
– Rossi, G., Cancelliere, A., Pereira, L., Oweis,T., Shatanawi, M., and Zairi, A., editors,
2003, Tools for drought mitigation in Mediterranean regions, Kluwer Academic Publishers, London, 2003.
I.T. N.o 74. 2006
57
PÁGINA INTENCIONALMENTE
DEJADA EN BLANCO
I.T. N.O 74. 2006
PÁGINA INTENCIONALMENTE
DEJADA EN BLANCO
I.T. N.o 74. 2006
Incidencia ambiental de los incendios
María Jesús Rodríguez de Sancho
DESCRIPTORES
INCENDIOS FORESTALES
DESASTRES NATURALES
ESTADÍSTICA GENERAL
CLIMA
EFECTOS AMBIENTALES
DAÑOS PRODUCIDOS
¿Son los incendios desastres naturales?
Los desastres naturales se definen cono fenómenos de origen
natural que ocurren en un espacio y tiempo limitados causando trastornos en los patrones normales de vida (Olcina y
Ayala-Carcedo, 2002). La Asamblea General de Naciones
Unidas declaró la década de los noventa como el Decenio Internacional para la Reducción de los Desastres Naturales. La
idea, aún hoy vigente, de esta designación era, por un lado,
los inaceptables niveles crecientes de pérdidas que los desastres naturales continúan produciendo, y por otro, la existencia de un considerable conocimiento científico y know how de
ingeniería que podría ser utilizado de manera eficaz para reducir las pérdidas que producen estos desastres naturales.
El objetivo general del decenio era reducir, mediante la
acción concertada internacional, especialmente en los países
en desarrollo, las pérdidas de vidas humanas, daños en las
propiedades y en la economía causados por desastres naturales tales como terremotos, huracanes, tsunamis, inundaciones, avenidas, erupciones volcánicas, incendios y otras calamidades de origen natural, como plagas.
En el contexto del Decenio Internacional para la Reducción de los Desastres Naturales, los incendios forestales se definieron claramente como potenciales desastres naturales. Sin
embargo, una encuesta global llevada a cabo entonces, mostró un interesante panorama. De 93 países que respondieron
a la encuesta, 49 consideraban los incendios forestales como
un riesgo relevante en su país; los restantes 44 no mencionaron los incendios forestales como una amenaza importante
(World Conference in Natural Disasters Reduction. WCNDR
Information Paper No. 2 April-94).
En otra encuesta sobre los daños causados por los desastres naturales más importantes, los incendios no se identificaron claramente como significativos en cuanto a causantes de
pérdidas de vidas humanas y económicas. En la introducción
de la encuesta se consideró “desastre significativo” aquel que
60
I.T. N.O 74. 2006
produjera unas pérdidas económicas iguales o superiores al
uno por ciento del PIB, o que afectara al menos al uno por
ciento de la población total, o que el número de víctimas fuera igual o superior a 100. Es evidente que solo algunos incendios forestales cumplen estos criterios para ser calificados
como desastres significativos. No obstante, las estadísticas de
incendios forestales de algunos países, como China, muestran
que entre 1950 y 1990 murieron más de 100 personas
anualmente en incendios forestales que recorrieron más de un
millón de hectáreas por año (Ministry of Forestry, Fire Prevention Office, Beijing).
A finales de los años ochenta, la conflagración denominada “el gran dragón negro”, afectó más de siete millones de
hectáreas en la ex-URSS y China. Durante la pasada década,
se han manifestado siniestros de grandes proporciones e impactos en California, Oregón, Washington, Utah, Montana,
Nuevo México, Alaska y Arizona, en Australia, en España, y
recordemos la continua destrucción de la Amazonia, por citar
algunos casos. En 1998, se presentó la peor temporada de incendios forestales de la historia en México, afectando 849.632
hectáreas y causando la pérdida de 70 vidas humanas.
En Estados Unidos, el informe del Centro Nacional de Datos del Clima (NCDC) relativo al período 1980-2004, describe 62 grandes desastres relacionados con el clima cuyas pérdidas superaron en cada caso los 1.000 millones de dólares.
Seis de estos grandes desastres fueron incendios forestales,
dando lugar a daños valorados en 13.000 millones de dólares y a 72 víctimas mortales.
La magnitud de las cifras anuales del número de siniestros
y las superficies recorridas por el fuego revelan que el problema de los incendios forestales afecta en mayor o menor medida a muchos países del mundo (Fig. 1). El fuego tiene en los
montes mediterráneos y en numerosos lugares del mundo una
presencia recurrente año tras año, con una intensidad que pa-
Fig. 1. Fuegos activos detectados en agosto de 2005, usando datos MODIS del satélite Terra.
rece en crecimiento. Actualmente, se queman más de 1.000
millones de hectáreas al año, mayoritariamente en las sabanas tropicales, así como en los bosques tropicales y boreales.
Las zonas mediterráneas y del sur de Europa son, igualmente,
áreas con una alta incidencia de incendios (Fig. 2).
Las estadísticas sobre incendios forestales son relativamente recientes en la mayoría de los países. En principio, podrían indicar que en los últimos 20 ó 30 años los fuegos forestales se han vuelto más frecuentes y más extensos. Esto ha
causado preocupación en la sociedad y también en los científicos, quienes perciben el problema como si de hecho empeorara continuamente en comparación con un supuesto régimen de fuego en el pasado histórico reciente, generalmente considerado “más ligero”.
Sin embargo, el fuego es un elemento de la naturaleza, los
rayos han caído durante millones de años, condicionando la
vegetación en las zonas donde había más concentración de
descargas. Los volcanes han erupcionado en muchos lugares,
contribuyendo a la selección de especies en su área de influencia. Las islas Canarias, en el Atlántico, son enormes conos volcánicos que emergen del mar y que hasta épocas históricas han
estado arrojando lava. El Pinus canariensis, espontáneo en la
falda de los volcanes de las islas Canarias, es uno de los pocos
pinos que tiene la facultad de brotar de cepa después del fuego. Incluso los pinos más pequeños, de dos y tres años, brotan
vigorosos después de los incendios. Es probable que un proceso milenario de selección produjera este endemismo resistente
al fuego. Pero el fuego, además, ha sido una herramienta utilizada históricamente por el hombre para manejar el territorio
abriendo nuevos espacios para la agricultura y la ganadería.
El hombre ha alterado los ecosistemas, incluyendo sus regímenes píricos. Así, la gran mayoría de los incendios que
ocurren en nuestro planeta son de origen humano, y la vegetación se ve sometida con una frecuencia mucho mayor a es-
Fig. 2. Superficies recorridas por el fuego anualmente (medias estimadas).
tos siniestros, rebasándose su tolerancia a tal factor, y degradándose. Con relación a los incendios, hemos alterado el equilibrio ecológico en dos formas: degradando o destruyendo secularmente los ecosistemas forestales con el fuego, y excluyendo este factor ecológico en otros casos.
En algunos países desarrollados, como los Estados Unidos y
Canadá, se ha adoptado la medida de dejar que los incendios
de origen natural evolucionen por sí mismos, siempre que permanezcan dentro de una prescripción, y siempre y cuando no
amenacen poblaciones o masas de especial interés comercial.
De presentarse condiciones ambientales, topográficas y de combustibles que puedan favorecer el desarrollo de una conflagración, el incendio es controlado. Asimismo, se tienen programas
de quemas prescritas, pero se previenen y combaten decididamente los incendios de origen humano. Con tal filosofía, se deja que sucedan los procesos naturales, como los incendios, y se
procura reducir al mínimo la influencia destructora del hombre.
Sean originados por el ser humano o por fuerzas naturales, no
hay opción: siempre tendremos que convivir con el fuego.
I.T. N.o 74. 2006
61
Fig. 3. Evolución del número de incendios y superficies afectadas en España durante el período 1961-2005.
Fuente: Estadística General de Incendios Forestales. Dirección General para la Biodiversidad. Ministerio de Medio Ambiente.
La situación de los incendios
forestales en España
Pocas noticias directas de los incendios se encuentran en el
pasado. Sabemos de su existencia como algo dañino a través
de la legislación. En el Fuero Juzgo (siglo VII) se establecían
las precauciones que debían adoptarse al hacer hogueras
para la comida o para calentarse en el campo, así como al
quemar rastrojos. Los que causasen incendios por estos motivos deberían pagar lo que se hubiese quemado. En cualquier
caso, el que quemara un monte estaba sometido a la pena de
azotes. El rey Alfonso X, en el siglo XIII, estableció también penas a los que quemasen los montes, condenándoles a que
“los echasen dentro del fuego” así como a reparar el daño
con el doble de lo quemado.
La información sobre incendios forestales en España, que
se utiliza para planificar las acciones de prevención y extinción por las distintas Administraciones competentes, está contenida en la Estadística General de Incendios Forestales (EGIF),
creada en el año 1968 como consecuencia de la aprobación
de la Ley 85/1968 sobre incendios forestales. La base de datos contiene los Partes de Incendio Forestal remitidos al Ministerio de Medio Ambiente por los Servicios de Prevención y Extinción de las Comunidades Autónomas. Cada siniestro, independientemente de su tamaño, da lugar a un registro de la base de datos con los mismos campos de información para todos los incendios. En la base de datos solo se incluyen los siniestros que han afectado a terreno forestal.
En España se producen una media de 20.000 incendios
forestales al año, afectando en torno a 150.000 hectáreas. El
mayor número de incendios se produjo en 2005, cuando se
alcanzó la cifra de 26.261 siniestros. La mayor superficie
afectada fue en 1994, en que 437.635 hectáreas fueron recorridas por el fuego.
El análisis de la serie estadística iniciada en 1961 muestra una tendencia creciente en el número de incendios, especialmente a partir de la década de los noventa (Fig. 3). En lo
que se refiere a superficies afectadas, sin embargo, hay una
tendencia decreciente en los últimos años, aunque con algunos repuntes, lo que indica una mayor eficacia en los sistemas
62
I.T. N.O 74. 2006
Fig. 4. Porcentaje de superficie afectada por grandes incendios respectoa la superficie forestal incendiada durante el período 1991-2004. Fuente: Estadística
General de Incendios Forestales. Dirección General para la Biodiversidad. Ministerio de Medio Ambiente.
de detección y extinción de incendios, que en más del 64 %
de los casos se quedan en conatos (< 1 ha). Esta situación de
ningún modo puede considerarse satisfactoria, ya que tiene la
preocupante particularidad de que para mantener el actual
nivel de eficacia es necesario un incremento anual de las inversiones en prevención y extinción que puedan hacer frente
al problema del constante crecimiento del número de incendios. Además esta tendencia va a estar muy condicionada en
el futuro por los avances que se consigan en el combate de
los llamados grandes incendios, de superficies superiores a
las 500 hectáreas. Los grandes incendios son una de las mayores preocupaciones en todo el mundo por ser los responsables de las principales catástrofes. A pesar de que su número
es reducido si se compara con la cifra total de incendios (entre un 0,5 y un 3 %), en algunas partes del mundo ocupan
hasta la mitad de la superficie incendiada. En España en algunas zonas se supera con creces esta proporción (Fig. 4).
La distribución geográfica y temporal del número de incendios es muy variable en las distintas Comunidades Autónomas, lo que refleja las diferencias y contrastes en las condicio-
nes físicas, climáticas y socioeconómicas de las zonas forestales en nuestro país (Fig. 5). En todo caso, los incendios forestales son un problema estructural ligado a la acumulación de
combustible vegetal en el monte, la ocupación humana del territorio y el uso del fuego que realiza la sociedad. El peligro
estructural latente se pone coyunturalmente de manifiesto con
toda su virulencia bajo condiciones de sequía y/o meteorología adversas con dos tipos de situaciones que pueden desbordar la capacidad de los medios de extinción: los grandes incendios y la gran cantidad de incendios simultáneos (Tabla 1).
Las causas de los incendios forestales en España son conocidas en un 80 por ciento de los casos. El análisis de las
causas conocidas indica que en el 95 por ciento de los siniestros está detrás la actividad humana, ya sea intencionadamente o por accidentes o negligencias. Solamente en un
cinco por ciento de los casos los incendios forestales en España se producen por causas naturales (rayo principalmente). Los incendios causados por accidentes o negligencias suponen el 17 por ciento, mientras que la intencionalidad ocurre en el 58 por ciento de los incendios, y de ellos tienen motivación conocida el 40 por ciento. Entre las motivaciones conocidas destacan la eliminación de matorral o restos agrícolas y la regeneración de pastos. Aunque estas quemas están
reglamentadas y prohibidas en la época de peligro, es frecuente el incumplimiento de las normas existentes en casi todas las regiones. Seguimos sin saber la motivación de más de
la mitad de los incendios intencionados que se producen en
España, lo que impide establecer una relación estadística directa entre incendio y especulación (Fig. 6).
Existe un paralelismo entre la situación española y la de
los demás países mediterráneos de la Unión Europea, incluso
hay coincidencia en los años en los que el fenómeno presenta singularidades por sus condiciones climáticas, si bien la
tendencia en el crecimiento del número de incendios es mucho más marcada en España y Portugal.
El gran problema actual en los países de clima mediterráneo se deriva de que los ciclos de recurrencia del fuego se acortan rápidamente y en numerosos sitios. Dos hechos básicos parecen influir en esta situación: por una parte, el incremento de
la población supone una mayor presión sobre las tierras forestales por la demanda de suelo para otros usos, y por otra, las
fluctuaciones climáticas hacen aparecer grandes sequías, que
incrementan y extienden en el tiempo y en el espacio el peligro
de incendios. El cambio climático añade un factor de inquietud.
Si las condiciones meteorológicas en la cuenca mediterránea se
vuelven más severas en los años próximos, ¿cómo repercutiría
esto en los incendios forestales y la vegetación de esa región?
Fig. 5. Mapa de cuadrícula 10x10 km en el que se refleja la incidencia
geográfica del número de incendios durante el período 1991-2004.
Fuente: Estadística General de Incendios Forestales. DGB-MMA.
TABLA 1
Días de mayor simultaneidad de incendios
por Comunidades Autónomas, durante el período 1991-2005
Comunidad
Número de incendios
Fecha
País Vasco
26
8 de enero de 1992
Cataluña
31
4 de julio de 1994
483
3 de septiembre de 1995
Galicia
Andalucía
46
6 de julio de 1994
Asturias
202
2 de febrero de 2002
Cantabria
56
30 de enero de 2002
La Rioja
8
10 de marzo de 2000
Murcia
10
2 de agosto de 2000
Comunidad Valenciana
31
13 de julio de 1991
Aragón
33
26 de agosto de 2000
Castilla La Mancha
46
15 de agosto de 2002
9
7 de septiembre de 2005
Navarra (*)
16
2 de febrero de 2002
Extremadura
48
25 de julio de 1995
Islas Baleares
8
5 de agosto de 1993
Madrid
13
21 de agosto de 1994
Castilla y León
75
18 de marzo de 2000
Total Nacional
577
3 de septiembre de 1995
Canarias
(*) Solo incluye datos del intervalo 1991-94. Resto del período sin datos.
Fuente: Estadística General de Incendios Forestales.
Dirección General para la Biodiversidad. Ministerio de Medio Ambiente.
Factores ambientales
con incidencia en el fuego
El comportamiento del fuego en un incendio forestal depende
de las características del terreno, del ambiente de la zona que
está siendo afectada y de las propiedades del material vegetal que está ardiendo, es decir, de la topografía, el tiempo atmosférico y el combustible vegetal, lo que se conoce como el
triángulo del comportamiento del fuego.
Fig. 6. Motivaciones de los incendios intencionados durante el período
1991-2004. Fuente: Estadística General de Incendios Forestales.
Dirección General para la Biodiversidad. Ministerio de Medio Ambiente.
I.T. N.o 74. 2006
63
La topografía es el más constante de los tres componentes
y tiene gran influencia sobre los otros dos. La exposición es el
factor determinante de las variaciones del tiempo atmosférico
en el transcurso del día. Al cambiar la posición del sol varían
la temperatura y la velocidad y dirección de los vientos locales, ascendentes por el día especialmente en laderas y descendentes durante la noche. La exposición influye también en
el desarrollo de la vegetación y las especies que pueblan las
laderas. La pendiente favorece la continuidad horizontal y
vertical de los combustibles.
El clima, en un concepto amplio, es el principal regulador
de las temporadas de ocurrencia de incendios, de forma que,
para cada región, las condiciones meteorológicas dominantes asociadas a las condiciones fisiológicas de la vegetación
determinan qué períodos del año son más favorables que
otros para la ocurrencia de incendios forestales.
Normalmente se asocia la temporada de incendios forestales a la época del año en que mayor es la temperatura y el período seco es más prolongado, por ejemplo el verano en el clima mediterráneo, lo cual, aunque estadísticamente es cierto,
no impide que en muchas regiones, generalmente montañosas,
los fuegos puedan ocurrir también en invierno o primavera. Esto es posible debido a la resultante de una interacción de factores topográficos y meteorológicos con un estado vegetativo
del combustible forestal y unas prácticas humanas del uso del
fuego que favorecen la aparición de los incendios. Los valores
de los factores meteorológicos son cambiantes, pero al contrario que los de combustible, no pueden ser alterados por el
hombre. Sin embargo pueden ser objeto de predicción. De ahí
la importancia de su conocimiento para poder prever situaciones críticas. Las variables meteorológicas que influyen en los
incendios forestales pueden clasificarse en dos grupos:
1. Las que afectan a la posibilidad de inicio del fuego: radiación solar, precipitación, temperatura del aire y humedad
relativa. La humedad relativa indica la proporción de vapor
de agua de una masa de aire sobre el máximo que podría
contener con su temperatura y es uno de los parámetros más
importantes en el inicio y comportamiento del fuego. Valores de la humedad relativa por debajo del 30 % desencadenan condiciones muy favorables para el inicio y la propagación del incendio. La humedad del aire influye en la humedad de la vegetación pero también en la disponibilidad
de oxígeno para el proceso de combustión. A una mayor
humedad relativa del aire, menor disponibilidad de oxígeno en el ambiente, lo que significa un retardo en el proceso.
2. Las que inciden en la velocidad de propagación:
Velocidad del viento: es un elemento decisivo en el comportamiento del fuego, siendo muchas veces responsable
de que el incendio supere las barreras de defensa y de la
formación de fuegos de copas que se manifiestan de forma
virulenta y afectan a la seguridad de los combatientes.
Dirección del viento: los vientos, dependiendo de la época del año, siguen unos patrones preestablecidos según la
zona geográfica de que se trate. Así, en la Península Ibérica
los vientos terrales en verano del Nordeste son típicos en Galicia, León, Asturias y valles del Pirineo; el cierzo del Nor64
I.T. N.O 74. 2006
Fig. 7. Vientos terrales típicos en la Península Ibérica.
oeste, en Aragón; la tramontana, del Norte, en Cataluña y
Menorca; el poniente, del Oeste, en Valencia y Murcia; terral
del Norte en Málaga y Costa del Sol; el levante, del Este, en
Cádiz y Valle del Guadalquivir. En primavera son típicos los
vientos del sur en Asturias, Cantabria y País Vasco (Fig. 7).
Grado de estabilidad atmosférica: La estabilidad atmosférica es la resistencia presente en el perfil vertical al
movimiento del aire. Una atmósfera inestable favorece el
crecimiento del incendio, al facilitar el ascenso de los gases de la combustión y la entrada de aire desde los laterales del incendio aportando oxígeno al mismo. Bajo estas
condiciones, los fuegos pueden desarrollarse con violencia
y tener un comportamiento errático.
Dos factores meteorológicos de gran importancia en los incendios forestales son los rayos y la sequía. El rayo es el responsable directo de la mayoría de los incendios del oeste de
Estados Unidos y Canadá. En España, los incendios causados
por rayos en el Sistema Ibérico y la Serranía de Cuenca superan algunos años el 80 % de los siniestros ocurridos en estas
zonas. Las condiciones de oscuridad y fuertes vientos reinantes durante la tormenta impiden la movilización de medios aéreos de primera intervención, por lo que el rayo suele ser causa de grandes incendios. Otra característica importante de los
incendios causados por rayo es que pueden manifestarse muchas horas o incluso días después de que se produzca la descarga. De los 25 mayores incendios en España en el período
1991-2005, siete fueron originados por rayos, dando lugar a
superficies quemadas de grandes dimensiones (Tabla 2).
La importancia del rayo en muchas partes del mundo ha
hecho que se desarrollen tecnologías capaces de detectarlos y
localizarlos. Estados Unidos dispone de una red de detección
de rayos formada por más de 37 sensores localizados cerca
de aeropuertos en la zona centro y oeste del país. Esta información es enviada por vía cable hasta un sistema informático donde por triangulación se obtienen mapas de rayos que
son distribuidos a las oficinas de movilización de medios. Durante una sola tormenta pueden registrarse miles de descargas eléctricas. Canadá posee un sistema similar y en España
empezó a operar en 1997 un dispositivo del Instituto Nacional de Meteorología que transmite a los servicios de extinción
la cantidad y localización de los rayos producidos durante las
TABLA 2
Veinticinco mayores incendios durante el período 1991-2005
Superficies (ha)
Provincia
Término municipal
origen
Fecha
Fecha
Fecha
Año
detección control extinción Arbolada
No arbolada
Total
No
Leñosa Herbácea forestal forestal
Causa
Huelva-Sevilla
Minas de Riotinto
2004
27 julio
3 agosto
4 agosto
25.928,00
2.529,00
1.410,00
29.867,00
79,00
Teruel-Castellón
Villarluengo
1994
2 julio
6 julio
8 julio
17.832,80
8.604,50
1.776,00
28.213,30
0,00
Intencionado
Murcia-Albacete
Moratalla
1994
4 julio
7 julio
8 julio
16.826,00
8.753,00
0,00
25.579,00
2.818,00
Valencia
Millares
1994
4-julio
10 julio
12 julio
11.835,00
13.545,00
50,00
25.430,00
500,00
Rayo
Fumadores
Rayo
Líneas eléctricas
Valencia
Requena
1994
5 julio
10 julio
12 julio
16.373,00
7.691,00
0,00
24.064,00
705,90
Castellón
Espadilla
1994
2 julio
9 julio
15 julio
14.651,00
4.658,00
0,00
19.309,00
0,00
Rayo
Valencia
Fontanars dels Aforins
1994
4 julio
9 julio
12 julio
11.774,80
6.532,50
110,00
18.417,30
0,00
Quema de basura
Cuenca
San Martín de Boniches
1994
17 julio
22 julio
28 julio
16.075,70
1.783,00
0,00
17.858,70
507,00
Barcelona
Montmajor
1994
4 julio
11 julio
20 julio
14.546,50
1.896,10
0,00
16.442,60
8.925,70
Valencia
Yátova
1991
28 julio
sin datos
4 agosto
6.330,00
9.070,00
0,00
15.400,00
2.015,00
Rayo
Barcelona
Sant Mateu de Bagés
1994
4 julio
8 julio
11 julio
11.927,30
1.396,00
0,00
13.323,30
3.977,20
Desconocida
Intencionado
Rayo
Líneas eléctricas
Albacete
Yeste
1994
7 agosto
14 agosto
19 agosto
11.685,00
1.210,00
0,00
12.895,00
1.330,00
Guadalajara
Riba de Saelices
2005
16 julio
21 julio
2 agosto
10.352,57
2.380,16
0,00
12.732,73
154,64
Barcelona-Lleida
Aguilar de Segarra
1998
18 julio
22 julio
30 julio
8.630,56
3.880,24
0,00
12.510,80
5.164,38
Líneas eléctricas
Almería
Cancanyar
1991
21 agosto
22 agosto
22 agosto
6.291,00
4.055,00
0,00
10.346,00
1.978,00
Intencionado
Cáceres-Badajoz
Portugal-Valencia de Alcántara
2003
2agosto
5 agosto
12 agosto
5.260,50
3.735,42
754,08
9.750,00
3.942,50
Málaga
Parauta
1991
7 agosto
11 agosto
14 agosto
7.049,00
870,00
0,00
7.919,00
0,00
Intencionado
Almería
Lijar
1994
5 julio
7 julio
7 julio
786,00
800,00
5.873,00
7.459,00
2.327,00
Intencionado
Jaén
Aldeaquemada
2004
26 agosto
27 agosto
30 agosto
2.729,50
3.269,90
1.137,20
7.136,60
187,00
Intencionado
Cáceres
Torrecilla de los Ángeles
1991
15 agosto
18 agosto
19 agosto
4.840,00
2.280,00
0,00
7.120,00
200,00
Intencionado
Castellón
Castillo de Villamalefa
1994
2 abril
4 abril
7 abril
6.120,00
1.000,00
0,00
7.120,00
1.000,00
Hogueras
Rayo
Hogueras
Zamora
Figueruela de Arriba
1991
28 julio
sin datos
2 agosto
4.184,00
2.600,00
0,00
6.784,00
0,00
Zaragoza
Uncastillo
1994
16 julio
sin datos
24 julio
4.849,00
1.740,00
0,00
6.589,00
2.049,00
Desconocida
Rayo
Cáceres
Pinofranqueado
2003
13 agosto
17 agosto
23 agosto
5.312,00
905,70
148,00
6.365,70
2.711,30
Quema agrícola
Ávila
La Solana de Ávila
2003
3 agosto
6 agosto
17 agosto
1.333,00
4.942,00
0,00
6.275,00
0,00
Intencionado
Fuente: Estadística General de Incendios Forestales. Dirección General para la Biodiversidad. Ministerio de Medio Ambiente.
tormentas. La búsqueda de los lugares de caída de rayos que
pueden producir incendios durmientes que se manifiesten horas después es una práctica de obligado cumplimiento.
El primer factor meteorológico que puede elevar considerablemente el peligro de incendios es la sequía. Los períodos
largos de sequía se caracterizan por producir un fuerte estrés
hídrico en la vegetación. En los años muy secos, el crecimiento de combustibles herbáceos es muy escaso, lo que no favorece la propagación de los incendios por falta de continuidad
horizontal del combustible. Sin embargo, gran cantidad de
combustibles vivos pasan a ser combustibles muertos, los que
mejor arden, que se acumulan originando un peligro potencial
muy elevado. Los períodos húmedos provocan un gran crecimiento de los combustibles herbáceos, de forma que mientras
se mantienen vivos limitan la propagación de los incendios. Si
después de este período se inicia una estación seca prolongada, la vegetación herbácea se seca rápidamente dejando a
disposición del fuego grandes cargas de combustible con gran
continuidad horizontal que favorecen la propagación del fuego. De esta forma, la combinación de años de sequía seguidos
de primaveras lluviosas a las que suceden veranos secos origina que las formaciones vegetales se encuentren en situación
muy favorable para que el fuego las recorra con facilidad.
Impacto del cambio climático
sobre el riesgo de incendios forestales
La relación entre cambio climático e incendios forestales ha
sido estrecha, de manera que han sido más frecuentes en los
períodos cálidos que en los fríos. Aunque es común encontrar
referencias históricas sobre los incendios forestales, o sobre
normativas relacionadas con los mismos, la reconstrucción
del régimen de incendios de España a partir de datos históricos no ha sido posible, y menos aún de su cambio con el clima. Por otro lado, la falta de masas arbóreas viejas ha dificultado poder descifrar el grado de recurrencia de los incendios. La datación de las cicatrices de Pinus pinaster en Sierra
Bermeja (véase la figura 8 en la página siguiente) muestra
que los incendios de superficie ocurrieron durante la última
parte del siglo XIX y la primera del XX con elevada frecuencia
(recurrencias de 11-35 años), y probablemente estuvieron ligados al pastoreo.
El peligro de incendio es una medida de la probabilidad
de que ocurra un incendio forestal y se basa en la temperatura, la humedad relativa, la velocidad del viento y su dirección y la sequedad de los combustibles. Por lo tanto, los índices de peligro son medidas útiles para representar la probabilidad de un incendio en el tiempo y espacio.
I.T. N.o 74. 2006
65
Fig. 8. Resistencia al fuego de un Pino pinaster
de Sierra Bermeja (Málaga) (1992).
Los escenarios que se dibujan cara a la ocurrencia de incendios forestales están caracterizados por un incremento generalizado de los índices de peligro, una mayor duración de la
temporada de incendios y una mayor frecuencia de situaciones
extremas y de más larga duración. A esto se une la tendencia
hacia un cambio en la vegetación, con mayor abundancia de
especies arbustivas, más sensibles al estrés hídrico. Consecuentemente, cabe esperar que los incendios sean más frecuentes,
extensos e intensos. Estas tendencias generales variarán de un
punto a otro de la geografía, pero acentuarán las tendencias
actuales. Las previsiones negativas cara a la ocurrencia de incendios conforme discurre el cambio climático pueden verse
contrarrestadas por mejoras en la predicción meteorológica, el
conocimiento del estado de los combustibles y las estrategias de
prevención y vigilancia. La predicción meteorológica actual
permite conocer con anticipación de pocos días la posible existencia de situaciones de peligro. Es probable que con el paso
del tiempo la mejora en la capacidad predictiva meteorológica
pueda alcanzar plazos más largos. Una mejora en la capacidad de predicción del peligro puede permitir planificar mejor
los recursos y, particularmente, la puesta en marcha de acciones preventivas en aquellos sitios de mayor peligrosidad.
Efectos de los incendios forestales
El fuego, como cualquier otra perturbación, va seguido de
una serie de cambios estructurales y funcionales en el ecosistema. En los ecosistemas mediterráneos, el fuego constituye
un factor ecológico de primera importancia. En nuestro entorno, como se ha señalado, existen especies con síndromes
adaptativos aparentemente ligados al fuego. Este es el caso
del alcornoque (Quercus súber), cuya densa corteza le permite sobrevivir al fuego y rebrotar prontamente de yemas situadas en sus partes aéreas. No obstante, la capacidad de
respuesta de las plantas al fuego puede verse afectada por el
momento del año en que se produzca el incendio. Las variaciones estacionales en las condiciones climáticas después del
incendio pueden suponer importantes diferencias en cuanto a
una mayor disponibilidad de agua en el suelo y diferentes
temperaturas que pueden afectar a las plantas rebrotadoras.
66
I.T. N.O 74. 2006
Además estas especies también pueden ser sensibles a la estacionalidad del incendio debido a variaciones anuales en su
estado fisiológico, tales como su estado de hidratación o el
contenido de reservas de carbohidratos que han de servirlas
para rebrotar. También puede variar la cantidad y situación
de las semillas disponibles en el suelo. Asimismo, el tamaño
de la planta puede ser determinante para su supervivencia.
Por otro lado, el tiempo transcurrido hasta que un nuevo incendio ocurra (intervalo de recurrencia) puede tener una gran
importancia en la capacidad de la vegetación para volver a
regenerarse. Un posible aumento en la incidencia de incendios puede conllevar un dominio de vegetación pionera y una
menor diversidad vegetal. La homogeneización de las zonas
quemadas de forma recurrente disminuirá la diversidad animal y puede alterar la interacción entre especies. Por tanto,
los incendios pueden causar pérdida de hábitats y especies.
Uno de los efectos más importantes e inmediatos de los incendios es el cambio del régimen de agua del sitio quemado,
tal como un aumento de la escorrentía superficial, que puede
causar un aumento de la erosión, inundaciones, aterramiento
de embalses, turbidez y contaminación de ríos. Después de los
incendios, el suelo queda sin protección. La germinación o rebrote de nuevas plantas será lenta al principio, precisamente
por la sequía que, en las zonas áridas, terminará con las lluvias de otoño. Cuando éstas lleguen, el suelo estará aún desprotegido casi totalmente contra la erosión. Los fuegos producen repelencia superficial al agua hasta una profundidad máxima de 20 centímetros. Este efecto es más intenso en suelos
secos que en suelos húmedos. Asimismo la pendiente también
influye de modo notable. Otro factor que determina la pérdida de suelo es el índice de erosión pluvial, directamente proporcional a la energía del aguacero y la intensidad de las
precipitaciones. Las regiones mediterráneas presentan típicamente aguaceros otoñales. Con cierta periodicidad, los meses
de septiembre y octubre presentan lluvias excepcionales, a veces con consecuencias catastróficas. En octubre de 1957 fue
la gran riada de la ciudad de Valencia; en septiembre de
1962, en las comarcas del Vallés y Maresme se produjo una
gran catástrofe hidrológica; en 1973 fueron las grandes riadas en Almería y Granada; en octubre de 1982 tuvieron lugar las grandes inundaciones en Alicante y Valencia.
En estos temporales de lluvia se registran valores máximos
de intensidad de precipitación. Las zonas mediterráneas y
Canarias, que comprenden las regiones áridas típicas, son las
que muestran un mayor incremento en la agresividad de la
lluvia inmediatamente después del verano. Es decir, la sucesión fuego-erosión es un acontecimiento de alta probabilidad.
Los incendios forestales también producen emisiones a la
atmósfera. Se estima que la emisión de CO2 es como promedio del orden del 20 % en volumen de la biomasa existente, ya
que generalmente solo se consumen los combustibles ligeros
(hojarasca, ramillas, follaje), quedando carbonizados los combustibles pesados, que retienen la mayor parte del carbono.
Las principales emisiones durante la combustión son dióxido de
carbono (CO2), monóxido de carbono (CO), metano (CH4),
óxidos de nitrógeno (NO, NO2), amoníaco (NH4), ozono (O3)
TABLA 3
Pérdidas por incendios forestales de difícil valoración
o pérdidas intangibles
Fig. 9. Nube de humo causada por el incendio que compromete
la intervención de los medios aéreos de extinción.
y partículas sólidas. El CO2 y el CH4 son gases de efecto invernadero que pueden contribuir al calentamiento global. El CO,
el CH4 y los NOX contribuyen a la producción fotoquímica de
O3 en la troposfera. El O3 es un contaminante que puede ser
irritante e incluso tóxico. El NH4 genera en la troposfera ácido
nítrico (HNO3) y contribuye a la lluvia ácida. Las partículas sólidas (humo, hollín) se difunden por la atmósfera, absorbiendo
y reflejando los rayos solares, con impacto en el clima más o
menos amplio, según la difusión que alcancen (Fig. 9). También
pueden producir problemas respiratorios si su concentración es
muy elevada. La cuantificación de las emisiones no es fácil y
obliga a hacer hipótesis muy generales sobre la cantidad de
biomasa disponible y sobre la eficiencia de la combustión. Una
estimación global realizada por el equipo de M. Andreae
(Cambridge, 1991) daba la cifra promedio anual de 3.940 millones de toneladas de carbono emitido a causa de los incendios forestales. Esta cifra duplica ampliamente la cantidad
asignada a España de emisiones de gases de efecto invernadero computadas en términos de toneladas equivalentes de
dióxido de carbono (CO2-e) para el período de compromiso
2008-2012 del Protocolo de Kioto.
Evaluar los impactos de un incendio forestal es difícil, pues
conlleva la estimación de los rendimientos de los bosques, que
incluyen valores vagamente definidos, tanto actuales como futuros, con o sin valor comercial (Tabla 3). Muchos de los bienes y
servicios asociados con el bosque no son vendidos en mercados
organizados, por lo tanto no hay mecanismo para asociar el
Bibliografia
– Vélez, Ricardo, “Perspectiva global: el fuego en los ecosistemas forestales del mundo”, en Vélez, R. (coord.), La defensa contra incendios forestales: Fundamentos y
experiencias, Madrid, McGraw Hill, 2000, pp. 2.1-2.3.
– Rodríguez-Trejo, D. A., Incendios Forestales, Universidad Autónoma Chapingo, México, D.F., Mundiprensa, 1996, p. 630.
– Vélez, Ricardo, “Perspectiva histórica de los incendios forestales en España”, en
Vélez, R. (coord.), La defensa contra incendios forestales: Fundamentos y experiencias, Madrid, McGraw Hill, 2000, pp. 3.15-3.31.
– Vélez, Ricardo, “Motivaciones de los incendios intencionados”, en Vélez, R. (coord.), La defensa contra incendios forestales: Fundamentos y experiencias, Madrid,
McGraw Hill, 2000, pp. 3.31-3.52.
– Estirado, Fernando, y Molina, Pedro, “El problema de los incendios forestales en España”, Fundación Alternativas, Documento de trabajo 69/2005, pp 25-31.
Alarma social
Generan contaminación ambiental
Calentamiento atmosférico
Reducción
de la belleza paisajística
y de su valor recreativo
Se propicia erosión hídrica y eólica
Aterramiento de embalses
y reducción de la capacidad
de infiltración de agua
Daños a la fauna silvestre
y alteración a su hábitat
Reducción de recursos genéticos
Reducen el potencial
comercial con la pérdida
de productos forestales
Generan costos de protección
Se predispone
a las masas forestales
al ataque de plagas y enfermedades
Dañan la regeneración
y a la reforestación
Se reduce la cobertura
arbórea del terreno
Se afecta el crecimiento
de los árboles
Favorecen la invasión
de especies indeseables
Cuando son muy intensos,
dañan las propiedades físicas,
químicas y biológicas
de los suelos
Se pierde la inversión aplicada
a las reforestaciones
Se degradan los pastizales reduciendo su palatabilidad para el
ganado y fauna silvestre
Posibilitan lesiones
y fallecimiento
de los combatientes
Coadyuvan a la deforestación
y degradación
de las áreas forestales
En algunos casos el humo
reduce la visibilidad
para los vehículos aéreos
Fig. 10. Pérdidas económicas estimadas por incendios forestales en España durante el período 1991-1994. Fuente: Estadística General de Incendios Forestales. Dirección General para la Biodiversidad. Ministerio de Medio Ambiente.
valor de los servicios a valor de reposición del activo perdido.
Sin embargo, si los efectos del incendio sobre esos recursos sin
mercado no son incorporados en el sistema de evaluación de
daño de incendio, la estimación total de daño se infravalora.
Desde 1990 se incluye en los partes de incendios un método
para la estimación del impacto ambiental al que se han ido introduciendo nuevas modificaciones metodológicas para perfeccionar los sistemas utilizados hasta ahora. En 2004 la estimación del valor medio de la pérdida de beneficios ambientales
por hectárea forestal quemada, se situaba en torno a los 2.200
euros (Fig. 10). Esta estimación no incluye la doble pérdida
(emisión y absorción) por efecto sumidero.
■
María Jesús Rodríguez de Sancho
Ingeniero de Montes
Subdirectora General de Política Forestal y Desertificación
Ministerio de Medio Ambiente
– Mérida, Juan Carlos, “Factores meteorológicos”, en Vélez, R. (coord.), La defensa
contra incendios forestales: Fundamentos y experiencias, Madrid, McGraw Hill,
2000, pp. 8.1-8.8.
– Vélez, Ricardo, “Los índices meteorológicos de peligro”, en Vélez, R. (coord.), La
defensa contra incendios forestales: Fundamentos y experiencias, Madrid, McGraw
Hill, 2000, pp. 8.10-8.28.
– Moreno, José Manuel, ”Riesgo de incendios forestales”, Evaluación preliminar de los
impactos en España por efecto del cambio climático, Madrid, MMA, 2005, pp. 581-615.
– Vega, José Antonio, “Resistencia vegetativa ante el fuego a través de la historia de
los incendios”, en Vélez, R. (coord.), La defensa contra incendios forestales: Fundamentos y experiencias, Madrid, McGraw Hill, 2000, pp 4.66-4.84.
– González Cabán, Armando, “Aspectos económicos del daño producido por incendios forestales”, en Vélez, R. (coord.), La defensa contra incendios forestales: Fundamentos y experiencias, Madrid, McGraw Hill, 2000, pp 5.1-5.20.
I.T. N.o 74. 2006
67
Inundación costera
originada por la dinámica marina
Raúl Medina y Fernando J. Méndez
DESCRIPTORES
INUNDACIÓN COSTERA
NIVEL DEL MAR
MAREA METEOROLÓGICA
ATLAS DE INUNDACIÓN PENINSULAR ESPAÑOL
CAMBIO CLIMÁTICO
Introducción
Las excepcionales condiciones del litoral para el desarrollo de
múltiples actividades humanas han propiciado una continua migración de habitantes, industrias y servicios a las zonas costeras.
Los motivos de dicha migración han evolucionado en el tiempo,
siendo históricamente el comercio, la actividad portuaria y los
asentamientos agrícolas en los fértiles deltas y llanuras aluviales
las causas de dicha migración, mientras que en la actualidad lo
son el turismo asociado al ocio y el disfrute del litoral.
De acuerdo con el Panel Intergubernamental para el Cambio Climático (IPCC), cerca de un 50 % de la población mundial vive en la zona costera. Solo en Europa más de 70 millones de habitantes residen en municipios costeros, siendo el
valor total de los bienes situados en una banda de 500 metros de la costa europea, incluidas las viviendas, los terrenos
agrícolas y las instalaciones industriales, cercano a un billón
de euros (Proyecto Eurosion: http://www.eurosion.org).
Todos estos habitantes y bienes materiales se encuentran
amenazados por la inundación costera debida a la dinámica
marina. Según las predicciones del IPCC, el riesgo de inundación aumenta cada año para infraestructuras urbanas, turísticas e industriales, tierras de cultivo, áreas de recreo y hábitats
naturales. Dicho Panel Intergubernamental estima que el número anual de víctimas debido a la inundación costera alcanzará
las 158.000 en 2020 y que más de la mitad de los humedales
desaparecerán como consecuencia de dicha inundación.
El coste económico de las acciones de mitigación de los
efectos frente a la inundación costera, íntimamente relacionados con la erosión litoral, va en aumento. De acuerdo con los
resultados del proyecto Eurosion, en 2001 los fondos dedicados a la protección de las costas en Europa ascendieron a
3.200 millones de euros, un 30 % más que en 1986. Es im68
I.T. N.O 74. 2006
portante señalar que dicho coste solo refleja las inversiones
realizadas para proteger los bienes expuestos a un riesgo inminente, pero no los costes inducidos en las actividades humanas. Según estudios previos del IPCC dichos gastos tienen
una media anual de unos 5.400 millones de euros.
Oscilaciones del nivel del mar
El nivel del mar sufre continuas variaciones en respuesta a los
diferentes forzamientos atmosféricos, marinos, tectónicos y
planetarios, siendo habitual clasificar dichas oscilaciones por
la escala temporal de la oscilación. Al margen de los tsunamis, objeto de un artículo específico de esta edición de la revista, las oscilaciones más relevantes en términos de inundación costera son: el oleaje, las ondas infragravitatorias, la
marea meteorológica, la marea astronómica y la variación
del nivel del mar de largo período.
El oleaje es, sin lugar a dudas, la oscilación del mar más
comúnmente conocida y también la más relevante en términos
de erosión litoral e inundación costera. El oleaje, generado por
la acción del viento sobre la superficie del mar, es una oscilación del nivel del mar con períodos entre 3 y 30 segundos cuya magnitud, en un período de retorno de 50 años, supera los
nueve metros de altura de ola significante en las costas atlánticas españolas y los seis metros en las costas mediterráneas.
En la figura 1 se muestra un ejemplo de los efectos de los
temporales de oleaje en las infraestructuras portuarias. La figura muestra el puerto pesquero-deportivo de Llançá (Gerona), el
cual estuvo sometido a un temporal de dirección Este-Nordeste –llevantada– en octubre de 1997. La virulencia del temporal
(altura de ola significante de 5,4 m en la boya de Rosas) se
aprecia en la fotografía A, donde se muestra el rebase de la
ola por encima del espaldón del puerto afectando a la lonja.
Por otro lado, como puede apreciarse en la fotografía B, la playa de la Gola fue completamente inundada por la lámina de
agua. En este caso particular la sobreelevación por marea meteorológica no fue de gran importancia, debiéndose la inundación casi en exclusiva a la magnitud del oleaje (la sobreelevación por marea meteorológica fue inferior a los 10 cm).
Las ondas infragravitatorias son oscilaciones del nivel del
mar con períodos entre 50 y 500 segundos. El origen de esta
oscilación es la modulación del oleaje de viento en paquetes de
olas grandes olas pequeñas producida por la propagación del
mismo en la plataforma continental. Esta modulación del tren
de oleaje incidente origina perturbaciones en el equilibrio de
fuerzas dinámicas de la masa de agua, generándose variaciones en el nivel del mar que tienden a equilibrar el sistema. Estas oscilaciones, conocidas como ondas infragravitatorias o como ondas largas asociadas a los grupos de olas, tienen una
magnitud de centímetros o escasos decímetros en aguas profundas pero, como los tsunamis, se amplifican a medida que
alcanzan la costa. Este tipo de oscilación muestra su relevancia
en los puertos, donde puede acoplarse con los modos propios
de oscilación de las dársenas dando lugar a fenómenos de resonancia portuaria, y en las playas, donde la rotura del oleaje
libera las ondas largas atrapadas en los grupos y la suave pendiente del talud de las playas amplifica la magnitud de las mismas, llegando a superar el metro en condiciones de temporal.
La marea meteorológica es una oscilación del nivel del mar
debida a la acción conjunta de la presión atmosférica y el
arrastre del viento, y su período puede ser desde varios minutos a días. Las bajas presiones atmosféricas asociadas al paso
de las borrascas generan un ascenso del nivel del mar asociado a la depresión barométrica de las mismas. Las grandes borrascas extra-tropicales que afectan al litoral español generan,
de modo habitual, sobreelevaciones del orden de 30-40 centímetros y pueden llegar a generar sobreelevaciones del orden
del metro. El viento, por su capacidad de arrastrar agua, es
otro factor que puede dar lugar a la sobreelevación del nivel
del mar en la costa. Para que la acción del viento genere una
elevación del nivel del mar de entidad es necesario que la magnitud del viento sea importante, por encima de los 20 m/s, y,
fundamentalmente, que se den determinadas condiciones de
geometría de la costa y de poco calado. En algunos lugares del
mundo, bien por la magnitud de las borrascas (huracanes) bien
por las características geométricas de la costa (Países Bajos, Venecia…), los efectos de la marea meteorológica pueden llegar
a ser, combinados con la presencia de oleaje, devastadores.
En España, y particularmente en el Mediterráneo, se producen eventos de marea meteorológica importantes, con la
consiguiente inundación costera.
Este es el caso del conocido temporal de noviembre de
2001 que afectó a las costas catalana, balear y valenciana
principalmente. Con objeto de ilustrar las características de la
Fig. 1. Imágenes del temporal de 28 de octubre de 1997 afectando al puerto y playa de Llançá, Gerona (Fotos cortesía de J. Hugas).
I.T. N.o 74. 2006
69
Fig. 2. Temporal de 11 de noviembre de 2001. A la izquierda, simulación realizada con el modelo WAM (Fuente: Puertos del Estado). A la derecha, arriba, simulación de
eventos de inundación horarios en noviembre de 2001 en la playa de Chilches (Castellón). A la derecha, abajo, noticia recogida de la hemeroteca del diario “El País”.
inundación asociadas a este evento, se presenta en la figura
2 una simulación de los sucesos de inundación a lo largo del
mes de noviembre de 2001 en la playa de Chilches (Castellón). Como puede verse en dicha figura, la cota de inundación media (oleaje + marea meteorológica) se sitúa alrededor
de 0,5 a 1 m. Sin embargo, a lo largo del día 11 de noviembre se produjo la llegada del temporal (con alturas de
ola significante propagadas a pie de playa de entre 3 y 4 m
y una sobreelevación por marea meteorológica de 1 m). La
cota de inundación en la simulación realizada alcanzó los
4,5 m. Una imagen de lo acontecido en la playa de Lloret durante el mismo temporal puede ser observada en la figura 3.
A la vista de estos resultados se concluye que el fenómeno de inundación costera es un fenómeno en el cual es necesario tener en cuenta no solo el oleaje y la marea meteorológica de manera independiente sino que hay que modelar la
correlación entre ambos.
La marea astronómica es una oscilación del nivel del mar
de carácter determinista cuyo período de oscilación varía entre las 12 horas y los 19 años. La magnitud de la misma a lo
largo del litoral español es muy variable, con un máximo de
carrera de marea en Santander, donde se superan los cinco
metros, y un mínimo en Gerona, donde apenas si se alcanzan los 40 centímetros en las mareas vivas equinocciales.
Contrariamente a lo que pudiera parecer, la marea astronómica juega un papel de “laminación” de los eventos extraordinarios de inundación costera, puesto que la coincidencia de
un evento de oleaje y marea meteorológica extremos coincidiendo con una marea viva equinoccial tiene un período de
ocurrencia mayor. Lo habitual es que dichos eventos extremos
sucedan con mareas medias y, por tanto, se atenúen los efectos de la sobreelevación meteorológica.
70
I.T. N.O 74. 2006
Fig. 3. Imagen del temporal de 11 de noviembre de 2001 en la playa
de Lloret de Mar en la que se observa cómo el ascenso del oleaje en la playa
rebasa el paseo marítimo y penetra por las calles de la ciudad
(Foto cortesía de J. Jiménez).
Régimen de cota de inundación
De todo lo anterior se deduce que la inundación costera es un
fenómeno aleatorio fruto de la combinación de diferentes procesos de la dinámica marina. De una manera simplificada el
fenómeno de inundación costera puede ser representado de
acuerdo al esquema de la figura 4. En un instante determinado, un punto del litoral está caracterizado por un nivel de marea (NM) compuesto por la marea astronómica y la marea meteorológica (MA+MM) y una batimetría. Sobre dicho nivel de
marea se encuentra el oleaje que, en función de sus características y de la batimetría de la playa, se propaga hacia la costa.
Al alcanzar la costa, el oleaje rompe (en la playa, dique de escollera, paseo maritimo…), produciéndose un movimiento de
ascenso de la masa de agua a lo largo del perfil de la costa,
run-up (RU). Todos estos factores están relacionados entre sí.
Fig. 4. Esquema de la cota de inundación en un punto del litoral.
El método estadístico utilizado se basó en una simulación
temporal de las variables que intervienen en el proceso de inundación. Dicho método tiene la ventaja de que se modela temporalmente los procesos físicos tal y como ocurren en la naturaleza. Las funciones de distribución de las variables aleatorias,
la correlación entre las mismas y su distribución temporal se obtuvieron a partir de datos instrumentales disponibles en la Península (Datos de REDMAR y de REMRO del Departamento de
Clima Marítimo de Puertos del Estado y datos del Instituto Español de Oceanografía). El desarrollo detallado del método de
simulación, así como el tratamiento estadístico de los datos utilizados, se presentan en los “Documentos Temático y Complementario de Cota de Inundación” (GIOC, 1998). Se indican, a
continuación, las líneas básicas de la metodología aplicada.
Proceso de cálculo
Además de la interacción entre los elementos (oleaje-batimetría-nivel de marea-ascenso), el fenómeno de la inundación
presenta la complicación añadida de que algunos de los factores (oleaje, viento…) son variables aleatorias y, por tanto, su
presentación está sujeta a una determinada probabilidad.
Por consiguiente, la determinación de la cota de inundación es un problema estocástico de extremos. Una de las consecuencias de que sea un problema estocástico es que no
existe un “límite determinista al que llegan las olas durante el
peor temporal”, sino que cada nivel tendrá “una probabilidad
de ser sobrepasado en un temporal determinado”.
Los métodos existentes para estimar la distribución de la
cota de inundación en una determinada localización, usando
datos de campo, pueden dividirse en: (1) métodos directos,
en los que se analizan los extremos de los niveles de agua observados, y (2) métodos indirectos, en los que los factores
(marea astronómica, marea meteorológica y oleaje) se analizan por separado y el nivel extremo se deduce a partir de
ellos. Dentro de estos últimos, a su vez, puede distinguirse entre métodos indirectos teóricos, en los que los factores son
combinados de manera teórica a través de sus funciones de
distribución, y métodos indirectos de simulación. Dado que la
disponibilidad de datos medidos se circunscribe a un número
limitado de ubicaciones, son los métodos indirectos los únicos
realmente viables para estimar la cota de inundación a lo largo del litoral español.
Atlas de cota de inundación peninsular
español: metodología de cálculo
Debido a la importancia que tiene el conocimiento de la inundación del litoral, en 1999 la Dirección General de Costas,
adelantándose a lo que hoy en día es la propuesta de Directiva del Parlamento Europeo y del Consejo relativa a la evaluación y gestión de las inundaciones (SEC 2006-66) que establece la necesidad de que los países miembros realicen una
evaluación preliminar del riesgo de inundación en sus costas,
consideró necesario disponer de una herramienta que predijera, desde una óptica estadística, el nivel de marea (marea
astronómica + marea meteorológica) y la cota de inundación
en playas (nivel de marea + run-up).
El proceso general del cálculo del régimen de cota de inundación en un punto del litoral fue el siguiente:
1. Estudio de la dependencia estadística entre las variables involucradas.
2. Estudio de la dependencia temporal entre datos sucesivos
de una variable.
3. Obtención de las funciones de distribución de las diferentes variables.
4. Establecimiento de formulaciones para factores de los que no
hay información directa (por ejemplo, oleaje a pie de playa
en función de oleaje en boya, run-up en función de oleaje a
pie de playa).
5. Simulación temporal por medio de Monte Carlo.
6. Determinación de los regímenes de cota de inundación.
Para todas las zonas analizadas se determinó la cota de
inundación en dos supuestos diferentes, que se denominaron:
mar abierto (en el que se consideraba que los únicos factores
que generan variación del nivel del mar son la marea astronómica y la marea meteorológica; al nivel del mar obtenido
como suma de estos dos factores se le denomina nivel de marea), y playas (en el que se consideraba que el nivel del mar
está gobernado por la marea astronómica y meteorológica, así
como por el run-up del oleaje; al nivel del mar obtenido como
suma de estos tres factores se le denomina cota de inundación).
Simulación del nivel del mar en mar abierto (nivel de marea)
Para la realización de la simulación se consideró que la marea
astronómica es un fenómeno determinista que en un instante dado viene dada por una suma de componentes armónicas conocidas. Los datos de marea meteorológica, obtenidos a partir de
los residuos de las series medidas por los mareógrafos, fueron
analizados estadísticamente. Para cada serie de datos se analizó su dependencia con la serie de marea astronómica y la distribución teórica de mejor ajuste. En todos los casos analizados
los datos de marea astronómica y marea meteorológica mostraron ser independientes desde el punto de vista estadístico, encontrándose como mejor ajuste de las series de marea meteorológica la función de Gumbel de máximos. En concreto, todas las
series fueron ajustadas con dos funciones de Gumbel, una para
los valores medios y otra para los extremales, GIOC (1998).
I.T. N.o 74. 2006
71
Simulación del nivel del mar en playas (cota de inundación)
La determinación del régimen de niveles de mar en una playa
requiere el conocimiento de la distribución del run-up debido
al oleaje. Dado que, en general, no existen datos medidos de
dicha variable, la estima de dicho fenómeno se realizó a partir de la formulación de Nielsen y Hanslow (1991). Esta formulación exige el conocimiento de la altura de ola significante y el período de pico del oleaje a pie de playa, así como el
talud medio de la zona de ascenso descenso de la misma.
Con objeto de confeccionar un Atlas de Inundación válido
para todas las playas abiertas, se procedió a realizar varias
simplificaciones en la determinación del oleaje a pie de playa
en cualquier punto del litoral peninsular (batimetría recta y paralela para distintas orientaciones significativas de las playas).
Al igual que en el caso de mar abierto, el método de simulación se inició con la realización de un test de independencia de las variables involucradas: marea astronómica,
marea meteorológica, altura de ola significante, período de
pico. Los resultados obtenidos señalan que:
• La marea astronómica es independiente del resto de las
variables. En algunos casos se ha encontrado una cierta
correlación con la altura de ola significante, si bien dicha
correlación no es significativa estadísticamente.
• Existe una dependencia, en la mayor parte de las series analizadas, entre la marea meteorológica y el estado de mar (HS).
• Existe una dependencia entre las series de alturas de ola
significante y las series de período de pico.
• Existe una dependencia entre datos consecutivos de marea
meteorológica y datos consecutivos de oleaje.
El proceso de simulación consistió en la generación numérica de niveles de mar en la playa (cota de inundación) como suma del nivel de la marea astronómica más el nivel producido por la marea meteorológica más el nivel generado por
el run-up del oleaje (Fig. 5): SCI(t) = SMA(t) + SMM(t)+RU(t).
Atlas de cota de inundación
peninsular español: resultados
Con base en la metodología anteriormente descrita se confeccionaron una serie de gráficos en los que se presentan los
regímenes de niveles en mar abierto y playas del litoral peninsular español. Esta información, que en la presente sección
se presenta de modo resumido, se encuentra disponible en la
dirección: http://www.smc.unican.es/ES/doc_tem_atlas.htm
Zonificación del litoral
A efectos de caracterización del régimen de niveles del litoral
se estableció una zonificación del mismo en “áreas homogéneas” de acuerdo con sus características de oleaje, marea astronómica y marea meteorológica, configuración de la costa
y emplazamiento de las fuentes de información disponible. En
el análisis efectuado se asume que el régimen de inundación
dentro de un “área homogénea” es idéntico en todos los puntos del litoral de dicha zona. Esta zonificación, necesaria por
las limitaciones de información disponible, puede dar lugar a
saltos bruscos del régimen de inundación entre zonas limítrofes, por lo que se llama la atención al lector a ese respecto.
• Zonificación debido al oleaje: en lo que se refiere a la zonificación del litoral debido al oleaje se ha aceptado la
zonificación establecida en la ROM 03.91, que se detalla
en la figura 6.
• Zonificación debido a la marea astronómica: en función de
la información existente y de la configuración de la costa
se ha establecido la zonificación por efecto de la marea astronómica recogida en la figura 7.
• Zonificación debido a la marea meteorológica: en función
de la información existente se ha establecido la zonificación de la marea meteorológica recogida en la figura 8.
• Zonificación del litoral: como resultado de la zonificación
de las diferentes variables involucradas en el litoral peninsular, queda dividido en doce zonas homogéneas. Dado
que el oleaje es, en general, el fenómeno más relevante en
la generación del nivel de inundación de una playa, la nomenclatura elegida en la zonificación del litoral del presente documento ha sido la siguiente:
Se utiliza la nomenclatura de “Área”, para designar las zonas de oleaje homogéneo. Estas Áreas coinciden con las utilizadas en la ROM 03-91.
Dentro de cada Área, se establecen unas “sub-zonas” que
recogen franjas del litoral con características de marea diferenciadas. La nomenclatura de las sub-zonas queda definida
por una letra: (a, b, c…).
En la figura 9 se detallan las diferentes Áreas y sub-zonas
consideradas.
Características de los resultados
Nivel de referencia
Fig. 5. Esquema del proceso de simulación.
72
I.T. N.O 74. 2006
Con objeto de utilizar una única referencia para todas las zonas, todos los resultados de nivel de mar se han referenciado
al nivel medio del mar en Alicante, NMMA. No obstante, y dado que en los trabajos de ingeniería marítima suele ser usual
utilizar otras referencias, como el cero del puerto, en el Atlas
Fig. 6. Zonificación del litoral español por consideraciones de oleaje.
Fig. 7. Zonificación del litoral español por consideraciones
de marea astronómica.
Fig. 8. Zonificación del litoral español por consideraciones
de marea meteorológica.
Fig. 9. Zonificación del litoral español a efectos de inundación costera.
de cota de inundación se presenta un pequeño croquis, tomado de la información facilitada por Puertos del Estado, en el
que se señala la posición relativa de las diferentes referencias.
En la figura 10 (página siguiente) se muestra la hoja 1c del
Atlas, correspondiente a la zona de Asturias. Como puede observarse, la información de marea astronómica se obtuvo del
mareógrafo de Gijón, la marea meteorológica del mareógrafo de Santander y el régimen de oleaje de la boya de Gijón.
Nivel del mar en mar abierto (nivel de marea)
• Régimen medio de nivel de marea. Se ha elegido presentar
los resultados en doble formato: función de distribución (probabilidad acumulada) y número de horas al año que se supera una cota dada. La relación entre ambos se establece de
la siguiente manera N = 8760 (1-F), donde N es el número
de horas al año que se supera la cota dada y F es la probabilidad acumulada.
• Régimen extremal de nivel de marea. Se ha elegido presentar los resultados en papel probabilístico Gumbel de
máximos y en una doble escala: probabilidad acumulada
y período de retorno. La relación entre ambas escalas es
R = 1/(1-F), donde R es el período de retorno (años) y F
es la probabilidad acumulada. Igualmente, se han obtenido las bandas de confianza del 90 %.
Nivel del mar en playas (cota de inundación)
Para cada Área del Atlas se han establecido las diferentes
“direcciones significativas”, con intervalos de 22,5°, que son
posibles en dicha área. Cada dirección u orientación significativa refleja la normal a las curvas batimétricas de una playa. De este modo, en cada área del Atlas es posible evaluar
la cota de inundación en playas con diferente orientación.
Tendencias a largo plazo
del régimen de cota de inundación
Como ya se ha comentado con anterioridad, la inundación
costera presenta ciclos de variabilidad de muy largo plazo
asociados a los ciclos climáticos de variación de las diferentes variables que dan lugar a dicha inundación. Es importante señalar que no solo la variación del nivel medio del mar es
relevante a efectos de tendencias en el régimen de inundación, sino también la variación que el cambio climático está
teniendo en el número de temporales, la intensidad de los
temporales y características de los mismos (trayectoria de las
borrascas, velocidad de movimiento de las borrascas…).
Recientemente, la Oficina Española de Cambio Climático
ha llevado a cabo un conjunto de trabajos destinados a evaluar los impactos en la costa por efecto del cambio climático. En dicho trabajo, y con base en los datos medidos en los
diferentes bancos de datos oceanográficos y atmosféricos
existentes en España, se analizaron las tendencias de los diferentes forzamientos que dan lugar a la inundación costera. A partir de dichos resultados se pueden extraer las siguientes conclusiones:
I.T. N.o 74. 2006
73
Fig. 10. Hoja 1c del Atlas de cota de inundación del litoral peninsular español, correspondiente a la zona de Asturias.
Nivel medio del mar en el litoral español
A nivel global se puede estimar que la tendencia actual de variación del nivel medio del mar en el litoral español es de
2,5 mm/año, por lo que extrapolando al año 2050 se tendría
un ascenso del nivel medio de +0,125 metros. Esta información
ha sido complementada con los modelos globales contemplados
por el Panel Intergubernamental de Cambio Climático (IPCC) en
su tercer informe, que establecen una variación del nivel del mar
comprendida entre 9 y 88 centímetros en el intervalo correspondiente a 1990-2100. En el trabajo realizado por la Oficina
Española de Cambio Climático, el valor medio de los escenarios presentados oscila en torno de +0,15 metros, con una banda de confianza entre +0,1 y +0,25 metros. Con base en estos
resultados, se asume en el año horizonte 2050 un ascenso del
nivel del mar de +0,2 metros en el litoral español.
Costa Cantábrica
Se observa un aumento de la energía del oleaje que llega a
la Costa Cantábrica. Este aumento es mayor para la rama alta de régimen medio (HS12); sin embargo, la magnitud del incremento es menor para los sucesos más extremales (HT50).
Este comportamiento produce una leve tendencia positiva en
las duraciones de excedencia de alturas de ola. La dirección
predominante del oleaje tiende a ser más del Oeste, con mayor intensidad en la costa occidental. Las tendencias que se
obtienen para las variables de viento y marea meteorológica,
tanto de régimen medio como extremal, son negativas (re74
I.T. N.O 74. 2006
ducción), exceptuando el viento extremal en la costa Oeste de
Asturias, donde se produce un incremento. Aun así, estas últimas variaciones son mínimas.
Galicia
En la costa Gallega se observa una zonación importante en
la magnitud de las variables de estudio y sus tendencias marcadas por el cabo Finisterre, lo que genera un clima marítimo
más suave en las Rías Bajas. La energía del oleaje tiende a
aumentar, especialmente para los eventos extremales, entre
Estaca de Bares y Finisterre.
Costa Mediterránea
No se aprecian cambios relevantes en la magnitud de la energía del oleaje, aunque sí destacables peculiaridades en cabo
de la Nao, debidas a su situación geográfica, y en la Costa
Brava, dada su cercanía al golfo de León. Las duraciones de
excedencia de altura de ola estimadas tienden a aumentar ligeramente a lo largo de la costa, lo que implica un aumento
en la duración de las inundaciones costeras. En la Costa Brava, donde se detectan tendencias con un comportamiento similar al noreste balear, se observa una disminución energética del oleaje medio. Respecto a la dirección predominante
del oleaje, se han producido variaciones en las islas Baleares
y en la Costa Brava se ha detectado una tendencia de giro
horario en los oleajes, de forma que la dirección predominante tiende a ser más oriental.
El régimen medio del viento y marea meteorológica presenta una tendencia negativa (reducción), pero de muy pequeña escala. Es importante destacar la gran significancia estadística que aportan los resultados de tendencia negativa de
marea meteorológica en el Mediterráneo, Baleares y costa noroeste gallega, a pesar de ser sus variaciones muy pequeñas.
Golfo de Cádiz
El golfo de Cádiz presenta una tendencia negativa muy clara en
energía del oleaje para todas las variables de oleaje estudiadas,
lo que confirma la tendencia a un clima marítimo más suave.
Canarias
Se detecta una zonación Norte-Sur clara en la tendencia de
cambio de los temporales. Este hecho se explica dada la distinta naturaleza de generación de oleaje en el norte (oleajes
generados en el Atlántico Norte con un “fetch” de generación
muy extenso), respecto al sur (oleajes generados en un área
más próxima al archipiélago). Los resultados de variación a
largo plazo indican que se ha producido un incremento de los
temporales en el norte y una tendencia a la disminución energética y giro horario de las direcciones del oleaje en el sur.
Efectos de las tendencias a largo plazo
del régimen de cota de inundación
Las variaciones en el régimen de oleaje, marea meteorológica y nivel medio del mar descritas en el estudio realizado por
la Oficina Española de Cambio Climático conllevarán importantes efectos en la inundación costera, tanto en lo que se refiere a las playas como en lo que se refiere a las estructuras
de defensa portuarias. En concreto:
Efectos en playas
Los efectos más importantes que el cambio climático puede
suponer en las playas se manifestarán básicamente en la variación en la cota de inundación y en el retroceso, o en su caso avance, de la línea de costa.
En el caso de la cota de inundación, este parámetro viene determinado por la probabilidad conjunta de la marea
astronómica, de la marea meteorológica, del run-up en la
playa y del aumento del nivel medio del mar. De los valores
obtenidos para todas estas variables se obtiene un aumento
total de la cota de inundación, que es inducida principalmente por el aumento del nivel medio del mar. No obstante,
en la cornisa gallega y en la zona norte de las islas Canarias, el aumento es mayor que en el resto del litoral, ya que
en estas zonas se produce un aumento significativo de la altura de ola significante con un período de retorno de 50
años. Por otro lado, la variación de la marea meteorológica
a lo largo de todo el litoral contrarresta parcialmente el aumento de la cota de inundación producido por variación del
nivel medio y de la altura de ola significante. Como dato representativo, y con un horizonte de 50 años, en el Mediterráneo se obtiene un aumento de aproximadamente 20 centímetros, mientras que en la costa gallega y en las islas Canarias puede alcanzar valores de 35 centímetros.
Otro efecto que tendrá lugar en las playas es el retroceso
de la línea de costa, que traerá parejo un aumento de la inundación costera. Este retroceso estará inducido por un aumento en el nivel medio, que hace que el perfil activo de la playa
tenga que ascender para llegar al equilibrio dinámico con esta nueva condición de nivel medio. Para ello, es necesario cubrir el déficit de arena que se produce en el perfil activo y esto se hará a expensas de la arena de la playa seca y de la berma, produciendo un retroceso de la línea de pleamar. Las playas más susceptibles al aumento del nivel medio del mar son
las que se sitúan en la cornisa atlántica del litoral español, así
como las situadas en las islas Baleares, obteniéndose en estas
zonas retrocesos del orden de 16 metros. En la zona del Mediterráneo el retroceso será menor, ya que la extensión del perfil activo de las playas es menor.
Otro parámetro que puede contribuir a un retroceso adicional de las playas es la variación en la dirección del flujo
medio de energía. Dicho retroceso es altamente dependiente
del tipo de playa que se considere, así como de la propagación que el oleaje sufra desde profundidades indefinidas hasta la playa en concreto. Las playas más susceptibles a este tipo de retroceso corresponden a la zona norte del Mediterráneo, sobre todo las de la Costa Brava, siendo de especial relevancia el efecto en las islas Baleares y también en sur de las
islas Canarias. En estas zonas el retroceso puede alcanzar
hasta 40-50 metros, ya que la variación de la dirección flujo
medio de energía supera en ocasiones los 8°. En el resto del
litoral este hecho tampoco puede ser depreciado, observándose valores del retroceso del orden de 20 metros.
Efectos en las obras maritimas
Con respecto a los posibles efectos en obras marítimas, los
cambios de largo plazo debidos al cambio climático pueden
suponer importantes cambios en el rebase de las obras, tanto
en estructuras en talud como en estructuras verticales. Si, por
ejemplo, se considera una estructura vertical impermeable sin
botaolas tipo, caracterizado por un francobordo de un metro,
suponiendo el escenario de cambio climático estimado en el
apartado anterior, se puede comprobar que el rebase en este
tipo de estructuras sufrirá importantes modificaciones con respecto a los valores actuales y que estas variaciones adimensionales serán más notables en la zona del Mediterráneo, sobre todo en la zona comprendida entre Málaga y Algeciras,
donde se pueden alcanzar variaciones hasta del 250 % con
respecto a los rebases actuales (en este tipo de estructuras). ■
Raúl Medina y Fernando J. Méndez
Doctores Ingenieros de Caminos, Canales y Puertos
Grupo de Ingeniería Oceanográfica y de Costas
E.T.S. de Ingenieros de Caminos, C. y P., Universidad de Cantabria
Bibliografía
– G.I.O.C., Grupo de Ingeniería Oceanográfica y de Costas (1998), Documentos Temático y Complementario de cota de inundación, Universidad de Cantabria.
http://www.smc.unican.es/ES/doc_tem_atlas.htm
– Nielsen, P. and D. J. Hanslow (1991), “Wave run-up distributions on natural beaches”, Journal of Coastal Research, Vol. 7, Nº 4, pp. 1139-1152.
I.T. N.o 74. 2006
75
Tsunamis
Íñigo J. Losada Rodríguez
DESCRIPTORES
TSUNAMIS
INUNDACIÓN
RIESGOS EN LA COSTA
Los tsunamis como mecanismo
generador de catástrofes naturales
El fenómeno que conocemos como tsunami es un conjunto de
olas de longitud de onda extremadamente grande y largo período y cuyo origen es cualquier tipo de perturbación que se
produzca en el océano. A diferencia de las olas generadas
por el viento que estamos acostumbrados a ver en la playa,
con longitudes de onda de centenares de metros y períodos
de hasta 30 segundos, los tsunamis tienen períodos de entre
10 minutos y 2 horas y longitudes de onda de centenares de
kilómetros. Estas ondas tan largas tienen, además, como característica fundamental la capacidad de hacer penetrar el
movimiento prácticamente en toda la columna de agua.
La causa más frecuente de generación de tsunamis se encuentra en los terremotos, ya tengan su origen en el fondo
marino o en la costa. Sin embargo, puede haber otros mecanismos de generación: deslizamientos submarinos, erupciones volcánicas o explosiones nucleares en zonas costeras, y
cualquier otra circunstancia, como la caída de un meteorito o
asteroide, que pueda producir el desplazamiento de un gran
volumen de agua en un intervalo muy corto de tiempo.
Como ejemplo, baste citar que el reciente tsunami de Indonesia se produjo por un desplazamiento vertical medio de
11 metros de la falla causante del sismo. Dicho desplazamiento cubrió una longitud de unos 1.200 kilómetros y 200
kilómetros de anchura, lo que puso en movimiento un volumen brutal de agua.
Otra característica muy importante a tener en cuenta es la
grandísima velocidad de desplazamiento que logran alcanzar,
que condiciona enormemente, como veremos más adelante,
cualquier sistema de alerta frente a los mismos. Su velocidad
de propagación o celeridad, C, depende únicamente de la ace76
I.T. N.O 74. 2006
leración de la gravedad y de la profundidad, mediante la expresión C = (gh)1/2, por lo que, por ejemplo, a 5.000 metros
de profundidad alcanzan velocidades de hasta 800 km/h. Esto explica que el tsunami citado cruzara el océano Índico desde Indonesia hasta Somalia en aproximadamente siete horas,
o que un gran tsunami generado en Canarias pueda alcanzar
la costa Este de Estados Unidos.
Sin embargo, existen dos factores adicionales que son los
que realmente explican su increíble capacidad destructiva.
En la zona de generación la amplitud es muy pequeña
comparada con la longitud de onda, del orden de un metro o
inferior. Dado que además la energía se dispersa en un dominio mayor a medida que se aleja de la zona de generación, la
amplitud se reduce aún más, generando una pequeña sobreelevación del nivel del mar en intervalos de tiempo de entre diez
minutos y dos horas, lo que hace que los tsunamis sean prácticamente imperceptibles para barcos en mar abierto o para
medios de observación aéreos. Dado que la tasa a la que estas ondas pierden la energía que inicialmente se les ha transmitido en el proceso de generación es inversamente proporcional a la longitud de onda, se propagan a gran velocidad
por el océano sin perder prácticamente energía. Sin embargo,
una vez que el tsunami se acerca a la costa, la presencia del
fondo induce un fenómeno conocido como asomeramiento que
lleva asociada una reducción de la celeridad de propagación.
Dado que la disipación sigue siendo muy reducida, la conservación del flujo de energía (proporcional a H2 · (gh)1/2 ) asociada al tsunami solo puede cumplirse a expensas de aumentar su altura, H. Esto, conjuntamente con otros procesos de
propagación inducidos por la geomorfología de la zona, da
lugar a que aquella pequeña amplitud (del orden de centímetros) en el océano pase a convertirse en varios metros, supe-
rando en algunos casos los 20 metros. En la zona de la costa
se suele evaluar la máxima sobreelevación vertical con respecto al nivel medio. En relación con el tsunami mencionado,
en la costa de Sri Lanka, que fue alcanzada a las dos horas de
su generación, se pudieron observar alturas de entre cuatro y
12 metros dependiendo de la localización.
El segundo factor, además del considerable aumento de la
altura, es el efecto final en la costa. Al llegar a la playa el comportamiento del tsunami difiere sustancialmente del que estamos acostumbrados a observar en el oleaje de viento habitual
en nuestras playas, con movimientos orbitales de sus partículas, que, describiendo trayectorias circulares semicerradas,
dan lugar a la rotura con alta disipación energética y a un
proceso de ascenso-descenso sobre el talud sin causar inundación. Los tsunamis, sin embargo, que se caracterizan porque las trayectorias de sus partículas son rectilíneas en dirección hacia la costa, forman en rotura un gran frente vertical,
llamado “bore”, con altísima capacidad de penetración y disipación progresiva en su avance, originando un potencial catastrófico de inundación solo condicionado por la orografía
de la zona y los posibles obstáculos que se encuentren en el
área inundable. Por ejemplo, las alturas de sobreelevación anteriormente citadas en Sri Lanka han producido inundaciones
que han alcanzado entre 100 y 800 metros tierra adentro.
Es, sin duda, la destrucción causada por el proceso de
inundación y por la retirada de las aguas el elemento originario de las catástrofes asociadas a los tsunamis.
Riesgo de catástrofe debido
a tsunamis en el litoral español
En general, tendemos a asociar “riesgo de catástrofe” con
la probabilidad de que suceda una catástrofe. Sin embargo, la
probabilidad o frecuencia de ocurrencia de dicha catástrofe
solo es uno de los elementos que es necesario tener en cuenta a la hora de realizar una correcta evaluación del riesgo.
En este sentido, podríamos pensar que el riesgo de catástrofe debido a tsunami en el litoral español, generalmente llamado peligrosidad, es muy pequeño, dado que prácticamente no tenemos memoria histórica de este tipo de eventos.
Sin embargo, la correcta evaluación del riesgo implica tener
en cuenta no solo la probabilidad de ocurrencia o frecuencia. Es necesario añadir la intensidad o magnitud del tsunami en la costa, la vulnerabilidad de la zona expuesta y, finalmente, el valor económico y social de la zona potencialmente afectada. Muchas veces la peligrosidad y la magnitud
van unidas y el valor económico y social se integra en el concepto de vulnerabilidad, pero lo que es necesario tener en
cuenta es que el concepto de riesgo resulta de la integración
de estos diferentes elementos.
Aunque en España la peligrosidad de tsunami no es elevada, existen amplias zonas del litoral donde, sin embargo,
la magnitud del tsunami en la costa, la vulnerabilidad o el
valor socio-económico hacen que el riesgo sea muy elevado.
En 1996, el Instituto Geográfico Nacional cuantificó de forma conjunta la vulnerabilidad y el valor económico y social
asociado a un tsunami equivalente al que se produjo en Lis-
boa en 1755, que, como es conocido, afectó a las costas de
Huelva, por entonces prácticamente despobladas. El resultado del estudio arrojó las siguientes pérdidas económicas en
millones de euros: Industria, 2.000; comercio, 87; vehículos
a motor, 5. Además, se cuantificó en 113.000 y 35.000 el
número de personas y viviendas afectadas respectivamente y
en 23.000 hectáreas el área inundada total, de las que 427
hectáreas corresponden a áreas de comercio e industria,
147 hectáreas a la Autoridad Portuaria de Huelva y 7.000
hectáreas a áreas de alto valor ecológico. Si tenemos en
cuenta el inmenso desarrollo turístico que ha tenido lugar durante esta última década en las zonas del sur de Huelva, es
evidente que el riesgo hoy en día sería todavía mayor.
Pero, ¿cuál es el origen de la peligrosidad de tsunamis en
nuestro litoral? La institución que ha llevado a cabo la más
amplia labor en el establecimiento de la peligrosidad de tsunamis en la costa española ha sido el Instituto Geográfico Nacional (IGN). De su trabajo se deriva que existen dos áreas
tsunamigénicas fundamentales.
La primera está localizada en la zona atlántica, más concretamente en la fractura Azores-Gibraltar en dirección a la
Península Ibérica, en especial la parte suroeste del cabo San
Vicente, y en la zona suroeste de la interacción entre las placas Nubia y Eurasia, al norte del banco de Gorridge, origen
del tsunami de Lisboa.
En estas zonas se han generado grandes terremotos que
han dado lugar a tsunamis con relativa baja frecuencia y consecuencias desastrosas. El IGN ha elaborado un importante
catálogo recopilando tsunamis históricos desde el año 40 a.C.
y en él se registran, entre otros, grandes tsunamis en 1531,
1722 y el famoso tsunami de Lisboa de 1755.
Cualquiera de los tsunamis generados en estas zonas
afecta fundamentalmente a la costa sur-occidental española.
Respecto a la frecuencia de ocurrencia, el IGN ha hecho una
evaluación aproximada, concluyendo que en el área Atlántica se producen unos ocho tsunamis cada 450 años.
La segunda área de peligrosidad se localiza en la cuenca
mediterránea (Fig. 1). Más concretamente en el norte de África, donde existe una zona de elevada actividad que puede
Fig. 1. Localización de las fallas tsunamigénicas más importantes en el litoral
mediterráneo. Fuente: Terremotos y la peligrosidad de tsunamis en España.
I.T. N.o 74. 2006
77
dar lugar a tsunamis de origen cercano, que afectan a las
costas de levante e islas Baleares, y una segunda zona, en el
Mar de Alborán, de moderada actividad pero con un potencial de afección a las mismas costas de mayor probabilidad
que los tsunamis de origen lejano detectados en el Atlántico.
El más reciente tuvo lugar en mayo de 2003, cuando un tsunami generado en Argelia afectó a varios puertos de la costa
Balear, produciendo el hundimiento de varias embarcaciones
y el cese de la actividad portuaria. Estos tsunamis del Mediterráneo español son de mucha más baja intensidad que los del
Atlántico y el IGN ha estimado que su frecuencia media de
ocurrencia es de aproximadamente un tsunami cada 25 años.
Finalmente, es necesario hacer constar que existen otras
fuentes de generación de tsunamis asociadas a deslizamientos costeros causados por los propios terremotos, como es el
caso de las costas Argelinas, o a grandes deslizamientos submarinos. Sin duda alguna, son por todos conocidas las hipótesis aparecidas recientemente en la prensa sobre posibles
mega-tsunamis debidos a grandes deslizamientos submarinos
en el Atlántico o a deslizamientos de laderas de volcanes en
las islas Canarias, consecuencia de erupciones volcánicas.
Aunque existe una potencial peligrosidad asociada, las especiales circunstancias que deben confluir para que se produzca este tipo de evento geológico han llevado al IGN a no considerar los mismos dentro de una evaluación sistemática del
riesgo de tsunamis en nuestro litoral.
Finalmente, es necesario decir que la magnitud o intensidad del tsunami en la costa depende fundamentalmente del
resultado de la propagación del tsunami. Así, por ejemplo,
durante el tsunami de Indonesia, en un mismo tramo de la
costa de Sri Lanka de unos 200 kilómetros de longitud se evaluaron alturas de ola del tsunami desde cuatro a 11 metros,
producto de la concentración de la energía en algunos puntos con respecto a otros cercanos.
La intensidad de un tsunami en la costa, prácticamente solo puede ser determinada mediante simulación numérica. Hoy
en día los modelos numéricos de última generación incluyen
el proceso de generación a partir de seísmos o deslizamientos, la propagación del tsunami en el océano (introduciendo
todos los fenómenos de transformación asociados y principalmente el efecto de la batimetría) y la interacción del tsunami con la morfología costera. Los modelos son muy útiles
para realizar retro-análisis del proceso de generación, propagación y efectos de un tsunami en una zona concreta del
litoral, mediante la comparación con registros instrumentales,
como mareógrafos u otro tipo de observaciones. Asimismo,
resultan, también, muy importantes para definir con precisión
los mecanismos y zonas de generación de eventos históricos
de los que solo se dispone de información sobre los efectos.
Sin embargo, como veremos más adelante, el mayor potencial de los modelos numéricos reside en su utilización como
elementos esenciales de los sistemas de alerta frente a tsunamis.
En España existen algunos grupos con actividad en el modelado numérico de tsunamis. El trabajo más detallado en este campo se ha realizado por el Grupo de Ingeniería Oceanográfica y de Costas (GIOC) de la Universidad de Cantabria en
78
I.T. N.O 74. 2006
Fig, 2. Simulación numérica de la propagación del tsunami
de Argelia (mayo de 2003). Fuente: Grupo de Ingeniería Oceanográfica
y de Costas, Universidad de Cantabria.
sendos proyectos para el Ministerio de Medio Ambiente y la
CICYT, en los que se desarrolló un sistema de modelado de generación, propagación y exposición del litoral del Mar de Alborán para tsunamis producidos en la zona mediterránea.
Asimismo, y después del reciente tsunami de Argelia, el
GIOC realizó un retro-análisis de dicho evento, tal y como se
muestra en la figura 2, estableciendo el origen, zonas afectadas y tiempos de arribo. El modelado se validó con las observaciones instrumentales realizadas por la red de mareógrafos de Puertos del Estado.
Daños producidos por los tsunamis
Además de las pérdidas de vidas humanas, es típica de los
tsunamis la producción de los siguientes daños materiales:
destrucción de infraestructuras y edificaciones bien por arrastre directo, socavación o impacto de flotantes (coches, árboles, etc.); salinización de depósitos o acuíferos; destrucción de
sistemas de abastecimiento y saneamiento de agua y de producción y distribución de energía; erosión de la zona costera; destrucción de ecosistemas, etc. (Figs. 3 y 4).
Estrategias frente a potenciales riesgos
de catástrofe producida por tsunamis
Teniendo en cuenta la imposibilidad de actuar sobre el foco
fundamental conducente al desastre natural producido por un
tsunami y, por tanto, sobre su peligrosidad, parece evidente
que solo es posible poner en marcha estrategias encaminadas
hacia la reducción de la vulnerabilidad de las zonas susceptibles de ser afectadas. En este sentido las estrategias posibles
se reducen a: (1) Implantación de sistemas de alerta frente a
tsunamis; (2) protección y (3) adaptación.
Implantación de sistemas de alerta frente a tsunamis
Aquellos países del mundo avanzado en los que la peligrosidad de tsunamis es alta, principalmente Japón y Estados Unidos en el Pacífico, cuentan en la actualidad con sistemas operativos de alerta frente a tsunamis de ámbito regional. Existen
algunos otros en la Polinesia francesa, Rusia, Corea, etc. Por
Fig. 3. Socavación producida por el tsunami de Asia en una casa
en la costa de Sri Lanka. Fuente: Philip L.-F. Liu.
Fig. 4. Daños producidos por el tsunami de Asia en una infraestructura viaria
en la costa de Sri Lanka. Fuente: Philip L.-F. Liu.
otro lado, para el Pacífico se encuentra un centro gestionado
por la NOAA (National Oceanic and Atmospheric Administration) que suministra información para la mayor parte de
los países de su cuenca. La diferencia esencial entre los primeros y este último es que los sistemas regionales proporcionan alertas aproximadamente a los 10 minutos, mientras que
el sistema del Pacífico lo hace a la hora de haberse producido el sismo. Debe tenerse en cuenta que, dada la velocidad
de propagación del tsunami, la rapidez con la que se genera
la alerta es fundamental, pues es la que condiciona todo el
proceso de evacuación o preparación frente al impacto del
tsunami. Evidentemente, el otro factor limitante es la distancia
de la zona potencialmente afectada al origen del tsunami.
En general, cualquiera de estos sistemas cuenta con cuatro elementos fundamentales: una red sísmica, un sistema de
observación oceanográfica, una base de datos de simulaciones numéricas y un sistema de alerta. Cualquier nuevo sistema que quiera implantarse debe contar con estos elementos.
En primer lugar, es necesario contar con una red sísmica
dimensionada adecuadamente para poder evaluar en tiempos relativamente cortos la localización del sismo y la posibilidad de que un determinado evento sísmico pueda dar lugar
o no a un tsunami. Este es uno de los elementos fundamentales pues es donde se encuentra el cuello de botella en los tiempos de respuesta frente a tsunamis. En España la red más importante es gestionada por el IGN, que lleva trabajando mucho tiempo en el análisis de datos sísmicos para evaluar la
posible presentación de eventos tsunamigénicos. En este sentido es necesario recalcar que no todos los eventos sísmicos
tienen la capacidad de generar un tsunami, y precisamente
en la determinación de dicha capacidad es donde reside la
mayor fuente de error a la hora de emitir alertas.
Esta es la razón principal por la que el segundo elemento
con el que debería contar el sistema de alerta es un sistema de
observación oceanográfico, con el objeto de ratificar si realmente se ha producido o no el tsunami.
La observación de un tsunami representa una enorme dificultad, sobre todo cuando éste se encuentra a grandes profundidades. Aunque recientemente se han hecho algunos
avances en el retro-análisis de la detección de tsunamis mediante observaciones desde satélites, la confirmación de posibles alertas emitidas a partir de la información obtenida en
las redes sísmicas es solamente viable mediante la instalación
de sensores en alta mar.
I.T. N.o 74. 2006
79
La figura 5 muestra un esquema del sistema DART. Este sistema de observación, compuesto por un sensor de presión en
el fondo, que detecta el paso del tsunami, y una boya receptora y emisora, es el equipo más comúnmente empleado en el sistema de alerta del Pacífico. La gran profundidad a la que pueden instalarse estos equipos permite tener el tiempo suficiente
para tomar medidas de evacuación en muchos de los países
potencialmente en riesgo frente a un tsunami en el Pacífico.
En la actualidad, España carece de este tipo de equipos,
que serían especialmente útiles para la prevención de tsunamis
en la zona Atlántica. Sí tiene, sin embargo, una importante red
de mareógrafos en toda su costa, que también podrían se útiles
para registrar el paso de un tsunami. Evidentemente, al tratarse
de una red costera, los tiempos de respuesta se reducirían drásticamente, siendo solo útiles para aquellas zonas alejadas de los
mareógrafos. De entre las redes existentes, la de Puertos del Estado podría jugar un papel muy relevante por su capacidad de
transmitir los datos registrados prácticamente en tiempo real.
El tercer elemento necesario para la red de alerta sería una
extensa base de datos generada mediante modelos numéricos.
Esta base de datos incluiría un gran número de eventos posibles, definidos una vez determinadas las potenciales fuentes de
generación de tsunamis y los mecanismos de generación correspondientes, y permitiría obtener la localización de las zonas con más probabilidad de ser afectadas, los tiempos de arribo, mapas de sobreelevación, mapas de inundación, etc. Este
tercer elemento es hoy por hoy necesario, dado que al no ser
posible ejecutar los modelos en tiempo real, se demoraría considerablemente la capacidad de respuesta frente al tsunami.
Fig. 5. Componentes de un sistema de alerta frente a tsunamis. Los sensores
de presión instalados en el fondo, a unos 5.000 metros de profundidad, registran el paso del tsunami. La información recogida en los sensores es transmitida por telemetría acústica a la boya en superficie, que a su vez la transmite a
un satélite. Fuente: National Oceanic and Atmospheric Administration (NOAA).
80
I.T. N.O 74. 2006
A partir de la información generada de los datos de la red
sísmica, mediante los que se establece la posición de la zona
de generación y el tensor momento sísmico, con el que se
puede evaluar la magnitud aproximada del tsunami, se accede a esta base de datos numéricos, de donde se puede obtener de manera rápida las posibles zonas que pueden sufrir el
impacto del tsunami y los potenciales tiempos de arribo.
La red sísmica, la base de datos numéricos y el sistema de
observación oceanográfico deben estar integrados dentro de un
sistema de comunicación altamente eficiente y seguro que, una
vez detectado el tsunami en el sistema de observación, permita
enviar toda la información requerida al último eslabón de la cadena, al sistema de transmisión de la alerta. Éste debe contar
con la infraestructura y protocolos necesarios para garantizar
que protección civil o quien corresponda tome las medidas necesarias de evacuación, protección, etc. que se hayan especificado en un plan de contingencia al efecto.
En la actualidad, España cuenta con bastantes de los elementos citados y la tecnología necesaria para abordar la puesta en marcha de un sistema de alerta frente a tsunamis. Sin embargo, todavía es necesario realizar un trabajo adicional muy
importante hasta su completa y satisfactoria implementación.
Protección
La segunda posibilidad para reducir el riesgo frente a tsunamis es la introducción de medidas de protección, entendiendo como tales estructuras o elementos que contribuyan a disminuir la posible incidencia de un tsunami. Evidentemente, el
hecho de que los tsunamis, aun tratándose de tsunamis relativamente cercanos, actúen sobre una gran longitud de costa,
descarta realizar actuaciones encaminadas a la construcción
de grandes longitudes de diques que “blinden” la costa. Es
decir, la construcción de este tipo de estructuras, muy utilizadas especialmente en Japón, es solo aplicable a zonas de alta vulnerabilidad, especialmente en puertos o zonas urbanas.
Sin embargo, la experiencia del tsunami de Indonesia ha
puesto una vez más de manifiesto que existen “estructuras naturales”, como playas, dunas, manglares, campos coralinos o
arboledas que ayudan considerablemente a mitigar los efectos del tsunami. Parece, por tanto, razonable que la protección más adecuada es aquella basada en la preservación de
los elementos naturales que permiten mitigar los efectos de los
tsunamis conjuntamente con estructuras fijas o móviles (diques
verticales y de escollera, barreras móviles, etc.) que sirvan
para dar cobertura a las zonas de mayor vulnerabilidad.
Para algunas zonas de Sri Lanka se está proyectando un
sistema de protección frente a tsunamis basado en un muro
vertical de hormigón. Sin embargo, existe una gran controversia ambiental asociada a dicho proyecto, por lo que se ha
planteado como alternativa la construcción de un muro de tierra, complementado con una segunda línea defensiva basada en una plantación masiva de cocoteros, caracterizados
por profundas raíces, y manglares. El proyecto considera que
el lugar idóneo para la construcción de cualquiera de las dos
infraestructuras es 200 metros hacia el interior de la costa.
Adaptación
Retomando el concepto de riesgo, la adaptación intenta reducir de manera importante una de sus componentes, la vulnerabilidad, a través de una planificación del territorio costero que tenga en cuenta las consecuencias que podría tener un
tsunami. Reducir la ocupación de las zonas bajas del litoral,
planificar las infraestructuras y edificaciones en zonas afectadas e inundables teniendo en cuenta las características de los
tsunamis potenciales, etc. son medidas que reducirían considerablemente el riesgo derivado de los tsunamis.
En este sentido, es necesario destacar que la planificación
territorial necesaria para adaptarse al efecto de los tsunamis
tiene muchísimos puntos en común con la requerida para hacer frente a los posibles efectos del cambio climático, dado
que ambos conducen a la inundación de la costa.
Finalmente, es necesario hacer una última consideración
ligada a un concepto tan utilizado en la ingeniería como es
la resiliencia. Podríamos definir la “resiliencia de la costa” como su capacidad de absorber perturbaciones sin alterar significativamente sus características estructurales y funcionales.
Por ello, cualquier política territorial “pro-resiliente”, es decir,
conducente a mantener las condiciones naturales de la costa
reduciendo la ocupación indiscriminada de las zonas bajas,
evitando la modificación de la línea de costa natural o luchando contra la erosión, conducirá a que la vulnerabilidad
frente a los tsunamis se reduzca de forma importante.
El papel de la ingeniería civil
en el ámbito de los tsunamis
La ingeniería civil juega un papel sumamente importante tanto
en la fase de prevención como en la fase post-catástrofe. En general, el modelado de la propagación de tsunamis, desde la
generación hasta el estudio de sus efectos, elaboración de mapas de inundación, etc. está ligado a la ingeniería civil en todo
el mundo. Baste decir que, además de en España, este campo,
así como el del modelado físico de tsunamis, se realiza en el ámbito de escuelas de ingeniería o centros de investigación vinculados al mundo de la ingeniería civil. Por otro lado, y aunque no
es así en todo el mundo, las redes de observación oceanográfica más importantes con que contamos en España están ligadas
a nuestro sistema portuario, dado que fueron implementadas y
son gestionadas por Puertos del Estado. En cuanto al proyecto
y construcción de medidas de protección, es evidente que, independientemente de su naturaleza, son generalmente diseñadas
por ingenieros civiles en todo el mundo. Finalmente, es asimismo clara la importancia de la participación de la ingeniería civil en el planeamiento territorial para la gestión de la costa.
En cualquier evento post-tsunami, el primer paso consiste en
la realización de campañas de inspección, no solo para evaluar los daños en las infraestructuras sino también para evaluar
las características del tsunami que se ha producido (Fig. 6). En
el pasado evento de Indonesia la mayor parte de los equipos
internacionales que inspeccionaron las zonas afectadas fueron
liderados por ingenieros civiles. Por último, la labor de la reconstrucción es inherente a nuestra profesión, por lo que no es
necesario abundar en este aspecto.
Fig. 6. Evaluación del run-up en la costa de Sri Lanka. Fuente: Philip L.-F. Liu.
Desgraciadamente, el riesgo asociado no solo a los tsunamis sino a muchos otros desastres naturales es cada día mayor y el constante aumento de la vulnerabilidad de las zonas
con alta peligrosidad da lugar a elevadas pérdidas de vidas
humanas, daños ambientales y destrucción de importantes infraestructuras civiles. Los ingenieros de caminos, canales y
puertos juegan un papel fundamental en el proceso de prevención y mitigación de desastres naturales y muy especialmente, como en algunos otros, en los debidos a tsunamis. Sin
embargo, en la mayor parte de nuestras Escuelas, el estudio
de algunos de estos fenómenos naturales y de los riesgos derivados se encuentra diseminado entre varias asignaturas y
departamentos o es simplemente inexistente. En este sentido
y cara al futuro, parecería conveniente tomar posición e introducir en nuestro bagaje formativo el conocimiento y las
técnicas necesarias para la evaluación del riesgo, prevención, mitigación y gestión (logística, reconstrucción, etc.) de
desastres naturales de una manera integrada, puesto que todo ello es el resultado de una correcta imbricación de las bases fundamentales con las que ya contamos.
■
Íñigo J. Losada Rodríguez
Doctor Ingeniero de Caminos Canales y Puertos
Ph.D. in Civil Engineering
Grupo de Ingeniería Oceanográfica y de Costas
E.T.S. de Ingenieros de Caminos, Canales y Puertos
Universidad de Cantabria
Bibliografía
– GIOC (1997), Estudio de riesgo de inundación y de daños por acción de maremotos en el litoral sureste español (Mar de Alborán), Ministerio de Medio Ambiente.
– Instituto Geográfico Nacional et al. (2000), Terremotos y la peligrosidad de tsunamis en España, CD. ISBN 84-7819-094-5.
– Instituto Geográfico Nacional et al. (2005), Terremotos y tsunamis en España, CD.
ISBN 84-9810346-O.
I.T. N.o 74. 2006
81
La protección civil
y las catástrofes naturales
Ricardo Olabegoya Venturini
DESCRIPTORES
PROTECCIÓN CIVIL
CATÁSTROFES NATURALES
HURACÁN KATRINA
COORDINACIÓN
INFORMACIÓN
112
Introducción
El 29 de agosto de 2005, y posteriormente durante varios
días, los medios de comunicación nos facilitaban información sobre los efectos del huracán Katrina sobre la ciudad de
Nueva Orleáns, desbordando la perplejidad de todos los televidentes que veíamos cómo un huracán, perfectamente
previsto y anunciado por toda la prensa mundial, asolaba
toda la costa del entorno de la desembocadura del río Missisipi, inundando y devastando, la “ciudad del blues”, entre
otras ciudades de la región.
Mucho más difícil de entender resultaba cómo el país más
poderoso del mundo, capaz de movilizar cientos de miles de
profesionales militares con su complejo y costoso equipo, que
cumplen sus funciones con una escalofriante precisión a miles
de kilómetros de su país, en escenarios muy diferentes al propio, era incapaz de atender, ni siquiera mínimamente, a su
propia población herida y doliente, con centenares de miles
de afectados.
Esa perplejidad se incrementaba más si cabe, si tenemos
en cuenta que los huracanes son un fenómeno meteorológico
relativamente frecuente y periódico en dichas latitudes y que
algunos de los problemas que han agravado de forma determinante los efectos del mismo estaban detectados, diagnosticados y sus soluciones proyectadas y valoradas a la espera
(parece que larga) de su ejecución.
Otra componente nueva y paradójica de esta catástrofe es
que a Estados Unidos, que lidera, generalmente, a nivel mundial el apoyo solidario a los países que padecen desastres, le
ha tocado, por primera vez, el amargo papel de pedir ayuda. Sobre el particular, cuentan la anécdota de un diplomático estadounidense, en una reunión en la que se programaba
82
I.T. N.O 74. 2006
la ayuda de un país europeo, que se disculpaba porque él estaba acostumbrado a estar en el lado de la mesa de los que
ofrecen las ayudas.
Si el 11 M y, sobre todo, el 11 S convirtieron en “papel
mojado” todas las estrategias políticas del mundo occidental
para abordar el fenómeno terrorista, el huracán Katrina ha ridiculizado (poniéndolo en evidencia) el sistema de respuesta
frente a una catástrofe del país más poderoso del mundo.
Es cierto y lógico que, en el mundo occidental, los modelos de la protección civil no son iguales, que las sensibilidades sociales frente al fenómeno de las catástrofes naturales
tampoco son coincidentes; pero en Nueva Orleáns tenemos
suficientes motivos de reflexión para analizar y revisar nuestros sistemas, no con planteamientos demagógicos y simplistas, sobrevalorando riesgos casi imaginarios, sino a través de
estudios científicos de los fenómenos, de planes estructurales
adecuados, de planes contingentes rápidos y eficaces y de
sistemas de respuesta eficientes, todo ello en el marco de una
planificación general realista y sostenible, de modo que todo
el sistema pueda funcionar y por lo tanto financiarse a medio
y largo plazo con recursos propios.
Las catástrofes naturales
Las catástrofes naturales son eventos provocados por fenómenos naturales, que afectan a la organización social en general y al hombre en particular, con resultado de pérdidas importantes de vidas y bienes.
El articulo 2b) de la Ley Foral 8/2005 de protección civil
y atención de emergencias en Navarra1 define la catástrofe
como: “Emergencia que por su gravedad genera despropor-
Fig. 1. En algún momento la naturaleza nos iguala. Esto no es una población del Tercer Mundo. Es un barrio de Nueva Orleáns. (Fuente: El País 31/12/05).
ción entre las necesidades de atención ocasionadas por los
daños producidos o factibles y las posibilidades del sistema
de respuesta para solventarlas, exigiendo medios extraordinarios para su atención”.
De esta definición hay que destacar una componente importante: la desproporción entre necesidades y recursos disponibles, que nos acota el carácter relativo de la catástrofe.
Es decir: que una emergencia en un territorio con recursos suficientes para hacerle frente no es una catástrofe, mientras
que un suceso de similares características en una zona con
pocos e inadecuados recursos se convierte en una catástrofe.
Esa es, entre otras, una de las razones por las que la incidencia de las catástrofes en los países subdesarrollados es
proporcionalmente mayor que en las regiones más preparadas y con más recursos.
Los componentes de las catástrofes
La ecuación fundamental de la seguridad, que sería perfectamente aplicable a nuestro análisis, Riesgo + Circunstancias
= Accidente vs. Catástrofe, nos permite una aproximación a
sus componentes, para ver cómo podemos minorar el resultado de la ecuación, es decir, la importancia (los efectos) de
la catástrofe.
El riesgo comprendería los componentes del fenómeno natural que nos definirían las características del mismo: fecha, hora, lugar, extensión, intensidad, permanencia del fenómeno, etc.
El conocimiento científico de la génesis y de la dinámica de
los fenómenos naturales va progresando en los últimos años a
pasos agigantados, pero en general, es claramente insuficiente para predecir sobre la mayor parte de sus componentes.
La primera herramienta fundamental para intervenir en la
ecuación sería la predicción de aquellos fenómenos naturales
que por su naturaleza y características sean susceptibles de
generar catástrofes en un territorio determinado, con la mayor anticipación posible (en general, a mayor anticipación,
menor precisión), de forma que permitiese tomar las medidas
preventivas específicas.
El segundo sumando de la ecuación se refiere a las circunstancias coadyuvantes, que pueden convertir un fenómeno natural en una catástrofe, es decir, al escenario en el que
se dejan sentir sus efectos.
La definición de catástrofe está acotada por la afectación
importante para vidas y bienes, los cuales en general están
relacionados con la actividad social, aunque también pueda
haber afecciones a otros bienes menos tangibles, como el medio ambiente.
Del escenario, a su vez, diferenciaremos dos componentes: el territorio y la población.
Las características del territorio condicionan en buena parte los efectos del fenómeno, que afectará de diferente forma a
diferentes zonas, según su exposición a los efectos del evento.
La población y la actividad social que desarrolla, como
factor mayor de generación de bienes, son los objetivos finales de la protección.
Es en este sumando en el que la sociedad actual puede intervenir de forma determinante, ya que, como comentábamos
más arriba, aunque el conocimiento científico de los fenómenos naturales sea aún limitado, los efectos de las catástrofes
sobre población y bienes son sobrada e históricamente conocidos, de forma que el desarrollo de las propias sociedades a
I.T. N.o 74. 2006
83
lo largo de la historia ha incluido una cierta cultura del riesgo en sus formas de vida y producción, con independencia de
las consideraciones mágicas o religiosas que en muchos casos tenían en su acervo cultural los fenómenos naturales.
La planificación
Aunque forma parte del segundo componente de la ecuación,
la destacamos por la trascendencia que tiene en el objetivo de
minorar las catástrofes para proteger vidas y bienes.
En la planificación distinguiremos diferentes niveles:
• Planes especiales ligados a riesgos concretos y que en algunos casos llegan a incluir normas preventivas muy desarrolladas e implantadas en la sociedad occidental: normativa
antisísmica en la construcción…
• Planes territoriales de emergencia que analizan los riesgos
potenciales de un territorio (municipio, Comunidad Autónoma…), planifican las medidas de protección y organizan
el sistema de respuesta a la catástrofe, siempre en relación
al marco organizativo de nivel superior.
• Planes generales de urbanismo, que ordenan toda la actividad social de un territorio (vivienda, infraestructuras, implantación industrial, sectores productivos, protección del
medio ambiente, etc.) y en los que en los últimos años se ha
incluido la componente del riesgo como criterio de planificación de actividades.
Todos ellos van acompañados de normativa que conforma
el entramado jurídico que regula el desarrollo ordinario de
ese territorio, garantizando, de forma estructural, una mayor
protección.
La respuesta
La normativa estatal en la Ley 2/85 de protección civil2 identifica doctrinalmente ésta como “protección física de las personas y de los bienes, en situación de grave riesgo colectivo,
calamidad pública o catástrofe extraordinaria, en la que la
seguridad y la vida de las personas pueden peligrar y sucumbir masivamente…”, y la enmarca en el ámbito más amplio de la política de seguridad.
Es decir, que es objeto de la protección civil, entre otros:
la organización y la puesta en marcha del sistema de respuesta ante las catástrofes, orientado a la protección de la vida y de la integridad física de las personas, así como a la
protección de los bienes y del medio ambiente.
Las catástrofes son estadísticamente emergencias extraordinarias con baja probabilidad.
El sistema de respuesta
a las emergencias ordinarias
La estructura social tiene organizados diferentes servicios públicos y privados cuya función es atender las emergencias con
carácter ordinario, con recursos adecuados para los accidentes cotidianos.
Así la sociedad dispone, entre otros, de:
• Servicios de orden: Policía…
• Servicios sanitarios extrahospitalarios de urgencia: ambulancias…
84
I.T. N.O 74. 2006
• Servicios de extinción de incendios y de salvamento: bomberos…
Se trata de servicios que intervienen de forma cotidiana
en el socorro de las personas en riesgo y en la protección de
los bienes.
Existen otros servicios públicos y privados que cooperan
en dichas funciones, así como en las funciones de rehabilitar
los servicios públicos que puedan resultar dañados o interrumpidos: vialidad, abastecimiento de agua, de energía, de
suministros, etc.
Dichos servicios tienen distintas competencias, diferente
dependencia orgánica, recursos propios, horarios y sistemas
de trabajo específicos, en sus tareas habituales, por lo que
cuando tienen una actuación conjunta se presentan problemas de coordinación, que deben superarse para garantizar
una actuación eficiente y, por tanto, una protección efectiva
de vidas y bienes. Para ello, es necesaria la planificación de
las actuaciones específicas en las que se establezca la compatibilidad de los procedimientos internos de cada servicio,
así como la de los equipos de intervención respectivos, modificándolos e integrándolos para garantizar una actuación
conjunta eficaz.
Otro órgano fundamental es el de acceso del ciudadano
al sistema, sobre lo cual ya se ha legislado a nivel europeo,
estableciendo un número único (112) para la demanda de
emergencias, con el objeto de garantizar la atención a las llamadas de auxilio de los ciudadanos en situación de emergencia, movilizando los recursos adecuados en cantidad suficiente para atender los incidentes.
Relacionado con este centro de atención de llamadas, y
en algunos modelos integrado con él, se organiza un centro
de gestión de emergencias cuya función es el seguimiento de
la atención de las emergencias y la coordinación de los servicios operativos intervinientes, mediante unos protocolos
operativos que establecen los criterios para la clasificación de
las llamadas y la asignación de los recursos más idóneos, así
como los procedimientos a seguir por los servicios, especialmente cuando se producen actuaciones conjuntas.
Toda esta organización que se explica en la respuesta a
las emergencias ordinarias, tiene muchos problemas para su
planificación e implantación y en los últimos años su desarrollo ha seguido un proceso difícil, pero que poco a poco ha ido
decantándose, a la vez que se produce una convergencia
paulatina entre los diferentes modelos.
El sistema de respuesta
para las catástrofes
Teniendo en cuenta que la catástrofe se caracteriza por la
desproporción de los recursos ordinarios disponibles en relación a la magnitud de los daños que tienen que atender, puede ser considerada como una emergencia extraordinaria que
requiere más recursos y, en algunas ocasiones, recursos más
especializados. También es precisa una organización adecuada, ya que han de trabajar conjuntamente recursos que
habitualmente trabajan de forma independiente, en situaciones de extrema necesidad y casi siempre de gran confusión.
Fig. 2. El huracán estaba previsto, los diques diagnosticados. Nueva Orleáns se ahoga.
(Fuente: EPS 31/12/05, fotografía de David J. Philip).
Pero esto no quiere decir que sea necesario crear unos
servicios específicos que ejerzan las tareas que ordinariamente realizan los servicios públicos, sino que será necesario
complementar los servicios ordinarios con recursos extraordinarios. Del mismo modo, no se trata de crear una nueva organización que solo se activa en situaciones de emergencia,
sino que el objetivo es planificar las actuaciones en esas circunstancias para que a partir del sistema de respuesta ordinario (que siempre es el primero que se activa) se puedan establecer los procedimientos extraordinarios de movilización
progresiva de los servicios con misiones complementarias de
socorro, así como los procedimientos de coordinación de todos ellos. Así mismo, dicha planificación establecerá la persona o el órgano que asume la dirección de las operaciones,
en función de sus competencias o de su especialidad.
Actualmente, los sistemas tienden a crear un único órgano que atiende las llamadas de emergencia, las clasifica y las
deriva a los servicios operativos correspondientes; además
gestiona la emergencia haciendo el seguimiento de la operación, dando apoyo a los recursos que lo precisan y garantizando una asistencia coordinada y completa, estando prepa-
rado incluso para movilizar los recursos especiales necesarios
para atender una catástrofe, siguiendo las pautas de los planes correspondientes y dando acogida y organizando a los
diferentes grupos que gestionan la catástrofe.
Se ha roto la inercia inicial de los años ochenta en la que
la protección civil era un órgano que empezaba a actuar
cuando se producía una catástrofe, apareciendo su personal
en el “escenario” con unos equipos específicos y haciéndose
cargo de las líneas de mando.
La dinámica de la catástrofe casi siempre empieza a pequeña escala como una emergencia ordinaria que va complicándose, creciendo en magnitud, extendiéndose en el territorio, afectando a más personas, hasta alcanzar dimensiones
catastróficas. Paralelamente, los servicios de emergencia se
van activando, los recursos se despliegan hasta quedar saturados. En la medida en que se produce la saturación de los
servicios tiene que empezar a desplegarse el plan correspondiente con sus recursos complementarios de refuerzo, con su
órgano consultivo y de coordinación, con el director del plan
asumiendo su función, todo ello gradualmente sobre el propio
dispositivo ordinario de gestión de las emergencias.
I.T. N.o 74. 2006
85
Fig. 3. Estados Unidos no fue capaz de proteger a su población civil. ¿Aprenderemos la lección?
(Fuente: Magazine de La Vanguardia de 31 de diciembre de 2005. Pat Sullivan/AP Photo).
La rehabilitación
Con la rehabilitación seguimos tratando la respuesta a la catástrofe. En esta fase, y una vez socorridas las personas en
peligro, se trata de reponer los servicios públicos afectados y
de facilitar la reconstrucción del tejido social.
Es difícil establecer una prioridad con carácter general para la reposición de los servicios, pero las comunicaciones tienen
siempre un carácter estratégico, ya que facilitan tanto la llegada de recursos de emergencia durante la primera fase de socorro, como de los recursos necesarios para ir consiguiendo paulatinamente el retorno a la normalidad, además de la evacuación de la población más afectada, a la que no se puede atender en la zona con los servicios paralizados o interrumpidos.
La dinámica de la rehabilitación se caracteriza por una
progresiva asunción de las tareas específicas de reconstrucción
por los servicios ordinarios, tomando el testigo de los servicios
de emergencia. Los planificadores y los técnicos económicos
revisan sus programas y sus presupuestos para proveer recursos para la rehabilitación, replanteando prioridades y aplazando previsiones de gasto en partidas de menor urgencia.
La vuelta paulatina de los servicios públicos a sus funciones específicas, aplicadas con prioridad a la población y a
los servicios afectados, no significa que decae la dirección
única de la emergencia, sino que progresivamente se traslada del responsable de los servicios de emergencia al responsable designado por los órganos de gobierno del país que retoman la gestión transversal de la emergencia.
86
I.T. N.O 74. 2006
Es el momento de la evaluación de los daños y de la reparación urgente de servicios básicos: suministro de agua potable, alcantarillado, vialidad, abastecimiento de alimentos,
medicinas, transmisiones, etc., pero también de las primeras
reflexiones, en los casos de grandes daños, sobre la orientación de las grandes inversiones de la rehabilitación. Por ejemplo: el traslado de un asentamiento urbano a un lugar más seguro, después de inundaciones sucesivas con destrucción de
zonas urbanas, u otras alternativas estructurales al fenómeno.
En general, las zonas más afectadas son las más humildes. Por ello, estos desastres pueden considerarse como oportunidades para mejorar a medio plazo las condiciones de vida de los afectados, no solo rehabilitando las viviendas y los
servicios, sino reconstruyendo un tejido urbano de mejor calidad que el original, pero haciéndolo de forma que las plusvalías de la rehabilitación reviertan en los afectados y no en
los circuitos de la especulación, habituales en las oportunidades de negocio.
Todas estas reflexiones las hacemos en un contexto de cultura occidental con asentamientos humanos planificados a niveles razonables y con recursos propios más o menos importantes. Obviamente, trasladar estas reflexiones a países subdesarrollados supone considerar el incremento de la vulnerabilidad de su población y la disminución de sus posibilidades
de respuesta por falta de recursos y, por lo tanto, un acrecentamiento en los daños en vidas y pérdida de bienes.
A lo largo del análisis de la respuesta a la catástrofe, no
hemos tratado un recurso importante que requiere mención
especial como es la ayuda humanitaria, ya sea procedente de
zonas limítrofes (normalmente la primera en recursos de urgencia) o bien de otros países. La gestión de dicha ayuda es
un apartado importante, por cuanto en ocasiones supone un
porcentaje considerable de los recursos puestos en juego para reducir los efectos de una catástrofe.
La información
La información, además de ser también un derecho del ciudadano, es otro de los componentes que intervienen en una
catástrofe y casi siempre desde mucho antes de que ésta se
produzca.
Los vehículos de la información al ciudadano son los medios de comunicación y de entre ellos el más generalizado a
los efectos del tema tratado es la televisión, que actualmente
ha superado a la radio, más tradicional pero sin el atractivo
de las imágenes, que en segundos pueden acercarle escenarios alejados espacial y culturalmente.
No obstante, la radio sigue siendo el medio de comunicación por excelencia en las zonas afectadas por las catástrofes,
por cuanto su uso autónomo de la red eléctrica posibilita su utilización a falta de suministro, permitiendo recibir la información
y las instrucciones de las autoridades a la población afectada.
En este sentido, hoy se dispone de información en tiempo
real de catástrofes acaecidas en las antípodas, con imágenes
reales y, en muchos casos, estremecedoras, en las que se ve
a la gente morir en situaciones dantescas.
La percepción social de las catástrofes es un factor ligado
normalmente a los medios de comunicación, de forma que un
desastre nos impresiona tanto más cuanto más cerca suceda.
También la similitud del contexto cultural nos afecta más, a veces con independencia del número de afectados. Así mismo,
permanece más tiempo dicha percepción trágica o de inseguridad en el ciudadano en la medida en que los medios la
mantengan más tiempo en los noticiarios, introduciéndose así
una componente de posible manipulación por parte de quien
controle los medios.
Los planes de emergencia contemplan entre sus previsiones la utilización de la información como herramienta para
preparar a los ciudadanos con anterioridad a la catástrofe:
• Informando sobre la naturaleza y el alcance de los riesgos.
• Informando sobre los comportamientos adecuados para
protegerse del riesgo. (autoprotección).
• Informando sobre los comportamientos adecuados para
ayudar en el caso de necesidad.
La información tiene también una importancia notable durante la ocurrencia de la catástrofe:
• Informando sobre lo que puede suceder mediante avisos y
recomendaciones.
• Informando sobre lo que está sucediendo (noticias).
• Transmitiendo avisos e instrucciones de las autoridades a la
población.
• Informando sobre la evolución y las perspectivas.
• Informando sobre las personas afectadas.
Todo ello con ponderación, no siempre presente en los
medios, evitando catastrofismos que generan alarma social,
casi siempre innecesaria.
Además de la información al ciudadano, incluso previa a
ésta, se debe establecer un programa de información a los
servicios e instituciones, dando a conocer los riesgos y los planes, especialmente aquellos elementos que más les afectan.
Y como es lógico, en el caso de los servicios, sería imprescindible un programa de formación en el que se explicasen los procedimientos operativos para los diferentes supuestos, con prioridad decreciente en función de la frecuencia y la
gravedad potencial, así como los equipos especiales a utilizar, sin olvidar la realización de simulacros conjuntos para
validar procedimientos y equipos.
Algunas asignaturas pendientes
Después de este repaso apresurado a la protección civil y su
actuación sobre las catástrofes naturales, dedicamos unas líneas finales a señalar algunas tareas que en el contexto español habría que intensificar para mejorar nuestro sistema de
respuesta, después de una década de fuerte desarrollo en servicios, planificación, legislación, inversiones y tecnología:
1. Revisar el modelo de respuesta. Comenzábamos estas reflexiones haciendo referencia al impacto social del huracán Katrina en los responsables de planificar y gestionar
la respuesta a las catástrofes en el mundo occidental; por
ello, empezaríamos recomendando una reflexión sobre
nuestra propia organización.
2. Mejorar la coordinación institucional, especialmente la
transversal. En una política de escasez de medios (más aún
en estos temas) es necesario un esfuerzo para optimizar
los recursos disponibles.
3. Desarrollar una política de implantación de planes. Después de unos años de planificación intensiva, ahora toca
implantar dichos planes, ya sea para validarlos, en unos
casos, ya sea para dejarlos definitivamente en un cajón en
otros, corrigiendo los desajustes habituales entre el papel
y la realidad.
■
Ricardo Olabegoya Venturini
Subdirector General de Servicios y Protección Civil
del Gobierno de Cantabria
Notas
1. Ley Foral 8/2005, de 1 de julio, de protección civil y atención de emergencias de
Navarra. BOE nº 192, p. 28294.
2. Ley 2/1985, de 21 de enero, sobre protección civil. BOE nº 22, 25 de enero de 1985.
Otras referencias
– Ayala-Carcedo, F.J., Olcina Cantos, J. y otros, Riesgos Naturales, Barcelona, Editorial Ariel, 2002.
– Real Decreto 407/ 1992, de 24 de abril, por el que se aprueba la Norma Básica de
protección civil.
I.T. N.o 74. 2006
87
PÁGINA INTENCIONALMENTE
DEJADA EN BLANCO
I.T. N.O 74. 2006
Descargar