VOLCANES, TERREMOTOS Y MATEMÁTICAS José Miguel Lorenzo Salazar Universidad de La Laguna "Cuando Marte, Mercurio y la Luna entren en conjunción, hacia el sur habrá una gran sequía. En las profundidades de Asia habrá un terremoto: Corinto y Efeso quedaran perplejos" Cfr. Centurias Astrológicas (1547) Nostradamus (1503-1556) “Todos los cambios tienen lugar de acuerdo con la ley que enlaza causa y efecto” Segunda Analogía, Principio de la Sucesión Temporal según la Ley de la Causalidad Crítica de la Razón Pura (1781) Emmanuel Kant (1724-1804) 1. Introducción Las erupciones volcánicas y los terremotos constituyen una experiencia impactante para las sociedades modernas. A su espectacularidad debemos añadir que son fenómenos naturales que pueden representar un riesgo para la seguridad personal y colectiva e, incluso, para el Medio Ambiente. Los fenómenos volcánicos y sísmicos, en todas sus variadas manifestaciones, han constituido un atractivo indudable para los estudiosos y curiosos a través de todas las épocas de la historia. Una de las primeras crónicas escritas acerca de la destrucción ocasionada por la erupción de un volcán se debe a Plinio el Jóven en el año 79 D.C., quien describió los efectos devastadores de la erupción del volcán Vesubio sobre Pompeya, a los pies del cual se expande hoy la ciudad italiana de Nápoles. En el siglo XXI las nuevas Tecnologías de la Información y de la Comunicación nos permiten conocer al instante hechos que suceden a miles de kilómetros de distancia. Los efectos de las erupciones volcánicas sobre la población y las infraestructuras no son una excepción. Ejemplos recientes son la erupción del Nevado del Ruiz en Colombia en 1985 y la erupción pliniana del volcán Pinatubo en Filipinas en 1993. En ambos casos los científicos reconocieron con antelación los procesos de reactivación que se estaban sucediendo bajo dichos volcanes. En el caso del Nevado del Ruiz, los flujos de lodo que produjo el deshielo acelerado de la cima del volcán - como consecuencia del calentamiento interno del mismo - arrasaron la ciudad de Armero, causando la muerte a 25.000 personas. En el caso de Pinatubo, la población fue evacuada. Los registros históricos de terremotos anteriores al siglo XVIII son casi inexistentes o poco fidedignos. Entre los sismos antiguos para los que existen registros fiables está el que se produjo en Grecia en el 425 a.C., que convirtió a Eubea en una isla; el que destruyó la ciudad de Éfeso en Asia Menor en el 17 d.C.; el que arrasó Pompeya en el 63 d.C., y los que destruyeron parte de Roma en el 476 y Constantinopla (ahora Estambul) en el 557 y en el 936. En la Edad Media se produjeron fuertes terremotos en Inglaterra en 1318, en Nápoles en 1456 y en Lisboa en 1531 y 1756. Recientemente, Bam, una de las antiguas ciudades de la Ruta de la Seda, sufrió un terremoto de 6,3 grados de magnitud en la escala Ritcher que produjo la muerte de miles de personas y la destrucción total de la ciudad. En 2003 un terremoto de 7,9 grados de magnitud provocó la muerte de al menos 50.000 personas en Nueva Delhi, India, el segundo estado más industrializado de Asia. En 2004 un terremoto sacudió la ciudad marroquí de Alhucemas produciendo un número indeterminado de víctimas. Los efectos de este terremoto fueron sentidos en el sur de la península Ibérica. La cuestión que emerge de una manera explícita tras reconocer estos hechos es la siguiente: ¿no es posible predecir y/o prevenir estas catástrofes naturales? La respuesta es compleja y admite múltiples matizaciones. De hecho, no es infrecuente que salgan a la palestra pública toda suerte de adivinos y pseudocientíficos que pecan de adivinadores y futurólogos. Para predecir cualquier fenómeno es indispensable observarlo, caracterizarlo, establecer hipótesis de trabajo que expliquen su comportamiento, construir modelos y elaborar mecanismos explicativos, etc. En definitiva, es preciso emplear las pautas del Método Científico para estudiar y comprender bien el fenómeno. A medida que la Ciencia evoluciona, las formas de describir y predecir lo que acontece en la Naturaleza, esto es, las Teorías, se vuelven cada vez más exactas, es decir, más matemáticas. Es indudable que el grado de desarrollo en las matemáticas también tiene una relación directa con el desarrollo científico. Pero ¿qué ciencia o ciencias incluyen los fenómenos volcánicos y sísmicos como objetos de estudio? La Geofísica. En 1838, el profesor de Cambridge W. Hopkins introduce por primera vez el 1 término “Geología Física” para designar la ciencia que trata de los aspectos físicomatemáticos de la Geología. Podemos entender, por tanto, que la Ciencia Geofísica unifica los aspectos físico-matemáticos de los fenómenos relacionados con la Tierra. Comoquiera que haya sido considerada a lo largo de los últimos dos siglos (“Theorie de la Terre”, “Physique du Globe”, «Physikalische Geographie”, “Physical Geology”, etc.), la Geofísica Moderna emplea los métodos matemáticos y físicos para el estudio de problemas geológicos [1]. Por otro lado, debido a que la Geofísica tiene que enfrentarse con problemas cada vez más complejos (por ejemplo, la dinámica interna del manto terrestre o la predicción de terremotos), necesita de la interpretación que facilitan otras disciplinas (i.e. la Geoquímica). Según la Unión Internacional de Geodesia y Geofísica (IUGG), la Geofísica puede dividirse en siete disciplinas: Geodesia; Sismología y Física del Interior de la Tierra; Meteorología y Física de la Atmósfera, Geomagnetismo y Aeronomía; Ciencias Físicas de los Océanos; Hidrología; Volcanología y Química del Interior de la Tierra. 2. Algunos hitos en el desarrollo de la Volcanología y Sismología Casi todas las disciplinas que conforman la Ciencia Geofísica tienen un origen en las primeras civilizaciones. Los primeros cálculos geodésicos se deben a Eratóstenes y Aristóteles (s. III y IV a.C.). La Geofísica moderna se desarrolla de la mano de Galileo, Gilbert, Newton, Halley, etc. [1]. La Sismología y la Volcanología, entendidas como disciplinas de la Geofísica moderna, son ciencias de reciente aparición. El primer sismógrafo reconocido como tal fue diseñado por Chang Heng en China en el año 132 de nuestra era. No obstante, hasta el siglo XX no aparecen los primeros sismógrafos capaces de registrar la señal sísmica. Hacia 1870, el geólogo inglés John Milne (1850-1913), considerado como el padre de la Sismología moderna, ideó el predecesor de los actuales sismógrafos (del griego, seismos, ‘agitación’). Consistía en un péndulo con una aguja suspendido sobre una plancha de cristal ahumado. Éste fue el primer instrumento utilizado en sismología que permitiría discernir entre las ondas primarias (P) y secundarias (S). En 1906, Boris B. Golitzin (1862-1916) construye el primer sismógrafo electromagnético con grabación fotográfica. Beno Gutenberg (1889-1960) desarrolló diversos modelos matemáticos del interior de la Tierra a partir del estudio de las ondas sísmicas. A él se debe el descubrimiento de la discontinuidad entre el manto y el núcleo terrestre que lleva su nombre. Andrija Mohorovicic (1857-1936), de origen croata, descubre en 1909 la discontinuidad entre la corteza y el manto terrestre que lleva su nombre. Kiyoo Wadati, sismólogo japonés, demostró en 1928 la existencia de terremotos con hipocentros profundos. Sus trabajos, juntos con los de Hugo Benioff (1894-1968), permitieron identificar lo que hoy conocemos como zonas de subducción y, en particular, zona de Benioff/Wadati. A Benioff se debe el primer “strainmeter” o instrumento para medir las deformaciones (contracciones o dilataciones) de la corteza terrestre (1936). La sismóloga Ingle Lehmann (1888-1993) descubre en 1936 el núcleo interno de la Tierra y define sus capas interna y externa. A Giuseppe Mercalli, sismólogo italiano, debemos la primera escala de intensidades (1902). En 1931 adquiere su aspecto definitivo con doce grados de intensidad y pasa a denominarse Escala de Mercalli Modificada. Charles Richter (19001985) introduce en 1935 el concepto de magnitud de un terremoto, vinculando este nuevo parámetro a la energía liberada en el foco del evento sísmico, de tal manera que puede ser calculado directamente a partir de un sismograma, ofreciendo una lectura cuantitativa del fenómeno. 2 El origen y la distribución geográfica de los fenómenos sísmicos y volcánicos fueron discutidos intensamente durante la primera mitad del siglo XX. Finalmente, en la década de los sesenta la Teoría de la Deriva Continental y la Tectónica de Placas, desarrollada originalmente por Alfred Wegener (“The Origins of Continents and Oceans”, 1915) es aceptada por la comunidad científica al mismo nivel que la Teoría de la Evolución por selección natural. Por lo tanto, y sin menoscabar la importancia de los trabajos de investigación realizados con anterioridad a 1965, podemos aseverar que la Sismología y la Volcanología comienzan a evolucionar hasta adquirir su relevancia actual a partir de la consolidación de aquellas. 3. Aportaciones de la Matemática a la Sismología y la Volcanología Uno de los problemas más importantes resueltos por la Matemática que resulta de gran aplicación en todas las disciplinas de la Ciencia Geofísica es la interpolación. El objeto de los estudios de la Geofísica (i.e. el flujo de calor en una superficie, el potencial eléctrico propio en una zona geotermal, la emisión difusa de gases en los flancos de un volcán, la resistividad eléctrica en una zona fracturada de la corteza terrestre, la distribución geográfica de la pluviosidad y escorrentía superficial, etc.) puede expresarse en forma de campo, escalar o vectorial. A su vez, éste puede variar en el espacio y/o en el tiempo. La interpolación es vital para la interpretación de las mapas o imágenes 2D y 3D obtenidos a partir de muestreos discretos. Si usamos el formalismo matemático, podemos definir un campo geofísico, Θ, escalar o vectorial, que depende del valor del campo en las condiciones iniciales, Θ0, del valor que tome r, la posición dada por las coordenadas espaciales rx (latitud), ry (longitud), rz (altitud) y t, el tiempo: Θ = Θ( Θ 0 , r , t ) (1) El problema esencial de la interpolación radica en la estimación del valor del campo Θ en unas condiciones (r, t) distintas a las observadas durante la realización de las medidas. Para simplificar, consideraremos dos casos particulares de la ecuación (1): (i) Análisis espacial en condiciones estacionarias durante la realización de las medidas Θ = Θ(Θ 0 , r ) ; t = constante (2) (ii) Análisis temporal en condiciones espaciales fijas durante la realización de las medidas Θ = Θ(Θ 0 , t ) ; r = constante (3) En el caso (i), hablaremos directamente de la aportación matemática derivada de la aplicación del variograma y del kriging. En el caso (ii), podemos analizar la variación temporal del campo geofísico en el dominio de tiempos a partir del análisis de autocorrelación (el equivalente del variograma), en el dominio de frecuencias a partir del espectro de frecuencias (análisis de Fourier) o en el dominio de tiempo-frecuencias a partir del estudio del escalograma (análisis wavelet). 3.1. Análisis Espacial: kriging y variograma El análisis espacial de campos geofísicos, supuestos estacionarios o no, tiene su origen en una disciplina multidisciplinar: la Geoestadística. La Teoría Geoestadística nace en la década de los 50 gracias a los trabajos de Kolgomorov y Wiener quienes la formulan empleando la notación matricial en el espacio de Hilbert. Esta teoría comienza 3 a ser conocida de una manera más inteligible para el público no especialista a partir de los 60 (Matern, 1960; Whitle, 1963 y Matheron, 1965, entre otros). Un procedimiento rápido para interpolar un campo geofísico, de aspecto espacial aparentemente aleatorio, consiste en asumir un modelo determinista que describa la variación espacial entre dos puntos en donde el valor del campo geofísico es conocido. Las técnicas de interpolación determinista, incluyendo la triangulación y el inverso de la distancia a una potencia (~1/dn), no consideran la posibilidad de que el campo geofísico se distribuya espacialmente con una determinada función de densidad de probabilidad, por lo que no permiten realizan una estimación de la eficiencia de la interpolación. Por el contrario, las técnicas de interpolación probabilística, como el kriging ordinario que comentaremos brevemente a continuación, permiten asignar una varianza o error a la estimación realizada en cada punto del espacio [2]. La expresión "kriging" es sinónima de “predicción óptima”. Básicamente consiste en un método de interpolación que predice el valor del campo geofísico en un punto no muestreado a partir del valor observado para dicho campo geofísico en localizaciones conocidas. Para ello se emplea el variograma, que permite expresar de una manera directa la variación espacial observada mientras se minimiza el error de los valores predichos. En la literatura especializada, el kriging también recibe el nombre dado por el acrónimo B.L.U.E. (best linear unbiased estimator o mejor estimador lineal insesgado). Se dice que es “lineal” porque los valores estimados se obtienen como combinaciones lineales ponderadas de los datos disponibles. Es “insesgado” porque la media de su error es cero. Es el “mejor” porque persigue minimizar la varianza de los errores. Esta es precisamente la diferencia del kriging respecto a otros métodos de estimación lineal: su objetivo de minimizar la varianza del error. En el kriging ordinario, el estimador empleado para calcular el valor del campo ∧ geofísico en un punto no medido, θ , es el siguiente: n ∧ θ = ∑ λ j ∗θ (4) j =1 n ∑λ i =1 =1 i (5) donde λi representa el peso asignado a cada medida. El error de la estimación i-ésima, ri, es: ∧ ri = θ i − θ i El error promedio de un conjunto de k estimaciones es: 1 k 1 k ∧ m R = ∑ ri = ∑ θ i − θ i k i =1 k i =1 Y, finalmente, la función que debe minimizar el kriging, la varianza [3], es: (6) (7) 2 1 k 1 k ∧ 1 k ∧ σ = ∑ (ri − m R )2 = ∑ θ i − θ i − ∑ θ i − θ i (8) k i =1 k i =1 k i =1 La herramienta básica para la interpretación estructural (espacial) del fenómeno así como para efectuar la estimación es el variograma. Matemáticamente, el variograma se define como 2γ (h ) = Var [θ (r + h ) − θ (r )] (9) donde la función γ(h) recibe el nombre de semivariograma [4] y h es la distancia entre la posición del punto a estimar y una observación próxima a él. El variograma recoge toda la información acerca de la variabilidad espacial del campo geofísico e incluye los 2 R 4 pesos asignados a cada punto de medida durante el proceso de interpolación. El estudio y la elección de un modelo adecuado para el variograma son de crucial importancia ya que éste incide directamente sobre el resultado de la interpolación. El variograma permite reflejar las condiciones de heterogeneidad y anisotropía observadas frecuentemente cuando se estudia la distribución espacial de un campo geofísico (i.e. la permeabilidad de un conducto volcánico al paso de los gases; la distribución espacial de la emisión difusa de gas volcánico a través de los suelos, etc.). La varianza a minimizar, expresada a través de la ecuación (8) puede ser reescrita en términos del semmivarigrama de la siguiente manera: σ R2 = 2∑ λi γ (ri , V ) − ∑∑ λi λ j γ (ri , r j ) − γ (V , V ) n i =1 − n n − (10) i =1 j =1 − donde γ (ri , V ) representa el promedio del semivariograma entre el punto ri y el volumen ocupado por el total de observaciones V [5]. A modo de ejemplo, podemos considerar dos tipos de semivariogramas observados frecuentemente: (a) semivariagrama de modelo esférico 3 h 1 h 3 si h < a − γ (h ) = C 3 a 2 2 a γ (h ) = C si h ≥ a (b) semivariograma de modelo exponencial h γ (h ) = C − exp − a (11) (12) Un ejemplo del uso de la interpolación probabilística en los estudios de Volcanología puede encontrarse en [6]. En este caso, el kriging ha sido utilizado para estimar la distribución espacial de las emisiones difusas de dióxido de carbono en los flancos y cráteres del volcán Cerro Negro, Nicaragua, en 1999. Cerro Negro es el volcán más joven del hemisferio Norte (“nació” en 1951) y es uno de los más activos (su ciclo eruptivo es inferior a los diez años). Sus erupciones más recientes ocurrieron en 1992, 1995 y 1999. Figura 1. Distribución espacial de las emisiones de dióxido de carbono en el volcán Cerro Negro, Nicaragua, en diciembre de 1999. El kriging permite estimar la emisión difusa de gas por medio de la interpolación a partir de las observaciones realizadas en algo más de 200 puntos sobre los flancos y cráteres históricos del volcán. 5 La aplicación del variograma y del kriging nos permite obtener imágenes ndimensionales del fenómeno en estudio [7]. A partir de ellas es posible discernir gráfica y/o numéricamente la presencia de regiones donde el campo geofísico adopta valores anómalos. En especial, resultan de gran utilidad los métodos matemáticos de detección de anomalías y valores frontera (outliers). Ejemplos de estos métodos son el análisis de colas (heavy tails), el análisis gráfico de Sinclair (1974), el estadístico de salto o GAP (Miesch, 1981), U* y análisis multifractal de Cheng (1999), análisis de los estadísticos de orden superior, etc. 3.2. Análisis de Series Temporales: uso de las transformaciones matemáticas La aparición de los materiales semiconductores extrínsecos en la década de los 50 condujo a la fabricación de los primeros transistores (1947). La carrera por la miniaturización, la reducción del consumo eléctrico de los componentes electrónicos y de los costes ha impulsado un desarrollo tecnológico que también se ha dejado sentir en disciplinas científicas como la Sismología y la Volcanología. La mejora continua en la instrumentación científica, en especial en los instrumentos portátiles o de campo, en los sistemas de adquisición de datos (conversión analógico-digital más rápida y eficiente) y en los sistemas de telecomunicación (telemetría) está permitiendo la observación y recogida de una ingente cantidad de información geofísica, bien sea desde la superficie terrestre o desde el espacio. En muchos casos, dicha información se presenta con el aspecto de una serie de datos en los que la ordenación temporal es relevante. En este caso, hablamos de series temporales (caso (ii)). Ejemplos de series temporales de interés para la Sismología y la Volcanología son, entre otras: • • • • • • • • el registro sísmico la deformación de la corteza terrestre en una zona sísmicamente activa o de un edificio volcánico activo las mareas oceánicas y terrestres el nivel de agua en el interior de un pozo la variación del campo magnético interno terrestre la emisión de gases a través de los suelos la composición química de los gases fumarólicos las anomalías de gravedad, etc. Y aquí es donde la Matemática nuevamente está contribuyendo de una manera decisiva en la interpretación de los fenómenos sísmicos y/o volcánicos. Algunas de las contribuciones más evidentes en el análisis de series temporales (auque también es aplicable al análisis espacial) son las siguientes: • • Filtrado. Se emplea para reducir o eliminar el ruido inherente al registro instrumental de series temporales o para separar las distintas componentes periódicas de las componentes irregulares. También puede emplearse para reducir el tamaño de los archivos digitales en los que se almacena la información. Descomposición y reconstrucción. La descomposición de una serie temporal en componentes deterministas y no deterministas puede facilitar su análisis e interpretación. Asimismo, es posible eliminar información redundante de los registros y así facilitar la transmisión de información a distancia. Para ello se puede emplear algunas de las técnicas del análisis estadístico multivariante 6 clásico como son la extracción de factores (componentes principales), análisis de conglomerados (clusters), acumulación de histogramas (método HiCUM), estudio de los momentos de orden superior, etc. • Modelado. El establecimiento de modelos matemáticos, una vez validados con datos obtenidos empíricamente, permite a los científicos predecir el comportamiento del sistema en estudio. • Detección de anomalías y predicción. El estudio de determinadas propiedades de una serie temporal permite establecer criterios de alarma, es decir, valores umbral por encima o por debajo de los cuales los valores observados pueden considerarse como anómalos o no normales. Entre ellas podemos citar la varianza (o covarianza), la dimensión de Hausdorf, la dimensión fractal, etc. Una serie temporal puede ser analizada, al menos, en dos dominios distintos: en el dominio temporal (figura 2) y en el dominio de frecuencias (figura 3). En la figura 2 se muestra el registro sísmico de un terremoto de magnitud 5,8 en la escala de Ritcher ocurrido el veinte de marzo de dos mil cuatro en la región de Kamchatka, Rusia, a una profundidad de 31 km. En la figura 3 se muestra el análisis espectral o análisis de Fourier obtenido utilizando una ventana de tiempo de promediado muy ancha, con objeto de suavizar el aspecto de la función de densidad espectral resultante. El análisis espectral de la señal sísmica revela la presencia de distintas componentes de baja frecuencia y la ausencia de componentes periódicas de frecuencias altas. Figura 2. Sismograma de un terremoto registrado a 31 km de profundidad en Kamchatka. Datos del sismo: latitud 53,74 ºN, longitud 160,74 ºE. Del total de 120.000 muestras (tomadas a intervalos de 9 ms) se muestran alrededor de 10.000, lo que equivale a un periodo de 100 segundos de registro. Figura 3. Análisis espectral aplicado a una serie de 80 segundos del sismograma de la figura 2 efectuado con el programa STATISTICA v6.0. El análisis espectral del sismograma revela la presencia de diversas componentes periódicas en la región de bajas frecuencias y la ausencia de componentes periódicas de frecuencias elevadas. Densidad Espectral Análisis Espectral del Sismograma 1E+13 1E13 8E+12 8E12 6E+12 6E12 4E+12 4E12 2E+12 2E12 La representación de una serie temporal en el dominio de tiempos, esto es, el gráfico de la señal versus tiempo, nos proporciona una lectura directa del fenómeno que produce la señal. También resulta de especial utilidad la función de autocorrelación, γ(τ), definida como γ (τ ) = E{[θ (t ) − µ ] ⋅ [θ (t + τ ) − µ ]} = Cov[θ (t ), θ (t + τ )] (14) donde θ(t) representa el campo geofísico dependiente del tiempo, es decir, la serie temporal, t y τ representan el tiempo, µ es la esperanza matemática del campo geofísico (µ=E[θ(t)]) y Cov representa la covarianza del proceso. Nótese que se ha empleado una notación para la función de autocorrelación, γ(τ), similar a la empleada para el semivariograma, γ(h). De hecho, ambas funciones son equivalentes: una se emplea en el dominio espacial y otra en el dominio temporal. El análisis de la función de autocorrelación (dominio de tiempo) nos permite obtener información indirectamente 0E-01 0.00 0.02 0.04 0.06 0.08 Frecuencia 7 0 0.10 sobre las distintas frecuencias presentes en la señal original. No obstante, su uso no está indicado para señales de cierta complejidad donde pueda resultar harto difícil identificar componentes de frecuencias muy parecidas. En este caso es preciso transformar la serie temporal original al dominio de las frecuencias empleando una base de funciones ortogonales. Para ello recurrimos al análisis espectral. El análisis espectral tiene su origen en las investigaciones desarrolladas por Jean Baptiste Joseph Fourier (1768-1830) sobre las propiedades de la transferencia de calor en sólidos conductores. Sus trabajos a comienzos del siglo XIX (“La Teoría Analítica del Calor”) sentaron las bases para la disciplina matemática del Análisis de Señales. Fourier introdujo un nuevo concepto en la matemática de su época (con la oposición frontal de Biot, Laplace, Poisson, etc.): cualquier función arbitraria, incluso aquellas que muestran discontinuidades, puede ser aproximada mediante una expresión analítica sencilla. Fourier estableció las ecuaciones en derivadas parciales que gobiernan la difusión del calor y encontró una solución empleando series infinitas de funciones trigonométricas de senos y cosenos (base ortogonal). Sea una función continua, θ(t), de periodo T. Dicha función puede expresarse como serie de Fourier en los siguientes términos [8, 9]: a0 ∞ 2nπ 2nπ t + bn sen( + ∑ a n cos t ) 2 n =1 T T donde los coeficientes an y bn pueden ser calculados a partir de: C +T 2 2 nπ θ (t ) cos( an = t )dt ∫ T C T θ (t ) = (15) (16) C +T 2 2 nπ (17) θ (t ) sen( bn = )dt ∫ T C T Los coeficientes de estas funciones base ortonormales representan la contribución de las componentes cosenoidales y sinusoidales de la señal en todas las frecuencias [10]. De esta manera, una señal geofísica cualquiera puede ser descompuesta en las distintas componentes periódicas presentes. Por tanto, el análisis de Fourier consiste en obtener una representación en frecuencia de la señal original a partir del cálculo de los coeficientes ao, an y bn. Sin embargo, el cálculo de estos coeficientes requiere un elevado coste computacional. Este problema quedó resuelto con el descubrimiento de un algoritmo que denominamos Transformada Rápida de Fourier (FFT). Fue propuesto por J. W. Cooley, J. W. Tukey y G. Sande en 1965 para el análisis de series temporales. Sin entrar en mayor detalle, baste decir que si el número de medidas, N, de la serie temporal es o puede expresarse (i.e. mediante truncamiento de la serie original o por adición de ceros) como múltiplo de dos (2n), entonces el número de operaciones necesarias para completar el análisis de Fourier se reduce de NN a N2. El descubrimiento del algoritmo FFT permitió la implementación de los primeros circuitos integrados analizadores de espectros en tiempo real. La Transformada de Fourier de la señal original, Θ(w), esto es, la transformación de la señal temporal original al dominio de las frecuencias, se puede realizar de la siguiente manera para una serie temporal continua: +∞ Θ( w) = ∫ θ (t )e − jwt dt (18) −∞ 8 donde w es la frecuencia, t es el tiempo y j permite usar la notación compleja ( j = − 1 ). Una vez obtenida la representación espectral o en frecuencia de la señal original, es posible recuperar la señal original a partir de +∞ θ (t ) = ∫ Θ( w)e jwt dw (19) −∞ En el caso de que la serie temporal sea discreta, la transformada de Fourier se escribe usando un sumatorio [10]: −2π ⋅ jkn ∧ 1 N −1 Θ( w) ≡ θ k = ∑θ ne N (20) N n=0 En la actualidad, existen sismógrafos que registran la actividad sísmica en un amplio rango de frecuencias (estaciones sísmicas de banda ancha como las instaladas por el Instituto Geográfico Nacional en Canarias recientemente), de manera que es factible adquirir la señal sísmica y procesarla en tiempo real para estimar su espectro de frecuencias. El espectro de frecuencias nos proporciona información sobre la naturaleza de la señal sísmica. Las señales sísmicas conocidas como tremor volcánico se asocian a la resonancia de estructuras rellenas de fluidos, bien sean estáticos o estén en movimiento, localizadas bajo un volcán activo. El tremor volcánico se caracteriza por formas de onda persistentes o sostenidas en el tiempo. El tremor refleja una vibración continua del suelo o pequeños sismos muy frecuentes cuyas ondas se solapan. Si la señal sísmica presenta una frecuencia constante, hablamos de tremor armónico. Si la señal sísmica varía ostensiblemente en frecuencia o amplitud, hablamos de tremor espasmódico [11]. Los sismos de largo período o sismos LP pueden atribuirse a la resonancia provocada por cambios en la presión de los fluidos alojados en grietas, cavidades y conductos [12]. En este tipo de eventos predominan las bajas frecuencias. En un volcán activo o en un sistema volcánico donde comienza a alojarse magma poco desgasificado es frecuente observar enjambres de terremotos de tipo LP con eventos individuales de frecuencias dominantes bien definidas (i.e. 4 Hz). Un ejemplo de aplicación del análisis espectral se refleja en la figura 4, donde se puede observar el resultado de aplicar la transformada rápida de Fourier a una serie temporal de la emisión difusa de dióxido de carbono en las faldas de un volcán activo en Centro América. Figura 4. Serie temporal de la emisión difusa de dióxido de carbono en el volcán San Vicente, El Salvador (izquierda). A la derecha se muestra el espectro de frecuencias obtenido a partir del análisis de Fourier de la señal original. A pesar de la versatilidad de la transformada de Fourier, existen una serie de inconvenientes. En primer lugar, la transformada de Fourier falla cuando tratamos de representar con exactitud funciones de componentes no periódicas bien localizadas en el tiempo (o en el espacio), como pueden ser los transitorios o impulsos (i.e. la llegada de 9 un tren de ondas P o S a un sismógrafo; la llegada de un pulso de gas a la superficie en forma de solitón). En segundo lugar, la transformada de Fourier no proporciona información sobre la dependencia temporal de la señal ya que la transformada refleja el promediado a través de toda la duración de la serie temporal. Estas limitaciones son patentes cuando se analizan señales geofísicas no estacionarias y de naturaleza no periódica. Muchas series temporales geofísicas exhiben un comportamiento no estacionario en su estadística. Generalmente presentan componentes periódicas dominantes (tendencia o deriva) superpuestas con una serie irregular o ruidosa, y pueden variar tanto en amplitud como en frecuencia. Por eso es interesante poder separar las variaciones de periodo corto de las variaciones de periodo largo y distinguir éstas de las variaciones no periódicas. Para mitigar las limitaciones del análisis de Fourier la Matemática proporciona nuevos métodos: el análisis tiempo-frecuencia. Una aproximación al problema consiste en dividir la señal original en ventanas de duración temporal conocida y analizar el contenido frecuencial de cada una de ellas por separado. Otra aproximación consiste en filtrar diferentes bandas de frecuencia y después dividir estas bandas para analizar la varianza o energía en cada una de ellas. El primer método recibe el nombre de transformada corta o de periodo corto de Fourier (STFT; Dennis Gabor, 1946) y también se usa para construir la transformada de Wigner-Ville: +∞ τ τ W ( w, t ) = ∫ θ (t + ) ⋅ θ (t − ) ⋅ e − jwt dt (21) 2 2 −∞ El segundo método recibe el nombre de transformada de ondícula o transformada wavelet. La transformada wavelet es un procedimiento empleado para diseccionar la señal en sus partes constituyentes permitiendo el análisis de los datos en distintas bandas de frecuencias por comparación con una función átomo denominada wavelet, ψo(η). En otras palabras, se descompone la señal original en un conjunto de funciones base denominadas wavelets (y que deben cumplir una serie de condiciones), análogas a los cosenos y senos de la transformada de Fourier. Estas funciones base se obtienen por dilatación y traslación de una función wavelet madre. La principal diferencia entre la transformada wavelet y la de Fourier es que la primera permite la localización temporal de determinadas componentes periódicas. Para la localización temporal se emplean versiones trasladadas de la función wavelet madre, mientras que para la localización en escala (frecuencia) se emplean versiones dilatadas o contraídas de la misma. Los fundamentos de la transformada wavelet se remontan a los trabajos originales de Alfred Haar en 1909. No obstante, el gran desarrollo de esta transformada y de sus múltiples aplicaciones se debe a las investigaciones de Grossmann (físico teórico) y Morlet (geofísico) en los años 80. Estos investigadores emplearon el análisis tiempo-frecuencia para estudiar terremotos y obtener modelos del desplazamiento de las ondas sísmicas a través de la corteza terrestre. Otros nombres destacados son los Ingrid Daubechies (1988), Stéphane Mallat (1989) y Yves Meyer (matemático especialista en análisis armónico; 1993). La función wavelet empleada en los trabajos de Morlet puede definirse como −1 −η 2 e jϖ oη e 2 (22) donde η representa la variable tiempo sin dimensiones y wo es el número de onda. La versión dilatada y escalada de la función wavelet madre es: ψ o (η ) = π 4 (n´−n)δt δt 2 (n'− n )δt ψ = s ψ o s s 1 (23) 10 donde s es el parámetro de dilatación para cambiar de escala (banda de frecuencia) y n es el parámetro de traslación. El factor s-1/2 normaliza la expresión para mantener constante la energía total de la función wavelet en todas las escalas. La transformada wavelet puede entonces definirse como el producto interior (convolución matemática) de la función wavelet con la serie temporal geofísica [13]: N −1 (n'− n )δt Wn ( s ) = ∑ θ n ' (t )ψ * (24) s n '= 0 donde el asterisco denota el complejo conjugado. En la práctica la transformada wavelet no es calculada en el dominio temporal (ecuación 23) sino en el dominio de Fourier [14]. Para ello se calcula la convolución de las transformadas de la señal original y de la función wavelet modificada: N −1 ∧ ∧ Wn ( s ) = ∑ θ k ψ * ( sϖ k )e jϖ k nδt (25) k =0 La representación bidimensional escala (o frecuencia) versus tiempo de la transformada Wn(s) resulta de utilidad para la interpretación geofísica de un fenómeno. La representación cuadrática, [Wn(s)]2, nos proporciona información sobre la potencia de la señal en una determinada escala y a un tiempo determinado [15]. En la figura 5 se presenta un análisis completo de la serie temporal estudiada por Salazar et al. [16] acerca de la variación temporal de la emisión difusa de dióxido de carbono en el flanco del volcán San Vicente, El Salvador, en 2001. Junto con la serie temporal original se puede observar un gráfico bidimensional tiempo-frecuencia (también conocido como escalograma) obtenido aplicando la transformada de wavelet con una wavelet de Morlet, la potencia espectral asociada a cada frecuencia y la reconstrucción “suavizada” de la serie a partir del promediado de la varianza para oscilaciones de periodo comprendido entre 2 y 24 horas. Figura 5. Análisis tiempo-frecuencia mediante transformada wavelet usando la función wavelet definida por Morlet. 11 En la figura siguiente se muestra la representación tridimensional del escalograma de la figura anterior modificando los ejes de frecuencia y potencia espectral (se han tomado logaritmos de base 2). Figura 6. Escalograma 3D de la serie temporal de la emisión difusa de dióxido de carbono en el volcán San Vicente, El Salvador, en 2002. 3.3. Modelos matemáticos para la interpretación de fenómenos geofísicos La mayor parte de los modelos matemáticos aplicados en Geofísica persiguen distinguir el comportamiento determinista (predecible) del no determinista (parcialmente predecible). La contribución determinista a una serie temporal o espacial puede ser descrita por la tendencia o deriva, Θdet, así como por componentes periódicas de frecuencias conocidas, como las que se obtienen en el análisis de Fourier o análisis armónico. La contribución no determinista, Θno-det, puede reflejar la presencia de componentes irregulares, complejas, no estacionarias, posiblemente no lineales. Esta aproximación común puede describirse de la siguiente manera: Θ(Θ o , r , t ) = Θ det + Θ no −det (26) En función de la naturaleza del campo geofísico que se estudie, el enfoque matemático elegido será uno u otro. En particular, podemos citar el uso de los modelos autorregresivos integrados de medias móviles o ARIMA, propuestos por George E. P. Box y Gwilym M. Jenkins en 1976 en su libro Time Series Analysis: Forecasting and Control [17]. Estos modelos encuentran hoy una versátil aplicación en el estudio de series econométricas y bursátiles. La forma más general de los modelos ARIMA obedece la siguiente formulación: ϕ ( B) y t = φ ( B)∇ d y t = θ o + θ ( B)at (27) φ ( B) = 1 − φ1 B − φ 2 B 2 − ... − φ p B p (28) (29) θ ( B) = 1 − θ 1 B − θ 2 B − ... − θ q B y se denota por las siglas ARIMA(p,d,q). En este caso la serie temporal a modelar es yt y at representa una variable aleatoria (ruido). Este tipo de modelos es aplicable a series temporales estacionarias o cuasi-estacionarias y permite incluir el comportamiento autorregresivo (o autosimilar) de la serie así como la existencia de un comportamiento promediado en el tiempo (medias móviles). Un ejemplo reciente de la aplicación de este tipo de modelos en Volcanología lo constituye el trabajo de Granieri et al. en 2003 [18] quienes han obtenido una expresión para predecir el comportamiento de la emisión difusa de dióxido de carbono en los 2 q 12 campos fumarólicos de la Solfara di Pozzuoli, Italia, bajo la forma de un proceso ARIMA: By t = (0.44 ± 0.03) y t −1 + [η t − (0.77 ± 0.02)η t −1 ] (30) donde ηt representa la serie temporal yt filtrada para eliminar las componentes periódicas conocidas (i.e. como la influencia de la presión barométrica sobre la emisión difusa de gas hidrotermal). El filtrado puede consistir en la eliminación de las principales componentes periódicas reflejadas en el análisis espectral. Otro procedimiento factible consiste en realizar una regresión lineal multivariable entre el flujo difuso de dióxido de carbono y otras variables independientes, como la radiación solar, la presión barométrica, la velocidad del viento, etc. La serie filtrada se obteniene al sustraer de la serie original la serie temporal obtenida por regresión lineal. La descripción matemática de las mareas oceánicas y terrestres ha evolucionado mucho en los últimos treinta años gracias a la mejora en la instrumentación y, por ende, en la calidad de los datos geofísicos (i.e. medida de velocidades angulares, amplitudes, etc.). Las mareas oceánicas y terrestres son debidas a la influencia gravitatoria de la Luna y el Sol (la marea lunar es 2,2 veces mayor que la marea solar). Newton (1687) fue el primero es formular modelos para describir las mareas. Sus ideas fueron desarrolladas por D. Bernouilli (1700-1782), L. Euler (1707-1783) y C. Maclaurin (1698-1746). Pierre Simon, marqués de Laplace (1749-1827), fue el primero en reconocer la dificultad de una solución extacta para modelar las mareas y propuso soluciones aproximadas para describir la fluctuación de las mareas oceánicas. Uno de los modelos más usados para caracterizar y predecir las mareas es el siguiente [19]: M K m =1 k =0 y t = ∑ (α m C mt + β m S mt ) + ∑ bk y t − k + d t + ε t (31) donde el primer sumando de la ecuación representa la respuesta de la Tierra a la fuerza gravitatoria ejercida por la Luna y el Sol; el segundo sumando representa las perturbaciones no gravitatorias ejercidas sobre la marea, como la influencia de la presión barométrica y la temperatura; el tercer sumando representa la tendencia o deriva de la serie temporal (uno de los términos más difíciles de modelar); y, finalmente, el cuarto sumando representa la componente irregular o residuo en las observaciones que no es explicada por las variables anteriores. La obtención de un modelo adecuado para explicar las observaciones requiere el uso de Mínimos Cuadrados para minimizar la siguiente expresión: N J (d ) = ∑ {residuo} + v 2 t =1 2 2 N ∑ { funcion(d )} t =1 t (32) Para determinar el aspecto final del modelo (calcular las constantes de marea αm, βmt, los pesos de la perturbación bk, etc.) es preciso asignar un valor al parámetro v (su cuadrado, v2, recibe el nombre de hiperparámetro). Para ello se elige un valor inicial del hiperparámetro y se emplea el Criterio de Información Bayesiana (ABIC) propuesto por Akaike en 1980 [20] para ajustar el valor de v2 que produzca el modelo más parsimonioso (equilibrio entre la complejidad del modelo y el ajuste a las observaciones ya realizadas): ABIC = −2 log ∫ LP d d (33) { } donde L y P son funciones que dependen de la componente irregular o residuo y de la segunda diferencia de la deriva dt, respectivamente. La microsismicidad de una región puede estar modulada por la acción de las mareas oceánicas (en función de su proximidad al mar) o de otro tipo de cuerpos hídricos (como los lagos o embalses) y mareas terrestres (oscilaciones de menor 13 amplitud de la corteza terrestre). Las mareas actúan como un pistón de movimiento alternativo sobre los fluidos y materiales que conforman la corteza terrestre. Si ésta se encuentra en un estado de tensiones crítico, la fluctuación de la presión ocasionada por las mareas puede actuar como mecanismo modulador de la liberación de energía sísmica acumulada en la corteza terrestre. En la figura 7 se muestra un ejemplo de aplicación del modelo (31) para el cálculo de la marea oceánica en la estación Miyato, Japón. En la figura 7 puede observarse la serie temporal original, expresada en centímetros, que refleja las variaciones temporales del nivel del mar en dicha estación. La aplicación del criterio de Akaike permite extraer la respuesta de la marea oceánica debida a la presión barométrica, lo que facilita el aislamiento de la deriva y la componente irregular de dicho registro. Otros modelos proceden de diversas teorías matemáticas desarrolladas en los últimos años. Entre ellas podemos citar las Redes Neuronales, Lógica Borrosa, Máquinas de Vectores Soporte [21], Fractales [22, 23], Criticalidad Auto-organizada [24, 25, 26], Filtros de Kalman, Modelos de Espacio-Estados, Procesos de Markov, Espectroscopía de Ruido Flicker [27], etc. Figura 7. Análisis de mareas oceánicas realizado sobre una serie de mediciones del nivel del mar en la estación Miyato, Japón. Para ello se ha empleado el programa Baytap-G. [19, 20]. La componente de marea (TIDAL) puede aislarse de la respuesta a la presión barométrica de la marea (RESP), de la tendencia o deriva ocasionada por aspectos instrumentales (TREND) y de una componente irregular o residual (IRREG). Nótese que todas las magnitudes se han expresado en centímetros. 4. Predicción de terremotos y erupciones volcánicas La predicción de terremotos y erupciones volcánicas quizás constituye el aspecto más relevante y de interés social de las investigaciones realizadas por sismólogos, 14 volcanólogos y geofísicos en general. Y la razón es obvia: si sabemos dónde, cuándo y de qué magnitud será el terremoto (o dónde, cuándo y de qué índice de explosividad volcanica será la erupción volcánica) podríamos salvar vidas y minimizar el impacto sobre las infraestructuras y el Medio Ambiente de estos fenómenos naturales. En especial, la predicción de terremotos ha sufrido serios cambios en las últimas décadas. En primer lugar debemos recordar que la fuente de los terremotos no fue renocida como tal hasta 1960 y que las primeras redes sismográficas modernas empezaron a establecerse entre 1970 y 1980. A la euforia desatada en la década de los setenta por la predicción exitosa de algunos terremotos en China, le siguió una década de fracasos predictivos, lo que condujo a modificar el paradigma de la predicción de terremotos: de un paradigma casi determinista a uno probabilista y la introducción de nuevos conceptos físicos: la criticalidad auto-organizada [24, 26]. Durante la década de los 90, y bajo este nuevo paradigma, se han realizado grandes progresos. Son numerosas las investigaciones que ponen de manifiesto la existencia de fenómenos precursores de muy diversa naturaleza que anteceden a los terremotos [28-33]. No obstante, existe una corriente escéptica liderada por R. J. Geller [34, 35] que establece la total imposibilidad de la predicción de terremotos. Una vez aceptado el concepto de la criticalidad autoorganizada en la superficie terrestre [36, 37], se ha reconocido la existencia y ubicuidad de comportamientos transitorios de la corteza que pueden haber sido identificados erróneamente como precursores de terremotos y que resultaron falsas alarmas [38]. La corteza terrestre está en plena transformación a distintas escalas temporales y geológicas. Con la intención de poner orden a este confuso escenario, la Asociación Internacional de Sismología y Física del Interior de la Tierra (IASPEI) formó una Subcomisión para la Predicción de Terremotos quien ha establecido una clara definición de “precursor” y las condiciones para que una observación anómala pueda ser catalogada como tal [39]. Definición de Precursor Un “precursor” se define como un cambio cuantitativamente medible en un parámetro (geofísico) ambiental que ocurre antes de un terremoto (mainshock) y que está relacionado con el proceso de preparación del mismo”. Los candidatos a precursores deben reunir una serie de requisitos: a) la anomalía observada debe tener alguna relación con el esfuerzo o tensión (stress), deformación (strain) o con algún mecanismo que conduzca al terremoto. b) la anomalía debe ser observada smultáneamente al menos con dos instrumentos, o en más de un sitio de observación. c) la amplitud de la anomalía observada debe presentar alguna relación con la distancia al eventual terremoto. d) la proporción entre el tamaño de la zona de riesgo (en el tiempo y en el espacio) y el tamaño de la zona vigilada por instrumentos debe ser discutida para evaluar la utilidad el método de predicción. Atendiendo al Principio de la Sucesión Temporal según la Ley de Causalidad de Kant, “todos los cambios tienen lugar de acuerdo con la ley que enlaza causa y efecto” [40]. Hablar de predicción implica hablar de probabilidades, de nivel de confianza, de riesgo o valor crítico, de estimadores, de distribuciones de probabilidad, etc. Y nuevamente es aquí donde la matemática, con su versión probabilística de los fenómenos naturales, desempeña un papel relevante [41, 42]. Nombres propios de la contribución de la matemática de la probabilidad al resto de las Ciencias son Laplace (probablidad clásica), Émile Borel (teoría de conjuntos), Henri Lebesgue (teoría de la medida), 15 Andrei Nicolaievich Kolgomorov (axiomática del cálculo de probabilidades), Richard von Mises (definición de probabilidad empleando la notación de límite) y Thomas Bayes (teorema de Bayes), entre otros. La definición clásica de probabilidad propuesta por el marqués de Laplace en 1774 (proporción del número de casos favorables a un suceso A al número de casos posibles) quedó superada por la definición del pastor presbiteriano Thomas Bayes (1702-1761) en su conocido teorema: p( Ai ) ⋅ p( B / Ai ) p( Ai / B) = [34] p( A1 ) ⋅ p( B / A1 ) + p( A2 ) ⋅ p( B / A2 ) + ... + p( An ) ⋅ p ( B / An ) donde A1, A2,…,An es un sistema completo de sucesos tales que la probabilidad de cada uno de ellos es distinta de cero y B es un suceso cualquiera para el que se conocen las probabilidades p(B/Ai). Las probabilidades p(Ai) se denominan a priori (i.e. la probabilidad asociada a la observación de un determinado tipo de anomalía potencialmente precursora de un terremoto, como el cambio en el nivel de agua de un pozo o un aumento súbito de la emisión difusa de gas volcánico en el flanco de un volcán); las probabilidades p(B/Ai) se denominan verosimilitudes (i.e. la probabilidad de que ocurra un terremoto habiendo sido observada una anomalía de un determinado tipo); y las probabilidades p(Ai/B) se denominan a posteriori (i.e. la probabilidad de que se observe una anomalía de un determinado tipo habiendo ocurrido un terremoto en la zona de observación). Por otro lado, estos sucesos pueden ser independientes, p(B)=p(B/A), o dependientes, p(B)≠p(B/A). Lo dicho hasta ahora es válido para el estudio de los precursores de una erupción volcánica. En el caso de la erupción volcánica el pronóstico es más sencillo, en principio, debido a que en este caso el área donde podría ocurrir la erupción es conocida de antemano: el propio volcán [43], si éste ya existiera. Dos diferencias notables entre la predicción de una erupción volcánica y la de un terremoto son la cinética y la profundidad del fenómeno [44]. Por lo general, la cinética de una erupción es más lenta que la de nucleación y disparo de un terremoto, por lo que se dispone de un intervalo de tiempo mayor para actuar en el primer caso. Asimismo, la erupción volcánica se fragua a pocos kilómetros de profundidad y suele manifiestarse en la superficie antes de que ocurra la erupción (aumentos de la temperatura del gas y del suelo, cambio en los niveles de agua de pozos, deformación del terreno, muerte de animales por asfixia, tremor volcánico, etc.). Por el contrario, la mayor parte de los terremotos destructivos tienen su foco a profundidades no alcanzables por los instrumentos actuales. Las dificultades experimentales encontradas para la predicción de terremoto parecen, de momento, insalvables. Por un lado, nos encontramos con la imposibilidad de observar directamente la zona de preparación y generación del fenómeno (región sismogenética) [37]. Por otro lado, el parámetro geofísico de mayor interés, el nivel de estrés (debido a las tensiones internas en la corteza), no puede ser medido directamente. Plantear la imposibilidad de la predicción de terremotos también depende de otros aspectos: ¿han hecho lo suficiente los gobiernos para sufragar los costes de la investigación de estos fenómenos? La Sismología moderna es una ciencia reciente y la predicción está dando tan sólo sus primeros pasos. Para ello es preciso desplegar densas redes terrestres de sistemas GPS, usar técnicas de observación espacial (satelital) como la interferometría de radar de apertura sintética (InSAR) e instalar estaciones geofísicas terrestres multivariables (sísmicas y geoquímicas, etc) con sistemas de comunicación automáticos y en tiempo real. Se trata, por tanto, de adoptar un enfoque plenamente multidisciplinar [33]. 16 5. Conclusiones La Naturaleza es compleja per se. Pero es posible dar una descripción de su comportamiento empleando un lenguaje exacto como el de las Matemáticas. La aportación de la Ciencia Matemática en el campo de estudio de la Geofísica, y de la Sismología y de la Volcanología en particular, no se reduce a la mera introducción de fórmulas y ecuaciones más o menos inteligibles. A largo de esta exposición hemos presentado algunas de las aplicaciones matemáticas más importantes en la Sismología y Volcanología modernas, así como los nombres propios de los grandes científicos responsables de dichos desarrollos matemáticos en los últimos siglos. Juntamente con la evolución tecnológica acaecida en el último medio siglo (Tercera Revolución Tecnológica), en el que instrumentación científica y los sistemas de comunicaciones se han desarrollado enormemente, las Matemáticas están desempeñando una labor imprescindible en todas las disciplinas de la Geofísica moderna. No es posible axiomatizar los fenómenos sísmicos y volcánicos, esto es, los terremotos y las erupciones volcánicas. Ambos constituyen sistemas multivariables con un número elevado e indeterminado de grados de libertad. Sin embargo, el uso del lenguaje matemático permite expresar de una manera exacta y útil la información observacional que de estos fenómenos naturales obtienen los científicos. A partir de ella es posible elaborar modelos que los describan y nos permitan realizar pronósticos sobre su evolución futura [24, 34, 36, 45]. Sin duda, este es uno de los mayores retos que las sociedades modernas demandan a la comunidad geofísica internacional para minimizar y mitigar el impacto de los terremotos y las erupciones volcánicas. 6. Reconocimientos Deseo expresar mi gratitud al vicedecano y profesor de la Facultad de Matemáticas de la Universidad de La Laguna Dr. Rodrigo Trujillo por su invitación para impartir esta conferencia y por su apoyo incondicional. El sismograma del terremoto de Kamchatka fue cedido por el Dr. Serge Timashev, del Instituto Karpov de Físico-Química de la Academia de Ciencias de la Federación Rusa. Los datos de nivel de marea fueron cedidos por Yoshiaki Tamura, del National Astronomical Observatory, y Makio Ishiguro, del Institute of Statistical Mathematics, Japón. 17 7. Referencias [1] Agustín Uías y Julio Mézcua, “Fundamentos de Geofísica”, Alianza Universidad, 1997. [2] Andre G. Journel, “Fundamentals of Geostatistics in Five Lessons”, Short Course in Geology: volume 8, American Geohysical Union, 1989. [3] Margaret Armstrong, “Basic Linear Geostatistics”, Springer, 1998. [4] Noel A. C. Cressie "Statistics for Spatial Data", Wiley-Interscience, 1991. [5] Jean Paul Chilès y Pierre Delfiner, “Geostatistics: modeling spatial uncertainty”, Wiley Series in Probability and Statistics, John wiley & Sons, 1999. [6] Edward H. Isaaks y R. Mohan Srivastava, "An Introduction to Applied Geostatistics", Oxford University Press, 1989. [7] J. M. L. Salazar, P. A. Hernández, N. M. Pérez, G. Melián, J. Álvarez y K. Notsu, “Diffuse emission of carbon dioxide from Cerro Negro volcano, Nicaragua, Central America”, Geophysical Research Letters, 28, 4275-4278, 2001. [8] Chris Chatfield, “The analysis of time series: an introduction”, Chapman & Hall/CRC, 5ª edición, 1996. [9] Alan V. Oppenheim, Ronald W. Schafer y John R. Buck, “Tratamiento de señales en tiempo discreto”, Prentice Hall, 2000. [10] Alan V. Oppenheim, Alan S. Willsky y Ian T. Young, “Señales y Sistemas”, Prentice Hall, 1983. [11] B. Chouet, “A seismic model for the source of long-period events and harmonic tremor”, en Gasparini et al. (editores.), Volcanic Seismology, IAVCEI Proceedings in Volcanology 3, 133-156, 1992. [12] Jr. A. S. Ryall y F. Ryall, “Spasmodic tremor and possible magma injection in Long Valley caldera, eastern California”, Science, 219, 4591, 1432-1433, 1983. [13] Stéphane Mallat, “A wavelet tour of signal processing”, segunda edición, Academic Press, 1999. [14] Ingrid Daubechies, “Ten lectures on wavelets”, CBMS-NSF Regional Conference Series in Applied Mathematics 61, 1992. [15] Efi Foufoula-Georgiou y Praven Kumar (editors), “Wavelets in Geophysics”, Academic Press, 1994. [16] J. M. L. Salazar, N. M. Pérez, P. A. Hernández, T. Soriano, F. Barahona, R. Olmos, R. Cartagena, D. L. López, R. N. Lima, G. Melián, I. Galindo, E. Padrón, H. Sumino y K. Notsu, “Precursory diffuse carbon dioxide degassing signature related to a 5.1 magnitude earthquake in El Salvador, Central America”, Earth and Planetary Science Letters, 205/1-2, 81-89, 2002 [17] George E. P. Box, Gwilym M. Jenkins y Gregory C. Reinsel, “Time Series Analysis: forecasting and control”, tercera edición, Prentice Hall, 1994. [18] D. Granieri, G. Chiodini, W. Marzocchi, R. Avino, “Continuous monitoring of soil CO2 diffuse degassing at Phlegraean Fields (Italy): influence of environmental and volcanic parameters”, Earth and Planetary Science Letters, 212, 167-179, 2003. [19] Y. Tamura, T. Sato, M. Ooe and M.Ishiguro, “A Procedure for Tidal Analysis with a Bayesian Information Criterion”, Geophysical Journal International, 104, 507-516, 1991. [20] M. Ishiguro y Y. Tamura, “BAYTAP-G in TIMSAC-84”, Computer Science Monographs, 22, Institute of Statistical Mathematics, 1985. [21] V. Vapnik, “The Nature of Statistical Learning Theory”, Springer-Verlag, New York, 1995. [22] Benoît B. Mandelbrot, “La geometría fractal de la Naturaleza”, Tusquets editores, 2ª edición, 2003. [23] Benoît B. Mandelbrot, “The fractal geometry of nature”, W. H. Freeman and Company, 1983. [24] P. Bak, C. Tang y K. Wiesenfeld, “Self-organized criticality”, Phys. Rev. A, 38, 364-374, 1988. [25] Donald L. Turcotte, “Fractals and Chaos in Geology and Geophysics”, segunda edición, Cambridge University Press, 1997. [26] Stefan Hergarten, “Self-organized Criticality in Earth Systems”, Springer, 2002. [27] A. V. Descherevsky, A. A. Lukk, A. Ya. Sidorin, G. V. Vstovsky y S. F. Timashev, “Flickernoise spectroscopy in earthquake prediction research”, Natural Hazard and Earth System Sciences, 20, 1-6, 2002. [28] W. P. Irwin y I. Barnes, “Tectonic relations of carbon dioxide discharges and earthquakes”, J. Geophys. Res. 85, 3115-3121, 1980. [29] T. Gold, S. Soter, “Fluid ascent through the soil lithosphere and its relation to earthquakes”, Pure Appl. Geophys. 122, 493-530, 1984/85. [30] E. A. Roeloffs, “Hydrologic precursors to earthquakes: a review”, Pure App. Geophys., 126, 177-209, 1988. [31] P. G. Silver, H. Wakita, “A search for earthquake precursors”, Science 273, 77-78, 1996. 18 [32] J.-P. Toutain y C.-J. Barbon, “Gas geochemistry and seismotectonics: a review”, Tectonophysics, 304, 1-27, 1999. [33] D. Sornette, “Towards a truly interdisciplinary approach to earthquake prediction”, Nature, webpage: debate (http://helix.nature.com/debates/), 1999. [34] R. J. Geller, D. D. Jackson, Y. Y. Kagan, F. Mulargia, “Earthquakes cannot be predicted”, Science, 275, 1616-1617, 1997. [35] R. J. Geller, “Earthquake prediction: a critical review”, Geophys. J. Int., 131, 425-450, 1997. [36] Max Wyss, “Cannot earthquakes be predicted?”, Science, 278, 487-488. [37] Max Wyss, “Why is earthquake prediction research not progressing faster?”, Tectonophysics 338, 217-223. [38] Pascal Bernard, “From the search of ‘precursors’ to the research on ‘crustal transients’”, Tectonophysics, 338, 225-332, 2001. [39] M. Wyss (editor), “Evaluation of proposed earthquake precursors”, American Geophysical Union, 1991. [40] Immanuel Kant, “Crítica de la razón pura”, Prólogo, traducción, notas e índices por Pedro Ribas, Alfaguara, 2000. [41] David W. Simpson y Paul G. Richards, “Earthquake prediction: an international review”, Maurice Ewing Series 4, American Geophysical Union, 1981. [42] Max Wyss y Renata Dmowska (editores), “Earthquake prediction – state of the art”, Pageoph topical volumes, Birkhäuser, 1997. [43] H. Sigurdsson (editor), “Encyclopedia of Volcanoes”, Academic Press, 2000. [44] Roberto Scarpa y Robert I. Tilling (editores), “Monitoring and Mitigation of Volcano Hazards”, Springer, 1996. [45] Andreas S. Weigend y Neil A. Gershenfeld (editores), “Time Series Prediction: forecasting the future and understanding the past”, Santa Fe Institute Series, Addison Wesley, 1994. 19