Modelos teóricos y numéricos en los estudios de predecibilidad climática: Introducción elemental José M. Pacheco1 Departamento de Matemáticas Universidad de Las Palmas de Gran Canaria Resumen En la presente ponencia se pasa revista al concepto de modelo y a cuáles de ellos son de aplicación en Climatología, explicitando sus ventajas e inconvenientes. Se propone, como mejor alternativa de valor científico y metodológico, la utilización de modelos mixtos, combinando los de carácter teórico –o conceptual- con los grandes modelos numéricos. Abstract In the present communication the idea of a model is reviewed, as well as its applications to Climatology. Their advantages and pitfalls are also commented. A proposal is made, that of considering mixed models built as a mixture of first-principle derived models and numerical ones, as the best outcome in the scientific and methodological realm. Introducción: Generalidades sobre la predicción Predicción tiene por etimología el latín pre+dicere, esto es, “decir antes”. Una vez sabido el significado general, conviene irlo afinando para ajustarlo a los usos que la práctica demanda. Por ello, no se trata sólo de “decir antes”, sino de “decirlo bien”, o sea, acertar; también, hacerlo con un plazo suficiente para poder tomar las medidas que se crean oportunas, y además tener una idea de hasta cuándo es posible predecir el futuro con cierto éxito. Cuando se efectúa una predicción, se está estimando un valor futuro de alguna variable que se considere representativa de una cierta situación. Por ejemplo, en cuestiones climáticas podría tratarse de temperaturas medias de la atmósfera en determinados niveles, concentraciones de gases, precipitación, etc. También se pueden hacer predicciones espaciales, como la ubicación, movilidad e intensidad local de fenómenos extremos, caso por ejemplo de los huracanes y tormentas tropicales (Fernández & Pacheco 2000, Pacheco & Hayek 1997). Normalmente ambos tipos de predicción están ligados y se realizan a la vez, como lo prueban los productos que ofrecen las grandes agencias e institutos de Meteorología y Climatología. Las estimaciones realizadas para predecir se denominan predictores. Pueden construirse de modos muy diversos, de algunos de los cuales nos ocuparemos en este trabajo, y su bondad se mide -como es natural- por el porcentaje de aciertos en situaciones del pasado predichas con igual técnica. Las bases de registros disponibles hoy día permiten realizar experimentos de predecibilidad con datos pasados y simular situaciones ya conocidas mediante diversas técnicas, estudiando y comparando los resultados. Es claro que para estos experimentos la tercera propiedad de la predicción no tiene demasiado interés, pues la predicción -o mejor, simulación- del pasado no incita a la prisa. 1 E-mail: [email protected] 1 Sin embargo, en las predicciones día a día para fenómenos meteorológicos, o anualmente para situaciones climáticas, es conveniente que la predicción pueda llevarse a cabo con antelación suficiente. Por supuesto, hay predictores que se pueden formular de inmediato: por ejemplo tomemos la permanencia y el paseo aleatorio. El primero consiste en suponer que la situación actual se prolongará hasta el momento para el que se quiere predecir; el segundo supone que la predicción es una mera cuestión de suerte. Ambos son predictores válidos y utilizados con frecuencia como “enemigos a batir” por cualquier otro diseño de predicción. Pero no todos los métodos son tan rápidos, y lleva siempre cierto tiempo efectuar la predicción. Así, una predicción a 24 horas vista necesitará siempre, para ser de alguna utilidad, que se haga en menos de 24 horas, y si es en cuatro o cinco, mejor aún. Hasta hace unos cuarenta años no se consiguió que esta importante propiedad se cumpla con regularidad, y estamos tan acostumbrados a ella que al parecer todo el mundo la da por descontada, pero no siempre es cierto, sobre todo en relación con fenómenos extremos. Para finalizar esta introducción presentaremos el problema de “hasta cuándo” es posible predecir con confianza. Ese límite, a partir del cual la predicción no es fiable, se llama “horizonte de la predicción”, es calculable y debe ofrecerse entre los resultados que se presenten (Gimeno et al. 2001). La pérdida de valor de la predicción con el tiempo, o lo que es igual, la dificultad de predecir más allá de cierto lapso temporal, se debe a la incapacidad de contar para construir el predictor con la información generada entre el instante de su formulación y aquél al cual se refiere. Por eso nunca vemos predicciones meteorológicas para más de siete u ocho días: En esa semana pueden generarse fenómenos atmosféricos que invaliden, debido a las nuevas informaciones que transportan, una predicción que no pudo tenerlas en cuenta. Series temporales Prácticamente todos los registros interesantes en Meteorología y Climatología se presentan en forma de series temporales, esto es, los datos están ordenados de forma correlativa respecto del tiempo. En fórmulas, se trata de trabajar con conjuntos de valores de la forma {X t t = 1,2,..., N }. En esencia, el análisis de datos temporales se reduce a encontrar pautas o patrones que se repiten más o menos exactamente a lo largo de ellas. Para las series meteorológicas, por ejemplo, existe una pauta periódica de un año que se corresponde con el periodo de traslación de la Tierra alrededor del Sol. Para datos tomados a intervalos muy cortos de tiempo es posible distinguir la pauta diaria de día/noche asociada a la rotación de la Tierra, y varias más. Todas estas pautas pueden ser sustraídas de la señal original dejando un resto o residuo como resultado de este primer análisis: X t = Pt + Rt Sobre la señal residual se aplican las técnicas de la Estadística para extraer aquellas informaciones que no fueron captadas en la primera fase del estudio. Una primera investigación es investigar si el residuo es algún tipo de ruido, en cuyo caso la señal básica se interpretaría como un comportamiento periódico modulado por fenómenos asociados al azar. 2 Ahora bien, no todos los ruidos son iguales. Un ruido es simplemente una sucesión de valores muestreados en una distribución estadística, por tanto son números alrededor de un valor medio y distribuidos alrededor de él con un grado de agrupamiento que viene dado por la varianza de la distribución. Así se puede hablar de ruidos Gaussianos, uniformes, etc. Pero existe otra manera de clasificar los ruidos, atendiendo a si existe correlación entre un valor y los anteriores, esto es, se calcula la función de autocorrelación g ( s ) =< Rt Rt −s > que nos indica si para cada intervalo o distancia temporal s existe correlación entre los ruidos correspondientes. Si es nula, esto es, no existe correlación para ningún valor de s exceptuando el caso obvio en que s = 0 , donde no puede ser nula, se dice que el ruido es blanco, lo cual es una forma abreviada de decir que carece de estructura de memoria y en la predicción ésta se reducirá a la parte periódica de la señal básica más un complemento puramente aleatorio que nos podrá informar, como mucho de unas fluctuaciones medias y poco más. Para datos climáticos el objetivo habitual es el da hallar periodicidades en la escala decadal (decenas de años) o incluso superior. En este caso, la existencia de correlaciones a largo plazo con valores previos se indica diciendo que el ruido es rojo, lo cual indica la presencia de una memoria en el fenómeno estudiado, que puede ser utilizada en la predicción. Hay métodos cuantitativos para apreciar el grado de rojez de un ruido y poder establecer el horizonte de la predicción y demás cuestiones de interés sobre el fenómeno estudiado (Caldeira et al. 2006). El principal inconveniente de los estudios de series temporales es que obvian la fenomenología subyacente, a menos de llevarse a cabo un estudio muy detallado de la interpretación de las informaciones obtenidas (Fernández et al. 2003). Un ejemplo lo aclarará mejor: Supongamos que se ha obtenido que determinada señal presenta una pauta periódica de cuatro semanas detectada con el análisis de un ruido rojo. En ese momento hay que preguntarse si verdaderamente existe alguna causa para esa característica o, por el contrario, se trata de un artificio del aparato matemático. Por ello es conveniente también combinar los estudios de series temporales con los modelos teóricos procedentes de la aplicación de primeros principios. Modelos teóricos Un modelo es una representación simplificada de alguna parcela del mundo real. Por ejemplo, las series temporales del apartado anterior son representaciones del mundo real donde sólo se considera como descripción el dato de la variable que se haya elegido, como podría ser la temperatura del aire. Sin embargo, la Ciencia avanza sobre la construcción de Teorías (o “visiones”) que por regla general se componen de partes o “modelos”. En este caso, un modelo es una formulación de alguna parte de la teoría. Si nos hallamos en el mundo de la Física utilizaremos casi sin dudar las Matemáticas para escribir un modelo, y por tanto recibirá el nombre de “modelo matemático”. La inmensa ventaja del modelo matemático es que permite aplicar a las ecuaciones o expresiones que lo conforman todo el aparato deductivo de las Matemáticas y obtener resultados interpretables en términos físicos, 3 resultados que con toda seguridad no habrían sido previstos por la fase inductiva de recopilación y clasificación de datos. Para ver en acción esta forma de entender la Física, supongamos que deseamos estudiar la dinámica atmosférica siguiendo a una partícula en el aire. La primera observación es que se halla sometida a diferentes fuerzas, como la del viento, la presión atmosférica, etc. Usando la segunda ley de Newton, escribiremos: → → ma = F para indicar la proporcionalidad entre la aceleración y la fuerza total a que se halla sometida la partícula. Ahora bien, la fuerza total puede desmenuzarse en otras según el grado de finura de nuestro análisis, de modo que → F = gradP +Coriolis + ... Si además descomponemos las magnitudes vectoriales en sus tres componentes respecto a algún sistema de referencia, tendremos las expresiones habitualmente denominadas ecuaciones primitivas o de Euler. Dado que al introducir las diversas fuerzas aparecieron otras magnitudes como la presión, la temperatura y alguna más, se han de añadir a las ecuaciones derivadas de la ley de Newton las correspondientes a las nuevas magnitudes, generando un modelo teórico al que se le pueden aplicar las técnicas habituales de las Matemáticas. Para este caso se pueden establecer resultados de existencia de soluciones, desarrollar aproximaciones cualitativas para conocer aspectos de las soluciones, pero por desgracia no hay técnicas de resolución –integración de ecuaciones diferenciales- que permitan obtener de forma explícita soluciones del sistema planteado. Este comportamiento es muy frecuente cuando se construyen modelos para hechos físicos. Salvo que se haya seleccionado una versión muy simplificada a base de despreciar diferentes relaciones y magnitudes, lo más corriente será encontrarse con expresiones de las que sólo se pueden obtener soluciones de modo aproximado, que pueden calcularse mediante métodos numéricos. Pero antes de pasar a los modelos numéricos conviene insistir en la necesidad de formular modelos teóricos. Tales modelos están basados en la experiencia acumulada por especialistas y suelen descansar sobre una comprensión profunda de la fenomenología de lo que se desea estudiar, al contrario de lo que pasaba, por ejemplo, con los análisis de series temporales, donde la interpretación es siempre a posteriori. Por tanto, si se han formulado con las necesarias dosis de simplificación y sabiduría en la elección de las magnitudes y relaciones fundamentales, los modelos teóricos son la base más sólida para un estudio provechoso de cualquier fenómeno físico. Modelos Numéricos Los modelos numéricos son hijos del desarrollo tecnológico, aunque no debe pensarse que lo sean sólo desde que existen ordenadores. Las técnicas de cálculo numérico para hallar soluciones de ecuaciones algebraicas, de integrales definidas, para la integración de ecuaciones diferenciales ordinarias y de algunas en derivadas parciales, aparecieron 4 de forma gradual a lo largo del Siglo XVIII y del XIX y fueron implementadas en grandes hojas de cálculo manual, luego suplementadas por calculadoras básicas manejadas por verdaderos ejércitos de calculistas –por regla general eran mujeres- que alimentaban sus máquinas con las operaciones elementales a que se reducen en última instancia los cálculos numéricos. Mucho antes de la existencia de máquinas electrónicas ya se conocían resultados teóricos y prácticos acerca de las condiciones bajo las que las soluciones de las aproximaciones numéricas se podían considerar razonablemente aproximadas a las soluciones –por otra parte no conocidas explícitamente- de las ecuaciones de los modelos teóricos. Entre estos resultados teóricos se encuentra, para las ecuaciones en derivadas parciales, el cálculo del número de condición o de CourantFriedrichs y Levy (CFL) que relaciona el tamaño de los pasos espacial y temporal de la integración. Si no respeta la condición dada por el número CFL, el cálculo se inestabiliza y resulta inútil a efectos prácticos. Sin embargo, la popularización de las máquinas electrónicas y su imparable velocidad de crecimiento en complejidad, capacidad de memoria, rapidez en los cálculos, etc., han conseguido que los esquemas numéricos utilizados para la resolución de las aproximaciones de las ecuaciones de los modelos teóricos conformen por sí mismos una nueva categoría de modelos, en especial cuando se trata de situaciones de gran complicación por el elevado número de variables, o lo extenso de los dominios espaciotemporales que deben discretizarse y controlar por tanto el crecimiento de las fuentes de error en los cálculos aproximados. Para hacernos una idea del volumen de los cálculos que pueden intervenir en un modelo numérico, pensemos en un programa de ordenador ideado para evaluar velocidad de viento, concentración de varios gases de efecto invernadero y temperatura a nivel hemisférico con una malla espacial de unos100 km de lado y dividiendo la atmósfera en veinte capas. Para una extensión de 4000 por 3000 km, más o menos la parte continental de los Estados Unidos, se requerirían 40 × 30 × 20 = 24000 nodos donde efectuar el cálculo. Si el número de variables que se van a determinar es de 10, habrá que resolver sistemas numéricos de 240000 ecuaciones, y dado que cada ecuación requiere un número de operaciones elementales, que podríamos fijar en 10000 (estimación muy conservadora), una determinación de las 10 variables necesitará como mínimo 2400 millones de operaciones. Pero en la predicción hay que llevar a cabo esa determinación muchísimas veces, una tras otra, utilizando la anterior como punto de partida de la siguiente. El número de veces que hay que repetir el cálculo depende de varios factores, entre ellos del número CFL, pero no es arriesgado decir que una predicción meteorológica razonable necesite calcular una determinación para cada cinco minutos. Eso indica que en una predicción a un día harían falta 24 × 12 = 288 repeticiones de los 2400 millones de cálculos elementales, esto es, unas 7 × 1011 operaciones que han de realizarse, con todo su proceso de control de ejecución y generación de resultados en formatos comprensibles en bastante menos de las 24 horas de la predicción. Lo anterior nos muestra de nuevo que es razonable pensar en que por sí solos los modelos numéricos bien merecen ser considerados una categoría nueva, separada de las otras clases de modelos predictivos. Dado que el análisis interno de los modelos numéricos se lleva a cabo de nuevo con técnicas matemáticas, existen matemáticos y expertos en computación cuya tarea es el estudio de esta clase de modelos como si fuesen una nueva clase de fenómenos físicos (o tecnológicos). 5 Los resultados o output de los modelos numéricos se analizan de nuevo con ayuda de los métodos estadísticos tradicionales para comparar su desempeño en situaciones conocidas (simulación) y así ser utilizados después, ya de modo efectivo, en la realización de predicciones. Los Modelos de la Climatología Las características esenciales de los modelos utilizados por los grandes institutos y agencias dedicados a la Climatología son las siguientes: • En principio, utilizan las mismas ecuaciones dinámicas que los modelos meteorológicos, pero para variables promediadas espacial y temporalmente. • Suelen extenderse espacialmente al menos a un hemisferio terrestre. • Están estructurados en submodelos, uno para cada característica que se estime conveniente incluir: 1. Submodelo atmosférico 2. Submodelo oceánico 3. Submodelo de casquetes polares 4. Submodelo de asimilación de datos 5. Otros… • En función de cómo se consideren las partes atmosférica y oceánica, las dos grandes divisiones son 1. Modelo combinado de circulación general atmosférica (AGCM) con un modelo más sencillo de océano, por lo general de orden cero (sin derivadas). Sobre este punto volveremos algo más adelante. 2. Modelo de doble circulación general, tanto atmosférica como oceánica (AGCM + OGCM). 3. También existe el punto de vista de que la Climatología es una cuestión puramente oceánica, siendo la atmósfera un simple sistema esclavo del océano, lo cual llevaría a contemplar modelos del tipo OGCM acoplados a modelos muy sencillos de atmósfera, como el tipo 1 pero al revés. Aquí no entraremos en los detalles de los diversos modelos. Baste saber que prácticamente cada servicio meteorológico y climático posee el suyo, o un conjunto de ellos. Pero sí presentaremos algunas ideas acerca de cómo se trabaja con ellos. La técnica de trabajo presenta las siguientes etapas típicas: • • • Establecido el modelo, se plantea un escenario inicial, esto es, el conjunto de condiciones iniciales para lanzarlo. Algunas de las características del escenario inicial pueden ser variables de carácter exógeno, con variaciones en principio independientes de las de las variables típicamente climáticas. Tal es el caso de los gases de efecto invernadero: Para ellos se puede considerar que evolucionan según el protocolo de Kioto, o no. Esta evolución es incorporada a lo largo de la simulación, con lo cual el modelo correrá de diferente manera y ofrecerá diferentes proyecciones o escenarios futuros como resultado. Con los mismos escenarios iniciales, se cambia un modelo por otro y se comparan los resultados de ambos. Existen estudios de comparación de hasta 15 ó veinte modelos simulando a partir de las mismas condiciones iniciales, y no siempre generan los mismos escenarios para el futuro. 6 • • Se utiliza el submodelo o módulo de asimilación de datos para ir variando las entradas al modelo general según éste va corriendo, con lo cual se puede ir alargando el horizonte de predicción. Como producto final se suele ofrecer un abanico de posibles futuros promediados obtenidos a partir de una selección de modelos y de escenarios iniciales. La utilidad que se le pueda dar a estos productos finales dependerá de los gestores ambientales, que son quienes tienen el poder de tomar decisiones en cuestiones de tanta importancia como la limitación de emisiones de gases de efecto invernadero, su cuantificación en términos de externalidades económicas, o el establecimiento de mercados de derechos de emisión, etc. Algo más sobre modelos mixtos GCM+conceptual Abandonando el campo de la política y restringiendo nuestro estudio a algunos aspectos puramente científicos, existen en la actualidad dos tendencias en la profundización de la comprensión del clima y sus variaciones: • • Usar modelos numéricos, cuanto más sofisticados y potentes, mejor…, pero plantean el problema de que la imprecisión de las condiciones suplementarias dificulta o impide la predicción. Como ya hemos dicho antes, el proceso de asimilación de datos ayuda a paliar este problema. Por ello se tiende, al menos en una primera etapa, y a modo de guía preliminar, a combinar modelos numéricos con modelos conceptuales. Esta filosofía se utiliza esencialmente, para hacer más cómoda la predicción. Por ejemplo, un modelo global del tipo AGCM+OCGM es mucho más complicado de controlar, matemáticamente hablando, que un modelo mixto AGCM+conceptual u OGCM+conceptual, y puede ocurrir que las predicciones sean de igual calidad con un coste, tanto computacional como económico, mucho menor. Vamos a comentar un modelo conceptual que puede transformarse en diferentes modelos mixtos: El modelo de Bretherton y Battisti para la NAO (North Atlantic Oscillation, Oscilación del Atlántico Norte), presentado el año 2000 (Modelo BB2000). Véase Bretherton & Battisti 2000. Las ecuaciones del modelo son las siguientes, a las que hay que añadir condiciones iniciales (SST: Sea Surface Temperatura, temperatura superficial del mar), donde ε es un parámetro pequeño para indicar que la variación de la SST es lenta con relación a las variaciones atmosféricas: dNAO = − aNAO + bSST + R (0,1) dt dSST = ε [cNAO − dSST ] dt Un breve análisis de este modelo nos dice lo siguiente: • BB2000 no presenta, a priori, capacidades predictivas a plazo superior a unos pocos meses, debido a que la SST está determinada por el ruido atmosférico 7 • • • Sin embargo, los experimentos muestran que reproduce bastante bien las características básicas descritas por modelos más complejos. Sin el término de ruido R (0,1) el sistema es lineal, sus elementos básicos son la b ⎤ ⎡− a traza y el determinante de la matriz ⎢ ⎥ . Para valores adecuados de los ⎣ εc − εd ⎦ parámetros se consigue que el origen sea estable, bajo las condiciones: Det = ε ( ad − bc ) > 0 y Traza = −( a + εd ) < 0 . Pero la introducción del término ruidoso cambia la estabilidad del origen, originando oscilaciones. En términos matemáticos, se ha producido una bifurcación de Hopf estocástica (Banerjee et al. 2000) Vemos aquí la NAO (azul, más abrupta) y la SST (roja, más lisa) asociada a ella según el modelo BB2000 1: NAO 1: 2: 2: SST 3 0 2 1 1: 2: 2 1 0 2 1 1 1 2 1: 2: -2 -0 0.00 45.00 Page 1 90.00 Time 135.00 180.00 NAO (azul) y SST Figura 1: NAO y SST según BB2000 (realizada con STELLA). donde hemos utilizado la siguiente realización de ruido blanco Gaussiano N (0,1) : 1: Ruido 1: 4 1 1: 1 1 1 1 1: Page 1 -3 0.00 45.00 90.00 Time 135.00 180.00 Realización del ruido blanco Figura 2: Realización de ruido utilizada en la obtención de la Figura 1 (realizada con STELLA). 8 Se observa la pauta general de que una de las señales sigue a la otra con un ligero retardo. Ello indica que si se conoce una de ellas, obtenida por ejemplo a partir de un modelo AGCM u OGCM, se podrá utilizar para predecir la otra. Como siempre, quedará abierto el problema de cuál es la causa y cuál es el efecto. Por tanto, los experimentos realizados a partir del modelo BB2000 han sido: • • • • Experimentos sólo con BB2000 Acoplar la parte SST con un AGCM Acoplar la parte NAO con un OGCM Aplicar las técnicas de análisis de datos a los outputs de estas combinaciones Por ejemplo, los experimentos sólo con BB2000 llevan la siguiente pauta: 1. 2. 3. 4. Generar una solución y guardar la SST resultante. Resolver la parte NAO de BB2000 varias veces con la SST anterior fijada Promediar los resultados obtenidos Calcular la correlación entre esta NAO media y la SST Los experimentos mixtos serán, pues, de dos tipos: El primero, utilizar la señal generada de SST por BB2000 como si fuera un dato observacional y alimentar con ella el modelo AGCM para calcular la NAO; el segundo, usar la señal NAO generada por BB2000 como entrada al modelo OGCM que nos dará la SST. Pueden verse resultados de estos experimentos en Eden & Greatbatch 2003. Conclusiones Las conclusiones científicas de esta ponencia son tres, muy simples: • • • La predicción climática es inseparable de la formulación de modelos. No siempre los modelos más complicados son los mejores, si no se someten a comparación con modelos simples que todavía conservan las ideas físicas primitivas. Queda un inmenso esfuerzo por hacer en la comprensión de la complejidad del sistema climático, de las fuerzas que lo impulsan y de las posibles perturbaciones a que se halla sometido y que pueden modificar drásticamente su comportamiento futuro. Referencias Banerjee S, Bhattacharya R, Chakrabarti C (2000) Shift of bifurcation point due to noise induced parameter, Int. J. Math.& Math. Sci. 23(6), pp.435-439. Bretherton C, Battisti D (2000) An interpretation of the results from atmospheric general circulation models forced by the time history of the observed SST distribution, Geophys. Res. Letters 27(6), pp. 767-770. Caldeira R, Fernández I & Pacheco J (2006) On NAO's predictability through the DFA method. Meteorology and Atmospheric Physics. Online: 15 Nov 2006. 9 Eden C, Greatbatch R (2003) A damped decadal oscillation in the North Atlantic Climate System, J. Climate 16, pp.4043-4060. Fernández I, Hernández C, Pacheco J (2003) Is the NAO just a pink noise? , Physica A 323, pp.705-716. Fernández I, Pacheco J (2000) Bases para la predicción de ENSO, In E. Hernández and R. García, (eds) El Niño, climatología, efectos y predicción, (93-131), Universidad Complutense and Fundación MAPFRE. Gimeno L, García R, Pacheco J, Hernández E, Ribera P (2001) Predictability of global surface temperature by means of nonlinear analysis, Earth & Planetary Science Letters 184, pp. 561-565. Pacheco J, Hayek N (1997) Climate, Mathematics, and the Canary Islands. In Díaz, J.I. (ed) The Mathematics of Models for Climatology and Environment (411-418), Springer Verlag (NATO ASI Series I, Nº 48). 10