VII. LA APORTACIÓN MEXICANA



¡Al fin es el tiempo de su lloro!
Ay, yo fui creado
y de mi dios,
festivos manojos de ensangrentadas espigas,
ya llevo
al patio divino.
Tú eres el que produce nuestro sustento.
"Himno a Tláloc para implorar la lluvia", Himnos sacros de los nahuas

¿QUÉ PASA? ¿POR QUÉ PASA? ¿QUÉ VA A PASAR?

EL PROPÓSITO de la ciencia es responder estas tres preguntas, referidas al objeto de estudio; es decir, la ciencia tiene por finalidad la observación, la explicación y la predicción de ciertos fenómenos; además, su evolución va en este orden.

Veamos el caso de la ciencia llamada física del clima. Ciertamente, el estudio del clima comenzó observándolo, primero cualitativamente y luego midiendo sus variables. Sin embargo, aunque la observación es la etapa inicial en el estudio de un sistema, ella no se agota al pasar a las siguientes: explicación y predicción. Continua y permanentemente se toman datos del objeto de estudio, en este caso el clima; y esto obedece a dos razones: primera, porque el fenómeno se transforma sin cesar y cotidianamente ofrece información nueva que enriquece el acervo; y segunda, porque siempre es necesario aumentar y refinar la información en el espacio y el tiempo. Es decir, hay que solventar la carencia de datos en amplias regiones de la Tierra (sobre todo las despobladas, como los océanos, polos y desiertos), tomar registros ininterrumpidos de más variables y tener información cada vez más detallada, diversificada y confiable.

Es decir, se pugna por tener mayor cantidad y calidad de datos, los cuales deben ser sistematizados y expeditos para los investigadores y demás usuarios. Los problemas que implica esta etapa son básicamente tecnológicos: medición automatizada, sensores remotos, bases de datos, telecomunicaciones, etc. De modo que la observación progresa junto con la tecnología.

Concluyendo, la primera etapa de la ciencia es la observación y responde a la pregunta ¿qué pasa?, o sea describe por fuera el fenómeno o sistema.

La segunda etapa es la explicación del fenómeno; es decir, responde a la pregunta ¿por qué pasa lo que pasa?, y también se le llama diagnóstico; estudia por dentro el fenómeno, buscando sus causas y relacionándolas con sus manifestaciones externas.

Desde la introducción, y en varias ocasiones, hemos dicho que la complejidad del sistema climático impide tanto establecer cualitativamente relaciones de causa-efecto claras y realistas, como sacar conclusiones cuantitativas con base en consideraciones simples. Para esto se requieren modelos fisicomatemáticos; es decir, para diagnosticar el clima hay que entender integradamente los mecanismos físicos más sobresalientes del sistema climático.

Si para explicar el clima se necesitan modelos, con mayor razón para predecirlo; por eso la predicción es la etapa más avanzada de la ciencia clásica. Evidentemente, la pregunta ¿qué va a pasar? es más difícil de contestar que aquella de ¿por qué pasa lo que pasa?

Claro que las explicaciones no deben ser ad hoc, sino casos particulares de una general; en otras palabras, el modelo debe servir para explicar una amplia gama de situaciones, y cuanto más amplia sea, mejor. No debe haber un modelo específico para cada situación, un modelo respetable es general y se espera que también pueda usarse para calcular lo que aún no sucede; es decir, uno que sirva para diagnosticar, puede evolucionar naturalmente para pronosticar; aunque este paso no es inmediato.

Es fácil acopiar argumentos que expliquen lo que ya pasó ("a toro pasado..."); lo difícil es anticiparse a los acontecimientos. Un vicio de algunos comentaristas de fútbol consiste en "predecir" lapidariamente que (v. gr.) el "América" va a ganar, y después ocupan media hora justificando por qué perdió.

COMPRARLO HECHO O HACERLO UNO

Vamos a hacer algunas precisiones lingüísticas. Hemos llamado sistema climático a la porción del planeta en que tiene lugar el clima, acoplada al conjunto de fenómenos físicos que lo producen. Esta definición es usual en la ciencia: se selecciona para su estudio un fragmento del Universo o de la naturaleza. Para reafirmar esto, diremos que éste es el sistema natural; también podría decirse real, verdadero, etc.; pero prefiero el primer adjetivo. Por otro lado, un modelo del clima es una representación fisicomatemática del sistema (natural) climático; de manera que el modelo es un sistema teórico, que siempre es mucho más simple que el natural.

Todo sistema tiene entradas (llamadas también insumos), salidas (productos), proceso (sistema, propiamente dicho), retroalimentaciones (forzamientos internos), etcétera. El clima los tiene, y en el sistema natural son innumerables, pero el sistema teórico tiene unos cuantos de ellos, que de todos modos son numerosos.

Un ejemplo cotidiano de sistema es una receta de cocina: la entrada son los ingredientes, el proceso es la "manera de hacerse", la salida es el platillo resultante y una retroalimentación sería una fermentación que se desencadene al poner en contacto ciertos ingredientes.

De un sistema importa más la función que la estructura, el software que el hardware, lo que hace, más que con qué lo hace. Además, un sistema es más valioso si hace más cosas, o sea que con insumos elementales elabore productos refinados. Esto también aumenta la versatilidad, pues los ingredientes básicos pueden usarse de diversas maneras con resultados muy diferentes.

Llevando las cosas al extremo, diríamos que el sistema cocina-cocinero ideal sería aquel que a partir de cualquier material (p. ej. piedras) confeccionara los platillos más refinados; ya que a fin de cuentas todo, en particular la comida, está hecho solamente de electrones, protones y neutrones, los cuales abundan en cualquier cosa, como las piedras; por lo tanto, sólo hay que reacomodarlos y eso podría hacerse con los dispositivos con que estuviera equipada la tal cocina ideal; incluso, la energía necesaria para el proceso se obtendría también de las piedras, bastaría con aniquilar un poquito de su materia y, por la ley de Einstein, obtendríamos la energía equivalente. Físicamente, esto es posible en principio; pero su realización sería extremadamente costosa, absolutamente incosteable.

En el otro extremo, la "cocina" más simple sería un mero trámite: consistiría sólo de un teléfono, por el cual el "cocinero" pidiera a un restorán el platillo deseado, y del dinero para pagarlo.

El resultado de ambos procesos es esencialmente igual: el mismo platillo. De ambos sistemas cocina-cocinero sale el mismo producto, con entradas absolutamente distintas: en el primer caso piedras, y en el segundo ¡el propio platillo! Vamos, en la cocina extremo de simpleza el insumo y el producto no se pueden distinguir.

Lo anterior ilustra, exageradamente, la diferencia entre hacerlo uno y comprarlo hecho. Sin llegar a los extremos, eso pasa cotidianamente al hacer preparativos para comer en casa. Comenzando por una punta, recorremos el espectro de posibilidades: primera, llamar al restorán para que traigan viandas listas para ser consumidas; segunda, ir al súper por alimentos preparados que uno calienta e ingiere; tercera, abrir latas o bolsas de víveres precocinados, los cuales sólo hay que poner en agua hirviendo o algo por el estilo, etc... y así seguiríamos hasta... ¿hasta donde?; traer del mercado los ingredientes al natural y con ellos confeccionar el platillo; mejor, en vez de comprar los huevos tener en casa la gallina que los ponga; el café en grano tostado y uno lo muele, mejor crudo y uno lo tuesta, mejor tener el cafeto dentro de un invernadero en la azotea... ¿dónde paramos?

Algo análogo pasa con un modelo; al diagnosticar, uno reproduce teóricamente lo que sucede en la naturaleza; v. gr., se calcula el perfil normal de temperatura en enero desde el ecuador hasta el polo, o el ciclo normal de lluvia a lo largo del año en la ciudad de México, etc. Bien... esto se hace con el modelo, pero éste requiere cosas para ser corrido, se alimenta con datos; y aquí aparece la misma gama de posibilidades que en la cocina. El modelo es más meritorio cuanto más elementales sean los datos de entrada y desmerece cuanto más cercanos al resultado sean los ingredientes.

Necesariamente, algo debe meterse al sistema para obtener el producto deseado; los modelos generan ciertas cosas y otras las prescribe uno y las mete al modelo. El arte culinario tiene su equivalente: p. ej., se trata de hacer mole, uno puede "prescribir" el guajolote, que se trae (ya muerto, pelado, etc.) del mercado, o puede uno "generarlo" criándolo desde chico y engordándolo con alimentos especiales, en este caso lo prescrito es el polluelo que uno adquirió y trajo a casa. Más comúnmente sucede con la salsa de mole: prescribe uno los chiles secos (comprados en el mercado) y uno genera la salsa, o se prescribe pasta de mole y... En fin.

Evidentemente, es mejor cocinera la que elabora más cosas por sí misma y compra menos cosas ya elaboradas. Y es mejor modelo el que requiere menos información prescrita y genera más resultados. V. gr., un modelo climático que reproduce acertadamente la temperatura mensual de la atmósfera es más meritorio si genera también la temperatura del océano y la extensión del casquete polar cada mes, que si éstas variables le fueran prescritas.

En síntesis, prescribir es proporcionarle (desde afuera, valga la redundancia) al modelo cierta información; generar es que el modelo la calcule (por sí mismo, internamente).

NO CONTROLES

Pese a su complejidad, mencionada en la primera sección de este capítulo, el sistema climático tiene las regularidades descritas en el capítulo VI, que se manifiestan como ciclos diarios o anuales de la normalidad.

Adicionalmente a estas regularidades normales, las condiciones anormales tienen sus propias regularidades, que se presentan en las diversas escalas de tiempo y permiten hacer ciertas conjeturas simples, llamadas controles, que resultan muy eficaces.

Por ejemplo, en nuestras latitudes funciona bien un "pronóstico" meteorológico que no requiere datos, ni computadora, ni modelo; vamos, ni siquiera hace falta mirar al cielo o asomarse a la ventana y es éste: "Mañana va a estar igual que hoy." Efectivamente, las condiciones atmosféricas (obviamente anormales) se repiten durante varios días consecutivos: si hoy estuvo raso, es muy probable que mañana también, si un día llovió a las 5 p.m., al siguiente vuelve a llover casi a la misma hora, los vientos soplan igual durante algunos días seguidos, etc. Por eso es común que el pronóstico meteorológico rece: "poco cambio en la temperatura", etc. Es decir, las condiciones tienden a persistir; cualquier anomalía, una vez establecida, permanece algunos días. Este es el fundamento de esta predicción reduccionista, que constituye un control llamado persistencia, cuya capacidad de acierto es de unos dos tercios. O sea, debido a que las anomalías tienden a permanecer, la predicción "mañana va a estar igual que hoy" se cumple en más del 60% de los días.

Otro ejemplo de control es el retorno a la normal, que se aplica a escala climática para la temperatura del océano. Esta variable suele presentar anomalías muy extensas y duraderas; en un área de cientos de millares de kilómetros cuadrados y durante meses se mantienen con el mismo signo. Como varían tan lentamente, su persistencia constituye un mal control de la evolución mensual de estas anomalías; mejor resulta el retorno a la normal, que ahora explicamos.

Si un mes el océano está más caliente de lo normal, al siguiente continuará con anomalía positiva de temperatura, pero menor; es decir, se acerca a la normal, la anomalía tiende a cero. Cuando está más frío de lo normal, al siguiente mes la anomalía será también negativa, pero menos intensa. O sea que de un mes a otro las anomalías tienden a extinguirse; en palabras más técnicas: el cambio mes a mes de la anomalía es de signo contrario al de la anomalía mensual. Obviamente esto no pasa siempre, pero sí frecuentemente; este control acierta también en más o menos dos tercios de los casos.

Como puede verse, el control parte de una anomalía ya establecida, y dice cómo evoluciona ésta, incluyendo la evolución nula indicada por la persistencia; pero no puede adelantarse al surgimiento de aquélla. Es decir, el control no genera anomalías.

Además, las situaciones más interesantes son aquéllas en que el control falla; o sea, el paso de una anomalía a otra distinta. De la misma manera que adelantarse a las variaciones propias del ciclo normal no constituye predicción, tampoco se considera tal la evolución de las anomalías adelantada por el control. Así como el ciclo normal es una línea base para la predicción, el control es una cota mínima para ella; naturalmente, una predicción menos hábil que el control es basura.

A la gente del campo le importa mucho más el cambio de tiempo que la permanencia de ciertas condiciones; más aún, dan por supuesto que los meteoros se repiten parecidos de un día para otro la mayoría de las veces, y sólo les interesa el cambio del estado atmosférico, el cual tratan de vislumbrar a partir de signos ocasionalmente curiosos. Un viejo mozo que trabajaba en la casa paterna del pueblo, normalmente no hacia mayores comentarios meteorológicos, pero a veces decía a mi madre al llegar en la mañana: "Señora, hoy va a cambiar el tiempo porque anoche cantó el coyote."

Efectivamente, la predictabilidad del control es alta y no es raro que un modelo refinado, que tardó meses en ser formulado y horas al correr en computadora, dé predicciones menos acertadas que el control que ni siquiera requiere saber cómo están las cosas, y que simple y llanamente proclama: "mañana va a estar igual que hoy", o "este mes la anomalía de temperatura oceánica va a disminuir."

Análogamente, ocurre a veces que un modelo sencillo es más realista que uno complicado; también puede suceder qúe cuando uno refina su modelo, incorporándole nuevos mecanismos físicos o afinando los ya incluidos, sus resultados empeoren. No siempre los modelos más elaborados dan mejores resultados.

Para cada tipo de pronóstico hay un control, y la calidad de un modelo suele medirse como su excedente de predictabilidad respecto al control. Claro que un modelo no se evalúa con uno o unos cuantos casos de predicción; se necesitan muchos para que la evaluación sea estadísticamente significativa. Es posible que un modelo funcione a la primera y eso no garantiza el éxito de las aplicaciones subsecuentes: "una golondrina no hace verano."

Un modelo debe hacer mejores predicciones que el control, aventajarlas cuando se trata de un régimen ya establecido, pero sobre todo debe hacer lo que el control no puede: pronosticar los cambios de régimen. Ganarle al control no es tarea fácil, y superar su predictabilidad, aunque sea por unos cuantos puntos porcentuales, es de gran mérito.

¿Y QUE TAL SI... ?

Ésta es una cuarta pregunta que una ciencia debe responder; las otras tres fueron relatadas en la primera sección de este capítulo; sus respuestas conforman las fases de la ciencia: descripción, explicación y predicción; o sus sinónimos: observación, diagnóstico y pronóstico, respectivamente. En la segunda fase un modelo se usa para reproducir teóricamente lo observado; a esta aplicación de un modelo también se le llama simulación (de las condiciones normales). La cuarta fase científica se llama sensibilidad, ya mencionada en el capítulo V, y satisface la pregunta que da título a esta sección.

Por un lado, la predicción se refiere a las fluctuaciones del clima (mensual, digamos) alrededor de la normal actual; son variaciones fortuitas que aleatoriamente suben y bajan respecto del promedio. Por otro lado, la sensibilidad es el estudio de los cambios del clima, variaciones sistemáticas que operan en la misma dirección durante años. Propiamente, un cambio da lugar a un clima (normal) nuevo y distinto. La anomalía del clima del mes próximo es una fluctuación del clima presente; en cambio, la anomalía de mediados del siglo XXI es la diferencia entre el clima (distinto) de entonces y el actual; consecuentemente, un cambio es la diferencia entre dos climas normales; claro que también puede mantenerse la definición original de anomalía si consideramos al nuevo clima un caso anormal del presente. O sea que la normal no es absoluta; en sentido estricto, es diferente para cada periodo de 30 años, lapso mínimo convencional para promediar y obtener una normal. No hay problema, la definición original de normal sigue vigente; sólo debe quedar claro a qué periodo se refiere.

El estudio más común de sensibilidad es el de un supuesto incremento de la constante solar (capítulo III), generalmente del 1%; los modelos suelen calibrarse comparando el cambio climático calculado por cada uno.

A diferencia de los retroalimentadores o forzamientos internos (generados por el modelo), los forzamientos externos son prescritos; en los ejemplos anteriores estos forzamientos son la duplicación del C02 y el incremento de 1% en la constante solar.

NUESTRO MODELO

El contenido de este libro, excepto el capítulo II y unas cuantas secciones de otros, es fruto directo de nuestra experiencia con el MTC. Este modelo fue creado por el doctor Julián Adem, trabajando básicamente en México, pero también como investigador visitante en el Centro Nacional de Meteorología de EUA en Washington y colaborando con colegas de otras instituciones y países. El MTC constituye el proyecto de trabajo de nuestro grupo de investigación en el Centro de Ciencias de la Atmósfera de la UNAM que dirige el doctor Adem.

El MTC, en tanto representación teórica del sistema climático natural, nos ha dado luz para entender el clima y tratar de explicar su funcionamiento en este libro, cuyo contenido es implícitamente la exposición del modelo.

Por lo tanto, en lo que resta del capítulo sólo vamos a puntualizar los componentes del MTC ya descritos en capítulos anteriores como componentes del clima natural y agregaremos unos datos de cómo surgió y ha evolucionado. Los elementos del clima que consideramos despreciables se toman como nulos y, en general, las aproximaciones se manejan como igualdades; lo que no se menciona no está incluido en el modelo.

El MTC es pionero mundial en el enfoque termodinámico; es decir, considerar que los procesos climáticos son básicamente de transferencia de calor, a diferencia de los meteorológicos, que son dinámicos. Surgió en 1960; en su primera fase sólo calculaba el clima normal mensual, promediado zonalmente (o sea, en la longitud geográfica); de modo que sus datos y resultados estaban desplegados sólo meridionalmente; es decir, eran perfiles latitudinales. Los únicos calentamientos incluidos eran los flujos de radiación, y el único transporte era el turbulento, debido a ciclones.* 1

El MTC consta de una capa atmosférica (la troposfera) de 11 km de espesor, con una capa de nubes, una oceánica (la capa mezclada) de 50 m, una capa continental de profundidad despreciable y una capa de hielo y nieve (criosfera). Su área de aplicación es el H N, con distribución realista de continentes y océanos; la frontera (el ecuador) es adiabática. Su resolución temporal es un mes, y la espacial, 400 km, que es la separación de los puntos de malla reticular de integración.

La ecuación de pronóstico es la primera ley de la termodinámica. Otras leyes físicas se usan diagnósticamente: la ecuación de gas perfecto para el aire, la ecuación de continuidad de conservación de masa y la ley de equilibrio hidrostático en la atmósfera. Las variables de estas ecuaciones son valores promediados mensualmente.

También intervienen otras propiedades específicas de los componentes geofísicos; p. ej., la troposfera tiene un gradiente térmico de 6.5°C/km; en la capa mezclada del océano la temperatura es verticalmente uniforme, etcétera.

Como todo problema matemático, el sistema teórico llamado MTC ha de tener tantas incógnitas como ecuaciones independientes; las incógnitas son las variables que el modelo genera. Para cerrar el problema hacen falta ecuaciones adicionales a las relatadas en los dos párrafos anteriores y para esto se recurre a parametrizaciones semiempíricas, las cuales son relaciones basadas en principios teóricos y en datos prácticos, para calcular algunos transportes y calentamientos en términos de variables como la temperatura. Se requieren parametrizaciones cuando el conocimiento físico o los datos necesarios para evaluar un proceso son insuficientes; deben ser funciones lineales (capítulo X), y algunas fueron deducidas sobre pedido para el MTC.

Una parametrización notable es la de turbulencia, fenómeno físico inmanejable teóricamente de modo exacto. En el MTC el transporte horizontal de calor por remolinos oceánicos y por ciclones atmosféricos, que para la escala del modelo es turbulencia, se introduce con coeficientes de intercambio que permiten tratarla como función de las variables promediadas. Esta turbulencia proviene propiamente de los detalles cancelados por la promediación mensual, y los coeficientes de intercambio son constantes y uniformes, pero con diferente valor para la atmósfera y el océano.

La primera ley de la termodinámica se aplica separadamente a las capas atmosférica (incluyendo nubes), oceánica y continental (con criosfera). Cuando en esta ley hablamos de lo que entra y sale, esto abarca también la energía que fluye en la porción estudiada sin llevar consigo materia que entre o salga. Cuando la energía ingresa o egresa junto con materia el proceso se llama transporte y, en caso contrario, calentamiento.

El MTC tiene estos transportes: los turbulentos ya dichos, la evaporación en la superficie y la advección por viento y corrientes; y estos calentamientos: el flujo de calor sensible entre superficie y atmósfera, la condensación de vapor de agua en las nubes y los intercambios de radiación de ondas corta y larga entre superficie, atmósfera y nubes, derivados de la radiación solar que llega al sistema, la cual se calcula analíticamente para cada mes y se despliega latitudinalmente.

El viento se calcula geostróficamente; es decir, sólo el originado en la fuerza de Coriolis por rotación de la Tierra; este viento se da efectivamente en la atmósfera libre, o sea en la altura, donde la fricción con la superficie no se siente. Mediante prescripciones adicionales, se usa para determinar el viento superficial y consecuentemente, la componente de la corriente oceánica (llamada deriva), debida al arrastre friccional del viento.

Las nubes se modelan como una sola capa, cuya extensión horizontal fraccional se llama nubosidad, y se genera, al igual que la precipitación, como una proporcionalidad directa de la condensación. La criosfera se modela sobre continentes y océanos acoplando su frontera a la isoterma superficial de 0°C, de manera que los puntos con temperatura menor o igual que cero grados están cubiertos de hielo y nieve.

Una vez cerrado el problema, es decir, teniendo tantas incógnitas como ecuaciones, éstas se reducen a una sola en la variable fundamental, que es la temperatura de la troposfera media. Resuelta esta ecuación, la temperatura calculada se usa para determinar escalonadamente las demás incógnitas, empezando por las temperaturas de océano y continente.

OTRAS GENERACIONES Y PRESCRIPCIONES

Cada capa del sistema tiene su propio campo de albedo para la radiación de onda corta; para la de onda larga, el continente, el océano, las nubes y la criosfera se comportan como cuerpos negros; la atmósfera, en cambio, absorbe selectivamente según la longitud de onda y esta absortividad depende del contenido de gases de invernadero, principalmente el vapor de agua y el C02; la humedad atmosférica está determinada por las condiciones climáticas y es generada por el modelo; el C02 se prescribe.

Por lo tanto, el MTC contiene los tres principales mecanismos de retroalimentación (capítulo IV). Y si consideramos que un proceso retroalimentador es cualquier secuencia de interacciones que llegan al punto de partida, entonces el modelo tiene muchas otras más.

La memoria térmica del sistema es el almacenamiento de energía en el océano; en la atmósfera esta inercia es mucho menor y en el continente es nula.

En realidad, el MTC tiene dos versiones básicas: una destinada principalmente a calcular la temperatura de la atmósfera y otra para el océano. En la primera el océano no tiene transportes horizontales y en la segunda se prescriben para la atmósfera algunas variables que la primera genera. Actualmente trabajamos en acoplar ambas versiones, enriqueciéndolas mutuamente e incorporando una nueva dinámica explícita en la atmósfera y el océano.

La segunda versión sirve principalmente para calcular la temperatura superficial del océano y en atacar este problema el MTC fue históricamente el primero en el mundo.

Para concluir esta reseña del MTC, diremos que el archivo del programa tiene varias decenas de campos climáticos, coeficientes de correlación que dependen del lugar y la época, etc., en valores normales, algunos estacionales y los más mensuales; la ecuación por resolver en la variable temperatura troposférica es una ecuación diferencial elíptica de segundo orden, que se integra mediante el método numérico llamado relajación de Liebmann, en equipo grande de cómputo. Cuando se trata de predicción o sensibilidad, el programa se corre dos veces: una para las condiciones normales y otra para las anormales; la diferencia entre ambos resultados da la fluctuación o cambio, respectivamente.

Las aplicaciones que ha tenido el MTC se tratan en los dos capítulos siguientes.

El termino ciclón engloba también a los anticiclones, vórtices atmosféricos con giro contrario a los ciclones.