Modelos climáticos: qué son y cuál ha sido su evolución




Ciencias del mar y de la Tierra

Pronosticar el estado del tiempo, esto es, tratar de predecir las condiciones atmosféricas de un sitio y la manera como afecta la superficie de la tierra y los mares en las próximas horas o días, es algo que el hombre ha tratado de hacer desde siempre. Cosechas, guerras, festividades y asentamientos humanos dependían de esta capacidad.

Pero conocer el clima, entendido como las condiciones medias durante un largo periodo de tiempo, solo fue posible con el desarrollo de las computadoras hacia mediados del siglo pasado. Sin computadoras rápidas no se podría hacer lo que se hace actualmente: estudiar el clima global a escalas muy finas. El problema está en que la realidad es tan compleja que ni aun usando los más potentes ordenadores se puede reproducir con fidelidad.

Los modelos climáticos o numéricos son sistemas de ecuaciones que intentan reproducir el comportamiento del mundo real. Si son buenos, permiten hacer predicciones sobre cuál será la evolución del sistema que se estudia. En climatología, el uso de los modelos es imprescindible para hacer pronósticos meteorológicos y para intentar prever las consecuencias de los posibles cambios climáticos a medio y largo plazo.

Un aspecto importante en climatología, como en muchas áreas científicas, es el monitoreo. Si no existen instrumentos o sensores para poder evaluar los modelos, no podemos saber si la metodología es adecuada. En este caso, las telecomunicaciones y el desarrollo de los satélites han sido fundamentales para la mejora significativa en la evaluación de los modelos que se utilizan para el pronóstico en el clima.

Los pronosticadores humanos pueden interpretar o incluso modificar los resultados de los modelos de computadora, pero hay pocos pronósticos que no comiencen con cálculos de modelo numérico de presión, temperatura, viento y humedad para un estado futuro del tiempo.

Respecto a la evolución de las computadoras, John Von Neumann desarrolló en los años 40 la primera arquitectura computacional que ahora es lo que conocemos como el CPU. Estaba en la Universidad de Princeton cuando Von Neumann mejoró una de las primeras computadoras digitales a nivel mundial denominada ENIAC (que funcionaba con el sistema decimal) y creó la EDVAC, una computadora de base binaria y arquitectura mejorada.

En los años 50 aparece la primera computadora comercial creada por la compañía International Business Machines Corporation (la IBM 701) y uno de los primeros usos que se le dio a esa computadora fue para fines bélicos. De hecho, hay un gran número de desarrollos tecnológicos que han sido elaborados gracias a las guerras, lo cual tiene sus pros y contras ya que causan un gran efecto en la sociedad, pero también tienen algunas ventajas; como en este caso, lo fue un avance tecnológico.

Hay muchos desarrollos científicos que se han hecho en forma paralela. Un claro ejemplo es el cálculo, que Leibniz desarrolló en Alemania mientras Newton lo hacía en Inglaterra. No existió comunicación entre ellos, pero a la par lograron el mismo desarrollo. Lo mismo pasó con el pronóstico del tiempo.

El pronóstico del tiempo utilizando computadoras se comenzó a hacer en 1952, y éste resolvía una serie de ecuaciones numéricas tridimensionales.

A medida que se obtuvieron nuevas observaciones a partir de otras fuentes, como los sistemas de radar, los globos meteorológicos a la deriva y finalmente los satélites en órbita terrestre, los métodos se hicieron lo suficientemente sofisticados como para incorporar datos en los modelos y mejorar los mapas sinópticos iniciales.

Para las décadas de los 60 y 70, con el avance en la arquitectura de las computadoras, es decir, cuando fueron lo suficientemente rápidas y podían almacenar bastante información, se pudieron desarrollar los primeros modelos climáticos de circulación global.

En 1967, Syukuro Manabe junto con su grupo (también en la Universidad de Princeton) crean el primer modelo climático de circulación global. Era un modelo muy simple; contaba con una sola columna donde lo más importante eran las variables. Lo interesante de este modelo es que gracias a él se hicieron los primeros estudios de sensitividad para saber qué pasaba si se cambiaban valores de gases dentro del sistema. Y gracias a eso se encontró que la temperatura de la atmósfera cambiaba, aumentaba. Fue la base para trabajos futuros de cambio climático, donde el CO2 jugaba un papel sumamente importante en el aumento en la temperatura del planeta.

El advenimiento de los satélites meteorológicos a principios de los años 70 permitió desarrollar los primeros modelos regionales, también llamados de mesoescala dinámica, y ya para el 2000 se tenían modelos climáticos acoplados bastante complejos en más de 20 centros de investigación internacionales.

La evolución de estos modelos es interesante. Los primeros tenían una resolución de aproximadamente 500 kilómetros e incorporaban datos de la atmósfera, de tierra y superficie, y del océano y hielo oceánico. Conforme aumentó la capacidad de cómputo, mejoró la resolución (a unos 100 km) y se incorporó información de aerosoles (gases que afectan la atmósfera) luego el ciclo del carbono, la vegetación dinámica (que también afecta la circulación de la atmósfera y el intercambio de los gases), la química atmosférica y el hielo terrestre.

Los reportes elaborados por el Panel Intergubernamental del Cambio Climático (IPPC) de la ONU que evalúan el clima del planeta, han tenido a gran influencia para mejorar los modelos climáticos. Estos reportes, desde 1990, empujaron a la comunidad de modeladores del mundo y también a las comunidades de cómputo a tener modelos globales más finos y a desarrollar paralelamente la capacidad de cómputo y de almacenamiento de información. Así, a medida que creció el poder de cómputo, también lo hicieron la complejidad, la velocidad y la capacidad de los detalles de los modelos.

El IPCC ha emitido reportes en 1990, 1995, 2001, 2007 y 2013. El siguiente se hará público en 2020 y contará con modelos regionales con resoluciones de hasta 25 km o menos.

En la actualidad, dentro de la modelación acoplada, entran una serie de ecuaciones que son de suma importancia para evaluar qué es lo que está pasando tridimensionalmente. Estas ecuaciones son únicamente en la atmósfera; si se desea incluir el océano, la química, la tierra y demás, se necesitan otras ecuaciones. Pero las básicas, son la ecuación de estado, la ecuación termodinámica, el flujo de calor y la ecuación hidrostática. Esta última es el equilibrio entre la fuerza de gradiente de presión y la gravedad.

Las ecuaciones básicas pueden detonar otras ecuaciones que probablemente se presenten en un modelo global. Se tienen que calcular en cada punto de malla y en todos los niveles que tenga el modelo, porque estos modelos globales van desde la superficie hasta 100 kilómetros de altura en la vertical (100 hectopascales). Esto genera bastante información y por eso requieren de mucha capacidad de cómputo.

Existen dos tipos de modelos: los globales y los regionales. Los modelos globales cuentan con una resolución burda. Hay cosas como la fricción o la disipación de calor, calor latente y calor sensible que no pueden resolver. Pero esto sí lo pueden simular los modelos regionales. Por ello, debe haber una colaboración entre investigadores de distintos temas.

Si se quiere un modelo acoplado y global, se necesita de climatólogos y oceanógrafos, para poder conformar un modelo sumamente complejo toda vez que en oceanografía se utilizan distintos sensores. Unos son superficiales, como las boyas; otros instrumentos se hunden y toman mediciones en la vertical hacia abajo en el océano. En el caso de los atmosféricos se usan radiosondas. El caso es que se pueden obtener datos de la superficie del mar hacia arriba o de la superficie hacia abajo.

Un desarrollo relativamente reciente ha sido la construcción de modelos de predicción numérica de mesoescala. El prefijo meso significa "medio" y aquí se refiere a las características de tamaño mediano en la atmósfera, entre grandes tormentas ciclónicas y nubes individuales. Los frentes, los cúmulos de tormentas, las brisas marinas, las bandas de huracanes y las corrientes de chorro son estructuras de mesoescala, y su evolución y comportamiento son problemas de predicción cruciales que recientemente sólo se han abordado en la predicción.

Por otro lado, existen procedimientos que toman información conocida a gran escala para hacer predicciones a escalas locales. Esto se conoce como down-scaling. Existen dos grandes aproximaciones para hacer esto: una es de tipo dinámica y la otra estadística. La reducción de escala dinámica requiere ejecutar modelos climáticos de alta resolución en un subdominio regional, utilizando datos de observaciones o resultados de modelos climáticos de baja resolución. La reducción de escala estadística es un proceso de dos pasos. El primero desarrolla las relaciones estadísticas entre las variables del clima local (por ejemplo, la temperatura del aire en la superficie y la precipitación) y los predictores a gran escala (por ejemplo, campos de presión). En el segundo se aplican tales relaciones a la salida de un modelo climático global para simular las características futuras del clima local.

Es importante delimitar los fenómenos que se quieren estudiar para trabajar con escalas muy finas, pues para ello se necesita de capacidad de cómputo. Para poder validar estos modelos es necesario tener observaciones, tener colaboraciones con otros países y con investigadores de otros centros del país que desarrollan equipos, sensores y telecomunicaciones, entre otros.

En México estamos interesados en muchos procesos, fenómenos como los huracanes, el paso de frentes fríos, la corriente de chorro que nos trae humedad a Ensenada, los fenómenos de “El Niño” y “La Niña”. Todos estos afectan el clima de México y para poder estudiar qué va a pasar en el futuro tenemos que entender qué pasa actualmente.

Gracias a la evolución de las computadoras, modelos climáticos, el desarrollo de telecomunicaciones, satélites y un gran número de sensores, actualmente se cuentan con diferentes modelos e instrumentos tecnológicos que se utilizan para el pronóstico del tiempo. Con el paso de los años han mejorado significativamente, y con ayuda de nuevos desarrollos tecnológicos continuarán avanzando.

 

Con información proporcionada por la Dra. Tereza Cavazos (Departamento de Oceanografía Física - CICESE) en el seminario “Modelos climáticos globales y regionales para estudiar la variabilidad y el cambio climático”.

 

Palabras clave: modelos climáticos, Tereza Cavazos, computación

anterior