Por Marta Rodríguez Bouza, Profesora de Física y Química en el IES Gregorio Marañón.
“¿Qué tiempo va a hacer mañana?” Esta pregunta nos la hacemos casi diariamente y el ser humano se la ha hecho desde el inicio de su historia. Para contestarla, entonces alzaba la vista y observaba la atmósfera y los distintos fenómenos meteorológicos que en ella se desarrollan y ahora buscamos esta información en las predicciones meteorológicas que se emiten en las noticias o que encontramos en Internet. Y aunque esta pregunta ha estado presente durante siglos, las técnicas que permiten obtener estas predicciones se han desarrollado en los últimos 50 años y en la actualidad podemos tener predicciones fiables a 72 horas vista.
Antes de analizar cómo ha sido la evolución de la predicción meteorológica en las últimas décadas, se deben aclarar los principales conceptos que se van a describir ya que algunos de ellos se usan erróneamente de forma cotidiana. En primer lugar, la meteorología es la rama de la física que estudia la atmósfera, los fenómenos que se producen en ella y las leyes que rigen su comportamiento. Por ello, los fenómenos meteorológicos deben estudiarse aplicando metodologías y técnicas propias de la ciencia. En este estudio se analizan las variaciones espaciales y temporales de magnitudes como la temperatura, la humedad o la presión atmosférica. El término tiempo atmosférico se refiere a la descripción de estas variables en un momento concreto para una región. En ocasiones se confunde tiempo con clima, siendo conceptos con matices distintos. El clima es el estudio del tiempo atmosférico a lo largo de un período de años, generalmente 30, por lo que tiene un carácter estadístico. Las predicciones del tiempo hacen referencia al estado de la atmósfera y los fenómenos atmosféricos que van a ocurrir en un periodo corto, aproximadamente una semana, mientras que las predicciones del clima se refieren al estado de la atmósfera a largo plazo. Como ejemplo del primer tipo de predicciones sería: “Mañana va a hacer un día soleado y con temperaturas máximas de 20ºC” mientras que “Se calcula que la temperatura media de la tierra aumentará dos grados en los próximos cien años” es una predicción del clima.
El interés por los fenómenos atmosféricos se remonta al origen de la humanidad y los primeros intentos por realizar predicciones meteorológicas se remontan al s. IV a.C. Los primeros pronósticos empíricos se atribuyen a filósofos de la Escuela Peripatética y Aristóteles, en sus obras Acerca del Cielo, De la generación y la corrupción y Meteorológicos, describe distintos fenómenos atmosféricos de forma especulativa. Las ideas aristotélicas se mantienen a lo largo de la Edad Media y no es hasta el s. XVI cuando nace la Meteorología Moderna como una ciencia puramente observacional.
A mediados del siglo XIX comienza a aplicarse el método científico al estudio de los fenómenos atmosféricos, pero no es hasta principios del s. XX cuando se produce la revolución en el estudio de la física de la atmósfera. El científico noruego Vilhelm Bjerknes (1862 – 1951), considerado el padre de la meteorología, sentó las bases de los actuales modelos de predicción. La gran idea de Bjerknes fue considerar la predicción del tiempo como un problema determinista, esto quiere decir que si se conoce que con precisión las condiciones atmosféricas en un determinado momento y se conocen las ecuaciones que rigen el comportamiento de la atmósfera, se podrá predecir el comportamiento de esta en un periodo de tiempo. La dificultad de este problema radica en que las ecuaciones que rigen el comportamiento de la atmósfera son de gran complejidad y no tienen solución exacta.
En 1910 uno de los discípulos de Bjerknes, Richardson, aplicó el método matemático conocido como método de las diferencias finitas para resolver las ecuaciones que determinan el estado de la atmósfera. Para ello, recogió datos de observables atmosféricos a lo largo de un día en diferentes lugares con el fin de realizar una predicción a 6 horas. Los resultados de esta prueba fueron insatisfactorios, no solo porque la predicción resultó errónea, sino también porque necesito 6 semanas para resolver las ecuaciones. Esto puso de relieve los dos grandes problemas a los que se enfrentaba la predicción meteorológica: la necesidad de tener una buena base de datos observados, con buena resolución espacial y temporal, y la complejidad de cálculo que supone la resolución a partir de métodos matemáticos de las ecuaciones atmosféricas. El propio Richardson consciente de este problema manifestó: “harían falta 64000 personas trabajando por turnos para prever el estado de la atmósfera con mayor rapidez que la de su evolución real”.
Los avances necesarios para la realización de predicciones meteorológicas fiables no llegaron hasta la década de los 50 debido al progreso en el conocimiento del estado de la atmósfera y a la utilización de modelos numéricos para la resolución de las ecuaciones atmosféricas. Las mejoras en el conocimiento de la atmósfera tienen dos orígenes, por un lado, las mejoras en los instrumentos de medida en superficie y el aumento de observatorios fiables, y, por otro lado, a las imágenes meteorológicas aportadas por los satélites meteorológicos que generan una gran cantidad de observables atmosféricos. La utilización de modelos numéricos de predicción está ligada al desarrollo de los ordenadores que permiten la resolución de las ecuaciones atmosféricas en cortos periodos de tiempo.
En 1950, se fundó la Organización Meteorológica Mundial, OMM, organismo internacional cuyo objetivo es facilitar la relación y cooperación entre los servicios meteorológicos nacionales. Otro de los fines fundamentales de esta organización es promover y unificar los instrumentos de medida y los métodos de observación. Respecto a los instrumentos de observación, la OMM regula los instrumentos mínimos que debe haber en toda estación meteorológica. Entre ellos caben destacar los termómetros, barómetros (miden presión), anemómetros y veletas (para medir velocidad y dirección del viento), pluviómetros (para medir cantidad de agua caída) e higrómetros (miden humedad). Todos estos aparatos de medida han mejorada en precisión y exactitud en las últimas décadas gracias a los avances científicos y tecnológicos producidos en distintos campos. Además, la OMM regula cómo han de ser las condiciones en las que se toman las medidas. Por ejemplo, los termómetros deben estar ventilados, protegidos de la precipitación y de la radiación solar directa, y a una determinada altura del suelo. Este hecho ha sido fundamental para la utilización de unos datos de calidad a lo largo de todo el globo.
Hasta la década de los 60, todos los datos meteorológicos se obtenían a partir de observaciones desde la superficie terrestre, en tierra o mar, o información aérea obtenida de radiosondeos en globos y aeronaves. Y, aunque los datos provenientes de estas fuentes de información siguen siendo fundamentales para la predicción, esta información tiene grandes limitaciones temporales y espaciales lo cual impide conocer con la resolución necesaria las condiciones atmosféricas necesarias para realizar la predicción. Este problema se pudo solventar con la utilización de datos de satélite. Los primeros satélites que proporcionaron información del estado de la atmósfera se lanzaron en la década de los 60 por la NASA y en la década de los 70 llegaron los satélites europeos, los satélites METEOSAT.
Los satélites METEOSAT son una serie de satélites geoestacionarios controlados por la Organización Europea para la Explotación de Satélites Meteorológicos, EUMETSAT (European Organisation for the Exploitation of Meteorological Satellites). Estos satélites se encuentran orbitando a una altura aproximada de 36000 km sobre la superficie terrestre y orbitan en el mismo sentido de la Tierra de tal forma que parecen inmóviles desde el cielo ya que siempre se encuentran sobre la misma región. En noviembre de 1977 se lanzó el primer satélite METEOSAT y en diciembre proporcionó la primera imagen del estado de la atmósfera.
Este primer satélite fue el primero de una serie de 7, el último fue lanzado en septiembre de 1997, que constituyen la primera generación de satélites METEOSAT. Estos satélites han proporcionado durante 3 décadas observaciones meteorológicas desde el espacio. Las imágenes que tomaban estos satélites tienen una cadencia de media hora y daba información en tres canales: infrarrojo, visible y vapor de agua.
El canal infrarrojo permite crear mapas térmicos de la atmósfera y se fundamenta en que todo cuerpo que tenga una cierta temperatura emite radiación, en el caso de las temperaturas típicas de la atmósfera esta radiación se encuentra en la franja del infrarrojo del espectro electromagnético. Esta información permite detectar estructuras nubosas. El canal visible permite observar las nubes gracias a que reflejan la luz del Sol. Cuanto más espesa sea la nube, mayor será el reflejo de luz que produzca y más clara se verá en el canal visible. Este canal solo da información durante el día debido a la necesidad de la iluminación solar. El último canal, el de vapor de agua, permite conocer el contenido de vapor de agua de la atmósfera, es decir, la humedad.
La segunda generación de satélites METEOSAT está constituida por 4 nuevos satélites que son los que proporcionan la información actualmente. El primero de ellos fue lanzado en enero de 2004 mientras que el último, el satélite METEOSAT 11, se lanzó en julio de 2015. Esta nueva generación se diseñó para responder a las necesidades observacionales de los modelos numéricos que se describen a continuación. Las imágenes obtenidas por estos satélites mejoran tanto en resolución como en frecuencia respecto a los satélites de la primera generación.
Además de los tres canales de observación descritos, estos nuevos satélites permiten: el monitoreo detallado de la convección de masas de aire que puede conducir al desarrollo de tormentas eléctricas severas, la detección de niebla, tormentas de polvo o cenizas, y la evaluación de las características de la masa de aire. La ventaja principal de esta nueva generación es detectar y pronosticar fenómenos atmosféricos de alto impacto y rápido desarrollo, como tormentas eléctricas o niebla, con seis horas de antelación. Estos satélites proporcionan imágenes cada 15 minutos y el caso de METEOSAT 10 cada 5 minutos. Esta mejora en la frecuencia permite que los meteorólogos monitoreen el desarrollo de tormentas convectivas, difíciles de predecir por su rápido desarrollo, y así emitir los avisos oportunos.
Destacar también que los meteorólogos también utilizan las imágenes de METEOSAT para verificar que los resultados de predicción de los modelos numéricos de predicción meteorológica concuerdan con lo que realmente está sucediendo en la atmósfera, y así ajustar sus pronósticos de muy corto alcance.
Actualmente se esté desarrollando una nueva generación de satélites, la tercera generación de satélites METEOSAT que se lanzarán a partir de 2021. Estos satélites supondrán una nueva evolución del servicio de imágenes, incluyendo un nuevo sistema para visualizar relámpagos y un servicio de sondeo atmosférico de vanguardia que proporciona mediciones en el espectro infrarrojo y ultravioleta.
Todos los datos obtenidos de las imágenes que proporcionan los satélites meteorológicos, junto con datos de estaciones meteorológicas situadas en la superficie terrestre, suponen los datos de condiciones atmosféricas que se introducen en los modelos atmosféricos y tienen que ser analizados con métodos matemáticos. Los principios de los modelos numéricos de predicción meteorológica, están basados en las ideas de Bjerknes y
Richardson, ya que, partiendo de un estado inicial con unas características atmosféricas dadas, simula la evolución atmosférica mediante la implementación, a través de métodos numéricos, de las leyes de la mecánica de fluidos y de la termodinámica. Por tanto, los modelos numéricos de predicción consisten en resolver de forma numérica, mediante aproximaciones, un conjunto de ecuaciones diferenciales referidas a la conservación de la masa, la energía y el momento lineal en la atmósfera. Estos modelos numéricos son programas informáticos que producen información meteorológica para todo el globo o para determinadas regiones.
Los métodos matemáticos que llevaron a Richardson 6 semanas de cálculo fueron implementados a partir de los años 50 en los primeros ordenadores, lo que permitió la realización de una gran cantidad de cálculos a gran velocidad y con una gran cantidad de datos observados. La primera predicción meteorológica realizada con un ordenador fue realizada por Charney, Von Neumann y Fjörtoft. Les llevo 33 día programar y ejecutar tres predicciones para un plazo de 24 horas. Fue a partir de la década de los 70, con el desarrollo de los superordenadores y los modelos numéricos cuando los resultados de la predicción fueron fiables y en tiempos apropiados. La importancia de la utilización de superordenadores radica en la gran cantidad de datos y de ecuaciones que manejan los modelos numéricos que realizan las predicciones meteorológicas.
Todos los modelos constan de una serie de ecuaciones, denominadas ecuaciones primitivas, utilizadas para predecir el estado futuro de la atmósfera. Estas ecuaciones se inicializan a partir de los datos de los observables y sirven para determinar las tasas de cambio de estos. Estas tasas de cambio predicen el estado de la atmósfera para un corto periodo de tiempo en el futuro. Cada incremento de tiempo es conocido como un paso de tiempo. Las ecuaciones se aplican luego a este nuevo estado atmosférico para encontrar nuevas tasas de cambio, y estas nuevas tasas de cambio predicen la atmósfera en un futuro más en el futuro. El paso del tiempo se repite hasta que la solución alcanza el tiempo de pronóstico deseado. Las ecuaciones usadas son ecuaciones diferenciales parciales no lineales que son imposibles de resolver exactamente mediante métodos analíticos, por lo que se obtienen soluciones aproximadas. Los diferentes modelos usan diferentes métodos de solución: algunos modelos globales usan métodos espectrales para las dimensiones horizontales y los métodos de diferencia finita para la dimensión vertical, mientras que los modelos regionales y otros modelos globales generalmente usan métodos de diferencia finita en las tres dimensiones.
Actualmente los modelos más utilizados a nivel global son los modelos desarrollados por la NOAA (Administración Nacional Oceánica y Atmosférica de los Estados Unidos) y el ECMWF (Centro Europeo de Previsiones Meteorológicas a Plazo Medio). El primero de ellos, GFS (Global Forecast System), es el más utilizado, sin embargo, el europeo IFS (Integrated Forecast System) es considerado el más fiable. En España, la AEMET (Agencia Estatal de Meteorología) utiliza el modelo IFS para hacer predicciones cada 12 horas. Además, para hacer predicciones regionales, para la Península y Baleares, por una parte, y, por otra, para las Islas Canarias, utiliza otro modelo, HARMONIE-AROME. Este modelo es el resultado de una colaboración de agencias meteorológicas de diversos países y es implementado para España por la AEMET. El modelo proporciona datos con una resolución espacial de 2,5 km, y temporal de 3 horas con un alcance de 48 horas, de variables como la temperatura, viento y nubosidad. A modo de ejemplo, se muestran dos figuras con la predicción de temperatura y viento realizadas por la AEMET y producidas por el modelo HARMONIE-AROME.
Las mejoras en los observatorios en superficie, la gran cantidad de observaciones aportados por los satélites, y la mejora de los modelos numéricos y en los ordenadores en los que se llevan a cabo estos cálculos, han llevado a un progreso en la exactitud de las predicciones meteorológicas como muestras el siguiente gráfico:
En esta figura se representa cómo ha evolucionado la exactitud de las predicciones meteorológicas desde al año 1981 hasta 2015. La línea azul representa las predicciones a 3 días, en rojo a 5 días, en amarillo a 7 días y en gris a 10 días para el hemisferio norte, HN, como en el hemisferio sur, HS. En primer lugar, se debe destacar que mayoritariamente las predicciones en el hemisferio norte históricamente han sido más precisas que en el hemisferio sur debido a que en el hemisferio norte hay más observatorios en superficie y en los inicios de la observación vía satélite, los primeros satélites se situaron sobre Norteamérica y Europa, aunque en la actualidad tienen la misma exactitud en ambos hemisferios. Observando las mejoras que se han producido en el hemisferio norte, las predicciones a 3 días han mejorado en los últimos 35 años de pasando de un 85% de fiabilidad a prácticamente un 99%. En las predicciones a más largo plazo la mejora ha sido más destacable mejorando en más de un 20% en las predicciones tanto a 5 días como a 7 días. Se considera que una predicción es útil a partir de una precisión del 60% y si se supera el 80% de precisión, la predicción es considerada de alta precisión. Por lo que hoy en día las predicciones hasta 5 días son fiables mientras que las predicciones a 10 días de momento no son útiles.
La gran cantidad de observables proporcionados por los satélites, en combinación con los nuevos modelos informáticos, han permitido que en los últimos 50 años la predicción meteorológica fuera un problema irresoluble a tener predicciones casi con una exactitud del 100% a 3 días. Cabe preguntarse si hemos llegado al límite de la precisión en las predicciones, ya sea por la alta calidad de datos observados de los que se dispone en la actualidad o por el carácter caótico de la atmósfera que tiene como consecuencia que las ecuaciones que describen su estado no tengan solución exacta. Pero también puede ser que con mejoras en los modelos numéricos conseguidas a base de investigación y progreso en la calidad y cantidad de los datos observados podremos predecir el tiempo a más largo plazo.
Por último, destacar que, tristemente, los avances en el campo de la meteorología no han atraído el interés del comité encargado en otorgar los premios Nobel de Física, más enfocado a descubrimientos en ramas de la física como la cosmología y la física de materiales. Sin embargo, en 2007, el Premio Nobel de la Paz fue otorgado al Grupo Intergubernamental de Expertos sobre el Cambio Climático y el señor Al Gore, ex Vicepresidente de Estados Unidos y activista del medio ambiente por “sus esfuerzos por seguir ampliando y difundiendo conocimientos sobre el cambio climático de origen humano y por sentar las bases de las medidas necesarias para contrarrestar ese cambio”. El Grupo Intergubernamental de Expertos sobre el Cambio Climático (conocido por sus siglas en inglés como IPCC, Intergovernmental Panel on Climate Change) es una organización internacional dependiente de la Organización de Naciones Unidas y la Organización Mundial de Meteorología establecida en 1988. El objetivo de esta organización es proveer a los distintos gobiernos de información científica sobre el cambio climático para que los gobiernos puedan tomar medidas de actuación en este campo. Aunque esta organización está formada únicamente por 195 científicos, a ella contribuyen con sus investigaciones miles de científicos de todo el mundo.