Follow by Email

31 de mayo de 2012

Avanzar desde la incertidumbre


El futuro no es lo que solía ser
                             Yogi Berra

Hace algo más de un mes publiqué una entrada en este blog titulada “El tiempo y la incertidumbre” en la que exponía mi opinión sobre como deberíamos avanzar en el campo de las predicciones meteorológicas de carácter probabilista dado que esa es la mayor “verdad” científica que los meteorólogos podemos comunicar a la sociedad sobre la evolución atmosférica desde ahora mismo hasta dentro de diez o quince días. Me consta que esa entrada fue bastante leída y suscitó diversos comentarios si bien  no quedaron plasmados en el blog.

Ayer el tema volvió a emerger a raíz de dos comunicaciones presentadas a las XXXII Jornadas Científicas de la Asociación Meteorológica Española (AME) que se celebró en Alcobendas, cerca de Madrid con una importante afluencia de personas –que hubiera sido mayor sin la crisis- que nos dedicamos a la meteorología, tanto desde el punto de vista científico como operativo y divulgativo.

La primera comunicación en relación con este tema corrió a cargo de Carlos Santos, de la Agencia Estatal de Meteorología (AEMET). Describió cual ha sido el desarrollo de la predicción por conjuntos en el corto plazo en AEMET y los planes de evolución futura. Hay que señalar que este tipo de predicción probabilista, en la que AEMET fue pionera, se extiende hasta 48 horas con modelos de muy alta resolución complementando así a la predicción probabilista a medio plazo llevada a cabo con modelos globales –pero de menor resolución- desarrollada por los grandes centros meteorológicos entre los que destaca el Centro Europeo de Predicción a Medio Plazo (ECMWF). A continuación Carlos hizo referencia a los planes para llevar a cabo un cambio de modelos y alcanzar de este modo una resolución del orden de los dos kilómetros denominada escala meso-gamma. Cabe señalar a este respecto que una de las aplicaciones principales de estos modelos es el cálculo de las probabilidades de que se produzca un fenómeno atmosférico determinado incluyendo los de carácter adverso y que cuanto mayor es la resolución se acotan más esas probabilidades relacionadas con su ocurrencia.

A continuación presentó su ponencia Daniel Santos. Es curioso –e importante- señalar que, a raíz de un diálogo suscitado en twitter ayer mismo a primera hora de la mañana, el ponente reorientó por completo su comunicación y la dedicó a explicar con todo tipo de argumentaciones la necesidad de que las predicciones para el público sean ya claramente probabilistas dado que la atmosfera es un  sistema caótico y no puede ser tratada -por mucho que nos guste o nos sea mas cómodo- de forma determinista. Y sobre todo ahora que tenemos posibilidades de hacerlo así a partir de este tipo de modelos. 

En el corto pero intenso debate que siguió a continuación mostré mi apoyo a las tesis de Daniel basándome en los razonamientos que expuse en la entrada de este blog a la que hacía referencia más arriba. Insistí en que, para llevar a cabo con seriedad este tipo de predicciones ya de una forma generalizada, era necesario poder disponer libremente en Internet de mas productos de este tipo y muy específicamente los producidos por el Centro Europeo. Es fundamental además llevar a cabo una formación más amplia incluyendo en ella a divulgadores y aficionados meteorológicos y, por último, realizar una investigación conjunta con expertos en ciencias sociales para encontrar la mejor forma de “contar” esas predicciones de modo que sean perfectamente comprendidas y utilizadas por el público. La  tarea es difícil porque hay resistencias de distintos tipos pero fundamental llevarla a cabo en sus distintas facetas para que la sociedad reciba y aproveche todo lo que la ciencia ofrece ya en la predicción meteorológica.  Y porque esa, como dije antes, es la mayor “verdad” científica en ese campo.

No hay que temer a la incertidumbre porque, paradójicamente, es el terreno desde el que podemos avanzar con mayor firmeza, creatividad y seguridad.

28 de mayo de 2012

Huracanes, "Niños", volcanes...


El próximo 1 de junio comienza la temporada oficial de huracanes en el Atlántico si bien este año un par de tormentas tropicales “Alberto” y “Beryl” se han adelantado a la fecha. De acuerdo con la últimapredicción oficial de la NOAA esta temporada podrá considerarse “casi normal” en cuanto al número de tormentas tropicales y huracanes que pueden producirse.  Así se esperan de 9 a 15 tormentas tropicales de las que 4 a 8 se convertirán en huracanes y de éstos entre 1 y 3 se convertirán en grandes huracanes, es decir, de categorías 3, 4 y 5. Para hacer este tipo de estimaciones los meteorólogos norteamericanos utilizan distintos criterios y herramientas siendo uno muy importante el hecho de que se produzca o no un episodio de “El Niño”. A esta conexión de “El Niño” con los huracanes quiero dedicar esta entrada del blog.

Antes que nada conviene recordar que, aunque no son los únicos, hay dos elementos clave para la formación de una tormenta tropical y para favorecer su evolución hacía un huracán. El primero de ellos es la temperatura del agua del mar. Para que se desarrollen potentes nubes tormentosas capaces de liberar las grandes cantidades de calor latente necesarias para alimentar estos fenómenos es necesario que esa temperatura sea al menos de unos 26,5º. Pero no basta sólo con que se formen; hace falta también que puedan desarrollarse con gran fortaleza y que se mantengan con el paso del tiempo para que la energía liberada sea cada vez mayor. Es preciso por tanto que no exista un mecanismos que pueda “cortar la cabeza” a esas nubes. Ese mecanismo existe en la atmósfera y se llama cizalladura vertical del viento, es decir, que la velocidad y/o la dirección del viento varíe con la altura. Por tanto, para que se forme un huracán, no debe existir esa cizalladura o debe  ser  muy poco importante.

Y aquí es donde interviene “El Niño”. “El Niño” es un fenómeno climático de gran escala en el que interviene tanto la atmósfera como el océano, que se caracteriza fundamentalmente por un calentamiento del agua de la superficie marina en amplias zonas del Pacífico. Este calentamiento altera el patrón de las lluvias tropicales desde Indonesia a la costa occidental de América del Sur, algo que a su vez va unido a cambios sustanciales en la circulación atmosférica en muchas zonas del planeta. Pues bien, uno de estos cambios es el aumento del viento del oeste en niveles altos en el área atlántica de formación de huracanes. Por tanto ahí aparece ese mecanismo de cizalladura que incide tan negativamente en su formación y mantenimiento.  En el caso de que ocurriera el fenómeno contrario, el denominado “La Niña”, lo que se produce en el Atlántico es el fenómeno contrario: casi no existe cizalladura vertical del viento y los huracanes se ven favorecidos.

Pues bien, como este año se prevé que para el periodo agosto-octubre, que es el más crítico para la formación de huracanes, pudiera existir un episodio de “El Niño” o al  menos condiciones “neutrales”, los meteorólogos prevén una temporada “casi normal” ya que, aún con la presencia de otros factores favorables, la presencia de la cizalladura los equilibraría o disminuiría en gran medida.

Se han planteado muchas hipótesis para explicar la puesta en marcha de fenómenos tan complejos y de tanta trascendencia para el clima global como el de “El Niño” y su opuesto, “La Niña”. Ninguna es del todo convincente y probablemente resulten de la combinación de varios procesos ocurriendo simultáneamente.  Uno de los más importantes sería un “desbordamiento” del agua oceánica cálida del Pacífico central hacia el Pacífico meridional unido a un debilitamiento de los vientos del este. Otro del que se habla con cierta frecuencia es el efecto de las erupciones volcánicas en los trópicos de modo que mediante un mecanismo complejo se podría doblar la probabilidad de ocurrencia de un fenómeno “El Niño” en los meses siguientes a la erupción. Incluso hace muy poco tiempo se ha llegado a sugerir algo tan curioso y en principio tan heterodoxo como que las erupciones submarinas podrían ser la causa del calentamiento de las aguas que caracteriza a “El Niño”.

En cualquier caso lo que si queda cada vez más claro es la profunda y compleja interrelación que existe entre todos los procesos físicos de este planeta de modo que la variación en cualquiera de ellos tiene necesariamente una repercusión mayor o menor en todos los demás. Incluso -como ya nos dijo Lorentz- hasta el vuelo de una paloma. O de una mariposa.

24 de mayo de 2012

Nuestro segundo "hombre del tiempo"


A los más mayores -o a los aficionados a la meteorología, a la aviación o la aerostación- quizás les suene el nombre de Eugenio Martín Rubio. Si a ese nombre añadimos una anécdota en torno a la apuesta hecha en TVE de afeitarse el bigote si fallaba una predicción, el círculo de personas a las que el nombre les suena se ampliará bastante. En cualquier caso, más allá de adivinanzas y anécdotas, Eugenio Martín Rubio fue el segundo “hombre del tiempo” tras Mariano Medina y se convirtió en una persona muy conocida y apreciada por los españoles durante las décadas de los 60, 70 y principios de los 80.

Mis recuerdos de Eugenio se remontan a mediados de los 60 cuando le veía todas las noches en el telediario y además los lunes -haciendo doblete- en un entrañable programita que se llamaba “El tiempo para el campo” junto a otro querido meteorólogo, Lorenzo García de Pedraza  y con unos sugerentes dibujos de Summers.  Como en aquella época a mí ya me había picado la mosca de la meteorología, se me ocurrió escribirle diciéndole que me dibujaba mis propios mapas del tiempo y que me gustaría que me aconsejara sobre el camino a seguir para ser meteorólogo.  Unos meses después me contestó y me dijo que -ya que parecía que yo estaba más loco que él- me fuera a visitarlo a la oficina meteorológica de Barajas. Allí me acogió maravillosamente y dio comienzo una amistad que aún perdura.

Eugenio era y es una persona cercana, cariñosa, ocurrente, excelente comunicador y con un buen punto humorístico. Si en aquellos tiempos de los primeros “hombres del tiempo” Mariano Medina aparecía con una imagen científica y profesoral, Eugenio era la espontaneidad, la narración coloquial de lo que acababa de ver en la calle relacionado con la meteorología o de lo que le había comunicado un piloto recién llegado de un vuelo transoceánico. Su forma de contar las evoluciones atmosféricas era por tanto distinta pero complementaria a la de Mariano y entre ambos ofrecían a los telespectadores una visión muy integradora de la meteorología de aquel tiempo. Fue precisamente  su desparpajo y  campechanía lo que le llevó a apostarse el bigote si al día siguiente al que estaba dando la predicción no llovía en España tras un largo periodo de sequía. Llover llovió, pero con un ligero retraso sobre el plazo previsto. Y Eugenio apareció sin bigote en la tele aquella siguiente noche. Era enero de 1967.

Eugenio Martín Rubio en una de sus apariciones en el telediario de la noche de TVE
Eugenio ha sido siempre un gran enamorado de la atmósfera y la ha vivido estudiándola, prediciéndola y “estando” en ella. Ha conocido por dentro corrientes en chorro, tormentas, engelamientos  o turbulencias y ello tanto en las cabinas de aviones comerciales junto a las tripulaciones, en pequeñas avionetas dando la vuelta a España, en múltiples travesías en globos o en veleros practicando el vuelo sin motor o en cualquier otro tipo de aerostato o "aerodino". De hecho él fue uno de los fundadores y organizadores de muchas de estas actividades en España y me consta que, al igual que hizo conmigo en la meteorología, también ayudó y animó a otros chavales jóvenes a abrirse camino en estos campos.

Hace unos días tuve la ocasión de visitarle de nuevo junto a Jose Miguel Viñas en su casa de Alicante que es, a la vez, todo un museo de sus múltiples actividades. Con sus 88 años, Eugenio sigue siendo el que siempre fue. Pasamos unas horas deliciosas, llenas de anécdotas, de recuerdos de nuestra historia meteorológica y aeronáutica y de tantas otras actividades a las que aún tuvo tiempo de dedicarse como, por ejemplo, la reparación y conservación de coches antiguos. Y todo ello vivido, más que contado, con su sencillez y su humor de siempre. 
Eugenio Martín Rubio con Jose Miguel Viñas y Ángel Rivera
Hoy quiero rendirle aquí en mi blog este pequeño homenaje lleno de gratitud por toda la ayuda y enseñanza recibida y también por el ejemplo de una vida vivida a fondo.  Siempre le tendré, y le tendremos muchos, como referencia  de un gran comunicador meteorológico, de alguien que verdaderamente sabía contar el tiempo como al público le interesaba. Seguiremos aprendiendo y disfrutando con él.

21 de mayo de 2012

Modelos, química y cambio climático


En la entrada anterior de este blog comentaba que, así como hay cuestiones  del cambio climático sobre las que ya existe un amplio consenso, existen otras en las que las incertidumbres son todavía significativas y requieren una mayor investigación. Uno de ellas es el papel jugado por los aerosoles atmosféricos, tanto por sí mismos como por su interacción con las nubes.

Se denominan aerosoles a distintas familias de partículas sólidas o líquidas presentes siempre en la atmósfera aunque en proporciones variables. Algunas de las más importantes son los sulfatos, el carbón, la sal marina o el polvo. Unas absorben radiación solar mientras que otras la reflejan hacia el espacio o hacia la propia atmósfera. Por otra parte pueden ayudar a la formación o crecimiento de las nubes mediante su aporte de núcleos de condensación y también interaccionar con las gotitas de agua de la nube y formar nuevos compuestos químicos. En cualquier caso -y aún con muchas incertidumbres- tradicionalmente se ha estimado que su efecto neto es el de un cierto enfriamiento atmosférico que podría rebajar algo el calentamiento inducido por los gases de efecto invernadero, aunque sin saber exactamente en qué medida. Por esta razón la investigación detallada de la contribución de los aerosoles al cambio climático ha gozado siempre de gran prioridad en el mundo científico y se ha considerado como una de las mayores fuentes de incertidumbre. Sin embargo esta investigación se ha visto dificultada por algunos escollos importantes.

Un primer problema es conocer con detalle tanto las cantidades de aerosoles que están presentes en la atmósfera como su redistribución continuada a consecuencia de los movimientos atmosféricos. En estas cuestiones  se ha avanzado bastante en los últimos años mediante el uso intensivo de satélites de observación ambiental  y redes especiales de observatorios terrestres. Un segundo problema es el conocimiento detallado y cuantitativo de las complejas interacciones entre estas sustancias y con las gotas de nube para formar incluso otros compuestos con propiedades diferentes.

Estas dificultades impedían la introducción de los aerosoles y la simulación de su comportamiento en los complejos modelos físico-matemáticos utilizados en la predicción de tiempo y clima y por tanto había que introducir su efecto de forma indirecta y aproximada. Sin embargo, los importantes avances de los últimos años en química y microfísica atmosférica han permitido ir resolviendo buena parte de esas dificultades. De esta forma, contando además con mejores datos de observación  -a los que hacía referencia anteriormente- y a unas capacidades de cálculo crecientes, se han podido poner a punto modelos de predicción de nueva generación donde ya se introducen de forma explícita sus interacciones y se obtienen datos mucho más precisos sobre su contribución a la evolución de las variables atmosféricas. Y como consecuencia de ello es posible calcular de una forma mucho más directa su efecto de calentamiento o enfriamiento a largo plazo sobre el clima terrestre.

Justamente sobre este tema la revista Nature acaba de publicar un interesante artículo-resumen en el que se refiere a los primeros resultados que se empiezan a obtener a partir de la utilización de estos modelos y que recomiendo a quienes quieran profundizar un poco más en este interesantísimo tema. Como es lógico éstos son todavía algo dispares pero en general confirman e incluso resaltan aún más el papel de los aerosoles en su contribución a la evolución de la temperatura de la atmósfera y, si bien siguen confirmando la tendencia al calentamiento, existen entre ellos algunas discrepancias significativas que se deberán ir resolviendo paulatinamente.

En estos momentos son varios los centros de investigación que trabajan con esta nueva familia de modelos y es de esperar por tanto que en el próximo informe del Grupo de Trabajo I del IPCC (el relacionado con el fundamento científico del cambio climático) previsto para septiembre del 2013 tengamos novedades a este respecto y estimaciones más concretas de la probable evolución de temperaturas y precipitaciones en próximos decenios teniendo ya en cuenta la acción de los aerosoles.

Creo que el camino que se está recorriendo en este difícil tema es un  ejemplo más del trabajo serio y sistemático de investigación que se está llevando a cabo por la comunidad científica mas allá de especulaciones movidas bien sea por falta de información o por otros intereses distintos a los científicos.

NOTAS:
Para aquellas personas interesadas en la vigilancia y predicción de la calidad del aire puede resultar muy interesante la celebración de las XXXII Jornadas Científicas de la Asociación Meteorológica Española justamente bajo el título “Meteorología y Calidad del Aire”. Se celebarán durante los días 23 al 25 de mayo en Alcobendas (Madrid)

LaAgencia Estatal de Meteorología (AEMET) tiene en operación un modelo de transporte químico (MOCAGE) para la predicción a corto plazo. Información sobre el mismo puede encontrarse aquí.

17 de mayo de 2012

¿Podemos contar mejor el cambio climático?


Los próximos días 5 y 6 de junio se van a celebrar en la sede del Consejo Superior de Investigaciones Científicas (CSIC) en Madrid unas Jornadas Científicas bajo el sugestivo título de “Los cambios climáticos bruscos. Ciencia y Comunicación”. Mientras espero con mucho interés sus conclusiones quiero hacer algunas reflexiones a partir de mi experiencia de varios años en la comunicación del aspecto científico de este tema.

Ante todo hay que partir de la base de que la sociedad española no tiene un conocimiento adecuado del cambio climático. Ello queda reflejado en este resumen de algunas de las conclusiones a las que llega el “Informe sobre la sociedad y el cambio climático” realizado por la Fundación Mapfre en el año 2009:

“Prácticamente 7 de cada 10 ciudadanos son capaces de identificar el vector causal más importante: la emisión de gases de efecto invernadero, señalada por el 69,7% No obstante, 4 de cada 10 personas aún tienen dudas acerca de cuáles son sus verdaderas causas. Todavía se mantienen creencias científicamente erróneas que “conviven” con las correctas: el 67,1% achaca el Cambio Climático al agujero en la capa de ozono y el 53,6% a la lluvia ácida. Muchos encuestados, lo ven como un fenómeno lejano, cuyos efectos más graves se verán principalmente a largo plazo (54,3%), perjudicando especialmente a las generaciones futuras (73,8%), más que a los presentes.. Sólo un 22,1% de los encuestados elige la explicación científicamente correcta al efecto invernadero”

Aunque ha transcurrido ya algún tiempo desde la realización de este informe no parece que la situación en España haya mejorado claramente en este aspecto si bien desconozco la existencia de algún estudio serio posterior al citado. En cualquier caso, ¿cuál es la razón básica de ese deficiente conocimiento? 


Desde mi punto de vista se trata no tanto de un problema científico sino de un problema de comunicación científica. Creo que los científicos están haciendo bien su trabajo. El avance, tanto en la comprensión del proceso físico como en las proyecciones de la evolución del clima en los próximos decenios, es intenso, significativo y cada vez más ajustado.  Hay una serie de conclusiones que están ya muy claras, otras sobre las que todavía existen dudas y algunas más que todavía necesitan una mayor investigación. En cualquier caso, los investigadores  expresan todo ello en lenguaje científico, como es su obligación hacer. Y este lenguaje científico incluye frecuentemente términos de probabilidad como no podría ser de otra manera. Esas conclusiones, expresadas así, constituyen la mayor verdad que la ciencia puede ofrecer y de ellas hay que partir.

Lo que queda a continuación es cómo contar esas conclusiones para que sean adecuadamente comprendidas por la sociedad e incorporadas a su “día a día”. Aquí es donde comienza el reto de la comunicación. Este reto no puede ser abordado solamente por los científicos porque ellos no son divulgadores; ni sólo por los  divulgadores  porque el tema  es complejo y necesita una sólida base para su adecuada transmisión. Desde mi punto de vista, esta base tienen que aportarla no sólo los científicos sino también los expertos en ciencias sociales.

 Mi planteamiento por tanto es similar al que ya expuse en alguna entrada anterior de este blog cuando me refería a la comunicación de las predicciones probabilistas: es necesario un trabajo cooperativo de científicos, expertos en ciencias sociales y comunicadores-divulgadores. Consistiría en establecer las formas más adecuadas de comunicación de modo que la comprensión del  tema sea adecuada y efectiva y pueda llegar al público en un formato comprensible, atrayente y cercano a sus intereses y a su vida diaria. A partir de ahí deberían establecerse acuerdos y compromisos entre unos y otros para respetar esos criterios y para adecuarlos y mejorarlos de acuerdo con la experiencia adquirida y los nuevos resultados científicos.

Sin embargo ello serviría de poco si en la práctica no se mantuviera una comunicación  seria y continuada, mas allá de noticias aisladas y desconectadas entre sí que llegan al público coincidiendo con algún fenómeno meteorológico violento o alguna polémica más o menos intencionada sobre el tema. Es necesario  mantener una “historia” viva, integral y coherente del cambio climático y de todas sus implicaciones e impactos. Debe explicarse lo que está claro y lo que no lo está y porqué. Hay que establecer relaciones entre causas y efectos de modo que, todo lo aparentemente disperso, acabe constituyendo una "historia" única con todos sus matices. Lógicamente, esa historia habrá que actualizarla periódicamente en la medida en que surgen nuevas conclusiones, hallazgos o modificaciones. Y por supuesto, como ya apuntaba antes, contarla también de una forma sencilla, atractiva y cercana a los intereses sociales. 

Sería por tanto necesario que alguna institución pública o privada mantuviera activo de forma permanente un grupo interdisciplinar integrado por climatólogos, naturalistas, ambientalistas, ingenieros, sociólogos y comunicadores que fueran capaces de ir escribiendo, actualizando y contando esa “historia”. Y de un medio, o medios de comunicación social, dispuesto a ser vehículo de ese importante servicio público a la sociedad española. Si no es así me temo que esa sociedad se seguirá sintiendo más bien perdida y desmotivada sobre una cuestión de importancia vital para todos.

14 de mayo de 2012

¿Satélites en peligro?


A la confirmación por parte de la Agencia Espacial Europea (ESA) de la pérdida del satélite Envisat tras sobrepasar su límite teórico de vida pero antes de poder ser reemplazado por los nuevos satélites Sentinel, se han sumado algunas noticias procedentes de Norteamérica que alertan de ciertos peligros sobre la continuidad de sus programas de satélites meteorológicos ambientales debidos, al menos parcialmente, a las restricciones económicas. Así, una nota informativa de las Academias Nacionales de Estados Unidos hace referencia a un informe de su Consejo Nacional de Investigación en el que se muestra una marcada preocupación por la posible reducción  de los satélites de observación de la Tierra ya que, de no llevarse a cabo una serie de correcciones, para el 2020 se podría haber perdido gran parte de la actual capacidad de observación. Por su parte una nota aparecida en "Nature" muestra que en Canadá crece también la preocupación por la reducción o incluso la supresión de su programa Radarsat de observación de la Tierra. Hasta el momento no ha circulado ninguna noticia sobre el impacto que podría tener las fuertes medidas de ajuste económico sobre los programas europeos de este tipo de satélites pero a la vista de las noticias que llegan de América no se puede ocultar cierta preocupación por si también pudieran verse afectados.

El tema es preocupante porque estos satélites son fuentes prácticamente irremplazables de información para el conocimiento del estado del planeta y de su evolución.  A través de sus datos hemos podido conocer las evoluciones de las coberturas de hielo en el Ártico y en Groenlandia, la evolución de distintas corrientes marinas o del fitoplancton, de los gases de efecto invernadero o de la vegetación de los grandes bosques y selvas, sólo por citar algunos ejemplos. La falta o la escasez de este tipo de datos en un momento tan crucial de la evolución del clima con todos sus impactos asociados, podría equipararse a la falta de medios de diagnóstico en la vigilancia de la evolución de un paciente con un pronóstico reservado… con el agravante de que en ese paciente estamos todos  nosotros.

Recreación de un conjunto de satelites Meteosat de tercera generación (una  unidad de toma de imágenes  y otra de obtención de sondeos (Imagen de Space Fellowships)

En el conjunto de estos satélites de observación ambiental se engloban también los más específicamente meteorológicos tales como los Meteosat de segunda generación actualmente operativos, los de la ambiciosa tercera generación que podría empezar a operar si todo va bien hacia el año 2020 o el programa Metop de satélites polares que ha empezado a operar hace  pocos años. La disponibilidad de los datos de todos ellos son cruciales, no sólo para la vigilancia de los fenómenos meteorológicos adversos, sino también para asegurar la calidad de las predicciones ofrecidas por los modelos numéricos de predicción. Son sus datos los que permiten en buena medida obtener un análisis de partida de alta calidad, algo que influye de manera notabilísima en  que las evoluciones calculadas por los modelos se ajusten mucho más a la realidad. Tan importante es su contribución que una disminución sustancial de sus datos  podría hacer retroceder algunos años el nivel de calidad de las predicciones meteorológicas.


Esperemos que las llamadas de atención de los científicos surjan efecto en Norteamérica y que, por otra parte, la difícil situación económica europea tenga el menor impacto posible en los programas de la Agencia Espacial Europea (ESA) – de la que España es el quinto país contribuyente- y de la Sociedad Europea de Satélites Meteorológicos (Eumetsat) de la que nuestro país es también el quinto contribuyente a través  de la Agencia Estatal de Meteorología.

11 de mayo de 2012

Una estufa atmosférica

Aunque ya lo venían avisando desde hace días las predicciones meteorológicas, el súbito aumento de las temperaturas con valores de pleno verano que se han acercado a los 40 grados en zonas de Andalucía, ha sorprendido a muchas personas que lo han atribuido, con el apoyo de ciertas “muletillas” mediáticas, a una entrada de aire africano.

No ha sido exactamente así. El aire que ha llegado hasta nosotros se denomina científicamente “subtropical marítimo” y proviene del océano Atlántico, de zonas situadas entre Azores, Madeira y Canarias. Indudablemente es un aire más cálido que el que hemos tenido durante las semanas anteriores pero en sí mismo no venía con temperaturas tan altas. ¿De dónde pues ha venido entonces tanto calentamiento? Pues, en buena medida, desde arriba.

En principio puede parecer raro porque sabemos que, según se sube en la atmósfera, la temperatura disminuye. ¿Qué ha pasado entonces? Pues que la dinámica atmosférica correspondiente a una circulación de vientos del suroeste a niveles altos que se encuentra al oeste de la Península Ibérica ha forzado a descender casi verticalmente a las masas de aire que se encontraban –y se  encuentran hoy todavía- a la derecha del  eje central de esa circulación. Y cuando el aire desciende se comprime y se calienta a una razón aproximada de un grado cada 100 metros. Por tanto, en su descenso, puede ganar muchos grados y alcanzar valores cercanos a los que estamos registrando. Se trata de un proceso muy similar, aunque algo mas intenso, al que provoca los ascensos de temperatura en el Levante español con situaciones de viento de Poniente. En este caso el descenso del viento desde los 700 u 800 metros de la Meseta puede suponer un “calentón” de 7 u 8 grados.

Mapa del Centro Europeo correspondiente a mediodía del 10 de mayo. Las líneas negras muestran la circulación a unos 5000 metros y permiten ver la circulación del suroeste al oeste de la Península. Los colores son las temperaturas a unos 1500 metros de altura. Sobre la Península oscilan entre 16º y 20º. Si se aplica el calentamiento de 1º por cada 100 metros de descenso puede entenderse la causa de las elevadas temperaturas en superficie.


Pero esta situación tiene aún dos consecuencias más que ayudan a la subida de las temperaturas. Por un lado, esos movimientos verticales descendentes impiden, o al menos dificultan mucho, la formación de nubes, por lo que no existe ningún obstáculo para el calentamiento de la tierra por el Sol. Por otra parte, esos mismos movimientos descendentes impiden que el aire que se calienta en contacto con el suelo –recordemos que el aire casi no se calienta por la acción directa de los rayos del sol- pueda ascender. Por tanto no hay ninguna ventilación en las capas bajas y ese aire se sigue calentando cada vez más. 

Pues bien, la suma de todos estos efectos es la causa general de las altas temperaturas de estos días. Si se quiere profundizar en todo ello desde un punto de vista más científico recomiendo este estupendo artículo de la Revista del Aficionado a la Meteorología (RAM) escrito por mi buen amigo y excelente meteorólogo Paco Martín León.

Y un último apunte: si la masa fuera africana se distinguiría claramente por una marcada turbiedad en la atmósfera debida al polvo en suspensión que siempre acompaña a este aire  que, junto con el calor, provoca una marcada sensación de sequedad y de pesadez. No ha sido así. Esas masas llegarán mas adelante y hablaremos de ellas.

9 de mayo de 2012

Hombres y mujeres del tiempo, divulgadores, meteorólogos...


La información meteorológica siempre ha sido un tema irrenunciable para cualquier medio de comunicación. Durante los años 70, 80 y parte de los 90 no se concebía que esta información no la diera alguien ligado de algún modo al Servicio Meteorológico Nacional o al Instituto Nacional de Meteorología (INM). Sin embargo, la creciente liberación de los productos meteorológicos tales como los del Centro Europeo, la libre disponibilidad de datos y mapas de todo tipo por Internet y el imparable requerimiento de la sociedad para disponer de informaciones relacionadas con el tiempo y el clima, hizo que, desde hace bastante tiempo, hayan surgido un buen número de personas de procedencias muy distintas y no pertenecientes a ninguna institución oficial que se dedican a presentar, y en muchos casos a elaborar, la información meteorológica en prensa, radio, televisión y por supuesto en Internet.

He de confesar que entre los integrantes del INM, las primeras apariciones de personas en los medios con el apelativo de “meteorólogos” incomodaban bastante. Habíamos tenido siempre a gala que el título de “meteorólogo” lo daba sólo el Instituto y considerábamos un claro intrusismo la aparición de estos nuevos “compañeros”. Yo mismo, como responsable de Predicción en aquella época, también me sentí bastante contrariado.

Con el paso del tiempo fui viendo – y creo que otros compañeros también- que la evolución era imparable y que además estas personas llenaban unos espacios que el Instituto no podría ocupar nunca. Descubrí  por otra parte que, aún habiendo de todo, algunas de ellas estaban muy bien formadas  -con frecuencia procedían de carreras universitarias muy ligadas a la meteorología o habían sido buenos autodidactas- y tenían también unos estupendos dotes de comunicación.  Entonces decidí ser objetivo en el tema y aceptar la definición que la RAE hace para meteorólogo o meteoróloga: “Persona que profesa la meteorología o tiene en ella especiales conocimientos”. Y por supuesto, “meteorólogo del Estado” es aquella persona que recibe este título administrativo por parte de la ahora AEMET y ejerce oficialmente esta actividad.

Una vez subsanado el “conflicto” al menos para mí y tras haber ido conociendo a través de Internet, y sobre todo de twitter, la gran actividad existente en este campo, es cuando quiero plantear una reflexión personal tan opinable como cualquier otra. Creo que este colectivo presta un servicio público importante y como tal servicio debe cuidarse lo más posible. Tiene que ofrecer, todavía más, informaciones útiles, eficaces y sencillas pero sin necesidad de renunciar en absoluto a todas las posibilidades que la meteorología moderna ofrece. Para conseguirlo, y salvo algunas excepciones, creo que sería necesario llevar a cabo algunas acciones que posibilitaran disponer de más información de uso público y de formación especializada que permitiera sacar el máximo partido a esas informaciones. Quien me conoce ya sabe que me refiero en buena medida a desarrollar el enfoque probabilista sustentado por las productos generados por las técnicas “ensembles” o de conjuntos. Un acuerdo de este colectivo de meteorólogos –o de parte de él- con AEMET y posiblemente con alguna Facultad universitaria especializada podría ser clave en estos aspectos.

Y dos cosas más antes de finalizar: La primera es que reconozco que no es fácil contar la predicción probabilista. Ahí hace falta un esfuerzo conjunto de meteorólogos, psicólogos sociales y comunicadores para conseguirlo. Es algo por lo que llevo un tiempo batallando; no es de recibo que se pierda mucha información útil sólo porque todavía no hemos llegado a una conclusión sobre cómo contarla.

Y lo segundo: aunque cada medio requiera presentaciones específicas, personalizaciones o distintas formas de contar el tiempo, algo que me parece perfecto, creo que como servicio público es muy importante que la sociedad reciba, con mayor o menor detalle por supuesto, un mensaje claro y unívoco, sobre todo en situaciones de tiempos “fuertes”. Ahí, seguir las directrices y las predicciones básicas de AEMET me parece de todo punto indispensable.

Lógicamente no todo el mundo compartirá estas opiniones pero me parece muy importante plantear el tema para abrir un debate que estimo necesario. Este blog está disponible para ello a través de los “comentarios” o bien  se podría hacer a través de twitter.

6 de mayo de 2012

"Superlunas", meteorología y heterodoxia

“La luna de octubre siete meses cubre”

En los últimos años el fenómeno de las ahora llamadas “superlunas” se ha hecho popular en la sociedad debido tanto al creciente interés social por los fenómenos naturales, sobre todo si son espectaculares o adversos, como por la rapidez con la que Internet y sus redes sociales extienden cualquier noticia. Y, como no, también se vuelve a hablar de la posible influencia de la luna - y mas de las "superlunas"- en las evoluciones meteorológicas.


Foto: Wordpress
Siempre me llamó la atención la gran importancia que la metorología popular concede a la Luna. Tanto en calendarios populares como en múltiples refranes e incluso en las tradiciones rurales que se transmiten de generación en generación, se otorga a la Luna un papel fundamental en las transiciones atmosféricas, en los “cambios de tiempo”. Existen numerosos artículos sobre el tema pero no quiero dejar de reseñar como un ejemplo interesante éste de Francisco Javier Rúa recogido por Jose Miguel Viñas en su excelente Divulgameteo. La historia de la Astrometeorología es apasionante y un estupendo resumen de la misma puede encontrarse aquí dentro de la web que mi buen amigo Jose Luis Pascual mantiene desde hace ya bastantes años y que recomiendo encarecidamente a quienes tengan interés en estos temas. Jose Luis es uno de los miembros más activos de una nueva generación de astrometeorólogos  que, ya desde un entorno académico, tratan de traducir a la ortodoxia actual lo que desde el Renacimiento (antes no era así) se ha considerado como una heterodoxia.

Mi curiosidad por el tema viene desde los tiempos de mi infancia ya que me crié muy cerca de los hombres del campo. Tras mi ingreso en  el entonces Servicio Meteorológico Nacional, en cuanto tuve ocasión pregunté sobre el tema a un compañero experto en predicción numérica que en seguida me explicó que lo único que podría influenciar serían las mareas lunares pero que, en las ecuaciones que se utilizaban en los modelos numéricos, los términos que las representaban eran de órdenes de magnitud tan pequeños en relación con los que describían las grandes energías que controlan los movimientos atmosféricos, que normalmente se despreciaban. Yo quise ir un poco más allá y le pregunté qué pasaría si esos “grandes” términos se encontraran en perfecto equilibrio… ¿podría entonces la marea lunar ejercer algún tipo de efecto de disparo? No recuerdo la contestación exacta pero lo que me vino a decir es que en la atmósfera sería impensable encontrar un equilibrio tan exacto como para que eso pudiera suceder.

Éste sigue siendo, en términos generales, el razonamiento en vigor para despreciar –que no negar- el efecto lunar sobre el tiempo. En cualquier caso el tema no está olvidado en el mundo científico y de vez en cuando aparecen en revistas artículos en los que se establecen relaciones estadísticas entre las fases lunares y la evolución de las lluvias o de las temperaturas en determinadas zonas con resultados dispares. En la Revista del Aficionado a la Meteorología (RAM) aparece un excelente artículo que presenta una revisión del estado actual del tema así como el enlace a una página en la que se reseñan algunos de esos trabajos.

Por mi parte participo de esta doctrina “ortodoxa” pero cuando leo los artículos que van  saliendo sobre esos “chorros” tan veloces pero tan tenues que se descubren en la alta atmósfera, o sobre los sutiles –o menos sutiles-  intercambios entre la estratosfera y la troposfera pienso, con un cierto escrúpulo, que a lo mejor hay que dejar todavía la puerta un poco entreabierta. Quizás porque no se me olvida nunca la mariposa - ¿o era la gaviota?-  de Lorentz. O quizás, simplemente, por dejar algo de poesía en nuestras vidas.

3 de mayo de 2012

Los nuevos predictores

Me han comentado que en estos últimos días, en algún medio de comunicación se ha planteado la cuestión de, si a la vista de la alta calidad de los actuales modelos numéricos de predicción, los predictores meteorológicos pueden aportar algo más o simplemente es suficiente utilizar las salidas directas de esos modelos ya que el valor añadido que podrían dar sería muy marginal, en caso de existir. Este planteamiento está siendo un punto de debate importante en en el mundo de la meteorología actual y tiene bastantes connotaciones significativas. Por tanto creo que merece la pena detenerse en él y dedicarle un espacio en el blog.

Mi opinión es que los predictores siguen siendo necesarios, pero siempre que se lleve a cabo una profunda reestructuración de sus actividades y de su formación. Voy a tratar a continuación de fundamentar y razonar este planteamiento.

Indudablemente, la función de un predictor es necesaria si es capaz de aportar ese  valor añadido a que me refería. Durante las décadas de los 80 y de los 90 del siglo pasado ese valor era claro e insustituible debida a la relativa baja calidad de los modelos y a su escasa resolución espacial y temporal. Era muy importante entonces que los predictores realizaran una adecuada diagnosis de la situación real de partida y desde ese conocimiento, y aplicando sus conocimientos de sinóptica y de dinámica, estudiaran hasta qué punto la evolución del modelo resultaba coherente y fiable, al menos durante las primeras 12 o 18 horas, o bien decidir, de entre los dos o tres modelos disponibles, cual representaba la evolución mas creíble para, a partir de ahí, elaborar las predicciones. Por otra parte, la tosca representación de la orografía, hacía que los modelos no simularan adecuadamente muchos efectos regionales y  locales de gran importancia para la predicción y por tanto eran estrictamente necesarios los conocimientos de los predictores regionales especializados.

Ahora los modelos tienen una alta resolución espacial y temporal y han mejorado muchísimo su física; de este modo describen ya muy adecuadamente las particularidades regionales así como un sinfín de detalles a los que no podría llegar ningún predictor. Por otra parte disponemos de toda la potencia de la predicción probabilista que nos hace conocer los distintos escenarios de evolución posibles así como el nivel de incertidumbre que tiene la predicción de cualquier variable. ¿Cuál es ahora por tanto el valor añadido del predictor?

Para responder a ello voy a dar por sentado que vamos a trabajar con toda la potencia de estos modelos incluyendo por supuesto los probabilistas. Si es así, hay una primera conclusión que es obvia: si existe, y seguro que es así, público o medios que demandan, "caiga quien caiga", una predicción determinista, entonces tiene que haber lógicamente predictores que elaboren como determinista la predicción más probable entre las que son posibles y, por supuesto, decidir que se hace cuando hay dos o tres situaciones igualmente probables.

Pero me voy al caso en que se desea trabajar en el marco probabilista. Hay algo que los modelos van a tardar aún mucho tiempo en ofrecernos con la calidad adecuada como para poder utilizar directamente sus salidas: se trata del caso de los fenómenos extremos ligados con frecuencia a adversidades meteorológicas donde los modelos tienen dificultades para ofrecer el detalle cuantitativo, espacial y temporal que se requiere  para las distintas variables y sobre todo en el caso de las precipitaciones. Y no digamos si todo ello va ligado a actividad tormentosa con fenómenos severos. Es verdad que, de nuevo, será la predicción por conjuntos a corto plazo, en la que ahora se trabaja prioritariamente, la que nos ofrecerá de nuevo una visión probabilista de todo ello, pero este tipo de situaciones son de tan alta criticidad que, en cualquier caso, se hace necesaria la existencia de un grupo de predictores de alta cualificación, con buena “ciencia” en su cabeza y conocedores a fondo de todos los recursos que tienen a su disposición, para ofrecer a los responsables de la Protección Civil y al público en general la mejor información posible a muy corto y corto plazo.

Por otra parte es difícil que, aún teniendo disponibles los productos de la predicción probabilista, los usuarios sean capaces de comprender y utilizar por sí mismos toda la potencia de estas informaciones. Ahí, y sobre todo en las grandes aplicaciones para usuarios específicos –transporte, industria, energía, turismo- es necesaria la existencia de buenos profesionales con unos muy buenos conocimientos meteorológicos y de comunicación que puedan actuar como asesores eficaces y específicamente orientados.

Por último quiero referirme al campo de la divulgación. Por distintas razones en las que no me voy a detener ahora, el público demanda cada vez mas las informaciones meteorológicas y las quiere en general con detalle y bien explicadas y presentadas. Para satisfacerlo tampoco estamos utilizando en general toda la potencia disponible. Estoy seguro que con espacios periódicos adecuados en los medios de comunicación, sobre todo televisión, en los que, predictores y divulgadores bien formados utilizaran de forma sencilla y de fácil comprensión toda la riqueza informativa de la nueva meteorología, la sociedad obtendría muchísimos más beneficios de los que obtiene actualmente y agradecería tener una información tan completa sobre algo que  le  interesa continuamente.

Por tanto creo que los predictores siguen siendo de todo punto necesarios siempre que sean más “interpretadores” que “lectores” de mapas y de que se orienten, por una parte, hacia la mejor vigilancia y predicción posible  de los fenómenos extremos, por otra hacia la asesoría especializada para los grandes usuarios y por último hacia una comunicación y divulgación más adecuada y potente hacia el gran público.