La base de las predicciones meteorológicas

| | 0 comentarios
Las predicciones meteorológicas o climáticas están basadas en gran medida en modelos matemáticos. 

 Las ecuaciones matemáticas que rigen los movimientos y propiedades de los fluidos, y la atmósfera lo es, son bien conocidas, con lo que se pueden modelizar o modelar, pero he aquí el gran pero, son NO LINEALES. 
 


¿Qué quiere decir esto?

Pues que no tienen solución analítica ¿y que quiere decir esto?.  Pues que si se conociese el estado inicial de la atmósfera la evolución tras un tiempo no se puede expresar con una formula. Ojo, si se conociese el estado inicial, eso implicaría en todo punto y en todo lugar de la atmósfera. 

Además esa no linealidad, implica procesos de retroalimentación que provocan interrelaciones tales como, por ejemplo, si baja la temperatura bajo cero hiela, pero si hay más humedad hiela más pero si hay viento hiela menos o no hiela, y si hiela se pierde humedad en la atmósfera porque se deposita en el suelo, como el suelo se enfría en su capa superficial radia a una temperatura más baja, la capa de aire en contacto con el suelo se enfría más ... y así miles de interrelaciones y retroalimenteaciones.

Volviendo al tema, la no linealidad provoca también que pequeños cambios en la condición inicial den lugar a situaciones muy diferentes y más diferentes cuanto más lejos es el instante que deseamos predecir. Esto es lo que se conoce como  la teoría del CAOS. Una nueva matemática se esta desarrollando en torno al caos para tratar de expresar este tipo de comportamientos.

Por ahora tenemos: no conocemos la condición inicial de la atmósfera con todo el detalle que probablemente necesitamos (no hay observatorios, ni radares, ni imágenes de satélite, etc ... en todo punto y en todo lugar) y las ecuaciones son no lineales (procesos de retroalimentación que dan lugar a comportamientos caóticos, y no existe solución expresable con una formula).

 ¿Cómo se resuelve este problema?
  
Los grandes centros meteorológicos se gastan una millonada de euros o dolares en un mega ordenador, recuperamos todos los datos posibles en tiempo real para tener la mejor condición inicial posible, hacemos que el ordenador corra o integre un  modelo, que tiene una simplificación de la atmósfera y de la ortografía con los usos del suelo, las interacciones océano atmósfera, un modelo de suelo y subsuelo, parametrizaciones físicas de los procesos nubosos, radiativos, de la turbulencia..., y de este modo tenemos unas predicciones o escenarios posibles de la atmósfera en tiempo futuro.

 ¿Cuantas observaciones se utilizan para generar la condición inicial de un modelo?

 
Para un día cualquiera el Centro Europeo de Predicción a Medio Plazo (ECMWF) se reciben del orden de:

31000 observaciones de observatorios SYNOP, de barcos (SHIP) y de aeropuertos (METAR).
7500 datos de boyas en los océanos de todo el mundo.
26000 observaciones de aviones.
72000 observaciones extraídas de las imágenes de satélite en infrarrojo
140000 observaciones extraídas de las imágenes de satélite en vapor de agua
4500 observaciones extraídas de las imágenes de satélite en el visible
4200 observaciones extraídas de las imágenes de satélite en infrarrojo en el polo N
3300 observaciones extraídas de las imágenes de satélite en infrarrojo en el polo S
6500 observaciones extraídas de las imágenes de satélite en vapor de agua en el polo N
4500 observaciones extraídas de las imágenes de satélite en vapor de agua en el polo N
650 observaciones TEMP
1500 perfiladores PILOT.
163000 observaciones de satélites de microondas. 
400000 observaciones de satélite AMSUA
250000 observaciones de satélite AMSUB
321000 observaciones de satélite HIRS
285500 observaciones de satélite scaterómetros
58000 observaciones de satélite IASI
117000 observaciones de satélite de ozono
429000 observaciones de satélites geoestacionarios
64300 observaciones de satélite AIRS
485 datos de perfiladores gps.

Y todo esto son datos globales que se reciben 4 veces al día 00, 06, 12, 18 UTC y aún así son insuficientes para determinas correctamente y con todo detalle el estado inicial de la atmósfera.
A partir de estas observaciones, y como los datos no están distribuidos uniformemente ,y el modelo lo quiere todo equiespaciado, se inicia un proceso conocido como asimilación, donde se hace compatible las observaciones con una primera aproximación del propio modelo (una predicción anterior para ese instante). 


Este proceso puede llevar entre 2 y 4 horas en cientos de procesadores. A partir de este análisis, el modelo se pone en marcha en cientos de procesadores para tener una predicciones lo antes posible. Hay que tener en cuenta que existen entre 2 y 4 horas de retraso entre recopilar datos observacionales y hacer la asimilación, más otro par de horas para que el modelo haga las predicciones, que en el caso del ECMWF al ser globales son válidas hasta15 días.

Posteriormente, estos modelos globales, se utilizan para realimentar a modelos de área limitada que vuelven a hacer otra asimilación de observaciones de mayor resolución. Este modelo en el caso de la AEMET es HIRLAM con unas predicciones válidas hasta 3 días con mayor resolución espacio temporal que el modelo del ECMWF y se usa otro superordenador, para que el modelo esté disponible 4 veces al día para los predictores.

¿Y ahora que es lo que queda?

El predictor especializado en el corto, medio plazo, montaña, aeronáutica, defensa, marítima etc... ya de tomar las salidas de ambos modelos junto con las últimas observaciones, imágenes de satélite, radar que no pueden estar incluidas en el modelo ya que son de el instante actual y mira si los modelos "reproducen" de forma coherente científicamente hablando lo que está pasando, haciendo un análisis de la situación basado en 5 años de carrera y unos cuantos de experiencia, y si es así usa el modelo o modelos para dar una predicción.
 
¿Y si no hay consenso entre el modelo y los últimos datos? 

Pues toca corregir y ahí esta la labor del predictor. Luego se espera a la próxima salida del modelo y a los últimos datos para ir corrigiendo tratando de mejorar el modelo.
Posteriormente las salidas de los modelos se verifican con los datos recogidos posteriormente, para analizar errores y lineas de mejora.
Además de esto existen técnicas que tratan de modelizar la incertidumbre tanto en la condición inicial como las aproximaciones hechas en el modelo, para lo cual no se integra un único modelo sino diversas combinaciones de modelo, condiciones iniciales y demás factores que influyen en la generación de las predicciones.

0 comentarios:

 
Twitter Facebook Dribbble Tumblr Last FM Flickr Behance