Nota: Quiero agradecer el aporte de la Dra. Maibys Sierra Lorenzo, del Centro de Física de la Atmósfera, por la información brindada sobre la aplicación de la IA en la modelación del tiempo.
Durante el transcurso de la semana pasada varios medios divulgaron el “lanzamiento” de un modelo de Inteligencia Artificial por parte del Centro Europeo de Pronóstico a Mediano Plazo, uno de los centros líderes en la modelación numérica del tiempo, al punto que muchos consideran sus productos como los estándares a batir.
Es necesario aclarar que cuando hablamos de modelación numérica, nos referimos a aquella que, mediante operaciones matemáticas, simula el comportamiento de la atmósfera.
Aunque desde el 13 de octubre de 2023, según una nota publicada por dicho centro, ya están disponibles de manera experimental en su sitio los productos obtenidos por este sistema, fue en días recientes que al parecer ganó un mayor conocimiento público. Vamos a aprovechar esta oportunidad para hablar nuevamente sobre modelos de pronóstico, pero esta vez sobre aquellos que se basan y hacen uso de la IA.
Es un tema complejo, pero al que trataremos de acercarnos de una manera que, aunque simple, nos lleve por casi todos los aspectos de interés.
En noviembre del 2023, Google DeepMind, subsidiaria de Google enfocada en proyectos de IA, anunciaba el lanzamiento de GraphCast: un modelo de IA capaz de generar pronósticos del tiempo globales hasta 10 días.
Eso no resulta relevante si no se menciona que lo hace con mayor precisión y mucho más rápido que el modelo desarrollado por el Centro Europeo de Pronóstico a Mediano Plazo, el que como dijimos, muchos consideran como el puntero en cuanto a precisión por la parte de la modelación numérica del tiempo.
Sin embargo, más silenciosamente y más de un año antes, otro gigante de la informática había publicado sus avances en ese campo. Nvidia, en colaboración con otros centros de investigación de Estados Unidos creó un modelo de IA: FourCastNet, con la capacidad de generar pronósticos de tiempo hasta una semana con prestaciones superiores al ya mencionado modelo “europeo” y todo esto en menos de dos segundos.
¿Por qué pasó inadvertido? Probablemente, porque fue lanzado antes de que el “fenómeno ChatGPT” pusiera todos los reflectores en los temas sobre IA, destapando todas las potencialidades (y peligrosidad) de aplicar estas herramientas. A partir de ese momento cualquier noticia que tuviera las palabras inteligencia y artificial era directamente un titular a nivel mundial.
La misma suerte del “anonimato” corrió Pangu-Weather, desarrollado por Huawei Cloud Computing, quizás porque se lanzó previo (por muy poco) al boom de la IA y que además procede de una compañía del gigante asiático que ha sido “satanizada” en occidente.
No son los únicos, dentro del propio sitio del ECMWF es posible consultar imágenes (etiquetada como experimentales) de los modelos antes mencionados, juntos a otros como FuXi y FengWu. Quizás lo más relevante del AIFS (siglas en inglés de Sistema de Pronóstico Integrado y de Inteligencia Artificial), del cual se ha hablado esta semana, es que ha sido desarrollado por un centro puntero en la investigación de estos temas, que demuestra el reconocimiento del potencial del uso de la IA en los mismos.
Inteligencia Artificial, “enseñando” a las máquinas
El término que quizás vamos a repetir más hoy en esta columna: inteligencia artificial, lo que persigue es dotar a las máquinas de la capacidad para realizar tareas que normalmente requieren inteligencia humana, es decir: aprender, razonar, percibir y tomar decisiones.
Todos los ejemplos mencionados con anterioridad hacen uso del Machine Learning (ML), que podríamos traducir al español como aprendizaje automatizado. Este busca que las máquinas aprendan a partir de los datos sin una programación explícita, es decir, que en los datos de entrada identifican patrones y realizan predicciones, procesos y decisiones basadas en los mismos.
Dentro de la misma está el Deep Learning o Aprendizaje Profundo, que intenta emular el funcionamiento del cerebro humano, creando redes neuronales compuestas por varias capas, que interactúan unas con otras, dotándose de la capacidad de aprender y reconocer patrones complejos en grandes cantidades de datos. En este precisamente es que se basan los modelos de pronóstico del tiempo de IA.
Este proceso de aprendizaje tiene un costo computacional muy alto, es decir, que son necesarias supercomputadoras con una capacidad de cálculo muy grande, por la complejidad y la cantidad de datos a analizar.
Entre las principales ventajas (además del nivel de precisión que el modelo en sí pueda tener) está que una vez entrenado, en muy poco tiempo (incluso en cuestión de segundos) es posible tener un pronóstico que por las vías actuales lleva horas, con un uso computacional muy bajo.
¿Cómo pronostican el tiempo estos modelos? De este proceso de aprendizaje de situaciones anteriores establecen relaciones entre múltiples variables meteorológicas a nivel global, de manera tal, que analizando lo que ocurre ahora, van prediciendo que puede ocurrir en unas horas a partir de lo que “recuerdan” y así paso a paso llegan a varios días de predicción.
Entonces, si puedo tener un pronóstico del tiempo preciso en unos segundos…. ¿será la muerte de la modelación numérica? ¿Las grandes computadoras realizando millones de operaciones por segundo durante horas ya no serán necesarias? La respuesta a ambas preguntas sería No y Sí, respectivamente.
Los modelos numéricos del tiempo no solo se usan para predecir el futuro, sino en algunos casos para “construir” el presente y el pasado. Un paso imprescindible tanto para la modelación numérica como con IA es la situación inicial, crear una malla de datos meteorológicos con que estos puedan trabajar, todo ellos a partir de informaciones puntuales, como son las observaciones meteorológicas y otras fuentes, dígase las observaciones de radares, satélites etc.
Y aunque a usted le parezca sencillo, el proceso de inicialización es uno de los procesos de la modelación que lleva mayor tiempo y tiene más importancia, porque si parte de datos físicamente erróneos, todo lo que “salga” de ahí estará incorrecto. Como la IA necesita “saber” qué está pasando ahora tiene que esperar y depender de que los modelos numéricos construyan esa realidad, o aproximación de la realidad.
Pero un poco más arriba hablamos también de pasado…, porque ¿de dónde usted cree que aprendieron todos los modelos de IA? De un pasado también creado con modelos numéricos.
Todos tomaron los datos de “re-análisis”, un término que proviene del inglés, en que sí existe esta palabra (sin guion) y que me voy a tomar la licencia de transliterar al español sin el mismo.
Los reanálisis hacen uso de técnicas y operaciones similares al proceso de inicialización de los modelos numéricos para construir campos de variables meteorológicas. Estos son usados en investigaciones en sustitución de los datos de observaciones, sobre todo cuando estos hacen falta para hacer cálculos espaciales y comparaciones como las que se hacen de los modelos con la realidad para determinar su eficiencia.
Por tanto, sin la modelación numérica, la IA no tendría de donde aprender, sobre todo cuando se quieran analizar situaciones anteriores a la era digital, cuya información sería imposible introducir a los mismos sin ese procesamiento.
En Cuba, también se usa la IA para el tiempo
Cuba, como mencionamos en una conversación anterior sobre modelos del tiempo, lleva más de 20 años de experiencia en el tema y no se ha quedado atrás en la aplicación de estas técnicas de IA. Las experiencias del Centro de Física de la Atmósfera del Instituto de Meteorología han estado enfocadas en el mejoramiento de su modelación numérica, con el apoyo de la IA en algo llamado la reducción de sesgos.
En otras palabras, que la IA aprenda cuánto se equivoca el modelo numérico y bajo qué condiciones, para ayudar a corregir sus salidas y reducir ese error.
No estamos hablando como en los casos anteriores, de modelos que generan los pronósticos enteramente mediante IA, sino que complementan la modelación numérica. También ha sido utilizada para la reducción de la escala de datos meteorológicos a resoluciones más pequeñas, algo para lo que también se usan algoritmos matemáticos, pero que han probado tener mejores resultados con apoyo de la IA. (Tomado de Cubadebate).