Interesante trabajo con sello andaluz. Un nuevo estudio en el que participa la Universidad de Granada revela que los modelos de visión generativa profunda pueden sintetizar imágenes de satélite altamente realistas, útiles para ilustrar futuros eventos climáticos como inundaciones, reforestaciones y el retroceso del hielo marino.
En este trabajo ha participado la investigadora del instituto DaSCI, Universidad de Granada Natalia Díaz, en colaboración con varios centros de investigación y fundaciones de Estados Unidos, Canadá, Alemania y Reino Unido, entre los que se encuentra el Massachusetts Institute of Technology (MIT).
Para abordar este problema, el equipo ha utilizado una red generativa adversarial (pix2pixHD) que crea imágenes de satélite sintéticas de inundaciones futuras o el resultado de acciones positivas como la reforestación. Aunque el modelo es capaz de generar imágenes realistas, tiende a 'alucinar' inundaciones en áreas incorrectas.
La solución propuesta a este problema combina aprendizaje profundo con mapas de segmentación generados por modelos de inundación basados en la física. Este enfoque mejorado no solo supera al modelo de aprendizaje profundo puro, sino también a soluciones manuales, al reducir significativamente los errores de predicción y mejorar la fiabilidad de las imágenes.
El equipo científico ha evaluado la capacidad de generalización de su método utilizando distintos conjuntos de datos de teledetección y eventos climáticos, incluyendo la reforestación y la fusión del hielo marino ártico.
De la misma forma, ha puesto a disposición de la comunidad científica su código, nueva métrica y un extenso conjunto de datos, que incluye más de 30.000 tripletas de imágenes HD etiquetadas para traducción de imagen a imagen guiada por segmentación, equivalente a 5,5 millones de imágenes a resolución 128x128.