Centro de Excelencia Severo Ochoa
Menú
Buscar
La cosmología moderna se enfrenta a varios desafíos fundamentales, como comprender la naturaleza de la materia oscura y la energía oscura, la estructura del universo a gran escala y los primeros momentos de su evolución. Esto hace necesario determinar qué modelo teórico describe con mayor precisión la evolución del universo. En un nuevo estudio, publicado recientemente en la prestigiosa revista Physical Review Letters, un equipo de físicos ha introducido una innovación clave en la aplicación del aprendizaje automático a la cosmología. Los investigadores usaron técnicas de interpretabilidad en el aprendizaje automático que les permitieron comprender cómo hacen predicciones las redes neuronales.
La investigación, llevada a cabo por Indira Ocampo, George Alestas y Savvas Nesseris del Instituto de Física Teórica UAM-CSIC, junto con Domenico Sapone de la Universidad de Chile, demuestra que el uso de redes neuronales puede mejorar el análisis de datos observacionales (o simulados) para probar modelos más allá del modelo cosmológico estándar (ΛCDM). En este caso particular, lograron diferenciar entre el modelo ΛCDM y modelos alternativos de gravedad modificada, como el modelo f(R) de Hu-Sawicki. Y, lo que es más importante, mediante el uso de herramientas de aprendizaje automático interpretable, pudieron identificar qué elementos de los datos estaba aprendiendo la red neuronal, arrojando luz sobre por qué era capaz de clasificar correctamente entre los dos modelos. Este aspecto de interpretabilidad es crucial no sólo para comprender los mecanismos subyacentes en el proceso de clasificación, sino también para entender la física detrás de las "regiones más relevantes de datos".
El modelo ΛCDM (Lambda Cold Dark Matter) es el estándar en cosmología, explicando la expansión acelerada del universo mediante la energía oscura (representada por la constante cosmológica Λ) y la materia oscura fría (CDM). Además, este modelo describe con éxito la formación de estructuras a gran escala y las propiedades de la radiación cósmica de fondo de microondas. Sin embargo, presenta ciertas discrepancias con observaciones recientes, como la determinación de la constante de Hubble, que describe la tasa de expansión del universo; y anomalías en la distribución de materia a gran escala, como irregularidades en cómo se distribuye la materia en el universo a grandes distancias. Por ello, para resolver estas discrepancias, se están explorando modelos más allá de ΛCDM.
Por otro lado, una clase interesante de modelos alternativos son los denominados modelos f(R), que modifican la teoría de la relatividad general de Einstein, base de nuestra comprensión de la gravedad. A escalas más pequeñas, como en el Sistema Solar, los modelos f(R) pueden recuperar la Relatividad General, pero a escalas cosmológicas pueden imitar la energía oscura o la materia oscura al modificar las ecuaciones de Einstein.
Probar nuevas ideas sobre el Universo generalmente implica comparar predicciones de diferentes modelos con observaciones reales. Recientemente, el aprendizaje automático (ML, por sus siglas en inglés) ha ganado gran atención, ya sea para acelerar cálculos complejos o para ayudar a clasificar distintos objetos astronómicos, con resultados sorprendentes. Sin embargo, en la comunidad científica han surgido preocupaciones porque no siempre es claro cómo estas herramientas computacionales toman sus decisiones.
El método implementado por los investigadores del Instituto de Física Teórica de Madrid y la Universidad de Chile utilizó inteligencia artificial para analizar datos simulados de la distribución a gran escala de galaxias y logró diferenciar con gran precisión entre los dos modelos cosmológicos: ΛCDM y el modelo f(R). Pero lo más importante es que, para abordar los desafíos de transparencia, recurrieron a técnicas de Aprendizaje Automático Interpretable. En particular, emplearon LIME (Local Interpretable Model-agnostic Explanations), una metodología que permite entender qué características de los datos tienen mayor influencia en las predicciones de la red neuronal. Los físicos consideran esto crucial para la toma de decisiones al validar cualquier nuevo enfoque teórico. Como explica Indira Ocampo, coautora del estudio:
"La mayoría de los métodos conocidos hasta la fecha se desarrollaron debido a su creciente urgencia en campos como la medicina, la economía y las ciencias de la Tierra. En cosmología, la interpretabilidad es igualmente importante, ya que dependemos de modelos de aprendizaje automático para analizar conjuntos de datos vastos y complejos, como la distribución de galaxias a gran escala o las fluctuaciones en la radiación cósmica de fondo".
El uso de herramientas de aprendizaje automático interpretable no solo mejora la precisión en la selección de modelos cosmológicos, sino que también sienta las bases para futuras aplicaciones en la exploración del universo. Aún más cruciales son las herramientas de interpretabilidad, que pueden ayudarnos a profundizar en la comprensión de la física fundamental detrás de los fenómenos cosmológicos. A medida que los cartografiados de galaxias y otras observaciones astronómicas generan volúmenes de datos cada vez más grandes, estas técnicas serán esenciales para extraer información relevante y avanzar en nuestro conocimiento del cosmos.
Ocampo, I., Alestas, G., Nesseris, S., & Sapone, D. (2025). Enhancing cosmological model selection with interpretable machine learning. Physical Review Letters, 134(4), 041002. https://doi.org/10.1103/PhysRevLett.134.041002
Social media