Neural compression and neural density estimation for cosmological inference
Compression et estimation de densité par réseaux de neurones pour l'inférence cosmologique
par Justine ZEGHAL sous la direction de Éric AUBOURG
Thèse de doctorat en Physique de l'univers
ED 560 Sciences de la terre et de l'environnement et physique de l'univers, Paris

Soutenue le lundi 30 septembre 2024 à Université Paris Cité

Sujets
  • Apprentissage automatique
  • Cosmologie
  • Données -- Compression (informatique)
  • Lentilles gravitationnelles
  • Réseaux neuronaux (informatique)
  • Statistique bayésienne

Les thèses de doctorat soutenues à Université Paris Cité sont déposées au format électronique

Consultation de la thèse sur d’autres sites :

https://theses.hal.science/tel-05052431 (Version intégrale de la thèse (pdf))
Theses.fr (Version intégrale de la thèse (pdf))

Description en anglais
Description en français
Mots clés
Inférence bayésienne, Apprentissage automatique, Estimation de densité, Compression, Gradient, Simulation, Cosmologie, Lentille gravitationnelle faible
Resumé
Un objectif majeur en cosmologie est d'estimer les paramètres cosmologiques à partir d'observations, un processus appelé inférence. Cela implique généralement de compresser des données de haute dimension en statistiques sommaires, puis de réaliser une inférence bayésienne pour estimer la distribution postérieure des paramètres cosmologiques. Traditionnellement, les relevés cosmologiques sont analysés via des statistiques à deux points. Cependant, avec l'avènement des nouveaux relevés, cette technique d'inférence tend à évoluer. En particulier, réduire les incertitudes demande de considérer l'information non gaussienne présente dans les données que ces relevés produiront. Dans cette perspective, de nouvelles statistiques sommaires pouvant accéder à une information d'ordre supérieur ont été proposées. Cependant, ces statistiques construites à partir de simulations ne sont pas garanties d'être statistiquement suffisantes et sont souvent incorrectement supposées gaussiennes, compromettant ainsi une inférence bayésienne rigoureuse. Un objectif de cette thèse est d'étudier les stratégies de compression basées sur des réseaux de neurones afin de construire des statistiques sommaires optimisées pour extraire toute l'information contenue dans les données. Cette thèse fournit des études théoriques et des expériences numériques démontrant que certaines fonctions de perte ne conduisent pas nécessairement à des statistiques suffisantes, tandis que celles motivées par la théorie de l'information le permettent. Une compression optimale est généralement la première étape d'un processus d'inférence en deux étapes, suivie d'une étape d'estimation de densité via des réseaux de neurones pour estimer les distributions postérieures. Cette thèse démontre, sur un problème d'inférence de lentillage gravitationnel faible, qu'une telle approche préserve l'intégralité de l'information des observations, permettant par construction d'obtenir des contraintes sur les paramètres cosmologiques optimales. Pour cette raison, elle est appelée inférence implicite de champ complet. Implicite signifie que cette méthode peut être appliquée même si seules des simulations numériques sont disponibles. En opposition à l'inférence explicite de champ complet, qui nécessite que le modèle de simulation soit explicite, permettant aux techniques d'inférence traditionnelles d'être directement appliquées à la fonction de vraisemblance du champ. Ensuite, motivée par la considération que la précision des simulations est cruciale les rendant coûteuses à produire, cette thèse présente une nouvelle méthode d'estimation de densité basée sur des réseaux de neurones qui permet de réduire le nombre de simulations nécessaires pour approcher les distributions postérieures en utilisant les gradients du simulateur numérique. Enfin, cette thèse compare le nombre de simulations nécessaires pour une analyse en champ complet de lentillage gravitationnel faible, permettant de déterminer l'approche la plus efficace pour cette analyse. En particulier, elle compare l'inférence implicite traditionnelle, l'inférence implicite basée sur les gradients, et la méthode d'inférence explicite.