Mots clés |
Inférence bayésienne, Apprentissage automatique, Estimation de densité, Compression, Gradient, Simulation, Cosmologie, Lentille gravitationnelle faible |
Resumé |
Un objectif majeur en cosmologie est d'estimer les paramètres cosmologiques à partir d'observations, un processus appelé inférence. Cela implique généralement de compresser des données de haute dimension en statistiques sommaires, puis de réaliser une inférence bayésienne pour estimer la distribution postérieure des paramètres cosmologiques. Traditionnellement, les relevés cosmologiques sont analysés via des statistiques à deux points. Cependant, avec l'avènement des nouveaux relevés, cette technique d'inférence tend à évoluer. En particulier, réduire les incertitudes demande de considérer l'information non gaussienne présente dans les données que ces relevés produiront. Dans cette perspective, de nouvelles statistiques sommaires pouvant accéder à une information d'ordre supérieur ont été proposées. Cependant, ces statistiques construites à partir de simulations ne sont pas garanties d'être statistiquement suffisantes et sont souvent incorrectement supposées gaussiennes, compromettant ainsi une inférence bayésienne rigoureuse. Un objectif de cette thèse est d'étudier les stratégies de compression basées sur des réseaux de neurones afin de construire des statistiques sommaires optimisées pour extraire toute l'information contenue dans les données. Cette thèse fournit des études théoriques et des expériences numériques démontrant que certaines fonctions de perte ne conduisent pas nécessairement à des statistiques suffisantes, tandis que celles motivées par la théorie de l'information le permettent. Une compression optimale est généralement la première étape d'un processus d'inférence en deux étapes, suivie d'une étape d'estimation de densité via des réseaux de neurones pour estimer les distributions postérieures. Cette thèse démontre, sur un problème d'inférence de lentillage gravitationnel faible, qu'une telle approche préserve l'intégralité de l'information des observations, permettant par construction d'obtenir des contraintes sur les paramètres cosmologiques optimales. Pour cette raison, elle est appelée inférence implicite de champ complet. Implicite signifie que cette méthode peut être appliquée même si seules des simulations numériques sont disponibles. En opposition à l'inférence explicite de champ complet, qui nécessite que le modèle de simulation soit explicite, permettant aux techniques d'inférence traditionnelles d'être directement appliquées à la fonction de vraisemblance du champ. Ensuite, motivée par la considération que la précision des simulations est cruciale les rendant coûteuses à produire, cette thèse présente une nouvelle méthode d'estimation de densité basée sur des réseaux de neurones qui permet de réduire le nombre de simulations nécessaires pour approcher les distributions postérieures en utilisant les gradients du simulateur numérique. Enfin, cette thèse compare le nombre de simulations nécessaires pour une analyse en champ complet de lentillage gravitationnel faible, permettant de déterminer l'approche la plus efficace pour cette analyse. En particulier, elle compare l'inférence implicite traditionnelle, l'inférence implicite basée sur les gradients, et la méthode d'inférence explicite. |