Mots clés |
Représentation de l'information, Données à haute dimension, Fléau de la dimension, Détection d'anomalies, Explicabilité |
Resumé |
Les modèles d'apprentissage profond font face à plusieurs défis qui limitent leur efficacité et leur application dans divers domaines. Parmi ces défis, on compte le fléau de la dimension, qui désigne la difficulté croissante d'analyser les données à mesure que le nombre de dimensions augmente, ainsi que la complexité des données, qui rend ardue l'extraction des caractéristiques pertinentes des ensembles de données hétérogènes. Un autre défi crucial est le problème de la validation des modèles d'apprentissage profond, souvent considérés comme des boîtes noires car ils fonctionnent comme des systèmes opaques dont les processus de prise de décision sont difficiles, voire impossibles à interpréter. Pour surmonter ces obstacles, diverses approches ont été développées, visant soit à intégrer de nouveaux mécanismes adaptés à des types de données spécifiques, soit à améliorer la robustesse et l'interprétabilité globale des modèles. La tendance actuelle s'oriente vers des modèles plus robustes et plus volumineux, capables de traiter une grande variété de données et de tâches. Cependant, cette augmentation de la taille des modèles engendre une évolution du coût computationnel, ce qui soulève de nouveaux défis en termes de ressources et d'efficacité. Face à ces enjeux, cette thèse se concentre sur l'analyse de l'impact de la représentation de l'information sur les problématiques liées à l'apprentissage profond. Elle cherche à déterminer si, pour un objectif donné, le choix de la représentation de l'information peut influencer significativement les résultats. Pour répondre à cette question, trois études ont été menées. La première consiste à transposer des données à haute dimension en images pour pallier le fléau de la dimension en exploitant les capacités des réseaux de neurones convolutifs sur des données non naturellement représentées sous forme d'images. La deuxième étude explore une nouvelle approche de détection d'anomalies basée sur l'analyse des caractéristiques importantes révélées par des cartes de saillance. Enfin, la troisième étude examine la possibilité de valider l'apprentissage d'un modèle de type Transformer en représentant ses poids d'auto-attention sous forme de graphe et en les évaluant par rapport à une référence établie. Les résultats de ces trois études montrent que la représentation de l'information peut être un levier d'amélioration des modèles d'apprentissage profond. Cela ouvre des perspectives intéressantes pour le développement de solutions plus efficaces, plus explicables et mieux adaptées à une variété de problèmes complexes dans des domaines nécessitant une grande transparence des processus décisionnels, comme la médecine ou la justice. |