Impact de la représentation de l'information sur les performances et la validation des modèles d'apprentissage profond
Impact of information representation on the performance and validation of deep learning models
par Rebecca LEYGONIE sous la direction de Laurent WENDLING
Thèse de doctorat en Traitement du signal et des images
ED 130 Informatique, Télécommunications et Electronique

Soutenue le mardi 10 décembre 2024 à Université Paris Cité

Sujets
  • Analyse des données
  • Apprentissage profond
  • Détection des anomalies (informatique)
  • Structures de données (informatique)

Les thèses de doctorat soutenues à Université Paris Cité sont déposées au format électronique

Consultation de la thèse sur d’autres sites :

https://theses.hal.science/tel-05045347 (Version intégrale de la thèse (pdf))
Theses.fr (Version intégrale de la thèse (pdf))

Description en anglais
Description en français
Mots clés
Représentation de l'information, Données à haute dimension, Fléau de la dimension, Détection d'anomalies, Explicabilité
Resumé
Les modèles d'apprentissage profond font face à plusieurs défis qui limitent leur efficacité et leur application dans divers domaines. Parmi ces défis, on compte le fléau de la dimension, qui désigne la difficulté croissante d'analyser les données à mesure que le nombre de dimensions augmente, ainsi que la complexité des données, qui rend ardue l'extraction des caractéristiques pertinentes des ensembles de données hétérogènes. Un autre défi crucial est le problème de la validation des modèles d'apprentissage profond, souvent considérés comme des boîtes noires car ils fonctionnent comme des systèmes opaques dont les processus de prise de décision sont difficiles, voire impossibles à interpréter. Pour surmonter ces obstacles, diverses approches ont été développées, visant soit à intégrer de nouveaux mécanismes adaptés à des types de données spécifiques, soit à améliorer la robustesse et l'interprétabilité globale des modèles. La tendance actuelle s'oriente vers des modèles plus robustes et plus volumineux, capables de traiter une grande variété de données et de tâches. Cependant, cette augmentation de la taille des modèles engendre une évolution du coût computationnel, ce qui soulève de nouveaux défis en termes de ressources et d'efficacité. Face à ces enjeux, cette thèse se concentre sur l'analyse de l'impact de la représentation de l'information sur les problématiques liées à l'apprentissage profond. Elle cherche à déterminer si, pour un objectif donné, le choix de la représentation de l'information peut influencer significativement les résultats. Pour répondre à cette question, trois études ont été menées. La première consiste à transposer des données à haute dimension en images pour pallier le fléau de la dimension en exploitant les capacités des réseaux de neurones convolutifs sur des données non naturellement représentées sous forme d'images. La deuxième étude explore une nouvelle approche de détection d'anomalies basée sur l'analyse des caractéristiques importantes révélées par des cartes de saillance. Enfin, la troisième étude examine la possibilité de valider l'apprentissage d'un modèle de type Transformer en représentant ses poids d'auto-attention sous forme de graphe et en les évaluant par rapport à une référence établie. Les résultats de ces trois études montrent que la représentation de l'information peut être un levier d'amélioration des modèles d'apprentissage profond. Cela ouvre des perspectives intéressantes pour le développement de solutions plus efficaces, plus explicables et mieux adaptées à une variété de problèmes complexes dans des domaines nécessitant une grande transparence des processus décisionnels, comme la médecine ou la justice.