Publication de recherche sur l'intelligence artificielle explicative, rendant les décisions des modèles d'IA transparentes et compréhensibles.
L'intelligence artificielle transforme de nombreux domaines, mais son adoption est souvent limitée par le manque de transparence dans ses décisions. Notre recherche présente une nouvelle approche pour rendre les modèles d'IA explicables sans compromettre leurs performances.
Nous développons des méthodes innovantes pour visualiser et interpréter les processus décisionnels des réseaux de neurones, permettant aux utilisateurs de comprendre et de faire confiance aux systèmes d'IA.
Notre approche combine des techniques d'apprentissage profond avec des méthodes d'interprétabilité post-hoc. Nous avons développé un framework qui génère des explications locales et globales pour les prédictions des modèles.
Les expériences ont été menées sur plusieurs benchmarks standards ainsi que sur des données réelles provenant de partenaires industriels dans les domaines de la santé et de la finance.
Disponible sur Academia.edu et autres plateformes de recherche académique
Lire la publication complète