Aller au contenu principal
Loading...

XL-VLMs: General Repository for eXplainable Large Vision Language Models

Mise à jour le 23/07/2025

Robotique et IA
Pegah Khayatan / ISIR UPMC
Matthieu Cord / ISIR
Comité Robotique France 2030 / Comité Robotique France 2030

Le projet XL-VLMs vise à fournir un ensemble d'outils pour comprendre et contrôler les grands modèles de langage visuel, appelés vision-language models (VLM). Il met l'accent sur la transparence et l'explicabilité des processus internes de ces modèles complexes.