XL-VLMs: General Repository for eXplainable Large Vision Language Models
Mise à jour le 23/07/2025
Pegah Khayatan /
ISIR UPMC
Matthieu Cord /
ISIR
Comité Robotique France 2030 /
Comité Robotique France 2030
Le projet XL-VLMs vise à fournir un ensemble d'outils pour comprendre et contrôler les grands modèles de langage visuel, appelés vision-language models (VLM). Il met l'accent sur la transparence et l'explicabilité des processus internes de ces modèles complexes.