Webinaire Comité Robotique France 2030
1 - Appel à manifestation d’intérêt « Robotique et machine intelligente »
Mise à jour le 19/08/2025
Le projet QD-Grasp 6DoF est une approche novatrice pour générer des répertoires de prises robotiques en six degrés de liberté (6DoF) utilisant des méthodes Quality-Diversity. L'objectif principal est d'accélérer l'échantillonnage des prises par rapport aux techniques traditionnelles, offrant ainsi un large éventail de solutions diverses et performantes pour les systèmes robotiques.
Mise à jour le 19/08/2025
Méthode de localisation précise et temps réel d’une personne, d’un robot, d’un drone ou d’un véhicule. Fonctionne indifféremment dans un environnement connu ou inconnu, en intérieur comme en extérieur, et ne nécessite aucun équipement extérieur au système.
Mise à jour le 24/07/2025
Extraction d'informations sémantiques à partir d’images acquises en embarqué, grâce à apprentissage profond. L'exploitation de ces informations, relatives à la nature des éléments de l'environnement du robot est une piste prometteuse pour l'amélioration de la sécurité et de l'autonomie des systèmes de navigation.
Mise à jour le 24/07/2025
OV²SLAM est un algorithme de SLAM Visuel (Localisation et Cartographie Simultanées) temps réel pour caméras Stéréo ou Monoculaires. Il permet de localiser précisément un drone, robot ou tout autre dispositif mobile sans connaissance a priori ni instrumentation de l’environnement en intérieur ou en extérieur, en absence ou en complémentarité du GNSS.
L'Adra publie « Orientation stratégique vers une feuille de route 2025-2027 pour l'IA, les données et la robotique »
L'« Orientation stratégique vers une feuille de route pour l'IA, les données et la robotique 2025-2027 » présente un aperçu de la position stratégique d'Adra et propose des recommandations pour les prochains programmes de travail européens dans le domaine de l'IA, des données et de la robotique.
Mise à jour le 23/07/2025
Le projet PointBeV se concentre sur l'innovation dans la perception en vue du sol (Bird's Eye View) pour les systèmes de conduite autonome. Il vise à améliorer la détection et la classification d'objets tels que les véhicules, les piétons et les infrastructures routières en utilisant des méthodes avancées de vision par ordinateur.
Mise à jour le 23/07/2025
Le projet XL-VLMs vise à fournir un ensemble d'outils pour comprendre et contrôler les grands modèles de langage visuel, appelés vision-language models (VLM). Il met l'accent sur la transparence et l'explicabilité des processus internes de ces modèles complexes.
Mise à jour le 23/07/2025
MOOC en libre accès sur les drones et la robotique aérienne.