Articles
Avant d’être déployés sur le terrain, les robots modernes sont de plus en plus entraînés et testés dans des environnements numériques avancés. Les simulateurs physiques recréent des conditions réalistes et de génèrent des données synthétiques permettant à la fois l’entraînement initial des modèles d’IA et la validation complète de la pile logicielle, le tout dans un cadre sûr. Cette approche réduit considérablement la dépendance aux robots physiques lors des phases de test.

Deux niveaux d’utilisation
Apprentissage initial des modèles d’IA
Formation des robots dans un environnement contrôlé.
Génération de jeux de données synthétiques pour l’entraînement.
Validation des logiciels de contrôle et de planification
Test complet des algorithmes avant passage au réel.
Simulation de situations extrêmes ou imprévues.
Nouvelles plateformes et innovations
Au-delà des simulateurs classiques, de nouvelles plateformes émergent.
Par exemple, Dassault Systèmes a présenté 3D Univ+rses, une architecture numérique permettant d’exploiter la conception 3D, les jumeaux virtuels et les données PLM dans un espace de représentation innovant.
Cet environnement est dédié à l’Experience as a Service (XaaS), incluant les expériences génératives (GenXp), les compagnons virtuels, et les expériences de jumeaux virtuels intelligents (VTaaS), avec des applications allant de l’industrie manufacturière à la santé en passant par la consommation.
Le projet GRIP4ALLrassemble l’équipe AUCTUS de l’INRIA-BX,RoBioSS du CNRS / Univ. Poitiers et la société FIVES SYLEP, associée à KMSD, pour développer un démonstrateur de palettisation robotisée de produits alimentaires frais hétérogènes sans ordonnancement préalable.
Il s’agit, au terme du projet, de développer une offre de cellules robotisées configurables pour la préparation de commande dans les plateformes logistiques.

Des préhenseurs dextres et adaptatifs
Le projet intègre des technologies de préhension de pointe pour la saisie de produits :
GripTechP’ : préhenseurs multi-digitales poly-articulés brevetés, reproduisant la dextérité de la main humaine.
GraspConf : algorithmes pour le choix optimal de la prise selon les propriétés géométriques et physiques des objets et la tâche à réaliser.
Une vision robotique robuste
La reconnaissance des produits repose sur des algorithmes d’apprentissage machine :
PHYDEPAL : logiciel de reconnaissance des produits basé sur l’apprentissage profond
Commande et optimisation des mouvements
Des techniques avancées de commande permettent de gérer dynamiquement les contraintes d’accessibilité, de prise et de dépose, de stabilité de la prise pendant le transfert ainsi que l’ensemble des capacités des systèmes de manipulation :
Qontrol : génération en ligne de mouvements optimaux dans des contextes dynamiques via commande prédictive et optimisation des performances robotiques en utilisant des outils de quantification précis et puissants.
MegaPose : reconnaissance et estimation de la configuration 6D des objets (position et orientation dans l’espace).
BaPCod : bibliothèque mathématique d’optimisation par programmation linéaire, pour améliorer les performances robotiques.
Planification et heuristiques de palette
FIVES-Sylep apporte son expertise pour la planification des méthodes de décomposition des palettes, produisant des heuristiques efficaces pour construire les palettes de manière optimale.
État actuel et prochaines étapes
Les différentes fonctions sont en cours de consolidation.
Tests réalisés physiquement et en simulation avant intégration dans le cadre applicatif final.
Prochaine étape : démonstrateur opérationnel, prêt à répondre aux besoins logistiques des plateformes de palettisation de produits frais.
Pourquoi suivre GRIP4ALL ?
Démonstration concrète de co-innovation public-privé.
Exemple d’intégration de la recherche académique dans des solutions industrielles opérationnelles.
Opportunité d’observer l’évolution de la robotique collaborative dans la logistique et l’agroalimentaire.
Les modèles de fondation visent à doter les systèmes robotiques de connaissances étendues et de capacités de généralisation, afin de s’adapter à une grande diversité de tâches, d’environnements et d’interactions. Inspirés par le succès des modèles de langage et de vision, la communauté robotique explore activement leur utilisation et leur adaptation à des fonctions variées.

Applications concrètes et premiers succès
Les chercheurs explorent déjà des applications prometteuses :
VLM (Vision-Language Models) : ces modèles associent les images et le langage, permettant aux robots de relier ce qu’ils voient à des descriptions ou des consignes.
LLM (Large Language Models) : ces modèles de langage aident les robots à raisonner sur les étapes d’une tâche et à organiser leurs actions.
Cas marquant : Boston Dynamics et Toyota Research Institute (TRI) ont présenté un Large Behavior Model (LBM) appliqué au robot Atlas. Celui-ci réalise des séquences continues mêlant manipulation d’objets et locomotion, illustrant le potentiel des modèles de fondation pour dépasser les limites actuelles.
La recherche actuelle se concentre à la fois sur la compréhension des capacités et limites de ces modèles et sur l’amélioration de leur conception et de leur adaptation afin de les rendre pleinement opérationnels en robotique.
Du 15 au 17 août dernier, Pékin a accueilli la première édition des “Jeux mondiaux de robots humanoïdes”, une compétition inédite rassemblant près de 500 robots répartis en 280 équipes venues de 16 pays, dont les États-Unis, l’Allemagne, le Brésil, le Portugal et le Japon. Aucune équipe française n’était présente pour cette première édition.
Pendant trois jours, les robots, principalement fabriqués par des entreprises chinoises comme Unitree et Booster, se sont affrontés dans 26 disciplines inspirées des Jeux olympiques traditionnels : athlétisme (courses de 400 m et 1 500 m, saut en longueur), gymnastique, boxe, football, mais aussi des épreuves plus originales comme des battles de danse ou des démonstrations d’arts martiaux.
Au-delà du spectacle, ces compétitions constituent un véritable laboratoire technologique : elles permettent de tester les capacités des robots humanoïdes, d’acquérir de nouvelles connaissances, de confronter des approches variées et de favoriser la collaboration internationale entre chercheurs et industriels.
Gobano Robotics développe un pipeline IA qui permet d'automatiser les tâches manuelles en apprenant facilement à un bras robotique à effectuer une tâche répétitive. Grâce à leur technologie, seuls quelques jours suffisent pour développer des modèles d'IA robotiques performants, faits pour un déploiement industriel. Les cas d'usages sont multiples, notamment : manipulation de vêtements (tri, pliage, dépliage), picking d'objets variables, packing/unpacking, manipulation d'outils etc.
Le pipeline Gobano est une "usine à modèles d'IA", dont les étapes techniques sont décrites dans l'illustration ci-dessous.

La spécificité de Gobano est de faire de l'apprentissage par renforcement, ce qui permet de faire converger les modèles vers une performance industrielle (typiquement 99% et une vitesse compétitive), pour être déployés dans des robots en production, là où les modèles obtenus par simple imitation ne dépassent pas les 90% et restent lents.
Enfin, l'approche bottom-up de Gobano permet de développer rapidement de petits modèles d'IA robotique, tâche par tâche, ne nécessitant pas de grandes quantités de données ni de puissance de calcul, et pouvant fonctionner en offline directement dans les bras robotiques.
L'AI Data Robotics Association (ADRA) a publié sa feuille de route pour relever les défis mondiaux liés à l'IA, aux données et à la robotique.