
L’IA incarnée dans la robotique : la vision de Meta
Imaginez un futur où votre robot-compagnon vous assiste au quotidien, comprenant vos instructions et raisonnant de manière autonome. Cette vision futuriste de l'intelligence artificielle incarnée prend forme dans les laboratoires de recherche. Le géant Meta, anciennement Facebook, nous en donne un aperçu fascinant à travers son programme PARTNR au sein de son laboratoire parisien Fair.
Fair fête ses 10 ans d'IA à Paris
Le 7 février dernier, Meta célébrait le 10e anniversaire de son laboratoire Fair (Facebook AI Research) implanté à Paris depuis 2015. Un écosystème dynamique en IA que Yann Lecun, directeur scientifique de l'IA chez Meta, attribue en grande partie à l'existence de ce labo. L'occasion de mettre en lumière des projets innovants combinant IA et robotique.
Le programme PARTNR au cœur des interactions homme-robot
Parmi les initiatives phares présentées, le programme PARTNR (Planning and Reasoning Tasks in Human-Robot Collaboration) se distingue. Son ambition : étudier les interactions entre humains et robots dans un environnement domestique. Une base de données de 100 000 instructions vocales est partagée en open source pour entraîner et évaluer les performances des robots.
Le robot sait qu'il y a un séjour, une cuisine, une table, mais il ne connaît pas les positions exactes des objets, du fait que nos domiciles changent chaque jour. Cela fait une grande différence avec les autres systèmes d'IA, qui supposent un monde statique.
– Akshara Rai, chercheuse chez Fair
Une démonstration bluffante montre un robot quadrupède, équipé d'une pince, obéissant à des instructions de haut niveau comme "déplace la peluche du séjour jusqu'à la table de cuisine". L'IA décompose la commande en une série d'actions appropriées, s'adaptant à un environnement dynamique grâce à un apprentissage sur des centaines de configurations différentes de domicile.
L'architecture JEPA, clé d'une IA incarnée avancée
Au cœur de ces prouesses, l'architecture JEPA (Joint Embedding Predictive Architecture) sur laquelle planchent les équipes de Yann Lecun. Objectif : dépasser les limites des grands modèles de langage et tendre vers une intelligence artificielle avancée (AMI) capable de mieux appréhender le monde réel.
Il faudra attendre de 3 à 5 ans avant de constater des progrès significatifs [sur l'AMI].
– Yann Lecun, directeur scientifique IA chez Meta
Une approche différenciante par rapport aux modèles de vision-langage de Google ou OpenAI, basés sur l'architecture Transformer. L'enjeu pour Meta est de proposer une IA incarnée plus dynamique et abstraite, à même de raisonner sur son environnement.
Vers des robots-compagnons intelligents au quotidien ?
Si les perspectives d'un robot humanoïde à la maison restent lointaines, les avancées de Meta laissent entrevoir un futur où nos interactions avec des machines intelligentes seront plus naturelles et utiles au quotidien. La planification de tâches, la compréhension du langage et le raisonnement spatial sont autant de défis relevés.
Au-delà de la prouesse technique, c'est toute une réflexion éthique et sociétale qui s'engage. Quelle place pour ces robots intelligents dans nos vies ? Quelles limites fixer ? Si Meta n'a pas toutes les réponses, la recherche menée dans ses laboratoires comme Fair ouvre la voie à une IA incarnée au service de l'humain. Un pas de plus vers la concrétisation d'une vision longtemps réservée à la science-fiction.