Skip to main content

13 Fév, 2024

Les humanoïdes Eve de l’OpenAI font des progrès impressionnants en matière de travail autonome

Les humanoïdes Eve de l’OpenAI font des progrès impressionnants en matière de travail autonome

Les robots de 1X sont peut-être moins bien armés physiquement que leurs concurrents, mais ils accomplissent des tâches utiles de manière totalement autonome.

« La vidéo ne contient aucune téléopération », explique le fabricant norvégien de robots humanoïdes 1X. « Il n’y a pas d’images de synthèse, pas de coupures, pas d’accélérations vidéo, pas de lecture de trajectoire scénarisée. Tout est contrôlé par des réseaux neuronaux, de manière autonome, à la vitesse de 1X ».

C’est ce fabricant d’humanoïdes qu’OpenAI a soutenu l’année dernière, dans le cadre d’un cycle de financement de série A de 25 millions de dollars. La série B de 100 millions de dollars qui a suivi a montré à quel point l’attention d’OpenAI valait la peine – ainsi que l’engouement général pour les robots humanoïdes polyvalents, un concept qui a toujours semblé très éloigné dans le futur, mais qui est devenu absolument thermonucléaire au cours des deux dernières années.

Les humanoïdes de 1X semblent étrangement sous-armés par rapport à ce sur quoi travaillent, par exemple, Tesla, Figure, Sanctuary ou Agility. L’humanoïde Eve n’a même pas encore de pieds, ni de mains humanoïdes dextres. Il roule sur une paire de roues motorisées, en équilibre sur une troisième petite roue pivotante à l’arrière, et ses mains sont des griffes rudimentaires. On dirait qu’il est habillé pour faire de la luge, et il a un petit smiley LED qui donne l’impression qu’il va commencer à demander de la nourriture et des câlins comme un Tamagotchi.

Un cube compagnon, hein ? Tri autonome.

1X prépare une version bipède appelée Neo, qui possède également des mains joliment articulées – mais ces éléments ne sont peut-être pas très importants en ces premiers jours de robots polyvalents. La grande majorité des cas d’utilisation précoces semblent se présenter comme suit : « Il n’est pas nécessaire d’avoir des doigts capables de jouer du piano pour faire cela. De plus, les robots seront principalement déployés dans des entrepôts et des usines au sol plat et en béton, où ils n’auront probablement pas besoin de monter des escaliers ou d’enjamber quoi que ce soit.

De plus, de nombreux groupes ont résolu le problème de la marche bipède et de l’équipement des mains. Ce n’est pas le principal obstacle. Le principal obstacle consiste à faire en sorte que ces machines apprennent rapidement des tâches, puis les exécutent de manière autonome, comme le fait Toyota avec ses bras robotisés montés sur un bureau. Lorsque la Figure 01 a « compris » comment faire fonctionner une machine à café toute seule, cela a fait grand bruit. Lorsque l’Optimus de Tesla a plié une chemise sur vidéo, et qu’il s’est avéré qu’il était sous le contrôle d’un téléopérateur humain, c’était beaucoup moins impressionnant.

Dans ce contexte, regardez cette vidéo de 1X.

Les tâches susmentionnées ne sont pas extrêmement complexes ou sexy ; il ne s’agit pas de plier une chemise ou de faire fonctionner une machine à café. Mais il y a toute une série de robots à l’allure complète, qui font toute une série de tâches pour ramasser et déposer des objets. Ils les saisissent à hauteur de cheville ou de taille. Ils les mettent dans des boîtes, des bacs et des plateaux. Ils ramassent les jouets par terre et les rangent.

Ils ouvrent également les portes pour eux-mêmes et se rendent aux stations de recharge pour se brancher, en utilisant ce qui semble être une manœuvre d’accroupissement inutilement complexe pour arriver à brancher la prise près de leurs chevilles.

En bref, ces gabarits font à peu près exactement ce qu’ils doivent faire dans les premiers cas d’utilisation d’humanoïdes polyvalents, formés, selon 1X, « purement de bout en bout à partir de données ». L’entreprise a essentiellement formé 30 robots Eve à un certain nombre de tâches individuelles, apparemment en utilisant l’apprentissage par imitation via la vidéo et la téléopération. Elle a ensuite utilisé ces comportements appris pour former un « modèle de base » capable d’un large éventail d’actions et de comportements. Ce modèle de base a ensuite été affiné en fonction des capacités propres à l’environnement (tâches d’entreposage, manipulation générale des portes, etc.), puis les robots ont été formés aux tâches spécifiques qu’ils avaient à accomplir.

Comment la logistique progresse | Android EVE by 1X

Cette dernière étape est vraisemblablement celle qui se déroulera sur place, chez les clients, lorsque les robots se verront confier leurs tâches quotidiennes, et 1X affirme qu’elle ne prend que « quelques minutes de collecte de données et de formation sur un GPU de bureau ». Dans un monde idéal, cela signifierait que quelqu’un se tiendrait là dans un casque VR et ferait le travail pendant un certain temps, puis un logiciel d’apprentissage en profondeur associerait cette tâche aux capacités clés du robot, l’exécuterait plusieurs milliers de fois en simulation pour tester divers facteurs et résultats aléatoires, et les robots seraient alors prêts à fonctionner.

« Au cours de l’année écoulée », écrit Eric Jang, vice-président de l’IA chez 1X, dans un billet de blog, « nous avons mis au point un moteur de données permettant de résoudre des tâches de manipulation mobile à usage général de bout en bout. Nous nous sommes convaincus qu’il fonctionne et nous recrutons maintenant des chercheurs en IA dans la région de la baie de San Francisco pour l’étendre à 10 fois plus de robots et de téléopérateurs ».

Nous nous demandons quand ces choses seront prêtes pour le prime time.

https://www.1x.tech/discover/all-neural-networks-all-autonomous-all-1x-speed