La nouvelle compétence de ce robot vient de tout changer.

Un robot en Chine vient d'accomplir une tâche que les experts pensaient à des années d'écart, signalant une avancée massive dans l'IA. Cette percée a déclenché une course mondiale pour automatiser des emplois qualifiés autrefois considérés comme sûrs.

Stork.AI
Hero image for: La nouvelle compétence de ce robot vient de tout changer.
💡

En bref / Points clés

Un robot en Chine vient d'accomplir une tâche que les experts pensaient à des années d'écart, signalant une avancée massive dans l'IA. Cette percée a déclenché une course mondiale pour automatiser des emplois qualifiés autrefois considérés comme sûrs.

La Couture Entendue à Travers le Monde

Des foules sont venues s'attendre aux habituels tours de cirque humanoïdes : lever de boîte, poussées mises en scène, peut-être un passage prudent sur des escaliers. Au lieu de cela, une machine de TARS Robotics est montée sur scène en Chine le 22 décembre, s'est assise à une table, a pris une aiguille et a commencé à broder à la main un logo en temps réel. Pas de filet de sécurité, pas de modèle préalablement cousu, juste un robot cousant calmement sous les projecteurs.

La broderie peut sembler triviale jusqu'à ce que l'on se penche sur la physique. Le robot devait enfiler une aiguille, coordonner les deux mains, et placer des points sub-millimétriques dans un tissu qui se pliait et se rassemblait à chaque mouvement. Un mauvais geste et le fil se casse, l'aiguille déraille ou le motif se déchire.

Les matériaux souples ont été un cauchemar de plusieurs décennies pour la robotique industrielle. Les bras traditionnels excellent dans les tâches rigides et répétitives : prendre cette pièce métallique, la déposer ici, et répéter cela 1 000 fois. Les fils et les tissus changent de forme constamment, se tordent de manière imprévisible et exigent un ajustement continu de la force en temps réel.

Regarder le robot humanoïde TARS glisser à travers l'ensemble de la séquence sans hésitation visible a rendu une chose claire aux roboticiens présents dans la pièce : ce n'était pas un gimmick chorégraphié. Le système suivait visuellement l'aiguille et le fil, modulait la force en temps réel et maintenait son corps parfaitement stable tout au long de cette opération longue et délicate. Cette combinaison commence à ressembler à une véritable intelligence incarnée, pas seulement à un contrôle de mouvement.

Une fois qu'un robot peut faire cela, vous cessez de parler de broderie et commencez à parler de tout le reste. Les mêmes capacités se rapprochent presque directement de :

  • 1Assemblage de faisceau de câbles
  • 2Fabrication électronique de précision
  • 3Assemblage mécanique précis sur des postes de travail encombrés

Ce sont les emplois que les usines réservent encore aux mains humaines hautement qualifiées, même si des humanoïdes entrent en scène pour déplacer des boîtes et des palettes. La manipulation habile et précise à deux mains de matériaux déformables renverse cette équation. Cela transforme les humanoïdes de travailleurs à la force brute en remplaçants potentiels des Fachkräfte.

Ainsi, cette douce couture sur une scène de décembre retentit comme un coup de pistolet de départ. La course en robotique ne se concentre plus sur celui qui peut porter la charge la plus lourde ou marcher le plus vite. Elle repose désormais sur celui qui peut maîtriser des compétences délicates et transférables qui ressemblent beaucoup à ce que les travailleurs humains font toute la journée.

Résoudre le cauchemar des matériaux souples en robotique

Illustration : Résoudre le cauchemar des matériaux souples en robotique
Illustration : Résoudre le cauchemar des matériaux souples en robotique

Les matériaux souples transforment la confiance des robots en anxiété. Les pièces métalliques et les enveloppes en plastique restent là où vous les mettez ; le fil et le tissu font le contraire. Ils s'étirent, se tordent, s'accrochent et se plient, puis se souviennent de chaque petite erreur dans une couture ondulée ou une couture déchirée.

Pour les robots, ce chaos brise la plupart des hypothèses intégrées dans la planification de mouvement traditionnelle. Un objet rigide a une forme fixe et des points de contact prévisibles ; un fil lâche a effectivement une infinité de formes et d'états de contact. Chaque millimètre de mouvement peut modifier le système de manière que la trajectoire prédéfinie n'avait jamais anticipée.

La broderie amplifie ce problème. Le robot doit coordonner une aiguille, une boucle de fil et un morceau de tissu en mouvement, tout en maintenant une tension juste pour que le fil ne se casse ni ne s'affaisse. Chaque point déforme légèrement le tissu, ce qui fait que la pièce à travailler continue de réécrire la carte sur laquelle le robot s'appuie.

Cela pousse la détection et le contrôle dans un régime brutal. Le système nécessite un retour de force à haute fréquence et haute résolution pour ressentir quand l’aiguille touche le tissu, quand le fil commence à se bloquer, et quand le tissu se déforme. Le suivi visuel doit suivre une aiguille fine et réfléchissante ainsi qu'un fil de cheveux contre un arrière-plan déformant, sous un éclairage changeant, avec une précision sub-millimétrique.

Les exigences de précision s'accumulent avec le temps. Un seul logo peut nécessiter des milliers de mouvements individuels : insertions d'aiguille, tirages, modifications de prise, ajustements de tension—où un écart de 0,1 mm par étape détruirait le motif. Un mauvais mouvement et l'aiguille se plie, le fil s'effiloche ou le tissu se fronce tellement que l'ensemble de la pièce devient invendable.

Comparez cela avec les bras industriels classiques de Fanuc, KUKA ou ABB. Ces systèmes dominent des tâches telles que : - Le soudage par points de chÂssis automobiles - La palettisation de boîtes de 20 kg - Le déplacement de pièces usinées entre des dispositifs de fixation

Ils opèrent dans des cellules clôturées avec des gabarits fixes, des pièces rigides et des trajectoires répétables ajustées une fois et rejouées des millions de fois. Forte force, faible incertitude, variation quasi nulle.

TARS Robotics a plongé son humanoïde dans un environnement totalement opposé. En direct sur scène, le robot a enfilé une aiguille, aligné le tissu à l’œil et réalisé des points fins bimanuels sans pauses ni mouvements de récupération visibles. Pas de recherche du trou, pas de tremblement au contact, pas de réinitialisations en cours de motif.

Ces mouvements stables et fluides signalent plus qu'un bon réglage de serveur. Ils révèlent un système capable de fusionner vision, force et mouvement en une véritable intelligence incarnée dans les pires conditions : des matériaux souples et déformables qui ne se comportent jamais de la même manière deux fois.

La Trinité qui propulse l'impossible

Des initiés de la robotique sont sortis de l'événement de décembre de TARS Robotics en parlant d'une seule phrase du président, le Dr. Chen Yilun : une « approche Trinity » alliant données, IA et physique. Au lieu de les considérer comme des silos séparés, TARS les relie dans une boucle de rétroaction continue qui n'arrête jamais d'apprendre du monde réel.

À la base de cette boucle se trouve Sense Hub, une plateforme de données aspirant des télémétries haute résolution provenant de chaque articulation, caméra et capteur de force sur les humanoïdes de TARS. Ces flux alimentent directement le Moteur AI AWE 2.0 de l'entreprise, un modèle incarné qui s'entraîne en simulation mais se réajuste constamment par rapport à ce qui se passe réellement sur le matériel.

Au lieu de mémoriser "comment broder", AWE 2.0 apprend des compétences physiques générales qui se transfèrent d'une tâche à l'autre. TARS concentre l'entraînement sur des primitives telles que : - Équilibre et stabilité du corps entier - Coordination bimanuelle et portée - Contrôle de la force fine en situation d'incertitude - Vision capable de gérer éblouissement, occlusion et matériaux déformants

Ces compétences sont ensuite déployées sur les humanoïdes de la série T et de la série A presque comme une mise à jour logicielle. Lorsque le robot à broder passe un fil dans une aiguille, suit un filament en torsion et compense l'affaissement du tissu, il recombine ces mêmes primitives, et ne fait pas simplement exécuter un « script de couture » ponctuel.

Crucial pour faire fonctionner cela : l'écart entre le comportement numérique et physique reste exceptionnellement réduit. Le Dr Chen a souligné que ce qu'AWE 2.0 apprend en simulation se transfère avec une dégradation minimale, ainsi une politique de mouvement qui stabilise un poignet dans l'espace virtuel conserve encore sa pose lorsque les moteurs chauffent et que le tissu se froisse sur une scène réelle.

Cet alignement étroit entre le sim et le réel permet à TARS de se développer comme une entreprise Internet plutôt que comme un laboratoire de robotique traditionnel. Comme l'a décrit le chef scientifique Dr. Ding Wenschau, les taux de réussite dans plusieurs tâches ont bondi simplement en ajoutant plus de données du monde réel et en affinant le modèle, suivant les lois classiques de l'échelle de l'IA.

La rapidité amplifie l'effet de choc. TARS Robotics a été fondée le 5 février 2025 ; en moins de 12 mois, elle est passée d'un document de concept à un humanoïde cousant calmement un logo en direct. Les investisseurs ont remarqué : 120 millions de dollars lors d'un tour de table pour les investisseurs providentiel, plus 122 millions de dollars lors d'un tour "angel plus", portant le financement initial à 242 millions de dollars, comme détaillé dans China Startup TARS Unveils Humanoid Robots Performing Precision Manufacturing Tasks.

Au-delà du logo : Les emplois que les robots effectueront ensuite

La broderie ressemble à un tour de magie jusqu'à ce que vous l'appliquiez sur un sol de fabrication. Le contrôle sub-millimétrique d'un fil flexible sur un tissu en mouvement est du même ordre que de faire passer des faisceaux de câbles dans des espaces réduits, de placer des circuits imprimés flexibles ou d'installer de petits connecteurs sans les écraser. Une fois qu'un humanoïde peut maîtriser une aiguille, du fil et du tissu pendant plusieurs minutes, le câblage d'un harnais sur une chaîne de production de véhicules électriques commence à sembler presque facile.

Les usines automobiles et aérospatiales dépendent encore des humains pour l'assemblage de faisceaux de câbles, car les robots ont du mal lorsque les fils s'entrelacent, s'accrochent et repoussent de manière imprévisible. Un faisceau pour une voiture moderne peut comprendre plusieurs kilomètres de câbles, des centaines de points de sertissage et des dizaines de clips sur mesure. Les fabricants externalisent régulièrement ce travail vers des régions à faibles salaires car aucune automatisation existante ne peut gérer la variabilité à grande échelle.

Les usines d'électronique rencontrent un plafond similaire. Les machines de montage en surface placent des puces à 40 000 composants par heure, mais un humain doit encore insérer les fragiles rubans FFC, aligner les écrans flexibles et souder à la main des pièces de formes particulières. Si un humanoïde TARS peut guider une aiguille à coudre à travers un tissu en mouvement, il peut en principe guider un connecteur de 0,3 mm dans une carte de smartphone, ou installer un module de caméra dans un cadre en plastique instable, sans déchirer les pastilles ni fissurer les lentilles.

Cela débloque une longue traîne de missions à forte valeur ajoutée, « trop ennuyeuses pour les robots » :

  • 1Gestion et enrubannage de faisceaux de câblage complexes dans les VE et les avions.
  • 2Manipulation de l'électronique de précision fragile comme les modules de caméra et les capteurs MEMS.
  • 3Assemblage mécanique de précision de montres, de lecteurs optiques et de dispositifs médicaux.
  • 4Tâches de révision et de réparation qui nécessitent actuellement des Fachkräfte seniors sur la ligne.

Pour les centres électroniques à Shenzhen, Suwon, Guadalajara ou Chennai, cela remet en question l'hypothèse selon laquelle seules des mains humaines qualifiées peuvent finaliser les 10 % restants du cycle de fabrication. Les humanoïdes qui apprennent la dextérité générale et la transfèrent d'une tâche à l'autre attaquent directement le fossé de main-d'œuvre qui maintient ces écosystèmes compétitifs. Si même 20 à 30 % des travaux d'assemblage manuel actuels sont automatisés au cours de la prochaine décennie, des millions d'opérateurs qualifiés, de techniciens de ligne et de Fachkräfte ont face à eux des pressions, tandis que le capital s'oriente vers ceux qui contrôlent des flottes de travailleurs en IA incarnée plutôt que vers de simples bâtiments remplis de personnes.

À travers le Pacifique : Un humanoïde qui engage la conversation

Illustration : À travers le Pacifique : Un humanoïde qui tient une conversation
Illustration : À travers le Pacifique : Un humanoïde qui tient une conversation

De l'autre côté du Pacifique, un moment humanoïde différent s'est déroulé dans une cuisine de bureau en Californie. Le nouveau Figure 03 de Figure AI n'embrodait pas et ne soudait pas ; il conversait, prenait des commandes et remettait calmement des chemises comme un travailleur saisonnier surqualifié.

Le PDG de Figure AI, Brett Adcock, a publié ce court extrait le 23 décembre, juste avant Noël. Il interroge le robot sur des faits basiques : où il a été construit (San Jose, Californie), à quelle génération il appartient (troisième), et quelle génération est la meilleure. Figure 03 répond clairement, ajoutant même le geste socialement conscient de déclarer sa propre génération comme la plus avancée.

Vient ensuite le test pratique. Adcock demande des chemises de taille moyenne et grande à partir d'un agencement où différentes tailles se trouvent dans des paniers séparés. La Figure 03 scanne la scène, choisit le bon panier à chaque fois et passe la bonne chemise sans hésitation, un petit mais significatif exemple d'intelligence incarnée dans un agencement réel chaotique.

Sous cet échange informel se trouve le nouveau modèle Helix de Figure AI, un système d'action de langage visuel. Au lieu de relier des modules de perception, de parole et de contrôle séparés, Helix intègre : - La compréhension visuelle de la scène - L'analyse en langage naturel de la demande - La planification du mouvement et le contrôle des bras et des mains dans une boucle continue.

Cette intégration explique pourquoi la Figure 03 peut passer de « chemise moyenne » en tant que phrase à « cet objet spécifique dans ce panier spécifique » en tant qu'action. Elle ne suit pas un script prédéfini ; elle généralise à partir de l'invite, interprète l'environnement et exécute un comportement en plusieurs étapes qui semble presque désinvolte.

Les spectateurs se sont toujours concentrés sur un problème évident : la latence. La figure 03 met environ 2 à 3 secondes avant de répondre aux questions, un délai qu'un commentateur a comparé à l'internet par modem. Le robot entend, traite, génère une réponse et parle, et chaque étape ajoute une friction qui rend la conversation subtilement incorrecte.

Le matériel, en revanche, semble tout sauf lent. La figure 03 mesure environ 1,77 mètre de hauteur, se déplace plus rapidement que les modèles précédents et pèse environ 9 % de moins. Un extérieur plus doux avec un tissu en maille et une mousse de rembourrage, ainsi que la charge sans fil et des systèmes de sécurité intégrés, le rapprochent de quelque chose qu’on pourrait réellement vouloir voir se déplacer dans une usine—ou dans votre salon.

Le décalage étrange dans la machine

La parole, et non la dextérité, est devenue la partie la plus commentée de la démonstration de Figure AI. Les spectateurs se sont fixés sur le délai de 2 à 3 secondes entre les questions de Brett Adcock et les réponses de Figure 03, une pause assez longue pour sembler gênante mais assez courte pour être techniquement impressionnante. Ce petit écart a révélé à quel point l'illusion d'une présence naturelle et pensante est encore fragile.

Les humains s'attendent subconsciously à un échange de répliques en moins d'une seconde. Si l'on dépasse environ 300–500 millisecondes, le dialogue commence à ressembler à un appel Zoom avec un retard, même si les mots et les gestes sont impeccables. Les commentateurs ont parfaitement saisi l'ambiance en qualifiant le timing de la Figure 03 de "connexion Internet à bas débit", une métaphore brutale pour un robot qui, par ailleurs, se déplace et raisonne comme quelque chose tiré d'une science-fiction proche du futur.

La cause n'est pas mystérieuse ; c'est la physique des pipelines. Le robot doit : - Capturer de l'audio et exécuter la reconnaissance vocale - Interpréter l'intention avec un modèle de langage large - Planifier une réponse et une action - Synthétiser la parole et coordonner le mouvement

Chaque étape ajoute des dizaines à des centaines de millisecondes, souvent à travers des sauts réseau vers des GPU dans des centres de données, et les délais s'accumulent. Toute vérification de sécurité, journalisation ou redondance ajoute encore plus de latence.

Cela fait du timing conversationnel un véritable problème de dernier kilomètre pour les humanoïdes. La figure 03 peut identifier les tailles de chemise, choisir le bon panier et remettre une taille moyenne ou large sur demande, le tout alimenté par son modèle Helix Vision Language Action. Pourtant, dès que l'échange verbal ralentit, les gens cessent de voir un partenaire et commencent à percevoir une machine attendant l'inférence dans le cloud.

Résoudre cela exigera une puissance de calcul embarquée agressive, une intégration des modèles plus étroite, et de nouvelles astuces en matière de prise de tour prédictive. Tout comme le robot humanoïde TARS de Chine devient le premier au monde à réaliser une couture à deux mains a redéfini ce que signifie "difficile" pour les mains robotiques, une latence humaine de moins d'une seconde déterminera si ces machines ressemblent à des collègues ou à des kiosques sur pattes.

Le chien robot qui s'est vendu comme un iPhone

Les chiens robots étaient autrefois des curiosités de Kickstarter. Le nouveau V-Bot de Vita Dynamics s'est vendu comme un gadget phare. Lorsque les précommandes ont été ouvertes, le robot à quatre pattes a dépassé les 1 000 unités en seulement 52 minutes, un rythme de vente qui ressemblait moins à celui d'un équipement industriel et plus à celui d'un lancement d'iPhone.

V-Bot cible les foyers et les petites entreprises, pas les laboratoires de recherche. Les acheteurs paient des quatre chiffres pour une machine qui patrouille, aide et observe sans tout envoyer dans le cloud. Cela marque à lui seul une rupture nette avec la dernière génération de caméras connectées et de haut-parleurs « intelligents ».

Sous le capot, le V-Bot fonctionne avec une architecture d'IA locale évaluée à 128 TOPS (trillions d'opérations par seconde), se situant approximativement dans la même catégorie de calcul qu'une boîte d'inférence de pointe. Ce traitement s'effectue entièrement sur l'appareil, permettant la navigation, la perception et l'interaction vocale sans diffusion de vidéo ou d'audio brut à l'extérieur. Vita Dynamics met fortement l'accent sur une approche priorisant la confidentialité : aucune upload continue vers le cloud, rétention des données contrôlée par l'utilisateur et journaux cryptés lorsque les propriétaires choisissent de synchroniser.

Le fonctionnement entièrement autonome est au cœur de la fiche technique. V-Bot cartographie les maisons et les bureaux, trace des itinéraires autour des meubles et des personnes, et gère ses propres cycles de charge. Les propriétaires définissent des objectifs généraux - patrouille nocturne, tournées de livraison entre les pièces, tâches d'inspection de base - et le robot s'occupe de la planification des trajets et de la négociation des obstacles.

Le matériel suit la philosophie de « l'appareil, pas du prototype ». Le châssis utilise des actionneurs scellés, des housses certifiées IP et des batteries interchangeables conçues pour un temps de fonctionnement de plusieurs heures. Vita Dynamics met en avant la résistance aux chutes, un comportement autonettoyant et un modèle de service plus proche d'un ordinateur portable haut de gamme que d'un bras industriel, avec une maintenance planifiée et des canaux de firmware pour à la fois la stabilité et des fonctionnalités expérimentales.

Ce sell-out de 52 minutes compte plus que n'importe quelle spécification. Il prouve qu'il existe une véritable demande impatiente pour l'IA incarnée, qui coûte autant qu'un ordinateur portable ou un téléphone de milieu de gamme, et non pas un jouet. Les consommateurs ne se contentent plus de regarder des démonstrations humaines et brillantes ; ils envoient de l'argent pour des robots qui se déplacent dans leurs maisons et bureaux, seuls, chaque jour.

À l'intérieur de la première ligne de production gérée par des humanoïdes au monde

Illustration : À l'intérieur de la première ligne de production gérée par des humanoïdes au monde
Illustration : À l'intérieur de la première ligne de production gérée par des humanoïdes au monde

Les usines en Chine considèrent déjà les humanoïdes non pas comme des démonstrations, mais comme du personnel. Chez CATL, le plus grand fabricant de batteries pour véhicules électriques au monde, des robots humanoïdes se tiennent désormais côte à côte avec des travailleurs qualifiés sur des lignes de production en direct, et non dans des cellules de R&D protégées.

Les lignes pilotes de CATL utilisent des humanoïdes pour la partie la plus stressante de la fabrication des batteries : les étapes de l'assemblage final et de la validation, où une seule erreur peut rendre une batterie valant des centaines de dollars inutilisable. Historiquement, ces tâches étaient confiées aux techniciens les plus expérimentés sur le terrain.

Le humanoïde Xiaomi de Spirit AI se trouve exactement dans cette zone d'impact. Le robot fonctionne sur une ligne de batteries à haut débit, où les packs défilent sur des convoyeurs toutes les quelques secondes et le temps de cycle ne laisse aucune place à l'hésitation.

Sa liste de tâches principale ressemble au cauchemar d'un ingénieur en sécurité : contrôles qualité finaux, insertion de connecteurs haute tension et surveillance continue des anomalies. Chaque pack de batteries exige plusieurs insertions précises avec des limites de force strictes et un alignement millimétrique, suivis d'une vérification visuelle et basée sur des capteurs.

Pour contrôler la qualité, Xiaomi met en place une boucle d'inspection en plusieurs étapes. Des caméras et des capteurs de profondeur détectent les barres omnibus mal alignées, les fixations manquantes et les déformations subtiles des boîtiers, tandis que les signatures de couple et de courant signalent les problèmes d'assemblage cachés que l'œil nu ne peut percevoir.

L'insertion de connecteurs repousse les limites de la manipulation habile. Le robot doit orienter les fiches haute tension dans des logements serrés, appliquer exactement le bon profil de force et confirmer un bon emboîtement sans surmener les joints ni tordre les broches qui pourraient par la suite créer des arcs sous charge.

La surveillance des anomalies transforme l'humanoïde en un dispositif de sécurité itinérant. Il surveille les points chauds thermiques, les harnais lâches ou les vibrations irrégulières, signalant tout élément suspect aux superviseurs humains avant qu'un lot défectueux ne quitte la chaîne de production.

Les chiffres du déploiement de CATL sont écrasants pour quiconque soutient qu'il s'agit simplement d'un battage médiatique. Xiaomi atteint un taux de réussite supérieur à 99%, comparable à celui des meilleurs spécialistes humains qui ont passé des années sur le terrain.

La vitesse ne se trouve plus non plus dans la « boîte à pénalité des robots ». Les temps de cycle sont équivalents à ceux des travailleurs humains expérimentés, s’intégrant dans le takt existant sans ralentir les stations en amont ou en aval.

La charge de travail, cependant, dépasse les limites humaines. Une seule unité Xiaomi gère près de trois fois le volume quotidien de tâches d'un technicien qualifié, fonctionnant de plus longues journées sans perte de performance et sans nécessité de reformation lorsque la configuration de la ligne change.

Pour CATL, cela se traduit par un modèle : des humanoïdes modulables qui parlent le même "interface" physique que les humains, mais qui se déploient comme des logiciels. Pour tous les autres, c'est le premier plan crédible d'une ligne de production gérée par des humanoïdes dans le monde réel.

L'icône se prépare pour son lancement mondial

Atlas a passé une décennie en tant que doublure de stunt viral pour la robotique, réalisant des parcours, des saltos arrière et du cosplay de construction dans des vidéos YouTube soigneusement montées. Le CES 2026 est l'endroit où l'icône de Boston Dynamics sort enfin du laboratoire et se présente sur une scène mondiale en direct, soutenue par une société mère disposant de l'un des plus gros budgets de R&D de l'industrie automobile.

Hyundai, qui a acheté Boston Dynamics en 2021, considère désormais les humanoïdes comme un pilier essentiel aux côtés des véhicules électriques et des véhicules définis par logiciel. L'entreprise prévoit une usine dédiée aux États-Unis avec une capacité de production d'environ 30 000 unités humanoïdes par an, passant des prototypes de recherche à quelque chose qui ressemble étrangement à une feuille de route produit.

Cette échelle signale un passage de la robotique en tant que spectacle à la robotique en tant qu'infrastructure. Lorsqu'un constructeur automobile historique s'engage à produire des dizaines de milliers d'unités par an, il ne cherche pas à obtenir des vues sur YouTube ; il parie que des humanoïdes chargeront des palettes, déplaceront des pièces et, finalement, se tiendront côte à côte avec des bras industriels sur la même ligne.

Le mouvement de Hyundai coïncide avec la démonstration de broderie de TARS Robotics en Chine, Figure 03 de Figure AI, et le chien robot sold-out de Vita Dynamics, le tout dans la même fenêtre de douze mois. Pour se rendre compte de la rapidité avec laquelle la pile évolue, voir TARS Robotics Démontre un Robot Humanoïde Capable de Broder à la Main, qui transforme un « tour de magie » en un modèle pour un travail d'assemblage de précision.

Ce qui change maintenant, c'est qui fait les paris. Des startups comme Figure, Agility Robotics et UBTech avancent toujours à toute vitesse, mais Hyundai, CATL et d'autres géants industriels parlent désormais en termes d'investissements en capital sur plusieurs années et de déploiement mondial. La robotique humanoïde cesse d'être un projet douteux et commence à ressembler à la prochaine plateforme de machine à usage général, avec Atlas comme sa mascotte réticente, aux tendons en métal.

L'ère de l'IA incarnée n'est plus une simulation.

Broderie sur une scène en direct en Chine, un humanoïde bavard dans un salon californien, un chien robot qui s'écoule en moins d'une heure, et des humanoïdes prenant tranquillement le contrôle de certaines lignes de production de batteries électriques en Chine pointent tous dans la même direction. Ce ne sont pas des vignettes de science-fiction ; c'est un aperçu synchronisé de l'IA incarnée franchissant un seuil. Lorsque une start-up de quelques mois comme TARS Robotics peut passer de sa fondation le 5 février 2025 à des démonstrations de broderie manuelle sub-millimétrique en direct avant la fin de l'année, quelque chose de fondamental a changé dans l'ensemble.

Dans l'ensemble, la démonstration de dextérité de TARS, le Figure 03 conversationnel de Figure AI, le V‑Bot en rupture de stock de Vita Dynamics, et les cellules de production gérées par des humanoïdes de CATL forment un schéma. Les robots ne se contentent plus de déplacer des palettes ou de reproduire des trajectoires de bras codées en dur ; ils voient, décident et agissent dans des environnements désordonnés et façonnés par l'humain. Les modèles Vision-Langage-Action comme Helix de Figure et le moteur du monde AWE 2.0 de TARS transforment la perception, le langage et le contrôle en une seule boucle de rétroaction plutôt qu'en trois problèmes de recherche distincts.

La vitesse est le véritable rebondissement de l'intrigue. Des tâches comme la manipulation de matériaux souples étaient censées être "à 5-10 ans", pourtant TARS a comprimé cette échéance à environ 10 mois de données, d'IA et de co-formation en physique. La Figure 03 est passée d'un prototype de laboratoire à un humanoïde bavard triant des chemises en environ un an, tandis que la fenêtre de rupture de vente de V-Bot, à la manière d'un iPhone, montre que le marché des consommateurs n'hésite plus à acheter des machines autonomes prêtes à l'emploi.

L'industrie évolue encore plus rapidement. Le déploiement de humanoïdes par CATL pour remplacer des Fachkräfte sur les lignes de production de batteries signale que les robots ne sont plus seulement des pilotes ou des gadgets publicitaires ; ils font désormais partie des éléments de plans d'investissement. Lorsque Boston Dynamics prépare Atlas pour une scène mondiale et que les usines chinoises standardisent discrètement l'utilisation de humanoïdes pour les faisceaux de câbles, l'électronique de précision et l'assemblage fin, le centre de gravité passe des démonstrations au déploiement.

L'intelligence incarnée a quitté le simulateur. Des systèmes de contrôle généralistes et basés sur les données se déplacent désormais sur des jambes, des roues et des bras capables de travailler aux côtés des humains, de répondre et d'apprendre de nouvelles tâches à partir de vidéos et de langage naturel. Les implications pour le travail, la logistique, le soin des personnes âgées et la vie domestique quotidienne ne sont plus hypothétiques ; elles sont en cours de négociation en temps réel, une ligne de production, un rayon de entrepôt et un salon à la fois.

Questions Fréquemment Posées

Pourquoi un robot qui brode est-il si important ?

La broderie nécessite de manipuler des matériaux souples et déformables (fil, tissu) avec une précision submillimétrique et un ajustement de la force en temps réel. Cette tâche, un cauchemar pour l'automatisation traditionnelle, prouve un nouveau niveau d'« intelligence incarnée » et de dextérité, ouvrant la voie à l'automatisation pour des travaux d'assemblage complexes.

Qu'est-ce que l'IA incarnée ?

L'IA incarnée est l'intégration de l'intelligence artificielle dans un système physique, comme un robot, capable de percevoir, de raisonner et d'interagir avec le monde physique. Elle apprend des compétences générales à partir de données du monde réel, et ne se limite pas à exécuter des tâches préprogrammées.

Les robots humanoïdes remplacent-ils déjà des emplois ?

Oui. CATL, le plus grand fabricant de batteries pour véhicules électriques au monde, déploie des robots humanoïdes sur ses chaînes de production pour effectuer des tâches de contrôle qualité précédemment réalisées par des travailleurs qualifiés, rapportant des taux de réussite élevés et une productivité accrue.

Quelle est la différence entre les robots TARS et Figure AI ?

La démonstration du robot TARS a mis l'accent sur la présentation de compétences motrices fines révolutionnaires et de dextérité avec sa tâche de broderie. La démonstration de Figure AI a souligné l'interaction homme-robot, mettant en avant des capacités conversationnelles et une compréhension des tâches dans un cadre décontracté, bien qu'elle ait révélé des défis liés à la latence de la parole.

Questions fréquentes

Pourquoi un robot qui brode est-il si important ?
La broderie nécessite de manipuler des matériaux souples et déformables avec une précision submillimétrique et un ajustement de la force en temps réel. Cette tâche, un cauchemar pour l'automatisation traditionnelle, prouve un nouveau niveau d'« intelligence incarnée » et de dextérité, ouvrant la voie à l'automatisation pour des travaux d'assemblage complexes.
Qu'est-ce que l'IA incarnée ?
L'IA incarnée est l'intégration de l'intelligence artificielle dans un système physique, comme un robot, capable de percevoir, de raisonner et d'interagir avec le monde physique. Elle apprend des compétences générales à partir de données du monde réel, et ne se limite pas à exécuter des tâches préprogrammées.
Les robots humanoïdes remplacent-ils déjà des emplois ?
Oui. CATL, le plus grand fabricant de batteries pour véhicules électriques au monde, déploie des robots humanoïdes sur ses chaînes de production pour effectuer des tâches de contrôle qualité précédemment réalisées par des travailleurs qualifiés, rapportant des taux de réussite élevés et une productivité accrue.
Quelle est la différence entre les robots TARS et Figure AI ?
La démonstration du robot TARS a mis l'accent sur la présentation de compétences motrices fines révolutionnaires et de dextérité avec sa tâche de broderie. La démonstration de Figure AI a souligné l'interaction homme-robot, mettant en avant des capacités conversationnelles et une compréhension des tâches dans un cadre décontracté, bien qu'elle ait révélé des défis liés à la latence de la parole.
🚀En savoir plus

Gardez une longueur d'avance en IA

Découvrez les meilleurs outils IA, agents et serveurs MCP sélectionnés par Stork.AI.

Retour à tous les articles