Des robots IA viennent de s'emparer du CES 2026.

Le CES 2026 ne concerne plus des promesses lointaines et des concepts flashy. Cette année, l'« IA physique » est au premier plan alors que des robots du monde réel et l'intelligence sur appareil passent des laboratoires à nos usines et nos foyers.

Stork.AI
Hero image for: Des robots IA viennent de s'emparer du CES 2026.
💡

TL;DR / Key Takeaways

Le CES 2026 ne concerne plus des promesses lointaines et des concepts flashy. Cette année, l'« IA physique » est au premier plan alors que des robots du monde réel et l'intelligence sur appareil passent des laboratoires à nos usines et nos foyers.

L'engouement est mort. Vive la réalité.

Les cycles de mode vieillissent vite à Las Vegas, mais le CES 2026 ressemble à un véritable réinitialisation. Au lieu de téléviseurs transparents, d'écrans enroulables et de voitures volantes conceptuelles qui ne voient jamais le jour, le salon est envahi par des robots, des appareils électroménagers et des véhicules qui sont réellement programmés pour être déployés en 2026 et 2027. Les démonstrations ne se terminent plus par "quelque part cette décennie" — elles se terminent par des formulaires de commande et des calendriers de déploiement.

L'IA physique se trouve au cœur de ce changement. Pas seulement des chatbots dans le cloud, mais une intelligence intégrée dans des actionneurs, des moteurs et des ensembles de capteurs qui luttent contre la gravité et le frottement. Des robots d'usine de Hyundai aux assistants domestiques avec doigts de LG et aux appareils alimentés par Gemini de Samsung, les principales attractions passent des pixels aux charges utiles.

Ce changement ne s'est pas produit par hasard. Le traitement sur appareil a fait un bond générationnel en environ 24 mois, avec des SoCs en périphérie atteignant maintenant des dizaines de TOPS à des watts à un chiffre, assez pour exécuter des modèles de vision et de navigation volumineux localement. Des ensembles de capteurs qui appartenaient autrefois à des prototypes à 100 000 $ sont désormais expédiés en tant que modules de base : caméras de profondeur, lidar à état solide, radar mmWave et matrices tactiles.

La robotique a discrètement atteint son propre point de basculement. L'Atlas de nouvelle génération de Boston Dynamics, la plateforme Mob de Hyundai et le CLiD de LG s'appuient tous sur un SLAM mature, une planification en temps réel et des logiciels de gestion de flotte qui ont été éprouvés dans des entrepôts et des usines, et non dans des laboratoires de recherche. Le résultat : des robots capables de marcher, de saisir et de s'adapter sans un opérateur humain maniant un joystick en coulisses.

La viabilité commerciale guide tout au CES 2026. Les vendeurs parlent de MTBF, de contrats de service et d'intégration avec les systèmes ERP et MES existants, et pas seulement de « magie de l'IA ». Les prix, les budgets énergétiques et les fenêtres de support figurent désormais sur les diapositives où les rendus de style de vie étaient auparavant.

Ce spectacle redessine efficacement la pile d'IA autour de la périphérie. Les services cloud continuent d'entraîner les grands modèles, mais la valeur se déplace vers : - IA sur l'appareil pour un contrôle à faible latence - Fusion de capteurs riche pour la perception - Conception mécatronique capable de résister aux abus du monde réel

Le CES a toujours promis l'avenir ; le CES 2026 commence à le concrétiser. Dans les prochains halls et conférences, la question n'est pas ce que l'IA pourrait faire un jour, mais quels robots, appareils et véhicules sont réellement en cours de déploiement, à quelle échelle, et dans quels foyers et usines.

Le Grand Plan de Hyundai : L'Usine Définie par Logiciel

Illustration : Le Grand Plan de Hyundai : L'Usine Définie par Logiciel
Illustration : Le Grand Plan de Hyundai : L'Usine Définie par Logiciel

Hyundai ne considère pas le CES 2026 comme un salon de l'automobile ; il le voit comme un sommet industriel. Le 5 janvier, le groupe Hyundai Motor prendra un créneau de 45 minutes lors de la journée média à Las Vegas pour présenter sa stratégie KI Robotik, une feuille de route qui relie chaque robot, capteur et pile logicielle à la manière dont le groupe fabrique et expédie effectivement ses produits.

Au cœur de cette proposition se trouve la Usine Définie par Logiciel. Au lieu de lignes de production fixes, Hyundai décrit une architecture où les robots sont développés, formés, déployés, mis à jour et retirés presque comme des applications mobiles, en utilisant des jumeaux numériques d'usines et de plateformes logistiques pour simuler les flux de travail avant qu'un seul bras ne se déplace sur le sol.

Hyundai relie cela directement à son Réseau de Valeur du Groupe, le terme générique désignant la manière dont ses marques, fournisseurs et partenaires logistiques partagent des données et des capacités. Dans ce modèle, les robots ne sont pas des machines autonomes ; ils sont des nœuds d'un réseau pouvant se reconfigurer en fonction des pics de demande, des pénuries de pièces ou des lancements de nouveaux véhicules.

L'entreprise déclare que sa présentation au CES s'articulera autour de trois axes principaux : la collaboration homme-robot, l'innovation dans la fabrication et l'intégration dans les chaînes logistiques. Cela se traduit par des cobots travaillant aux côtés des ouvriers de la ligne, des plateformes mobiles qui alimentent les stations juste à temps et des robots d'inspection qui transmettent des données en temps réel aux systèmes de planification.

La collaboration homme-robot est à l'honneur. Hyundai parle de systèmes robotiques capables de prendre en charge des tâches répétitives ou dangereuses tout en s'adaptant aux mouvements humains dans des espaces partagés, en utilisant une IA sur appareil pour la perception au lieu de dépendre d'un aller-retour avec un cloud distant.

Du côté de la fabrication, le concept d'Usine Définie par Logiciel promet des lignes de production capables de passer d'un modèle à un autre, voire à des catégories de produits différentes, grâce à des mises à jour logicielles. Hyundai évoque des interfaces robotiques standardisées et des modèles de perception partagés, permettant au nouveau matériel de s'intégrer dans des flux de travail existants sans mois d'intégration.

La logistique est le troisième pilier de la stratégie, englobant les ports, les entrepôts et les zones de livraison finale. Des robots assurent ici le déplacement des palettes, les vérifications de la cour et les scans d'inventaire, transmettant des télémétries en direct dans le même Réseau de Valeur de Groupe qui régit l'atelier.

Pour prouver que cela va au‑delà d'une simple présentation, Hyundai met l'accent sur le matériel. Boston Dynamics effectuera pour la première fois une démonstration publique du nouveau Atlas humanoïde sur la scène du CES, avec des routines conçues autour de tâches industrielles plutôt que d'un spectacle de parkour.

Atlas partagera un espace au sol avec Spot, le quadrupède de Boston Dynamics qui travaille déjà dans des usines et des raffineries, ainsi qu'une nouvelle plateforme appelée Mob. Mob est un transporteur compact et rabattu, conçu pour transporter des capteurs, des outils ou des charges sur des terrains accidentés et irréguliers en utilisant une navigation et une perception basées sur l'IA, agissant ainsi comme le mulet robotique du groupe pour des environnements difficiles.

Atlas Déchaîné : Boston Dynamics attire tous les regards

Atlas n'est pas simplement monté sur la scène du CES de Hyundai ; il est sorti du laboratoire pour entrer dans la feuille de route des produits. Le Boston Dynamics Atlas de nouvelle génération a fait sa première apparition publique à Las Vegas, présenté non pas comme une prouesse de recherche, mais comme une machine que Hyundai prévoit de déployer dans de véritables usines et entrepôts.

Fini le projet scientifique hydraulique bruyant qui faisait sensation dans les clips de parkour viraux. Le nouvel Atlas se déplace avec une grâce étrangement fluide, presque électrique, tournant son torse à 180 degrés, esquivant, et intégrant des composants dans un gabarit d'assemblage simulé avec des mouvements coordonnés à deux mains qui ressemblent davantage à ceux d'un ouvrier entraîné qu'à ceux d'un bras préprogrammé.

Hyundai et Boston Dynamics ont mis l'accent sur la manipulation, et non sur l'acrobatie. Atlas a saisi des pièces irrégulières dans un bac, les a réorientées en l'air et les a insérées dans des dispositifs tout en ajustant dynamiquement sa posture, un niveau de coordination corporelle globale que les anciennes démonstrations d'Atlas n'avaient fait qu'effleurer. Les micro-pauses entre les actions ont presque disparu, remplacées par un mouvement continu qui suggérait une perception et une planification beaucoup plus matures.

Le bruit racontait une seconde histoire. Là où l'ancien Atlas se faisait entendre par un sifflement hydraulique, cette version fonctionnait de manière nettement plus silencieuse, ressemblant davantage à un cobot industriel qu'à une excavatrice de construction. Hyundai n'a pas communiqué de détails sur la transmission, mais le profil acoustique et le contrôle plus précis laissaient supposer un passage vers un design plus commercialement viable, et non un prototype unique de laboratoire.

Un humanoïde à ce niveau modifie le calcul pour la fabrication, la logistique et l'entreposage. Au lieu de reconstruire des lignes autour de robots fixes, Hyundai a proposé Atlas comme un travailleur à intégrer facilement pour : - La gestion des machines sur des lignes à modèles mixtes - Le palettisation et la dépalettisation dans des quais de chargement exigus - L’assemblage et le retravail dans des cellules à forte variété et faible volume

Cette flexibilité est essentielle dans les usines en brownfield où les convoyeurs ne peuvent pas être déplacés et les cages de sécurité encombrent déjà l'espace au sol. Un bipède capable de monter des marches vers un mezzanine, de se faufiler sous les installations existantes et de partager les allées avec des chariots élévateurs s'intègre directement dans l'infrastructure actuelle, et non dans une fantaisie de greenfield.

L'acquisition de Boston Dynamics par Hyundai en 2020 semble enfin moins être un trophée marketing et plus un pilier de son plan Usine Définie par Logiciel. Spot et Mob s'occupent encore des inspections et de la détection mobile, mais Atlas occupe désormais le centre d'une pile intégrée verticalement qui s'étend du CAO et de la simulation jusqu'au déploiement et aux mises à jour par voie hertzienne.

Le contexte de CES – Site officiel du Consumer Electronics Show montre clairement que les concurrents se précipitent vers des plateformes humanoïdes similaires. L'avantage de Hyundai : Atlas arrive non pas comme une statue conceptuelle derrière une vitre, mais comme un nœud fonctionnel dans un écosystème industriel de bout en bout.

Votre prochain colocataire pourrait être un robot LG.

Les histoires de robots au CES commencent généralement sur les parquets des usines et se terminent dans des bandes-annonces de science-fiction. Le nouvel assistant domestique CLiD de LG renverse ce schéma, entrant par la porte d'entrée et plongeant directement dans le chaos domestique que la plupart des entreprises technologiques ne font qu'évoquer. Là où Hyundai parle d'usines définies par le logiciel, LG propose discrètement un colocataire défini par le logiciel.

Le CLiD ressemble moins à un jouet et plus à un robot de laboratoire épuré qui s'est échappé dans votre cuisine. Deux bras articulés reposent sur une base à roues, chacun offrant plusieurs degrés de liberté pour atteindre les étagères, les plans de travail et les poignées de porte. Au bout de ces bras, des mains à cinq doigts, chaque doigt étant activé individuellement pour une manipulation précise plutôt que de simples saisies en pince.

LG a conçu la tête comme un ensemble complet de capteurs, et non comme un dôme décoratif. Un écran frontal gère les retours expressifs et les invites, tandis que des caméras, des microphones, des haut-parleurs et des capteurs de profondeur forment une bulle de conscience à 360 degrés. Ce même module sert de base à la navigation, à la cartographie et à l'évitement des obstacles, de sorte que CLiD ne se contente pas de suivre des parcours scriptés, mais s'adapte aux agencements changeants.

L'objectif ici est sans apology résolument pratique. LG positionne CLiD comme un véritable assistant ménager capable d'interagir avec des objets réels : ouvrir des portes et des placards, porter du linge, récupérer des objets sur une table ou charger des plats légers dans un lave-vaisselle. La société parle explicitement de "tâches quotidiennes de base" plutôt que de tours de magie, signalant une orientation vers la robotique d'usage quotidien.

Sous tout cela se trouve la couche Intelligence Affectionnée de LG, qui tente de faire en sorte que le robot semble moins être un appareil et plus un aide attentif. Cette structure combine la compréhension du langage naturel, la création de profils utilisateurs et des indices contextuels — heure de la journée, pièce, activité récente — pour déterminer ce que CLiD devrait faire ensuite. Demandez-lui de « ranger avant l'arrivée des invités », et le système décompose cela en une série de tâches spécifiques à chaque pièce.

La prise de conscience contextuelle devient le facteur différenciant lorsque les robots quittent les usines pour entrer dans nos foyers. CLiD doit reconnaître non seulement des objets, mais aussi des routines, des préférences et des limites sociales. C'est là que l'Intelligence Affectionnée transforme un ensemble d'actionneurs en quelque chose auquel vous pourriez réellement faire confiance pour vos clés, votre chien ou les jouets de vos enfants.

La prise de contrôle de l'IA par Samsung : des réfrigérateurs aux téléviseurs

Illustration : La prise de contrôle par l'IA de Samsung : Des réfrigérateurs aux téléviseurs
Illustration : La prise de contrôle par l'IA de Samsung : Des réfrigérateurs aux téléviseurs

Samsung débarque au CES 2026 en agissant moins comme un fabricant d'appareils et plus comme un fournisseur de systèmes d'exploitation. Son argument : un “Écosystème de Vie AI” où réfrigérateurs, fours, caves à vin et téléviseurs partagent un contexte, pas seulement des mots de passe Wi‑Fi. Chaque annonce de produit majeur s'articule autour de cette idée d'un cerveau domestique unique, alimenté par Gemini.

Au centre de la scène se trouve le réfrigérateur Bespoke AI Family Hub, fonctionnant désormais avec Google Gemini directement sur l'appareil. Des caméras internes alimentent une pile "AI Vision" améliorée qui reconnaît les produits frais, les aliments emballés et les restes, puis les cartographie dans un inventaire en temps réel. Samsung affirme avoir amélioré la vitesse de reconnaissance et réduit considérablement les angles morts par rapport aux générations précédentes qui étiquetaient régulièrement mal les articles ou ne les détectaient pas du tout.

AI Vision suit maintenant les dates d'expiration, signale les faibles stocks et se connecte aux recettes et aux listes de courses sur les téléphones et tablettes Samsung. Étiquetez un conteneur une fois sur l'écran tactile, et le système s'en souvient lors des scans suivants. Gemini gère les requêtes en langage naturel comme « Que puis-je cuisiner en moins de 20 minutes avec ce que j'ai ici ? » et fournit des instructions étape par étape sur le réfrigérateur et le four simultanément.

Juste à côté, la cave à vin AI sur mesure se comporte comme un sommelier avec un scanner de codes-barres. Des caméras et des capteurs identifient automatiquement les bouteilles, enregistrent les millésimes et les cépages, et surveillent la température, l'humidité et les vibrations. La cave se synchronise avec l'inventaire du réfrigérateur, de sorte que les accords suggérés prennent en compte ce que vous prévoyez réellement de cuisiner, et pas seulement ce qui semble sophistiqué sur une étiquette.

Samsung étend cette logique à de nouveaux appareils de cuisson alimentés par l'IA. Un micro-ondes encastré et une cuisinière à glissière se connectent au même graphique d'inventaire, de sorte que les réglages de préchauffage, les temps et les modes s'ajustent en fonction des ingrédients spécifiques que vous sortez du réfrigérateur. Au lieu d'appareils "intelligents" autonomes, les dispositifs partagent des états : ce que vous avez scanné, ce que vous avez commencé à cuisiner et quand cela doit se terminer.

Les téléviseurs MicroLED mis à jour complètent l'argument de l'écosystème plutôt que de poursuivre un spectacle dominant sur les murs. La gamme MicroLED 2026 ajoute des tailles d'écran supplémentaires et des structures de pixels plus serrées, mais le point central est l'intégration : les téléviseurs servent également de grands tableaux de bord à faible latence pour l'Écosystème de Vie AI. Les recettes, les alertes d'appareils électroménagers et les flux de caméras de sécurité passent du réfrigérateur au téléphone puis au panneau de 85 pouces sans jamais quitter l'interface et le système de périphériques de Samsung.

Les guerres du silicium : Les cerveaux IA bénéficient d'une mise à niveau majeure

Le silicium, et non les coques brillantes de robots, fixe discrètement les enjeux au CES 2026. Chaque démonstration humanoïde et astuce de réfrigérateur intelligent dépend désormais de la capacité de son cerveau IA intégré à suivre le rythme.

Intel arrive avec ses premiers processeurs de la série Core Ultra 3, la première vague complète de Panther Lake. Fabriqués sur le processus 18A d'Intel, ces puces visent les conceptions de « PC AI » capables d'exécuter localement de grands modèles linguistiques et des charges de travail de vision, plutôt que de tout transférer vers le cloud.

Intel revendique des gains à deux chiffres en matière de traitement des GPU par rapport à Lunar Lake, avec un Xe GPU intégré remanié visant la perception et la simulation en temps réel. Les fabricants d'équipements d'origine (OEM) sur le salon discutent discrètement de plus de 30 TOPS d'inférence combinée entre NPU et GPU dans des ordinateurs portables fins et légers, suffisamment pour piloter des piles de contrôle de robots, des assistants multimodaux et une traduction hors ligne sans centre de données.

Le pitch de Panther Lake s'aligne directement avec les robots qui parcourent les halls du CES. Les démos d'usines définies par logiciel de Hyundai, l'assistant domestique CLiD de LG et l'écosystème vivant AI de Samsung nécessitent tous une inférence à faible latence sur l'appareil pour la navigation, la reconnaissance vocale et les vérifications de sécurité, ce que le silicium de classe 18A rend enfin pratique.

Nvidia, quant à elle, considère le CES moins comme une exposition de gadgets et davantage comme un spectacle sur l'infrastructure IA. Le discours d'ouverture de Jensen Huang s'appuie fortement sur la simulation de robots, les jumeaux numériques et les clusters de GPU qui entraînent les modèles qui animent ces nouveaux humanoïdes.

Huang associe à plusieurs reprises la locomotion et la manipulation de style Boston Dynamics aux Omniverse et à Isaac de Nvidia. Le message : chaque robot agile sur le sol a probablement appris ses mouvements sur un ensemble d'accélérateurs Nvidia bien avant de pénétrer dans une véritable usine ou un salon.

Sous le capot, Nvidia promeut une histoire continue : - GPUs de centre de données pour entraîner des modèles de base et de contrôle - Modules Edge comme Jetson pour le déploiement dans des robots et des appareils - Orchestration cloud-à-edge pour les mises à jour et la télémétrie

AMD refuse de céder la vedette. Le discours de Lisa Su présente les processeurs Ryzen AI et les accélérateurs Instinct comme l'alternative flexible pour l'edge et le centre de données, en mettant l'accent sur des piles logicielles ouvertes et des revendications agressives en matière de performance par watt.

Les ordinateurs portables Ryzen AI et les composants intégrés positionnent AMD en tant que concurrent sérieux pour l'inférence sur appareil dans les PC, les kiosques et même les robots compacts. Les GPU Instinct rivalisent avec Nvidia dans les charges de travail d'entraînement et de simulation qui sous-tendent ces systèmes de KI physique.

Pour une analyse approfondie sur la manière dont cette lutte à trois pour les CPU, NPU et GPU sous-tend l'invasion des robots à la CES 2026, consultez Tendances de la CES 2026 : Matériel en tant que noyau – Support pour l'IA.

Votre ordinateur portable et votre téléphone sont désormais natifs de l'IA.

Le silicium axé sur l'IA d'Intel, AMD, Qualcomm et MediaTek transforme discrètement chaque nouvel ordinateur portable et téléphone au CES 2026 en un appareil d'IA. Au lieu d'envoyer vos données vers un centre de serveurs, ces puces effectuent des dizaines de trillions d'opérations par seconde grâce à des unités de traitement neuronales locales tout en consommant peu d'énergie, permettant ainsi une transcription en temps réel, une reconnaissance d'objets et une amélioration de photos de fonctionner en continu sans surchauffer votre batterie.

Lenovo a profité de sa prise de contrôle de Tech World au Sphere pour renforcer ce message. Sur scène, des cadres ont parlé des PC en tant que « collaborateurs IA », et non comme des terminaux, présentant des ordinateurs portables Windows qui résument les réunions en temps réel, rédigent des documents sur l'appareil et génèrent des images dans des applications créatives sans passer par le cloud.

Ces démonstrations se sont appuyées fortement sur une présentation full-stack : des NPU optimisés, un firmware qui priorise les charges de travail en IA, et la propre couche logicielle de Lenovo orchestrant les modèles entre CPU, GPU et NPU. Un prototype de « moteur de contexte personnel » surveillait tout, des onglets ouverts aux entrées de calendrier, afin de créer un profil local qui alimente les suggestions et l'automatisation — sans expédier les journaux d'activité bruts hors de l'appareil.

Motorola, sous l'égide de Lenovo, a présenté un nouveau téléphone pliable au format livre qui intègre l'IA sur l'appareil comme partie de la charnière. Ouvert comme une mini-tablette, le téléphone a montré : - Une traduction en temps réel lors d'un appel en écran partagé - Des mises en page d'applications qui se réorganisent en fonction de ce que vous faites - Une caméra qui recadre la vidéo selon la moitié de l'écran que vous utilisez

Dans ce contexte, « natif à l'IA » signifie que votre matériel considère l'IA comme une charge de travail de base, et non comme un supplément optionnel. Les utilisateurs obtiennent des réponses plus rapides, une plus longue autonomie pour des fonctionnalités lourdes comme l'édition générative, et une meilleure vie privée car les fichiers audio bruts, les photos et les documents ne quittent jamais le stockage local.

Les outils créatifs évoluent également. Les téléphones remixent des vidéos avec un transfert de style en caméra, les ordinateurs portables génèrent des extraits de code et des présentations hors ligne, et les deux peuvent exécuter des modèles plus petits et finement ajustés qui semblent personnels : pas de connexion, pas de retour vers un centre de données distant.

Donner aux robots le sens du toucher et de la vue

Illustration : Donner aux robots le sens du toucher et de la vue
Illustration : Donner aux robots le sens du toucher et de la vue

Les robots qui saisissent, transportent et trient des objets sur le sol du CES ne semblent impressionnants que grâce à quelque chose de loin moins glamour : les capteurs. Les actionneurs et les modèles d’IA attirent l'attention, mais sans un maillage dense de caméras, de capteurs de profondeur et de peaux tactiles, l'IA physique est essentiellement un taureau aveugle dans un magasin de porcelaine.

Par souhaite remédier à cela avec une plateforme de détection tactile complète conçue pour les mains et les pinces robotiques. Son système superpose des surfaces douces et déformables avec des réseaux de pression intégrés et un échantillonnage haute fréquence, permettant à un manipulateur de sentir à quel point il comprime une tomate par rapport à un outil en métal en temps réel.

Les retours en temps réel sont essentiels car les robots industriels gèrent désormais tout, des emballages en plastique fragiles aux flacons en verre et aux tâches effectuées par des cobots sécurisés pour les humains. Les capteurs de Par transmettent en continu des données sur la force et le glissement au contrôleur, permettant aux politiques d'IA de moduler la force de préhension instantanément au lieu de se fier à des préréglages statiques.

Les cadres de CES l'ont présenté comme une histoire de sécurité et de rendement, et pas seulement comme une démonstration impressionnante. Moins de pièces écrasées, moins d'objets tombés et moins d'incidents homme-robot se traduisent directement par des taux de rebut inférieurs et moins de temps d'arrêt dans une usine définie par logiciel.

La vision est l'autre moitié du système nerveux robotique, et Leopard Imaging positionne ses dernières caméras comme étant « prêtes pour les humanoïdes ». La société présente des modules de profondeur stéréo et des caméras RGB haute résolution adaptés aux robots bipèdes qui doivent marcher, monter des escaliers et manipuler des environnements encombrés sans un éclairage parfait.

Les nouveaux kits de perception de Leopard Imaging combinent : - Des paires stéréo à obturateur global pour une profondeur précise à vitesse de marche - Des capteurs RGB 4K pour la reconnaissance d'objets et la compréhension de scènes - Une optimisation en faible luminosité pour les entrepôts peu éclairés et les patrouilles nocturnes

Ce mélange permet aux humanoïdes et aux bases mobiles de maintenir la navigation et la détection d'objets dans des conditions qui endommageraient des webcams moins chères. Des cartes de profondeur à faible latence alimentent les pipelines SLAM, tandis que les flux RGB alimentent des modèles fondamentaux capables de reconnaître des outils, des panneaux et même des gestes de la main.

Ensemble, les plateformes de Par et Leopard Imaging forment le système nerveux sensoriel de cette vague de robots au CES. Les puces de Nvidia, Intel et AMD peuvent agir comme le cerveau, mais ces dispositifs tactiles et ces ensembles de caméras traduisent la friction, la force et les photons en données sur lesquelles la pile d'IA peut réellement raisonner et agir.

L'Invasion Silencieuse des Robots Spécialisés

Les robots ne se cachent plus dans les salles des conférences au CES 2026. Marchez quelques centaines de mètres en dehors des scènes principales et vous trébuchez sans cesse sur des robots spécialisés prenant discrètement le contrôle de tous les emplois de niche que vous pouvez imaginer.

Les derniers modèles phares de Roborock montrent combien les robots domestiques "ennuyants" ont évolué. Le nouvel aspirateur-essuie-glace haut de gamme utilise des lidars ainsi que des caméras RGB pour créer des cartes d'une précision centimétrique, étiqueter automatiquement les pièces et reconnaître plus de 50 types d'obstacles, des câbles de téléphone aux gamelles pour animaux, puis ajuster la puissance d'aspiration et la pression de nettoyage en temps réel.

La gestion des salissures devient également plus intelligente. Les stations de docking multi-niveaux lavent et sèchent les rouleaux de manière chauffante, séparent les solides des eaux usées et dose automatiquement le détergent, transformant les corvées hebdomadaires en entretien trimestriel. Ce sont des améliorations progressives, mais elles s'accumulent pour créer un robot qui échoue moins souvent, se coince moins rarement et nettoie de manière plus agressive sans avoir besoin de surveillance humaine.

À l'extérieur du salon, des robots de niche attaquent silencieusement des douleurs très spécifiques. Les derniers robots de nettoyage de piscine d'iOpper utilisent une cartographie ultrasonique et un ensemble de capteurs inertiels 3D pour s'accrocher à des murs raides, frotter les joints de carrelage et suivre des motifs systématiques au lieu de zigzags aléatoires, fonctionnant plus de 3 heures sur une charge.

À l'opposé du spectre, le R2 Pro modulaire de Robosen transforme la robotique en un ensemble de construction pour adultes. Des modules servo interchangeables, des articulations magnétiques et une application de programmation visuelle permettent aux utilisateurs de créer tout, d'un quadrupède marchant à un dolly de caméra, puis de programmer des comportements avec du code en blocs ou en Python.

La compagnie prend une tournure étrange et légèrement troublante avec l'animal de compagnie cybernétique Ollybot. Ce rover de la taille de la paume utilise des modèles de parole sur appareil, une caméra de profondeur et des capteurs tactiles capacitifs pour suivre son propriétaire dans l'appartement, réagir au ton de la voix et construire un simple modèle d'« humeur » basé sur la fréquence à laquelle vous lui parlez, le caressez ou l'ignorez.

Les nouveaux venus les plus importants pourraient être les robots d’assistance. ALLX de VI Robotics est un assistant de mobilité pour le haut du corps qui se fixe à un fauteuil roulant électrique ou à un cadre de lit, avec un bras à 6 degrés de liberté, un pince à 3 doigts et une prédiction d'intention basée sur la vision pour aider les utilisateurs à attraper des tasses, ouvrir des portes ou repositionner des couvertures.

ALLX exécute la plupart des modèles de perception et de contrôle localement sur un GPU embarqué, réduisant ainsi la latence pour les tâches délicates autour des visages et des mains. C'est un aperçu de la même pile d'IA physique dont Hyundai parle dans sa stratégie d'IA en robotique, détaillée dans Première sur le CES 2026 – Hyundai Motor Group présente sa stratégie en matière de robotique AI, diffusée dans du matériel quotidien et profondément personnel.

Au-delà du stand : Pourquoi le CES 2026 a vraiment de l'importance

Les robots, l'IA sur appareil et les réseaux IoT denses ont enfin fait leur apparition au CES 2026 en tant qu'ensemble plutôt qu'en tant que catégories de produits distinctes. Les usines définies par logiciel de Hyundai, l'Écosystème de Vie IA de Samsung, le robot domestique CLiD de LG et Atlas parcourant un site de travail simulé soulignaient tous la même idée : des écosystèmes complets et étroitement intégrés qui englobent le cloud, l'edge et le monde physique.

Le spectacle de cette année a tracé une ligne nette sous l'ancien manuel du CES, rempli de téléviseurs transparents et de taxis volants qui ne sont jamais commercialisés. Hyundai a intégré Atlas, Spot et Mob dans un véritable pipeline de déploiement ; Samsung a connecté des réfrigérateurs alimentés par Gemini aux fours et téléviseurs ; les fabricants de puces ont intégré des NPU dans tout, des contrôleurs industriels aux ordinateurs portables de 13 pouces. Le message : le déploiement, le temps de fonctionnement et la gestion du cycle de vie comptent désormais plus que le spectacle.

Pour les consommateurs, ce changement signifie que l'IA cesse de vivre dans les applications de chat et commence à réorganiser les cuisines, les factures d'électricité et les routines quotidiennes. Le CLiD de LG n'est pas un jouet mignon ; c'est un manipulateur à bras doubles conçu pour ouvrir des portes, trier le linge et manipuler des objets réels, soutenu par une infrastructure de service qui nécessitera des mises à jour, des pièces de rechange et des certifications de sécurité. Les appareils électroménagers intelligents de Samsung normalisent discrètement des maisons qui détectent les stocks, les habitudes d'utilisation et la présence sans allers-retours constants vers le cloud.

Les industries ressentent une onde de choc encore plus importante. La vision d'usine définie par logiciel de Hyundai transforme les robots en points de terminaison reconfigurables au sein d'un réseau de production mondial, où une mise à jour de modèle à Séoul peut modifier la manière dont une plateforme Mob transporte des pièces en Alabama quelques minutes plus tard. Les opérateurs logistiques regardant les démonstrations d'Atlas et de Spot ne se posent plus la question « peut-il sauter ? » ; ils s'interrogent maintenant sur le MTBF, les termes SLA et la rapidité avec laquelle une flotte peut être réaffectée à une nouvelle ligne de produits.

À long terme, les annonces les plus importantes du CES 2026 pourraient être les plus ennuyeuses : des API de robot standardisées, des chaînes d'outils d'IA edge inter-vendeurs et des feuilles de route en silicium promettant des gains de NPU de 2 à 3 fois tous les 18 à 24 mois. Ce sont les ingrédients d'une décennie où l'« IA physique » deviendra aussi évidente que le Wi-Fi.

Au cours de l'année à venir, la véritable histoire passera des scènes de Las Vegas à des programmes pilotes et des rappels. Observez qui publie des données de sécurité, qui ouvre ses plateformes robotiques à des développeurs tiers, et qui met discrètement au placard des démonstrations ambitieuses qui ne peuvent survivre ici dans des entrepôts, des hôpitaux et des salons.

Questions Fréquemment Posées

Quel est le thème principal du CES 2026 ?

Le thème principal est le passage des technologies conceptuelles aux applications pratiques et réelles de l'« IA physique », en mettant l'accent sur la robotique, l'intelligence sur appareil et les systèmes autonomes prêts à être déployés.

Qu'est-ce que Hyundai présente au CES 2026 ?

Hyundai révèle sa stratégie globale en matière de robotique IA et présente le robot Atlas de nouvelle génération de Boston Dynamics lors de sa première démonstration publique, aux côtés des robots Spot et Mob.

Qu'est-ce que l'IA sur appareil et pourquoi est-elle importante au CES 2026 ?

L'IA sur appareil traite les tâches directement sur un appareil (comme un téléphone ou un appareil électroménager) plutôt que dans le cloud. C'est une tendance clé pour des réponses plus rapides, une meilleure confidentialité et des performances hors ligne plus fiables.

Les robots humanoïdes sont-ils un axe majeur cette année ?

Oui, des robots humanoïdes comme Atlas de Boston Dynamics et divers robots d'assistance sont un axe majeur, montrant des avancées significatives en matière de mobilité, de manipulation et d'exécution de tâches dans des environnements industriels et domestiques.

Frequently Asked Questions

Quel est le thème principal du CES 2026 ?
Le thème principal est le passage des technologies conceptuelles aux applications pratiques et réelles de l'« IA physique », en mettant l'accent sur la robotique, l'intelligence sur appareil et les systèmes autonomes prêts à être déployés.
Qu'est-ce que Hyundai présente au CES 2026 ?
Hyundai révèle sa stratégie globale en matière de robotique IA et présente le robot Atlas de nouvelle génération de Boston Dynamics lors de sa première démonstration publique, aux côtés des robots Spot et Mob.
Qu'est-ce que l'IA sur appareil et pourquoi est-elle importante au CES 2026 ?
L'IA sur appareil traite les tâches directement sur un appareil plutôt que dans le cloud. C'est une tendance clé pour des réponses plus rapides, une meilleure confidentialité et des performances hors ligne plus fiables.
Les robots humanoïdes sont-ils un axe majeur cette année ?
Oui, des robots humanoïdes comme Atlas de Boston Dynamics et divers robots d'assistance sont un axe majeur, montrant des avancées significatives en matière de mobilité, de manipulation et d'exécution de tâches dans des environnements industriels et domestiques.
🚀Discover More

Stay Ahead of the AI Curve

Discover the best AI tools, agents, and MCP servers curated by Stork.AI. Find the right solutions to supercharge your workflow.

Back to all posts