ИИ-роботы только что захватили CES 2026

CES 2026 больше не о далеких обещаниях и ярких концепциях. В этом году в центре внимания — «физический ИИ», так как реальные роботы и встроенные интеллектуальные системы переходят из лабораторий в наши фабрики и дома.

Stork.AI
Hero image for: ИИ-роботы только что захватили CES 2026
💡

TL;DR / Key Takeaways

CES 2026 больше не о далеких обещаниях и ярких концепциях. В этом году в центре внимания — «физический ИИ», так как реальные роботы и встроенные интеллектуальные системы переходят из лабораторий в наши фабрики и дома.

Слышен гудок? Прощай, ажиотаж. Да здравствует реальность.

Циклы хайпа быстро устаревают в Лас-Вегасе, но CES 2026 ощущается как серьезный перезапуск. Вместо прозрачных телевизоров, раскладных дисплеев и концептуальных летающих автомобилей, которые так и не появляются в продаже, пол выставки заполняют роботы, бытовая техника и транспортные средства, которые действительно запланированы к запуску в 2026 и 2027 годах. Демо больше не заканчиваются фразой «в какое-то время в этом десятилетии» — теперь они заканчиваются формами заказа и графиками развертывания.

Физический Искусственный Интеллект находится в центре этого сдвига. Это не просто чат-боты в облаке, но интеллект, встроенный в приводы, моторы и сенсорные системы, которые противостоят гравитации и трению. От фабричных роботов Hyundai до домашних помощников LG и бытовой техники на базе Gemini от Samsung, главные действующие лица переходят от пикселей к нагрузкам.

Это изменение не произошло на пустом месте. Обработка на устройстве совершила скачок вперед за примерно 24 месяца, и теперь Edge SoC достигают десятков TOPS при потреблении в один-два ватта, что достаточно для локального запуска крупных моделей компьютерного зрения и навигации. Датчики, которые ранее использовались только в прототипах стоимостью $100,000, сейчас поставляются в виде стандартных модулей: камеры глубины, твердотельные лидары, радары mmWave и тактильные матрицы.

Робототехника тихо достигла своей критической точки. Носитель следующего поколения Atlas от Boston Dynamics, платформа Mob от Hyundai и CLiD от LG полагаются на зрелую технологию SLAM, планирование в реальном времени и программное обеспечение для управления флотом, отработанные в складах и фабриках, а не в научных лабораториях. Результат: роботы, способные ходить, хватать и адаптироваться без оператора-джойстика, скрывающегося за кулисами.

Коммерческая жизнеспособность движет всем на CES 2026. Поставщики говорят о среднем времени наработки на отказ (MTBF), сервисных контрактах и интеграции с существующими ERP и MES системами, а не только о «магии ИИ». Цены, лимиты мощности и сроки поддержки появляются на слайдах, где раньше были глянцевые визуализации стиля жизни.

Это шоу эффективно перерисовывает стек ИИ по краям. Облачные сервисы по-прежнему обучают большие модели, но ценность смещается к: - Искусственному интеллекту на устройствах для низколатентного управления - Богатой сенсорной интеграции для восприятия - Мехатронному дизайну, который может выдерживать реальное использование

CES всегда обещал будущее; CES 2026 начинает его реализовывать. В следующих залах и на ключевых выступлениях вопрос заключается не в том, что ИИ может сделать когда-либо, а в том, какие роботы, приборы и транспортные средства действительно выходят на рынок, в каком масштабе и в чьи дома и фабрики.

Грандиозный план Hyundai: Завод с программным управлением

Иллюстрация: Великий план Hyundai: Фабрика с определяемым программным обеспечением
Иллюстрация: Великий план Hyundai: Фабрика с определяемым программным обеспечением

Hyundai не рассматривает CES 2026 как автосалон; это для них саммит фабрик. 5 января Hyundai Motor Group займёт 45-минутный слот дня СМИ в Лас-Вегасе, чтобы изложить свою KI Robotik Strategie, дорожную карту, которая связывает каждого робота, сенсор и программный комплекс с тем, как группа на самом деле производит и отправляет продукцию.

В основе этого концепта лежит Фабрика с Программным Управлением. Вместо жестко закодированных производственных линий Hyundai описывает систему, где роботы разрабатываются, обучаются, внедряются, обновляются и выводятся из эксплуатации почти как мобильные приложения, используя цифровые двойники заводов и логистических центров для моделирования рабочих процессов до того, как хотя бы одна рука начнет движение на производственном этаже.

Hyundai напрямую связывает это с Сетевой Ценностью Группы, общим термином для описания того, как его бренды, поставщики и партнеры по логистике обмениваются данными и возможностями. Роботы в этой модели не являются автономными машинами; они представляют собой узлы в сети, которые могут перенастраиваться в ответ на всплески спроса, нехватку запчастей или запуски новых автомобилей.

Компания сообщает, что её презентация на CES будет сосредоточена на трех ключевых областях: сотрудничестве человека и робота, инновациях в производстве и интеграции в логистические цепочки. Это означает коллаборативных роботов, работающих рядом с рабочими на линии, мобильные платформы, которые подают детали на рабочие станции точно в срок, и инспекционных роботов, передающих данные в планировочные системы в режиме реального времени.

Сотрудничество человека и робота становится приоритетным. Hyundai рассказывает о роботизированных системах, которые могут взять на себя повторяющиеся или опасные задачи, адаптируясь к движениям человека в общем пространстве, используя встроенный ИИ для восприятия, а не полагаясь на удаленный облачный обмен данными.

С точки зрения производства концепция завода с программным управлением обещает производственные линии, которые могут переключаться между моделями или даже категориями продуктов с помощью обновлений программного обеспечения. Hyundai намекает на стандартизированные интерфейсы роботов и общие модели восприятия, чтобы новое оборудование могло интегрироваться в существующие рабочие процессы без месяцев адаптации.

Логистика — это третья опора стратегии, охватывающая порты, склады и зоны доставки. Здесь роботы выполняют перемещения поддонов, проверки на площадках и сканирование запасов, подавая живые телеметрические данные в ту же Сеть Ценностей Группы, которая управляет производственным этапом.

Чтобы доказать, что это не просто презентация, Hyundai ставит оборудование на первое место. Boston Dynamics впервые публично продемонстрирует человекоподобного робота Atlas следующего поколения на сцене CES, с Рутинами, ориентированными на промышленные задачи, а не на паркурные зрелища.

Atlas будет делить пространство с Spot, квадропедом компании Boston Dynamics, который уже работает на фабриках и нефтеперерабатывающих заводах, а также с новой платформой под названием Mob. Mob — это компактный, низкий носитель, предназначенный для транспортировки датчиков, инструментов или грузов по rugged, неровной местности с использованием навигации и восприятия на основе ИИ, эффективно выступая в роли роботизированного вьючного мules для суровых условий.

Atlas Unchained: Boston Dynamics украл шоу

Atlas не просто вышел на сцену Hyundai на CES; он вышел из лаборатории и попал в продуктовый план. Робот следующего поколения Boston Dynamics Atlas впервые публично появился в Лас-Вегасе, представленный не как исследовательский проект, а как машина, которую Hyundai планирует использовать в реальных фабриках и складах.

Исчезли громкие и шумные гидравлические научные проекты, которые славились в вирусных клипах паркура. Новый Atlas движется с тревожно плавной, чуть ли не электрической грацией, поворачивая торс на 180 градусов, уклоняясь и вставляя элементы в имитационный сборочный кондуктор с помощью скоординированных двухруких движений, которые больше напоминают действия опытного рабочего, чем запрограммированной руки.

Hyundai и Boston Dynamics сосредоточились на манипуляциях, а не на акробатике. Atlas поднимал нестандартные детали из контейнера, перенаправлял их в воздухе и вставлял в крепления, динамически подстраивая свое положение. Это уровень координации всего тела, который старые демонстрации Atlas лишь намекали. Микропаузы между действиями почти исчезли и были заменены непрерывным движением, которое указывало на гораздо более зрелое восприятие и планирование.

Шум рассказал вторую историю. Если старый Atlas выдавал себя гидравлическим воем, то эта версия работала заметно тише, ближе к промышленному коллаборативному роботу, чем к строительному экскаватору. Hyundai не раскрыла подробности привода, но акустический профиль и более точный контроль намекали на переход к более коммерчески приемлемому дизайну, а не к разовым лабораторным прототипам.

Человекообразный робот на этом уровне меняет подход к производству, логистике и складированию. Вместо перестройки линий под фиксированные роботы, Hyundai предложила Atlas в качестве замещающего работника для: - Обслуживания машин на сборочных линиях с смешанными моделями - Паллетирования и распаллетирования в ограниченных погрузочных зонах - Комплектации и доработки на ячейках с высоким ассортиментом и низким объемом

Эта гибкость важна на промышленных предприятиях, где конвейеры не могут перемещаться, а защитные ограждения уже занимают пространство на полу. Человекоподобный робот, способный подниматься по лестницам на мезонин, проходить под существующими конструкциями и делить проходы с погрузчиками, идеально вписывается в современную инфраструктуру, а не в какие-то идеализированные проекты на чистом месте.

Приобретение Hyundai компании Boston Dynamics в 2020 году наконец выглядит не как маркетинговый трофей, а скорее как краеугольный камень в рамках их плана Завода с Программным Управлением. Spot и Mob по-прежнему занимаются инспекциями и мобильными сенсорами, но Atlas теперь занимает центральное место в вертикально интегрированной структуре, которая охватывает все от CAD и моделирования до развертывания и обновлений по воздуху.

Контекст с CES – Официальный сайт выставки потребительской электроники ясно указывает, что соперники спешат к схожим гуманоидным платформам. Преимущество Hyundai: Atlas появляется не как концептуальная статуя за стеклом, а как рабочий узел в интегрированной промышленной экосистеме.

Твой следующий сосед по комнате может стать робот LG.

Истории о роботах на CES обычно начинаются на заводских площадках и заканчиваются в научно-фантастических концептуальных роликах. Новое устройство LG CLiD — домашний ассистент, переворачивает этот сценарий, проходя прямо через входную дверь и попадая в домашний хаос, о котором большинство технологических компаний лишь намекают. Если Hyundai говорит о программно определяемых фабриках, LG тихо предлагает программно определяемого соседа по комнате.

CLiD выглядит менее как игрушка и больше как упрощенный лабораторный робот, который сбежал на вашу кухню. Две артикулируемые руки располагаются на колесной базе, каждая с несколькими степенями свободы для доступа к полкам, столешницам и дверным ручкам. На концах этих рук — пятифingersные руки, каждый палец индивидуально управляется для точного манипулирования вместо простого захвата.

LG разработала голову как полноценный сенсорный комплекс, а не декоративный купол. Фронтальный дисплей обеспечивает выразительную обратную связь и подсказки, в то время как камеры, микрофоны, динамики и датчики глубины формируют 360-градусный «бульбулятор» осознания. Этот же модуль отвечает за навигацию, картографирование и избежание препятствий, поэтому CLiD не просто следует заранее прописанным маршрутам, но и адаптируется к изменяющимся условиям.

Цель здесь безапелляционно практична. LG позиционирует CLiD как истинного домашнего помощника, который может взаимодействовать с реальными объектами: открывать двери и шкафы, нести стирку, приносить предметы со стола или загружать легкую посуду в посудомоечную машину. Компания явно говорит о «основных повседневных задачах», а не о показушных трюках, что подчеркивает стремление к роботам для повседневного использования.

Под всем этим скрывается слой Чувствительного Интеллекта от LG, который пытается сделать робота менее похожим на бытовой прибор и более похожим на внимательного помощника. Этот стек сочетает в себе понимание естественного языка, профилирование пользователей и контекстные подсказки — время суток, комнату, недавнюю активность — чтобы определить, что CLiD должен сделать следующим. Попросите его «убраться перед приходом гостей», и система разобьет это на последовательность задач, специфичных для каждой комнаты.

Контекстуальная осведомленность становится ключевым фактором, когда роботы покидают фабрики и входят в домашнюю среду. CLiD должен распознавать не только объекты, но и рутинные действия, предпочтения и социальные границы. Вот где Приласкающая Интеллекция превращает набор актуаторов во что-то, чему вы могли бы доверить свои ключи, свою собаку или игрушки ваших детей.

Поглощение ИИ от Samsung: от холодильников до телевизоров

Иллюстрация: Захват AI от Samsung: От холодильников до телевизоров
Иллюстрация: Захват AI от Samsung: От холодильников до телевизоров

Samsung входит на CES 2026, действуя не как производитель бытовой техники, а как поставщик операционных систем. Их предложение: «Искусственный Интеллект для жизни», где холодильники, духовые шкафы, винные погреба и телевизоры обмениваются контекстом, а не просто паролями к Wi-Fi. Каждое крупное анонсирование продукта основано на идее единого «умного мозга» дома, работающего на платформе Gemini.

В центре внимания находится холодильник Bespoke AI Family Hub, теперь работающий на Google Gemini непосредственно на устройстве. Внутренние камеры питают обновленный стек "AI Vision", который распознает свежие продукты, упаковку с едой и остатки, затем отображает их в реальном времени в инвентаре. Samsung утверждает, что распознавание стало быстрее, а количество слепых зон заметно сократилось по сравнению с предыдущими поколениями, которые регулярно неправильно помечали предметы или вообще их не замечали.

AI Vision теперь отслеживает сроки истечения, отмечает низкий уровень запасов и связывается с рецептами и списками покупок на телефонах и планшетах Samsung. Один раз на сенсорном экране обозначьте контейнер, и система запомнит это при последующих сканированиях. Gemini обрабатывает запросы на естественном языке, такие как "Что я могу приготовить за 20 минут с тем, что есть у меня?", и одновременно предоставляет пошаговые инструкции по приготовлению в холодильнике и духовке.

Прямо рядом с этим, Индивидуальный AI Винный Подвал ведет себя как сомелье с сканером штрих-кодов. Камеры и датчики автоматически определяют бутылки, фиксируют урожайные годы и сорта винограда, а также контролируют температуру, влажность и вибрацию. Подвал синхронизируется с запасами холодильника, поэтому предлагаемые сочетания учитывают то, что вы на самом деле планируете готовить, а не только то, что выглядит эффектно на этикетке.

Samsung распространяет эту логику на новые умные кухонные приборы с поддержкой ИИ. Встраиваемая микроволновая печь и выдвижная плита подключаются к одной и той же инвентарной схеме, так что настройки предварительного разогрева, временные режимы и режимы автоматически подстраиваются под конкретные ингредиенты, которые вы достали из холодильника. Вместо автономных «умных» гаджетов устройства обмениваются данными: что вы отсканировали, что начали готовить и когда это должно закончиться.

Обновленные MicroLED телевизоры дополняют экосистему, а не стремятся к созданию доминирующих зрелищ на стенах. Линейка MicroLED 2026 года предлагает больше размеров экранов и более плотные пиксельные структуры, но главное — это интеграция: телевизоры становятся большими панелями с низкой задержкой для AI Living Ecosystem. Рецепты, уведомления о бытовой технике и потоки с камер безопасности переходят с холодильника на телефон и на 85-дюймовую панель, не покидая при этом стек Samsung на устройстве и на краях сети.

Силиконовые войны: Искусственные интеллект-ум главы получают серьезное обновление

Силикон, а не блестящие оболочки роботов, тихо ставит ставки на CES 2026. Каждый демонстрационный показ гуманоидов и трюки с умными холодильниками теперь зависят от того, сможет ли его искусственный интеллект на устройстве справиться с задачами.

Intel представляет свою первую полную волну Panther Lake — серию Core Ultra 3. Эти чипы, созданные на процессорной технологии Intel 18A, нацелены на "AI ПК", которые обрабатывают большие языковые модели и задачи, связанные с обработкой изображений, локально, а не отправляют всю нагрузку в облако.

Intel утверждает о двузначном увеличении производительности графических процессоров по сравнению с Lunar Lake, с переработанным встроенным Xe GPU, ориентированным на реальное восприятие и симуляцию. Производители на выставке тихо обсуждают 30+ TOPS совокупного вывода NPU и GPU в тонких и легких ноутбуках, достаточно для управления роботами, мультимодальными ассистентами и офлайн-переводом без использования дата-центра.

Предложение Panther Lake напрямую связано с роботами, странствующими по коридорам CES. Демо‑версии программно-определяемых фабрик Hyundai, домашнего помощника CLiD от LG и экосистемы искусственного интеллекта от Samsung все нуждаются в низкозадерживающей, локальной интерпретации для навигации, речи и проверок безопасности, что чипы класса 18A наконец делают практическим.

Тем временем Nvidia воспринимает CES не как выставку гаджетов, а скорее как шоу AI-инфраструктуры. Ключевая речь Дженсена Хуана делает акцент на робототехнической симуляции, цифровых близнецах и кластерах GPU, которые обучают модели, используемые в этих новых гуманоидных роботах.

Хуан неоднократно связывает локомоцию и манипуляцию в стиле Boston Dynamics с платформами Nvidia Omniverse и Isaac. Послание: каждый маневренный робот на производственном этаже, вероятно, изучил свои движения на стойке ускорителей Nvidia задолго до того, как он вообще коснулся реальной фабрики или гостиной.

В центре внимания Nvidia выстраивает непрерывную историю: - Графические процессоры для дата-центров для обучения базовых и управляющих моделей - Модули Edge, такие как Jetson, для развертывания в роботах и устройствах - Оркестрация от облака до периферии для обновлений и телеметрии

AMD отказывается уступать первенство. Ключевая речь Лиссы Су подчеркивает, что процессоры Ryzen AI и ускорители Instinct являются гибкой альтернативой для периферийных вычислений и дата-центров, с акцентом на открытые программные стеки и агрессивные заявления о производительности на ватт.

Ноутбуки с Ryzen AI и встроенные компоненты ставят AMD в ряд серьезных претендентов на выполнение задач на устройствах, таких как ПК, киоски и даже компактные роботы. Графические процессоры Instinct соперничают с Nvidia в обучении и симуляционных нагрузках, которые лежат в основе этих физических систем ИИ.

Для более глубокого понимания того, как эта тройная борьба за ЦП, НПУ и ГПУ лежит в основе роботизированного вторжения CES 2026, смотрите Тренды с CES 2026: Аппаратное обеспечение как ядро – носитель для ИИ.

Ваш ноутбук и телефон теперь являются нативными для ИИ.

Силикон, акцентирующий внимание на ИИ от Intel, AMD, Qualcomm и MediaTek, незаметно превращает каждый новый ноутбук и телефон на CES 2026 в устройство ИИ. Вместо того чтобы отправлять ваши данные на серверные фермы, эти чипы обрабатывают десятки триллионов операций в секунду через локальные НПУ, потребляя при этом минимальное количество энергии, так что живая транскрипция, распознавание объектов и улучшение фотографий работают непрерывно, не разряжая вашу батарею.

Lenovo использовала свое мероприятие Tech World в Sphere, чтобы донести это сообщение. На сцене руководители говорили о ПК как о «коллабораторах ИИ», а не конечных устройствах, демонстрируя ноутбуки на Windows, которые подводят итоги встреч в реальном времени, переписывают документы на устройстве и создают изображения в креативных приложениях без обращения в облако.

Эти демонстрации сосредоточились на полном стековом предложении: настроенные НПUs, встроенное ПО, которое приоритизирует нагрузку на ИИ, и собственный программный слой Lenovo, управляющий моделями между ЦП, ГП и НПU. Прототип «движка личного контекста» отслеживал все, от открытых вкладок до календарных событий, чтобы создать локальный профиль, который обеспечивает рекомендации и автоматизацию — без отправки сырых журналов активности за пределы устройства.

Motorola, под тем же зонтиком Lenovo, анонсировала новый складной телефон в книжном формате, который использует встроенный искусственный интеллект в качестве части петли. Открытый как мини-планшет, телефон показал: - Живой перевод в реальном времени во время звонка на разделенном экране - Макеты приложений, которые адаптируются в зависимости от вашего занятия - Камеру, которая переоформляет видео в зависимости от той половины дисплея, которую вы используете

AI-родной в этом контексте означает, что ваше оборудование воспринимает ИИ как базовую нагрузку, а не дополнительную опцию. Пользователи получают более быстрые ответы, длительное время работы от батареи для таких сложных функций, как генеративное редактирование, и повышенную конфиденциальность, поскольку необработанные аудио, фотографии и документы никогда не покидают локальное хранилище.

Творческие инструменты тоже меняются. Телефоны обрабатывают видео с использованием стилистической трансформации прямо в камере, ноутбуки создают шаблоны кода и презентации в оффлайн-режиме, и оба устройства могут запускать более мелкие, адаптированные модели, которые ощущаются как личные — без входа в систему и без обращения к удаленному центру обработки данных.

Давать роботам чувство осязания и зрения

Иллюстрация: Даем роботам чувство прикосновения и зрение
Иллюстрация: Даем роботам чувство прикосновения и зрение

Роботы, которые захватывают, переносят и сортируют предметы на выставке CES, выглядят впечатляюще только благодаря чему-то гораздо менее гламурному: сенсорам. Актуаторы и модели ИИ попадают в заголовки, но без плотной сети камер, датчиков глубины и тактильных сенсоров физическая ИИ — это, по сути, слепой бык в посудной лавке.

Par хочет решить эту проблему с помощью полнофункциональной тактильной сенсорной платформы, созданной для рук-манипуляторов и захватов. Их система слоями укладывает мягкие, деформируемые поверхности с встроенными массивами давления и высоким частотным дискретизацией, чтобы манипулятор мог в реальном времени чувствовать, насколько сильно он сжимает томат по сравнению с металлическим инструментом.

Обратная связь в реальном времени важна, потому что промышленные роботы теперь справляются с задачами от хрупкой пластиковой упаковки до стеклянных флаконов и безопасных для человека задач совместных роботов. Датчики Par передают данные о силе и скольжении в режиме реального времени обратно к контроллеру, позволяя ИИ настраивать силу захвата в процессе работы, а не полагаться на статические настройки.

Руководители компаний на CES представили это как вопрос безопасности и эффективности, а не только как интересную демонстрацию. Меньше поврежденных деталей, меньше упавших предметов и меньше инцидентов между людьми и роботами напрямую приводят к снижению уровня отходов и уменьшению простоя на заводе с программно-определяемым производством.

Зрение — это другая половина_robot_нервной системы, и Leopard Imaging позиционирует свои последние комплекты камер как «готовые к использованию для гуманоидов». Компания демонстрирует модули стерео-глубины и высокоразрешающие RGB камеры, настроенные для двуногих роботов, которые должны ходить, подниматься по лестницам и манипулировать загроможденными пространствами без идеального освещения.

Новые наборы восприятия от Leopard Imaging объединяют: - Стереопары с глобальным затвором для точной глубины на ходьбе - 4K RGB датчики для распознавания объектов и понимания сцены - Оптимизацию для низкой освещенности для темных складов и ночных патрулей

Эта смесь позволяет гуманоидным роботам и мобильным базам поддерживать навигацию и обнаружение объектов в условиях, которые могли бы выкачать дешевую веб-камеру. Карты глубины с низкой задержкой поступают в SLAM-пайплайны, в то время как RGB-потоки питают базовые модели, которые могут распознавать инструменты, панели и даже жесты рук.

Совместно платформы Par и Leopard Imaging формируют сенсорную нервную систему для этой волны роботов на CES. Чипы от Nvidia, Intel и AMD могут выступать в роли мозга, но эти тактильные панели и массивы камер преобразуют трение, силу и фотоны в данные, с которыми AI-структура может действительно анализировать и действовать.

Тихая инвазия специализированных роботов

Роботы больше не прячутся в залах ключевых презентаций на CES 2026. Пройдите всего несколько сотен метров от главных сцен, и вы постоянно будете спотыкаться о специализированных роботов, тихо завоевывающих каждую нишевую работу, о которой можно подумать.

Последние флагманы Roborock показывают, как далеко продвинулись «скучные» домашние роботы. Новый высококачественный комбинированный пылесос и швабра использует лидар и RGB-камеры для создания карт с точностью до сантиметра, автоматической метки комнат и распознавания более 50 типов препятствий, от телефонных проводов до мисок для домашних животных, а затем на лету регулирует силу всасывания и давление швабры.

Обработка грязи тоже становится умнее. Многоуровневые док-станции теперь моют и сушат швабры, отделяют твердые частицы от сточных вод и автоматически дозируют моющее средство, превращая еженедельные дела в квартальное обслуживание. Это поэтапные улучшения, но в итоге мы получаем робота, который реже ломается, застревает еще реже и более эффективно убирает без человеческого контроля.

Снаружи гостиной нишевые роботы тихо устраняют очень специфические проблемы. Последние роботы для очистки бассейнов от iOpper используют ультразвуковое картографирование и комплект 3D инерционных сенсоров, чтобы цепляться за крутые стены, очищать швы между плиткой и следовать систематическим маршрутам вместо случайных зигзагов, работая более 3 часов на одном заряде.

На противоположном конце спектра, модульный R2 Pro от Robosen превращает робототехнику в конструктор для взрослых. Съемные сервомодули, магнитные соединения и приложение для визуального программирования позволяют пользователям создавать все, от ходящего четвероногого робота до камеры-долли, а затем программировать поведение с помощью блочного кода или Python.

Компаньонство приобретает странный, слегка зловещий поворот благодаря ИИ-кибер-пету Ollybot. Эта игрушечная машина размером с ладонь использует встроенные голосовые модели, датчик глубины и емкостные сенсоры, чтобы отслеживать своего владельца по квартире, реагировать на тон голоса и создавать простую модель «настроения» на основе того, как часто вы говорите с ней, гладите или игнорируете её.

Самыми значительными новыми участниками могут статьassistive robots. ALLX от VI Robotics - это помощник для верхней части тела, который устанавливается на электроколяску или рамку кровати и оснащен манипулятором с 6 степенями свободы, захватом на 3 пальца и системой предсказания намерений на основе визуальных данных, что помогает пользователям захватывать чашки, открывать двери или поправлять одеяла.

ALLX выполняет большинство моделей восприятия и управления локально на встроенном графическом процессоре (GPU), что снижает задержку при работе с деликатными задачами, связанными с лицами и руками. Это дает представление о том же физическом KI-стеке, о котором говорит Hyundai в своей стратегии KI-робототехники, изложенной в Премьере на CES 2026 – Hyundai Motor Group представляет стратегию для KI-робототехники, постепенно проникая в глубоко личные, повседневные устройства.

За пределами выставки: почему CES 2026 действительно важен

Роботы, ИИ на устройствах и плотные сети IoT наконец-то появились на CES 2026 в виде единого стека, а не отдельных категорий продуктов. Программно определяемые фабрики Hyundai, Экосистема жизнедеятельности Samsung с ИИ, домашний робот CLiD от LG и Atlas, исследующий макет рабочего места, все указывали на одну и ту же идею: полные, тесно интегрированные экосистемы, охватывающие облако, край и физический мир.

В этом году выставка поставила решительную точку в старом сценарии CES с прозрачными телевизорами и летающими такси, которые так и не появились. Hyundai связала Atlas, Spot и Mob в реальную цепочку поставок; Samsung интегрировала холодильники на базе Gemini в духовые шкафы и телевизоры; производители чипов внедрили NPUs во всё – от промышленных контроллеров до 13-дюймовых ноутбуков. Послание: развертывание, время безотказной работы и управление жизненным циклом теперь имеют большее значение, чем зрелищность.

Для потребителей это изменение означает, что ИИ перестаёт существовать только в чат-приложениях и начинает перестраивать кухни, управлять коммунальными платежами и повседневными рутинами. CLiD от LG — это не забавная игрушка; это манипулятор с двумя руками, созданный для открытия дверей, сортировки белья и работы с реальными объектами, поддерживаемый сервисным стеком, который потребует обновлений, запасных частей и сертификаций безопасности. Устройства Samsung с ИИ незаметно нормализуют дома, которые отслеживают запасы, модели использования и присутствие без постоянных обращений к облаку.

Отрасли испытывают еще более сильные шоковые волны. Видение Hyundai по созданию завода, управляемого программным обеспечением, превращает роботов в переконфигурируемые узлы в глобальной производственной сети, где обновление модели в Сеуле может изменить способ, которым платформа Mob транспортирует детали в Алабаме всего через несколько минут. Операторы логистики, наблюдающие за демонстрациями Atlas и Spot, больше не спрашивают "может ли он прыгать?"; они спрашивают о среднем времени наработки на отказ (MTBF), условиях уровней обслуживания (SLA) и о том, как быстро флот может перенастроиться на новую производственную линию.

В долгосрочной перспективе наиболее важными объявлениями CES 2026 могут оказаться самые скучные: стандартизированные API для роботов, кросс-вендорные цепочки инструментов edge AI и дорожные карты по созданию полупроводников, обещающие увеличение производительности NPU в 2–3 раза каждые 18–24 месяца. Это те ингредиенты, которые обеспечат десятилетие, в котором "физический ИИ" станет таким же привычным, как Wi-Fi.

В течение следующего года настоящая история переместится с подмостков Лас-Вегаса к пилотным программам и отзывам. Наблюдайте за тем, кто публикует данные о безопасности, кто открывает свои робототехнические решения для сторонних разработчиков и кто тихо задвигает амбициозные демонстрации, которые не могут выжить здесь, на складах, в больницах и в гостиных.

Часто задаваемые вопросы

Какова основная тема CES 2026?

Основная тема заключается в переходе от концептуальных технологий к практическим, реальным приложениям «физического ИИ», с акцентом на робототехнику, интеллектуальные устройства и автономные системы, готовые к внедрению.

Что показывает Hyundai на CES 2026?

Hyundai раскрывает свою комплексную стратегию в области AI-робототехники и демонстрирует следующую генерацию робота Atlas от Boston Dynamics на своей первой публичной демонстрации, наряду с роботами Spot и Mob.

Что такое "AI на устройстве" и почему это важно на CES 2026?

Искусственный интеллект на устройствах обрабатывает задачи непосредственно на устройстве (например, телефоне или бытовом приборе), а не в облаке. Это ключевая тенденция для более быстрой реакции, повышенной конфиденциальности и более надежной работы в офлайн-режиме.

Являются ли гуманоидные роботы основным фокусом в этом году?

Да, гуманоидные роботы, такие как Atlas от Boston Dynamics, и различные вспомогательные роботы являются важным направлением, демонстрируя значительные достижения в мобильности, манипуляции и выполнении задач в реальном мире как в промышленной, так и в домашней обстановке.

Frequently Asked Questions

Какова основная тема CES 2026?
Основная тема заключается в переходе от концептуальных технологий к практическим, реальным приложениям «физического ИИ», с акцентом на робототехнику, интеллектуальные устройства и автономные системы, готовые к внедрению.
Что показывает Hyundai на CES 2026?
Hyundai раскрывает свою комплексную стратегию в области AI-робототехники и демонстрирует следующую генерацию робота Atlas от Boston Dynamics на своей первой публичной демонстрации, наряду с роботами Spot и Mob.
Что такое "AI на устройстве" и почему это важно на CES 2026?
Искусственный интеллект на устройствах обрабатывает задачи непосредственно на устройстве , а не в облаке. Это ключевая тенденция для более быстрой реакции, повышенной конфиденциальности и более надежной работы в офлайн-режиме.
Являются ли гуманоидные роботы основным фокусом в этом году?
Да, гуманоидные роботы, такие как Atlas от Boston Dynamics, и различные вспомогательные роботы являются важным направлением, демонстрируя значительные достижения в мобильности, манипуляции и выполнении задач в реальном мире как в промышленной, так и в домашней обстановке.
🚀Discover More

Stay Ahead of the AI Curve

Discover the best AI tools, agents, and MCP servers curated by Stork.AI. Find the right solutions to supercharge your workflow.

Back to all posts