TL;DR / Key Takeaways
La emoción ha muerto. Larga vida a la realidad.
Los ciclos de hype envejecen rápidamente en Las Vegas, pero el CES 2026 se siente como un reinicio radical. En lugar de televisores transparentes, pantallas enrollables y autos voladores conceptuales que nunca se lanzan, el piso de exhibición se está llenando de robots, electrodomésticos y vehículos que realmente están programados para su implementación en 2026 y 2027. Las demostraciones ya no terminan con “en algún momento de esta década” —terminan con formularios de pedido y cronogramas de implementación.
La IA física se sitúa en el centro de ese cambio. No se trata solo de chatbots en la nube, sino de inteligencia conectada a actuadores, motores y pilas de sensores que desafían la gravedad y la fricción. Desde los robots en las fábricas de Hyundai hasta los asistentes caseros de LG y los electrodomésticos impulsados por Gemini de Samsung, los actos destacados pasan de píxeles a cargas útiles.
Este cambio no llegó de la nada. El procesamiento en el dispositivo ha avanzado una generación en aproximadamente 24 meses, con SoCs de borde ahora alcanzando decenas de TOPS con un consumo de energía de un solo dígito, suficiente para ejecutar modelos grandes de visión y navegación localmente. Los conjuntos de sensores que antes pertenecían a prototipos de $100,000 ahora se envían como módulos de bajo costo: cámaras de profundidad, lidar de estado sólido, radar mmWave y matrices táctiles.
La robótica ha alcanzado silenciosamente su propio punto de inflexión. El Atlas de próxima generación de Boston Dynamics, la plataforma Mob de Hyundai y el CLiD de LG se basan en SLAM maduro, planificación en tiempo real y software de gestión de flotas que ha sido perfeccionado en almacenes y fábricas, no en laboratorios de investigación. El resultado: robots que pueden caminar, agarrar y adaptarse sin un operador humano de joystick escondido entre bastidores.
La viabilidad comercial impulsa todo en CES 2026. Los proveedores hablan sobre MTBF, contratos de servicio e integración con sistemas ERP y MES existentes, no solo sobre “magia de IA”. Los precios, los presupuestos de energía y las ventanas de soporte aparecen en diapositivas donde solían estar los renders de estilo de vida brillantes.
Este espectáculo redibuja de manera efectiva la pila de IA en el borde. Los servicios en la nube aún entrenan los grandes modelos, pero el valor se desplaza hacia: - IA en el dispositivo para un control de baja latencia - Fusión de sensores rica para la percepción - Diseño mecatrónico que puede sobrevivir al abuso del mundo real
CES siempre ha prometido el futuro; CES 2026 comienza a entregarlo. En los próximos pabellones y conferencias, la pregunta no es qué podría hacer la IA algún día, sino qué robots, electrodomésticos y vehículos están realmente siendo lanzados, a qué escala y en qué hogares y fábricas.
El Gran Plan de Hyundai: La Fábrica Definida por Software
Hyundai no está tratando el CES 2026 como una feria de automóviles; lo está tratando como una cumbre de fábricas. El 5 de enero, el Grupo Hyundai Motor toma un espacio de 45 minutos en el Día de los Medios en Las Vegas para exponer su estrategia KI Robotik, una hoja de ruta que vincula cada robot, sensor y pila de software con la forma en que el grupo realmente fabrica y envía productos.
En el centro de esa propuesta se encuentra la Fábrica Definida por Software. En lugar de líneas de producción fijas, Hyundai describe un sistema donde los robots son desarrollados, entrenados, desplegados, actualizados y retirados casi como aplicaciones móviles, utilizando gemelos digitales de plantas y centros logísticos para simular flujos de trabajo antes de que un solo brazo se mueva en el suelo.
Hyundai vincula esto directamente a su Red de Valor del Grupo, el término paraguas para cómo sus marcas, proveedores y socios logísticos comparten datos y capacidades. Los robots en este modelo no son máquinas independientes; son nodos en una red que pueden reconfigurarse en torno a picos de demanda, escasez de piezas o lanzamientos de nuevos vehículos.
La empresa afirma que su presentación en el CES se centrará en tres áreas principales: colaboración entre humanos y robots, innovación en la manufactura e integración en cadenas logísticas. Esto se traduce en cobots que trabajan al lado de los operarios de línea, plataformas móviles que suministran piezas a las estaciones justo a tiempo, y robots de inspección que transmiten datos a los sistemas de planificación en tiempo real.
La colaboración humano-robot ocupa el lugar principal. Hyundai habla sobre sistemas robóticos que pueden hacerse cargo de tareas repetitivas o peligrosas mientras se adaptan al movimiento humano en espacios compartidos, utilizando inteligencia artificial en el dispositivo para la percepción en lugar de depender de un viaje a la nube distante.
En el ámbito de la fabricación, el concepto de Fábrica Definida por Software promete líneas de producción que pueden alternar entre modelos o incluso categorías de productos con actualizaciones de software. Hyundai insinúa interfaces de robots estandarizadas y modelos de percepción compartidos para que nuevo hardware pueda integrarse en flujos de trabajo existentes sin meses de adaptación.
La logística es el tercer pilar de la estrategia, abarcando puertos, almacenes y patios de última milla. Los robots aquí manejan movimientos de pallets, verificaciones de patios y escaneos de inventario, alimentando telemetría en tiempo real en la misma Red de Valor del Grupo que regula el suelo de la fábrica.
Para demostrar que esto es más que una presentación de diapositivas, Hyundai está poniendo hardware en primer plano. Boston Dynamics realizará una demostración pública del próximo humanoide Atlas por primera vez en un escenario del CES, con rutinas diseñadas en torno a tareas industriales en lugar de un espectáculo de parkour.
Atlas compartirá espacio con Spot, el cuadrúpedo de Boston Dynamics que ya trabaja en fábricas y refinerías, y una nueva plataforma llamada Mob. Mob es un transportador compacto y de bajo perfil diseñado para transportar sensores, herramientas o cargas útiles a través de terrenos ásperos y desiguales, utilizando navegación y percepción basadas en IA, actuando de manera efectiva como la mula de carga robótica del grupo para entornos difíciles.
Atlas Desencadenado: Boston Dynamics Se Lleva el Espectáculo
Atlas no solo subió al escenario de Hyundai en CES; salió del laboratorio y entró en la hoja de ruta del producto. La Atlas de Boston Dynamics de próxima generación hizo su primera aparición pública en Las Vegas, presentada no como una hazaña de investigación, sino como una máquina que Hyundai espera implementar en fábricas y almacenes reales.
Se ha ido el ruidoso proyecto científico hidráulico que protagonizaba los clips virales de parkour. El nuevo Atlas se mueve con una suavidad inquietante, casi eléctrica, rotando su torso 180 grados, esquivando y ensamblando componentes en un dispositivo simulador con movimientos coordinados a dos manos que se asemejan más a un trabajador entrenado que a un brazo preprogramado.
Hyundai y Boston Dynamics se centraron en la manipulación, no en la acrobacia. Atlas recogió piezas irregulares de un contenedor, las reorientó en el aire y las insertó en los fijadores mientras ajustaba dinámicamente su postura, un nivel de coordinación corporal total que las demostraciones anteriores de Atlas solo insinuaban. Las micro-pausas entre acciones casi desaparecieron, reemplazadas por un movimiento continuo que sugería una percepción y una planificación mucho más maduras.
El ruido contaba una segunda historia. Donde el viejo Atlas se anunciaba con un chirrido hidráulico, esta versión operaba de manera notablemente más silenciosa, más cercana a un cobot industrial que a una excavadora de construcción. Hyundai no reveló detalles sobre la transmisión, pero el perfil acústico y el control más preciso implicaban un cambio hacia un diseño más aptamente comercial, no un prototipo único de laboratorio.
Un humanoide a este nivel cambia el cálculo para la fabricación, la logística y el almacenamiento. En lugar de reconstruir líneas alrededor de robots fijos, Hyundai presentó a Atlas como un trabajador que se integra fácilmente para: - Atención de máquinas en líneas de modelos mixtos - Paletización y despaletización en muelles de carga reducidos - Montaje y retrabajo en celdas de alta diversidad y bajo volumen
Esa flexibilidad es importante en plantas de rehabilitación donde las cintas transportadoras no pueden moverse y las jaulas de seguridad ya limitan el espacio en el suelo. Un bípedo que puede subir escaleras hacia un entrepiso, agacharse bajo las instalaciones existentes y compartir pasillos con montacargas se integra directamente en la infraestructura actual, no en alguna fantasía de terreno virgen.
La adquisición de Boston Dynamics por parte de Hyundai en 2020 parece ahora menos un trofeo de marketing y más una piedra angular en su plan de Fábrica Definida por Software. Spot y Mob aún se encargan de las inspecciones y el sensado móvil, pero Atlas ahora ocupa un lugar central en un sistema verticalmente integrado que abarca desde CAD y simulación hasta el despliegue y actualizaciones por aire.
El contexto de CES – Sitio Oficial del Consumer Electronics Show deja claro que los rivales compiten hacia plataformas humanoides similares. La ventaja de Hyundai: Atlas no llega como una estatua conceptual detrás de un vidrio, sino como un nodo funcional en un ecosistema industrial de extremo a extremo.
Tu próximo compañero de cuarto podría ser un robot LG.
Las historias de robots en el CES generalmente comienzan en las fábricas y terminan en vídeos conceptuales de ciencia ficción. El nuevo asistente doméstico CLiD de LG cambia ese guion, caminando directamente por la puerta de entrada y adentrándose en el caos doméstico que la mayoría de las empresas tecnológicas solo sugieren. Mientras Hyundai habla de fábricas definidas por software, LG está promoviendo discretamente a un compañero de cuarto definido por software.
CLiD se asemeja menos a un juguete y más a un robot de laboratorio despojado que ha escapado a tu cocina. Dos brazos articulados se encuentran en una base con ruedas, cada uno con múltiples grados de libertad para alcanzar estanterías, encimeras y pomos de puertas. Al final de esos brazos: manos de cinco dedos, cada dedo actuado individualmente para una manipulación precisa en lugar de simples agarres de garra.
LG construyó la cabeza como un conjunto completo de sensores, no como una cúpula decorativa. Una pantalla frontal maneja la retroalimentación expresiva y las indicaciones, mientras que cámaras, micrófonos, altavoces y sensores de profundidad forman una burbuja de conciencia de 360 grados. Ese mismo módulo ancla la navegación, el mapeo y la evitación de obstáculos, de modo que CLiD no solo sigue rutas predefinidas, sino que se adapta a los diseños cambiantes.
El propósito aquí es sin disculpas y de carácter práctico. LG posiciona a CLiD como un verdadero asistente del hogar que puede interactuar con objetos reales: abrir puertas y armarios, llevar la ropa, recoger objetos de una mesa o cargar platos ligeros en un lavavajillas. La empresa habla explícitamente de "tareas diarias fundamentales" en lugar de trucos para fiestas, lo que indica un impulso hacia la robótica de uso cotidiano.
Debajo de todo esto se encuentra la capa de Inteligencia Afectuosa de LG, que busca hacer que el robot se sienta menos como un electrodoméstico y más como un asistente atento. La estructura combina comprensión del lenguaje natural, creación de perfiles de usuario y pistas contextuales—hora del día, habitación, actividad reciente—para decidir qué debería hacer a continuación CLiD. Pídale que "ordene antes de que lleguen los invitados", y el sistema descompone eso en una secuencia de tareas específicas para cada habitación.
La conciencia contextual se convierte en el factor diferenciador una vez que los robots abandonan las fábricas y entran en los hogares. CLiD debe reconocer no solo objetos, sino también rutinas, preferencias y límites sociales. Ahí es donde la Inteligencia Afectuosa transforma un conjunto de actuadores en algo en lo que podrías confiar con tus llaves, tu perro o los juguetes de tus hijos.
La toma de control de la IA de Samsung: de neveras a televisores
Samsung llega al CES 2026 actuando menos como un fabricante de electrodomésticos y más como un proveedor de sistemas operativos. Su propuesta: un “Ecosistema de Vida AI” donde frigoríficos, hornos, bodegas y televisores comparten contexto, no solo contraseñas de Wi-Fi. Cada anuncio importante de producto se basa en la idea de un único cerebro doméstico impulsado por Gemini.
En el centro del escenario se encuentra el refrigerador Bespoke AI Family Hub, que ahora ejecuta Google Gemini directamente en el aparato. Cámaras internas alimentan una pila mejorada de “Visión AI” que reconoce productos frescos, alimentos envasados y sobras, mapeándolos en un inventario en vivo. Samsung afirma que ofrece un reconocimiento más rápido y muchos menos puntos ciegos que las generaciones anteriores, que a menudo etiquetaban incorrectamente los artículos o los pasaban por alto por completo.
AI Vision ahora rastrea las fechas de caducidad, señala el bajo stock y se integra con recetas y listas de compras en teléfonos y tabletas Samsung. Etiqueta un contenedor una vez en la pantalla táctil, y el sistema lo recuerda en escaneos posteriores. Gemini maneja consultas en lenguaje natural como "¿Qué puedo cocinar en menos de 20 minutos con lo que hay aquí?" y devuelve instrucciones paso a paso en la nevera y el horno simultáneamente.
Justo al lado, la Bodega de Vinos Personalizada con IA actúa como un sommelier con un escáner de códigos de barras. Las cámaras y sensores identifican automáticamente las botellas, registran cosechas y variedades, y monitorean la temperatura, la humedad y la vibración. La bodega se sincroniza con el inventario del refrigerador, por lo que las sugerencias de maridaje consideran lo que realmente planeas cocinar, no solo lo que parece lujoso en una etiqueta.
Samsung extiende esa lógica a nuevos electrodomésticos de cocina impulsados por IA. Un microondas de sobremesa y una estufa empotrada se conectan al mismo gráfico de inventario, por lo que los ajustes de precalentamiento, los tiempos y los modos se adaptan a los ingredientes específicos que sacas del refrigerador. En lugar de gadgets "inteligentes" independientes, los dispositivos comparten estado: lo que escaneaste, lo que comenzaste a cocinar y cuándo debería terminar.
Los televisores MicroLED actualizados completan la propuesta del ecosistema en lugar de perseguir un espectáculo que domine la pared. La línea de MicroLED de 2026 añade más tamaños de pantalla y estructuras de píxeles más compactas, pero el aspecto más destacado es la integración: los televisores funcionan como grandes paneles de control de baja latencia para el Ecosistema de Vida AI. Flujos de recetas, alertas de electrodomésticos y transmisiones de cámaras de seguridad saltan de la nevera al teléfono y a un panel de 85 pulgadas sin salir nunca del stack de dispositivos y edge de Samsung.
Las Guerras de Silicio: Los Cerebros de IA Reciben una Actualización Importante
El silicio, no los brillantes cascos robotizados, establece silenciosamente las apuestas en el CES 2026. Cada demostración de humanoide y truco del refrigerador inteligente ahora depende de si su cerebro de IA en el dispositivo puede mantenerse al día.
Intel llega con fuerza con su primera ola completa de Panther Lake, la serie Core Ultra 3. Construidos sobre el proceso 18A de Intel, estos chips están diseñados para ordenadores “AI PC” que ejecutan modelos de lenguaje grande y cargas de trabajo de visión localmente en lugar de enviar todo a la nube.
Intel afirma haber logrado ganancias de dos dígitos en el rendimiento de los GPU en comparación con Lunar Lake, con un Xe GPU integrado reestructurado enfocado en la percepción y simulación en tiempo real. Los OEM en el piso de exhibición comentan en voz baja sobre más de 30 TOPS de inferencia combinada de NPU y GPU en laptops delgadas y ligeras, suficientes para manejar pilas de control de robots, asistentes multimodales y traducción offline sin necesidad de un centro de datos.
La propuesta de Panther Lake se alinea directamente con los robots que recorren los pasillos de CES. Las demostraciones de fábrica definidas por software de Hyundai, el asistente doméstico CLiD de LG y el Ecosistema de Vida AI de Samsung necesitan inferencia de baja latencia y en el dispositivo para la navegación, el habla y las verificaciones de seguridad, lo cual el silicio de clase 18A finalmente hace práctico.
Nvidia, mientras tanto, trata el CES menos como una exposición de gadgets y más como una gira de infraestructura de IA. La presentación principal de Jensen Huang se centra fuertemente en la simulación robótica, los gemelos digitales y los clústeres de GPU que entrenan los modelos que fluyen a través de esos nuevos humanoides.
Huang relaciona repetidamente la locomoción y manipulación al estilo de Boston Dynamics con los entornos y conjuntos de Isaac de Nvidia. El mensaje: cada robot ágil en el suelo probablemente aprendió sus movimientos en un rack de aceleradores de Nvidia mucho antes de que alguna vez tocara una fábrica real o una sala de estar.
Detrás de escena, Nvidia impulsa una historia continua: - GPUs para centros de datos que entrenan modelos fundamentales y de control - Módulos de borde como Jetson para implementación en robots y dispositivos - Orquestación de nube a borde para actualizaciones y telemetría
AMD se niega a ceder el protagonismo. La presentación de Lisa Su enmarca los aceleradores Ryzen AI e Instinct como la alternativa flexible para el edge y el centro de datos, con un enfoque en pilas de software abiertas y afirmaciones agresivas de rendimiento por vatio.
Los portátiles Ryzen AI y las piezas embebidas posicionan a AMD como un competidor serio para la inferencia en el dispositivo en PC, quioscos e incluso robots compactos. Las GPU Instinct persiguen a Nvidia en cargas de trabajo de entrenamiento y simulación que respaldan estos sistemas de IA física.
Para profundizar en cómo esta lucha a tres bandas sobre CPUs, NPUs y GPUs sustenta la invasión de robots en la CES 2026, consulta Tendencias de la CES 2026: Hardware como núcleo – Soporte para la IA.
Tu laptop y tu teléfono son ahora nativos de IA.
El silicio enfocado en IA de Intel, AMD, Qualcomm y MediaTek convierte silenciosamente cada nuevo portátil y teléfono en CES 2026 en un dispositivo de IA. En lugar de enviar tus datos a una granja de servidores, estos chips procesan decenas de billones de operaciones por segundo a través de NPUs locales mientras consumen poca energía, permitiendo que la transcripción en vivo, el reconocimiento de objetos y la mejora de fotos se realicen de forma continua sin agotar tu batería.
Lenovo aprovechó su evento Tech World en la Sphere para enfatizar ese mensaje. En el escenario, los ejecutivos hablaron sobre las PC como “colaboradores de IA”, no como dispositivos finales, mostrando laptops con Windows que resumen reuniones en tiempo real, reescriben documentos en el dispositivo y generan imágenes en aplicaciones creativas sin necesidad de conectarse a la nube.
Esas demostraciones se basaron en gran medida en un discurso de pila completa: NPUs ajustadas, firmware que prioriza las cargas de trabajo de IA y la propia capa de software de Lenovo orquestando modelos a través de CPU, GPU y NPU. Un prototipo de "motor de contexto personal" observaba todo, desde las pestañas abiertas hasta las entradas del calendario, para construir un perfil local que potencia sugerencias y automatización, sin enviar registros de actividad en crudo fuera del dispositivo.
Motorola, bajo el mismo paraguas de Lenovo, presentó un nuevo plegable estilo libro que integra la IA en el dispositivo como parte de la bisagra. Al abrirse como una mini-tableta, el teléfono mostró: - Traducción en tiempo real durante una llamada en pantalla dividida - Diseños de aplicaciones que se reorganizan según lo que estés haciendo - Una cámara que ajusta el encuadre del video según la mitad de la pantalla que estés utilizando
Nativo en IA en este contexto significa que tu hardware considera la IA como una carga de trabajo base, no como un extra opcional. Los usuarios obtienen respuestas más rápidas, mayor duración de la batería para funciones pesadas como la edición generativa y una privacidad más estricta porque el audio, las fotos y los documentos en bruto nunca abandonan el almacenamiento local.
Las herramientas creativas también cambian. Los teléfonos remixan video con transferencia de estilo en la cámara, las computadoras portátiles generan fragmentos de código y presentaciones sin conexión, y ambos pueden ejecutar modelos más pequeños y ajustados que se sienten personales: sin inicio de sesión, sin viajes a un centro de datos lejano.
Dotar a los robots de sentido del tacto y la vista
Los robots que agarran, transportan y clasifican objetos en el piso de la CES solo lucen impresionantes gracias a algo mucho menos glamuroso: los sensores. Los actuadores y los modelos de IA acaparan los titulares, pero sin una densa red de cámaras, sensores de profundidad y pieles táctiles, la inteligencia artificial física es básicamente un toro ciego en una cristalería.
Par busca solucionar esto con una plataforma completa de sensado táctil diseñada para manos y pinzas robóticas. Su sistema superpone superficies suaves y deformables con arreglos de presión incrustados y muestreo de alta frecuencia, de modo que un manipulador pueda sentir con cuánta fuerza aprieta un tomate en comparación con una herramienta de metal en tiempo real.
La retroalimentación en tiempo real es importante porque los robots industriales ahora manejan todo, desde empaques de plástico frágiles hasta frascos de vidrio y tareas seguras para humanos con cobots. Los sensores de Par transmiten datos continuos de fuerza y deslizamiento de vuelta al controlador, permitiendo que las políticas de IA modulen la fuerza de agarre al instante en lugar de depender de configuraciones estáticas.
Los ejecutivos de Par en el CES lo presentaron como una historia de seguridad y rendimiento, no solo como una demostración impresionante. Menos piezas aplastadas, menos artículos caídos y menos incidentes entre humanos y robots se traducen directamente en tasas de desperdicio más bajas y menos tiempo de inactividad en un piso de fábrica definido por software.
La visión es la otra mitad del sistema nervioso robótico, y Leopard Imaging está posicionando sus últimas pilas de cámaras como "preparadas para humanos". La compañía está mostrando módulos de profundidad estéreo y cámaras RGB de alta resolución ajustadas para robots bípedos que necesitan caminar, subir escaleras y manipular entornos desordenados sin iluminación perfecta.
Los nuevos kits de percepción de Leopard Imaging combinan: - Pares estéreo con obturador global para una profundidad precisa a velocidad de caminata - Sensores RGB 4K para el reconocimiento de objetos y comprensión de escenas - Optimización en condiciones de poca luz para almacenes oscuros y patrullas nocturnas
Esa mezcla permite que los humanoides y las bases móviles mantengan la navegación y la detección de objetos en condiciones que romperían cámaras web más baratas. Los mapas de profundidad de baja latencia se integran en las tuberías de SLAM, mientras que los flujos RGB alimentan modelos base que pueden reconocer herramientas, paneles e incluso gestos de la mano.
Juntas, las plataformas de Par y Leopard Imaging forman el sistema nervioso sensorial para esta ola de robots en CES. Los chips de Nvidia, Intel y AMD pueden actuar como el cerebro, pero estas almohadillas táctiles y matrículas de cámaras traducen la fricción, la fuerza y los fotones en datos sobre los que la pila de IA puede razonar y actuar.
La Invasión Silenciosa de Robots Especializados
Los robots ya no se esconden en los salones principales de CES 2026. A pocos cientos de metros de los escenarios principales, tropiezas con robots especializados que silenciosamente están asumiendo cada trabajo de nicho que puedas imaginar.
Los últimos buques insignia de Roborock muestran lo lejos que han llegado los "aburridos" robots domésticos. La nueva combinación de aspiradora y mopa de alta gama utiliza lidar y cámaras RGB para construir mapas con una precisión de centímetros, etiquetar automáticamente las habitaciones y reconocer más de 50 tipos de obstáculos, desde cables de teléfono hasta comederos para mascotas, y luego ajustar la succión y la presión de la mopa en tiempo real.
El manejo de la suciedad también se vuelve más inteligente. Las estaciones de acoplamiento de múltiples niveles ahora lavan y secan con calor las mopas, separan los sólidos de las aguas residuales y dosifican automáticamente el detergente, transformando las tareas semanales en mantenimiento trimestral. Estas son mejoras incrementales, pero se suman para crear un robot que falla con menos frecuencia, se atasca raramente y limpia de manera más agresiva sin la supervisión constante de un humano.
Fuera de la sala de estar, robots de nicho atacan silenciosamente dolores muy específicos. Los últimos bots limpiadores de piscinas de iOpper utilizan mapeo ultrasónico y un sistema de sensores inerciales en 3D para adherirse a paredes empinadas, limpiar las juntas de azulejos y seguir patrones sistemáticos en lugar de zigzaguear al azar, funcionando más de 3 horas con una carga.
En el extremo opuesto del espectro, el R2 Pro modular de Robosen convierte la robótica en un conjunto de construcción para adultos. Módulos de servos intercambiables, juntas magnéticas y una aplicación de programación visual permiten a los usuarios construir desde un cuadrúpedo caminante hasta un dolly para cámaras, y luego programar comportamientos con código basado en bloques o Python.
La compañía adquiere un giro extraño y ligeramente inquietante gracias a la mascota cibernética AI de Ollybot. El rover de tamaño palma utiliza modelos de voz en el dispositivo, una cámara de profundidad y sensores táctiles capacitivos para seguir a su dueño por el apartamento, reaccionar al tono de voz y construir un modelo simple de "estado de ánimo" basado en la frecuencia con la que le hablas, lo acaricias o lo ignoras.
Los recién llegados más importantes pueden ser los robots asistenciales. ALLX de VI Robotics es un asistente de movilidad de la parte superior del cuerpo que se monta en una silla de ruedas motorizada o en un marco de cama, con un brazo de 6 grados de libertad, un agarre de 3 dedos y predicción de intención basada en visión para ayudar a los usuarios a agarrar tazas, abrir puertas o reposicionar mantas.
ALLX ejecuta la mayoría de los modelos de percepción y control localmente en una GPU embebida, reduciendo la latencia para tareas delicadas relacionadas con rostros y manos. Es un vistazo al mismo conjunto de inteligencia artificial física del que habla Hyundai en su estrategia de robótica de IA, detallada en Premiere auf der CES 2026 – Hyundai Motor Group stellt Strategie für KI-Robotik vor, que se filtra en hardware profundamente personal y cotidiano.
Más allá del stand: Por qué CES 2026 realmente importa.
Los robots, la IA en el dispositivo y las redes IoT densas finalmente hicieron su aparición en el CES 2026 como una única solución en lugar de categorías de productos separadas. Las fábricas definidas por software de Hyundai, el Ecosistema Vivo de IA de Samsung, el robot doméstico CLiD de LG y el Atlas recorriendo un sitio de trabajo simulado apuntaron a la misma idea: ecosistemas completos y completamente integrados que abarcan la nube, el borde y el mundo físico.
El espectáculo de este año trazó una línea definitiva en el viejo manual del CES sobre televisores transparentes y taxis voladores que nunca se materializan. Hyundai integró Atlas, Spot y Mob en un verdadero canal de implementación; Samsung conectó refrigeradores impulsados por Gemini a hornos y televisores; los fabricantes de chips incorporaron NPUs en todo, desde controladores industriales hasta laptops de 13 pulgadas. El mensaje: la implementación, el tiempo de actividad y la gestión del ciclo de vida ahora importan más que el espectáculo.
Para los consumidores, ese cambio significa que la inteligencia artificial deja de estar en las aplicaciones de chat y comienza a reorganizar cocinas, facturas de electricidad y rutinas diarias. El CLiD de LG no es un juguete bonito; es un manipulador de doble brazo diseñado para abrir puertas, clasificar la ropa y manejar objetos reales, respaldado por un conjunto de servicios que requerirá actualizaciones, piezas de repuesto y certificaciones de seguridad. Los electrodomésticos de IA de Samsung normalizan silenciosamente hogares que perciben inventarios, patrones de uso y presencia sin constantes idas y vueltas a la nube.
Las industrias sienten una ola de choque aún mayor. La visión de Hyundai de una fábrica definida por software transforma a los robots en puntos finales reconfigurables dentro de una red de producción global, donde una actualización de modelo en Seúl puede cambiar la forma en que una plataforma Mob transporta piezas en Alabama minutos después. Los operadores logísticos que observan las demostraciones de Atlas y Spot ya no se preguntan "¿puede saltar?"; ahora están indagando sobre el MTBF, los términos del SLA y qué tan rápido puede reprogramarse una flota para una nueva línea de productos.
A largo plazo, los anuncios más importantes de CES 2026 pueden ser los más aburridos: API de robots estandarizadas, cadenas de herramientas de IA en el borde entre proveedores, y hojas de ruta de silicio que prometen ganancias de NPU de 2 a 3 veces cada 18 a 24 meses. Esos son los ingredientes para una década en la que la "IA física" se vuelve tan asumida como el Wi-Fi.
Durante el próximo año, la verdadera historia se trasladará de los escenarios de Las Vegas a programas piloto y retiros. Observa quién publica datos de seguridad, quién abre sus plataformas de robótica a desarrolladores externos, y quién guarda en silencio demostraciones ambiciosas que no pueden sobrevivir aquí en almacenes, hospitales y salas de estar.
Preguntas Frecuentes
¿Cuál es el tema principal de CES 2026?
El tema principal es el cambio de la tecnología conceptual a aplicaciones prácticas y del mundo real de 'IA física', centrándose en la robótica, la inteligencia en el dispositivo y los sistemas autónomos listos para su implementación.
¿Qué está mostrando Hyundai en el CES 2026?
Hyundai está revelando su estrategia integral de robótica AI y presentando el robot Atlas de próxima generación de Boston Dynamics en su primera demostración pública, junto a los robots Spot y Mob.
¿Qué es la 'IA en el dispositivo' y por qué es importante en CES 2026?
La IA en el dispositivo procesa tareas directamente en un dispositivo (como un teléfono o un electrodoméstico) en lugar de en la nube. Es una tendencia clave para respuestas más rápidas, mayor privacidad y un rendimiento más confiable sin conexión.
¿Son los robots humanoides un enfoque principal este año?
Sí, los robots humanoides como Atlas de Boston Dynamics y varios robots asistenciales son un enfoque significativo, demostrando importantes avances en movilidad, manipulación y ejecución de tareas en el mundo real, tanto en entornos industriales como domésticos.