AMD y NVIDIA compiten por la “IA física” en CES 2026 con nuevas piezas clave: chips embebidos y modelos abiertos

El salto de la Inteligencia Artificial desde la nube hacia el “borde” —coches, fábricas, robots y dispositivos médicos— ya no se cuenta solo en vatios o en potencia bruta. Se mide, cada vez más, en latencia, en capacidad de integrar gráficos, cómputo y aceleración de IA en un único chip, y en algo menos visible pero igual de decisivo: modelos y datos disponibles para que el ecosistema pueda construir rápido.

Ese doble movimiento quedó retratado este 5 de enero en el arranque de CES 2026, con dos anuncios que apuntan al mismo lugar por caminos distintos. Por un lado, AMD presentó su nueva familia Ryzen AI Embedded, diseñada para llevar inferencia de IA eficiente a entornos muy limitados en espacio y energía. Por otro, NVIDIA amplió su universo de “modelos abiertos” y herramientas, poniendo sobre la mesa una batería de recursos para agentes, robótica, conducción autónoma e investigación biomédica.

AMD: un “todo en uno” para cabinas digitales, automatización industrial y robótica

AMD introdujo el portfolio Ryzen AI Embedded, una línea de procesadores x86 para aplicaciones de Inteligencia Artificial “en el edge” que integra en un solo chip núcleos CPU “Zen 5”, GPU RDNA 3.5 y NPU XDNA 2. La compañía lo plantea como una respuesta a un dilema que se repite en automoción e industria: más funciones inteligentes y experiencias inmersivas, pero sin complicar el diseño del sistema ni disparar el consumo.

La propuesta arranca con dos familias: P100, orientada a experiencias dentro del vehículo (cabinas digitales, infotainment, HMI) y automatización industrial; y X100, pensada para escenarios más exigentes de “IA física” y sistemas autónomos.

En el caso de P100, AMD detalla configuraciones de 4 a 6 núcleos en un encapsulado BGA compacto de 25 × 40 mm, con un rango de operación de 15–54 W y soporte de temperaturas de hasta −40 °C a 105 °C en variantes preparadas para entornos duros y ciclos largos. La idea es clara: hardware diseñado para durar y para mantenerse estable en condiciones reales de carretera o planta industrial.

En el plano gráfico, AMD asegura que la GPU RDNA 3.5 puede ofrecer una mejora estimada del 35 % en rendimiento frente a la generación previa en una prueba concreta (GFXBench Vulkan), y sitúa el listón en un caso de uso muy visual: hasta cuatro pantallas 4K (o dos 8K) a 120 fps de forma simultánea, apoyándose en su motor de códec de vídeo para streaming y reproducción de baja latencia sin cargar la CPU.

El otro pilar es la NPU: hasta 50 TOPS para inferencia en el dispositivo, con la promesa de acelerar interacción por voz, gestos y señales del entorno, apoyándose en modelos como transformers de visión, modelos de lenguaje compactos y redes CNN. AMD subraya además un punto que suele pasar desapercibido fuera del sector: en automoción e industria no basta con “ser rápido”, también hay que ser determinista, predecible y certificable.

El software también forma parte del mensaje. AMD afirma que el stack se apoya en un marco de virtualización basado en Xen (código abierto) para aislar dominios y permitir combinaciones típicas del mundo embebido: por ejemplo, Yocto o Ubuntu para la HMI, FreeRTOS para control en tiempo real y Android o Windows para aplicaciones más ricas, ejecutándose en paralelo con separación de seguridad. En palabras de Salil Raje, responsable de AMD Embedded, la meta es llevar “alto rendimiento sin complejidad adicional” a sistemas que exigen respuesta inmediata y eficiencia energética.

En cuanto a disponibilidad, AMD señala que los P100 de 4–6 núcleos ya están en fase de sampling con clientes de acceso temprano, con envíos de producción previstos para el segundo trimestre. También anticipa versiones P100 de 8–12 núcleos para automatización industrial y los X100 de hasta 16 núcleos, con muestreos durante la primera mitad del año.

NVIDIA: modelos abiertos y datos masivos para agentes, robots, coches y biomedicina

Mientras AMD baja al silicio embebido, NVIDIA eleva la conversación a la capa de modelos y datos. La compañía anunció una expansión de su ecosistema de “open models” con familias orientadas a IA agéntica (Nemotron), IA física (Cosmos), conducción autónoma (Alpamayo), robótica (Isaac GR00T) y salud (Clara).

El dato que busca impacto es la escala: NVIDIA afirma contribuir con frameworks de entrenamiento y una de las mayores colecciones de datos multimodales abiertos, incluyendo 10 billones de tokens de lenguaje, 500.000 trayectorias de robótica, 455.000 estructuras de proteínas y 100 TB de datos de sensores de vehículos. La tesis es que la próxima ola de productos no se construirá solo con “modelos grandes”, sino con el combustible que permite afinarlos, validarlos y adaptarlos a cada industria.

En la parte de agentes, NVIDIA amplía Nemotron con tres frentes:

  • Nemotron Speech, para reconocimiento de voz en tiempo real. La compañía asegura que, según benchmarks de Daily y Modal, su modelo logra un rendimiento hasta 10 veces más rápido que otros de su clase, apoyándose en una arquitectura de streaming “cache-aware” para reducir latencia y evitar recomputación.
  • Nemotron RAG, con modelos de embeddings y reranking multimodales para mejorar búsqueda de documentos y recuperación de información.
  • Nemotron Safety, con modelos centrados en seguridad de contenido y detección de datos sensibles (PII), que NVIDIA sitúa como una capa crítica para desplegar agentes en entornos empresariales.

La lista de compañías citadas por NVIDIA —Bosch, ServiceNow, IBM, Cadence, CrowdStrike, Cohesity, Fortinet, Palantir o CodeRabbit, entre otras— apunta a un objetivo: que el tejido industrial adopte estos componentes como base, desde asistentes de voz en automoción hasta revisión de código y flujos corporativos de búsqueda.

“IA física”: Cosmos, GR00T y Alpamayo como puente entre simulación y mundo real

El concepto de IA física —modelos capaces de percibir, razonar y actuar en entornos reales— ocupa el centro del discurso. NVIDIA presentó Cosmos Reason 2 como un modelo de visión-lenguaje orientado al razonamiento en el mundo físico, y Cosmos Transfer 2.5 / Predict 2.5 para generar vídeo sintético a gran escala en condiciones variadas, un recurso clave para entrenar y validar sistemas sin depender únicamente de datos capturados en la calle o en fábrica.

Sobre Cosmos, NVIDIA también enmarca Isaac GR00T N1.6, un modelo VLA (visión-lenguaje-acción) para robots humanoides, concebido para habilitar control corporal completo y mejorar la comprensión contextual. En paralelo, la compañía impulsa “blueprints” como el de búsqueda y resumen de vídeo, orientado a agentes de visión capaces de analizar grandes volúmenes de grabaciones.

En conducción autónoma, el anuncio más específico fue NVIDIA Alpamayo, un conjunto que mezcla modelo, simulación y datos para atacar el gran problema del sector: la “cola larga” de situaciones raras, impredecibles y peligrosas. Alpamayo incluye:

  • Alpamayo 1, descrito como un modelo VLA de razonamiento “paso a paso” para vehículos autónomos, con una arquitectura de 10.000 millones de parámetros, y con capacidad de explicar decisiones.
  • AlpaSim, un framework de simulación de extremo a extremo, publicado como código abierto, pensado para entrenamiento y evaluación en bucle cerrado.
  • Physical AI Open Datasets, con más de 1.700 horas de conducción recogidas en múltiples geografías y condiciones, orientadas precisamente a esos casos límite.

Jensen Huang, consejero delegado de NVIDIA, resumió el momento con una frase que busca instalarse como eslogan: el “momento ChatGPT” de la IA física ya estaría aquí, y los robotaxis serían de los primeros beneficiados, con modelos capaces de razonar escenarios raros y justificar decisiones de conducción.

Dos estrategias para el mismo tablero: edge, seguridad y velocidad de despliegue

Leídos en conjunto, los anuncios de AMD y NVIDIA dibujan una misma presión del mercado: la Inteligencia Artificial se está desplazando a lugares donde no hay margen para la latencia, el sobreconsumo o la improvisación. En un coche, un robot o una planta industrial, la respuesta no puede depender siempre de un centro de datos remoto; pero tampoco basta con “meter un chip potente”. Hace falta una cadena completa: silicio eficiente, virtualización segura, modelos listos para adaptar, datos para entrenar y herramientas para simular antes de desplegar.

AMD intenta ganar terreno desde el hardware embebido integrando CPU, GPU y NPU con foco en robustez y ciclos largos. NVIDIA, por su parte, refuerza su posición como plataforma de referencia ampliando el catálogo de modelos, datasets y herramientas para que terceros construyan encima. En un CES donde el “edge inteligente” vuelve a ser protagonista, la batalla por la IA no se libra solo en los centros de datos: se decide, cada vez más, en el salpicadero, en el brazo de un robot y en los sistemas que deben funcionar sin fallar.


Preguntas frecuentes

¿Para qué sirve un procesador “Ryzen AI Embedded” en automoción y cabinas digitales?
Se orienta a cabinas digitales e interfaces HMI que requieren gráficos en tiempo real, varias pantallas 4K/8K y funciones de Inteligencia Artificial local (voz, gestos), con consumo y tamaño ajustados.

¿Qué significa “50 TOPS” en una NPU para IA en el edge y qué usos habilita?
Es una medida teórica de operaciones por segundo para inferencia; en la práctica se usa como referencia de capacidad para ejecutar modelos de visión, voz o modelos compactos en el dispositivo sin depender de la nube.

¿Qué son los modelos NVIDIA Nemotron y para qué se usan en agentes empresariales?
Son modelos orientados a IA agéntica que cubren voz (ASR), RAG multimodal para búsqueda documental y capas de seguridad como detección de datos sensibles, pensados para integrarse en flujos corporativos.

¿Por qué Alpamayo y AlpaSim se enfocan en la “cola larga” de la conducción autónoma?
Porque los escenarios raros e impredecibles (obras, comportamientos humanos atípicos, condiciones extremas) son los que más frenan el despliegue seguro. El enfoque combina modelo de razonamiento, simulación y datasets para entrenar y validar esos casos límite.

vía: blogs.nvidia

Scroll al inicio