Jensen Huang entrega a Elon Musk el primer NVIDIA DGX Spark: un “petaflop” de IA del tamaño de un libro para sacar la IA del CPD

Entre motores gigantes y acero brillante en Starbase (Texas), Jensen Huang, fundador y CEO de NVIDIA, llegó a las instalaciones de SpaceX para entregar en mano a Elon Musk el primer DGX Spark, el micro-superordenador de IA que la compañía presentó hoy. Fue una escena cuidadosamente simbólica: “Imagina entregar el superordenador más pequeño junto al cohete más grande”, bromeó Huang mientras SpaceX ultimaba el undécimo test de Starship. La estampa sirve de prólogo a una idea potente: acercar la computación de IA de clase centro de datos a cualquiera que crea, investiga o desarrolla, literalmente “a un brazo de distancia”.

El DGX Spark cabe en una mochila —del tamaño de una hoja de origami y el grosor de un libro de tapa dura—, pesa 1,2 kg y, aun así, alcanza 1 petaflop de rendimiento en IA (FP4). El secreto está en su superchip NVIDIA GB10 Grace Blackwell, que integra CPU y GPU con 128 GB de memoria unificada para prototipar, afinar y ejecutar inferencia en local sin saltar de máquina ni depender de instancias en la nube. A su alrededor, una arquitectura de interconexión a la altura: NVLink-C2C —con más ancho de banda que PCIe—, Conectividad NVIDIA ConnectX para clústeres, almacenamiento NVMe para velocidad y salida HDMI para visualización directa. Todo, empaquetado como un “motor cohete para la IA”, listo para agarrar y salir.

Un pequeño “DGX” con ambición grande: 200.000 millones de parámetros, en el escritorio

El posicionamiento es nítido: un petaflop de IA y 128 GB de memoria unificada CPU-GPU permiten ejecutar modelos de hasta 200.000 millones de parámetros en local, un listón que, hasta hace nada, sonaba a sala blanca y CPD. NVIDIA insiste en que Spark no es “una caja de desarrollo más”, sino una plataforma que lleva la supercomputación de IA fuera del centro de datos: de laboratorios de robótica a estudios creativos, de equipos de I+D a makers que quieren probar ideas sin pedir turno a un clúster corporativo.

El movimiento encaja con la hoja de ruta de la compañía: hace nueve años arriesgó con DGX-1 para estandarizar la IA en el CPD; hoy, con DGX Spark, empuja en la dirección inversa: del CPD al borde, a la mesa de quien construye.

Hardware… y “la pila” completa de IA

Spark llega acompañado de la pila de software completa de NVIDIA: frameworks, librerías, modelos preentrenados y microservicios NVIDIA NIM. La idea es que el equipo encienda flujos reales desde el minuto uno, ya sea para:

  • Personalizar modelos de generación de imagen (por ejemplo, FLUX.1).
  • Construir agentes de búsqueda y resumen visual con NVIDIA Cosmos.
  • Desplegar chatbots optimizados con familias como Qwen3.

Sobre el papel, el mensaje es claro: no hace falta orquestar medio CPD para empezar a trabajar con RAG multimodal, visión, agentes o pipelines de datos exigentes. Spark recorta el tiempo entre la idea y la prueba.

Ecosistema en marcha: de Palo Alto a los laboratorios de robótica

El blog corporativo de NVIDIA dibuja un mapa de entregas que se irá actualizando a medida que caigan más unidades. Entre las primeras paradas figuran Ollama (Palo Alto), donde se reescribe cómo ejecutar LLMs en local; el NYU Global Frontier Lab, con prototipos centrados en privacidad; Zipline, que explora entrega autónoma; la Universidad Estatal de Arizona, con simulación de robótica y visión en el borde; y el estudio de Refik Anadol, donde arte y datos se mezclan con potencia de petaflop. También Jo Mardall (Zipline) aparece en la primera oleada de destinatarios.

En paralelo, los OEM Acer, ASUS, Dell Technologies, GIGABYTE, HP, Lenovo y MSI preparan equipos que llevan IA de clase petaflop al escritorio, apoyándose en la pila de NVIDIA para acelerar IA agentica y IA física allí donde surgen las ideas.

“Desktop AI”, pero en serio: primeras máquinas y flujos

Cinco socios han mostrado ya cómo se traduce Spark en equipos comerciales:

  • Dell Pro Max con GB10 y DGX OS: IA de clase CPD en el escritorio, memoria unificada y CUDA con escala instantánea. Dos unidades pueden actuar como un único nodo capaz de soportar modelos de 400.000 millones de parámetros.
  • HP ZGX Nano G1n AI Station: “potencia seria” para el escritorio, con petaflop de rendimiento y 128 GB de memoria unificada.
  • Lenovo ThinkStation PGX: IA agentica para investigadores y desarrolladores; ejecuta modelos de hasta 200.000 millones y puentea el prototipado local con el despliegue en la nube.
  • LM Studio, ya nativo en Linux sobre ARM en DGX Spark: servidores privados de LLM para correr, por ejemplo, Qwen3 Coder, en red y sin nube.
  • Python en DGX Spark: Stanley Seibert (Anaconda) pone el foco en memoria unificada y cómputo híbrido, y lo que esto implica para mover dataframes de miles de millones de filas y modelos de miles de millones de parámetros en local.

La foto que emerge: del “PC para IA” a la “estación de IA”, con hardware + software listos para armar un laboratorio de extremo a extremo en la mesa.

Primeras reseñas: “freaking cool”, “un laboratorio en una caja”, “el sueño del desarrollador local”

El aterrizaje ha venido acompañado de impresiones tempranas en medios y voces técnicas. HotHardware recomienda Spark por sus playbooks claros y aptos para principiantes; ServeTheHome lo resume con un “freaking cool” y subraya que con 128 GB de memoria unificada + Blackwellno necesitas nube ni aceleradores extra” para una larga lista de casos; Level1Techs lo describe como un “lab in a box”, listo para construir RAG, agentes multimodales o búsqueda de vídeo desde el primer día. El divulgador Bojan Tunguz lo llama el “sueño de todo desarrollador de DS/ML/IA en local”, y NetworkChuck remata: si haces fine-tuning y ciencia de datos divertida a diario, “este es tu dispositivo”.

La escena de Starbase: el gesto y lo que sugiere

La entrega a Elon Musk tuvo su toque costumbrista: saludos en la cafetería, donuts y patatas para los más pequeños, pizza al vuelo y anécdotas de Huang sobre la primera DGX que entregó a OpenAI. No es la parte técnica, pero sí el mensaje: DGX Spark aspira a encender ideas donde ocurren, ya sea en una fábrica, un estudio, un aula, un taller o, como en este caso, junto al cohete más potente del mundo. La unidad entregada a Musk no es una excepción; es la primera página de una gira que busca descentralizar la supercomputación de IA.

Disponibilidad: encendido general hoy

DGX Spark queda disponible de forma general desde hoy, miércoles 15 de octubre, a través de NVIDIA.com y socios en todo el mundo. La compañía acompañará el despliegue con historias de uso —desde un estudio musical en Los Ángeles hasta un laboratorio de robótica en Arizona— para mostrar cómo lo que antes exigía un CPD va camino de convertirse en un experimento de sobremesa.

Qué cambia para empresas, startups y creadores

  • Latencia y privacidad: inferencia en local evita redondeos a la nube y reduce tiempos en ciclos de prueba, algo crítico en prototipos de IA física, visión o robótica.
  • Iteración rápida: memoria unificada de 128 GB y NVLink-C2C permiten ajustar modelos y cadenas de herramientas sin pagar el peaje de mover datos entre máquinas.
  • Puente a producción: con NIM y una pila estable, el salto de prototipo a servicio se acorta; si hace falta escalar, el clustering vía ConnectX está contemplado.
  • Coste de oportunidad: no sustituye a un DGX de CPD donde haga falta, pero evita esperas y colas para tareas que caben en petaflop + 128 GB en mesa. En muchos equipos, eso es tiempo ganado y deuda técnica evitada.

Preguntas frecuentes

¿Qué es NVIDIA DGX Spark exactamente y en qué se diferencia de un “PC de IA”?
Es un micro-superordenador de IA centrado en cómputo local: superchip GB10 Grace Blackwell, 1 petaflop (FP4) y 128 GB de memoria unificada CPU-GPU en 1,2 kg. A diferencia de un “PC con GPU”, Spark viene con la pila de IA de NVIDIA (frameworks, librerías, NIM, modelos) para arrancar flujos reales —RAG, agentes, visión, difusión— sin montar un CPD.

¿Qué modelos de IA puedo ejecutar en local y hasta qué tamaño de parámetro soporta?
NVIDIA apunta a modelos de hasta 200.000 millones de parámetros en un solo Spark. En escenarios de escalado, fabricantes como Dell han mostrado configuraciones a dos nodos que se ven como uno para soportar hasta 400.000 millones de parámetros.

¿Qué conectividad y ampliación ofrece para trabajo en equipo o clústeres pequeños?
Incluye NVIDIA ConnectX para clustering y NVLink-C2C con el ancho de banda de PCIe, lo que facilita unir varias unidades o integrarlas en talleres y laboratorios donde se comparten datasets y cargas. NVMe acelera lectura/escritura local y la salida HDMI permite visualización directa sin intermediarios.

¿Qué software trae y qué casos de uso hay desde el primer día?
Además de la pila de IA de NVIDIA, hay microservicios NIM y soporte para herramientas como LM Studio (ya nativo en Linux ARM en Spark) o Python/Anaconda para dataframes masivos y modelos de miles de millones en local. Entre los casos de uso iniciales destacan personalización de FLUX.1, agentes de búsqueda y resumen visual con Cosmos y chatbots optimizados con Qwen3.

Nota: los datos y ejemplos de partners, pruebas tempranas y disponibilidad corresponden a la información proporcionada por NVIDIA en su comunicado y blog oficial.

vía: blogs.nvidia

Scroll al inicio