Jensen Huang compara OpenClaw con Linux y deja una pregunta en el aire: ¿va la Inteligencia Artificial más rápido que Internet?

Jensen Huang sabe perfectamente cómo captar la atención del mercado. El consejero delegado de NVIDIA volvió a hacerlo esta semana con una frase de esas que se recuerdan y se discuten durante días: según dijo, OpenClaw ha logrado en tres semanas un nivel de adopción al que Linux tardó unos 30 años en llegar. La comparación, lanzada en plena conferencia de Morgan Stanley sobre tecnología, medios y telecomunicaciones, no tardó en correr por redes, foros y medios especializados. Y no es para menos. Hablar de Linux de esa manera es tocar uno de los nombres más grandes de la historia del software.

Ahora bien, lo más interesante no es tanto decidir si Huang exageró, que probablemente sí, sino entender qué estaba intentando explicar. Porque detrás de esa frase no hay solo una salida de tono o una provocación de directivo estrella. Hay un mensaje mucho más profundo sobre la velocidad a la que se mueve hoy la Inteligencia Artificial, sobre el nuevo tipo de software que está apareciendo y sobre la enorme presión que todo eso puede generar sobre centros de datos, energía e infraestructura digital.

OpenClaw, por cierto, no es humo ni un nombre inventado para adornar una charla con inversores. Su creador, Peter Steinberger, presentó oficialmente el proyecto a finales de enero y explicó en el blog del propio OpenClaw que había superado los 100.000 stars en GitHub y atraído 2 millones de visitantes en una sola semana. Reuters también informó después de que Steinberger se incorporaba a OpenAI, mientras el proyecto continuaría como iniciativa open source bajo una fundación. Es decir, hay un fenómeno real detrás del nombre, aunque eso no obligue a aceptar sin más la comparación con Linux como si fuera una verdad matemática.

Lo que OpenClaw representa es una nueva generación de programas de Inteligencia Artificial que no se limitan a contestar preguntas. La idea es que puedan hacer cosas por el usuario: gestionar tareas, moverse entre herramientas, leer información, ejecutar acciones y encadenar pasos con cierta autonomía. Ese concepto, el de los llamados agentes de IA, es el que Huang lleva tiempo señalando como el siguiente gran salto del sector. Y ahí es donde la comparación con Linux deja de ser una simple frase efectista para convertirse en una pista sobre lo que viene.

Más que una comparación, una señal del nuevo ritmo del software

La gran diferencia entre Linux y OpenClaw no está solo en el tipo de software, sino en la época en la que aparecen. Linux nació a comienzos de los años 90, en una Internet todavía muy limitada, sin plataformas globales de distribución de código, sin redes sociales, sin repositorios colaborativos como los actuales y, desde luego, sin una industria mundial mirando cada semana a la Inteligencia Artificial como si fuera el centro del futuro económico. OpenClaw llega, en cambio, en pleno auge de la IA, con GitHub, foros, vídeos, influencers tecnológicos y empresas millonarias pendientes de cualquier herramienta capaz de ahorrar tiempo o automatizar tareas.

Por eso, la frase de Huang no debería leerse como una sentencia histórica sobre Linux, sino como una descripción del nuevo contexto. Hoy el software se propaga más rápido, se comenta más rápido y se prueba mucho más deprisa. Lo que antes tardaba años en llegar a una comunidad global, ahora puede recorrer medio planeta en días. Eso no convierte automáticamente a un proyecto en mejor ni en más importante, pero sí explica por qué ciertos nombres se hacen gigantescos en muy poco tiempo.

También explica por qué han empezado a aparecer tan pronto problemas asociados a OpenClaw. En las últimas semanas se han conocido vulnerabilidades graves y campañas de distribución de versiones falsas con malware aprovechando precisamente su popularidad. Eso suele ocurrir cuando una herramienta despega muy deprisa: la visibilidad atrae tanto a usuarios como a atacantes. El éxito, en estos casos, no solo se mide por la comunidad, sino también por lo rápido que empieza a convertirse en objetivo.

Lo que de verdad preocupa a NVIDIA: energía, centros de datos y potencia de cálculo

Pero el corazón de la intervención de Huang no estaba en OpenClaw ni en Linux. Estaba en los centros de datos. El directivo aprovechó el ejemplo para insistir en una idea que NVIDIA repite cada vez con más fuerza: la próxima ola de la Inteligencia Artificial no va a consumir solo más chips, sino muchísimo más tiempo de computación. Según explicó en la conferencia, cuando los sistemas pasan de responder preguntas a investigar, planificar, razonar y actuar de forma iterativa, el número de tokens y de operaciones necesarias se dispara. Y eso cambia por completo la escala del problema.

En términos sencillos, no es lo mismo pedirle a una IA que resuma un texto que pedirle que prepare un viaje, compare opciones, revise documentos, complete formularios o escriba código durante varios minutos o varias horas. La segunda opción requiere más cálculo, más memoria, más almacenamiento y más energía. Si ese tipo de software termina generalizándose, el debate ya no será solo cuántos usuarios tiene una aplicación, sino cuánta infraestructura necesita el mundo para mantenerla funcionando de manera continua.

Ahí es donde NVIDIA ve una oportunidad gigantesca. La empresa lleva tiempo defendiendo que los centros de datos del futuro serán, en realidad, fábricas de tokens para la era de la Inteligencia Artificial. Puede sonar a lema comercial, pero detrás hay un interés evidente: cuanto más complejo y persistente sea el software, más importante será disponer de hardware capaz de sostener esa carga. Y si la IA agente despega de verdad, la industria necesitará más capacidad de cálculo, más electricidad y más inversión en infraestructura.

La pregunta, sin embargo, es incómoda. ¿Está el mundo preparado para eso? A día de hoy, cuesta decir que sí. Ya existen tensiones en la cadena de suministro, problemas energéticos, retrasos en nuevos centros de datos y presión creciente sobre memoria, almacenamiento y redes. Si además millones de agentes de IA empiezan a trabajar de fondo, casi como empleados digitales permanentes, la factura técnica y económica puede crecer más rápido de lo que muchos esperan.

Por eso la frase de Jensen Huang, por exagerada que pueda parecer, no debería descartarse como una simple bravata. Tiene algo de espectáculo, sin duda, pero también sirve para señalar una realidad cada vez más visible: la Inteligencia Artificial ya no quiere limitarse a responder. Quiere actuar. Y cuando el software empieza a actuar solo, todo lo demás —desde el servidor hasta la red eléctrica— tiene que ponerse al día. Quizá OpenClaw no sea “el nuevo Linux”, pero sí puede ser una señal de que la velocidad del cambio tecnológico vuelve a estar por delante de la capacidad del mundo para absorberlo.

Preguntas frecuentes

¿Qué es OpenClaw y por qué está generando tanto ruido en 2026?
OpenClaw es un proyecto open source de agentes de Inteligencia Artificial pensado para ejecutar tareas más allá del simple chat. Ha llamado la atención por su crecimiento muy rápido, con más de 100.000 stars en GitHub y 2 millones de visitantes en una sola semana, según su fundador.

¿Dijo realmente Jensen Huang que OpenClaw superó a Linux en tres semanas?
Sí. Huang hizo esa comparación durante la conferencia de Morgan Stanley de marzo de 2026. Aun así, debe entenderse como una forma de subrayar la velocidad de adopción del software actual, no como una comparación histórica exacta entre el impacto de ambos proyectos.

¿Por qué los agentes de IA consumen más recursos que un chatbot normal?
Porque no se limitan a responder una pregunta. Pueden buscar, analizar, razonar, usar herramientas y ejecutar acciones durante más tiempo, lo que incrementa la cantidad de operaciones y tokens que deben procesarse en los centros de datos.

¿Qué tiene que ver todo esto con NVIDIA y los centros de datos?
Mucho. NVIDIA está defendiendo que la IA agente exigirá mucha más potencia de cálculo que la IA conversacional tradicional. Si ese modelo se extiende, aumentará la necesidad de chips, energía e infraestructura, algo que encaja directamente con la estrategia de la compañía.

Scroll al inicio