Sam Altman sitúa la superinteligencia en 2028 y pide un “IAEA para la IA” ante un choque de gobernanza global

La carrera por la Inteligencia Artificial ha entrado en una fase en la que ya no solo se discute qué puede hacer un modelo, sino quién tendrá el control de sus efectos. Desde el India AI Impact Summit celebrado en Nueva Delhi, el consejero delegado de OpenAI, Sam Altman, ha reforzado una idea que lleva meses flotando en el sector, pero que ahora formula con calendario y urgencia política: la llegada de sistemas de “superinteligencia” podría producirse en un horizonte de pocos años, y el mundo necesitará mecanismos de coordinación internacional comparables a los que existen en tecnologías de alto riesgo, como la nuclear.

Altman ha defendido que la regulación no es un freno opcional, sino una condición para evitar que la potencia de estos sistemas quede concentrada en pocas manos o se despliegue sin salvaguardas. En su intervención, insistió en que el planeta podría necesitar un organismo internacional similar al Organismo Internacional de Energía Atómica (IAEA) para coordinar la gobernanza y responder con rapidez a un escenario que cambia más deprisa que los ciclos legislativos.

“Más capacidad intelectual en centros de datos que fuera”: el final de 2028 como punto de inflexión

El elemento más llamativo no fue el tono regulatorio —cada vez más común en foros de alto nivel—, sino la fecha. Altman describió un futuro en el que, si la trayectoria actual se mantiene, “para finales de 2028” podría darse un vuelco: que una parte mayor de la capacidad intelectual del mundo resida dentro de centros de datos que fuera de ellos, en referencia a la suma de modelos y computación desplegados a gran escala. Esa formulación no equivale a una predicción técnica cerrada (ni a un anuncio de producto), pero sí a un aviso sobre la magnitud y el cambio de poder que puede acompañar a los sistemas más capaces.

La advertencia tiene una lectura inmediata para gobiernos, reguladores y grandes empresas: si las decisiones estratégicas —desde logística hasta inteligencia económica o investigación— pasan a depender de sistemas que operan a otra velocidad, el problema deja de ser “innovación” y se convierte en infraestructura crítica y soberanía.

Regulación “urgente”, pero con una tensión de fondo: democratizar sin perder control

Altman enmarcó su posición en un equilibrio difícil: por un lado, ha defendido que la democratización de la Inteligencia Artificial es la mejor vía para que sus beneficios se distribuyan; por otro, ha advertido de que centralizar la tecnología en una sola empresa o país “podría llevar a la ruina”. En la práctica, la industria se mueve en dirección contraria: los modelos más potentes requieren chips avanzados, energía, talento y centros de datos a escala, lo que tiende a concentrar el poder en unas pocas manos.

Ese choque entre discurso y dinámica industrial explica por qué Altman insiste en la coordinación internacional. Su argumento parte de un hecho incómodo: ningún país, ni siquiera una gran compañía, puede gestionar por sí sola los riesgos de una tecnología que se despliega globalmente y que, además, se integra en cadenas de suministro, sanidad, finanzas, defensa y educación.

El riesgo no es solo “la IA”: también lo que puede habilitar

Parte del debate en Nueva Delhi giró en torno a una preocupación concreta: la posibilidad de que sistemas extremadamente capaces —incluidos modelos especializados— faciliten abusos de alto impacto. En declaraciones recogidas por medios, Altman señaló el riesgo de que modelos avanzados puedan ayudar a crear amenazas biológicas, y defendió un enfoque “de toda la sociedad” para prepararse y responder. Es una idea que entronca con su propuesta del “IAEA para la IA”: un marco que no se limite a reglas de producto, sino que monitorice y coordine respuestas ante riesgos que evolucionan rápido.

Un foro con ambición diplomática: más de 80 países firman una declaración

El India AI Impact Summit no fue solo una pasarela tecnológica. India buscó posicionarlo como un punto de encuentro para países en desarrollo en plena discusión sobre gobernanza global de la Inteligencia Artificial. En ese marco, la cumbre cerró con una declaración respaldada por más de 80 países y organizaciones internacionales, con énfasis en principios de desarrollo responsable, inclusión y cooperación. El texto es no vinculante, pero marca una señal política: la regulación ya no se discute como una cuestión nacional, sino como un problema de coordinación entre bloques con intereses divergentes.

¿Puede una superinteligencia “sustituir” a políticos y directivos?

Aquí conviene separar lo verificable de lo especulativo. Altman sí ha hablado de que sistemas muy avanzados podrían asumir tareas hoy reservadas a perfiles de alta dirección —incluida la figura del CEO— y que la automatización afectará al mercado laboral, aunque confía en que surjan nuevos roles. Pero convertir esa idea en un titular de “extinción de políticos” es un salto que, de momento, no está respaldado como afirmación literal en las fuentes públicas del evento. Lo que sí deja claro el debate es otra cosa: si la capacidad de análisis, síntesis y planificación supera a la humana en múltiples dominios, la gobernanza —política y corporativa— tendrá que rediseñar controles, auditorías, responsabilidades y límites de uso.

En otras palabras: más que un reemplazo automático de la democracia, lo que se abre es un campo de batalla sobre quién decide, con qué supervisión, con qué transparencia, y quién puede auditar sistemas que toman decisiones a escala.

El verdadero cuello de botella: instituciones más lentas que la tecnología

El mensaje de Altman, con independencia de que se comparta o no su calendario, apunta a una realidad que preocupa a gobiernos y empresas: los ciclos de innovación ya no esperan a los ciclos regulatorios. La Inteligencia Artificial se actualiza en semanas; los marcos legales tardan años. Por eso la propuesta de un organismo internacional “tipo IAEA” es, en el fondo, una petición de capacidad de respuesta: estándares comunes, certificación, coordinación y mecanismos de intervención rápida cuando surjan fallos o abusos.

En 2026, la discusión ya no va de si habrá regulación, sino de si llegará a tiempo y con suficiente músculo para no quedar como un documento decorativo frente a sistemas cada vez más potentes.


Preguntas frecuentes

¿Qué significa “superinteligencia” en el debate de la Inteligencia Artificial?
Se usa para describir sistemas que superarían a los humanos en amplios dominios cognitivos (razonamiento, planificación, investigación, estrategia), no solo en tareas concretas.

¿Por qué Sam Altman habla de crear un organismo tipo IAEA para la IA?
Porque defiende una coordinación internacional con capacidad de respuesta rápida, similar a la supervisión global en tecnologías críticas, para gestionar riesgos y estándares de seguridad.

¿De verdad OpenAI ha fijado “finales de 2028” como fecha segura?
No es una fecha garantizada, sino un escenario “si la trayectoria actual se mantiene”. La idea central es la urgencia de preparar marcos de gobernanza antes de que la capacidad tecnológica supere la capacidad institucional de control.

¿Qué pueden hacer gobiernos y empresas hoy para prepararse?
Acelerar marcos de evaluación de riesgos, reforzar auditoría y trazabilidad, definir límites de uso en sectores críticos, y coordinar estándares internacionales para evitar fragmentación regulatoria y concentración de poder.

Scroll al inicio