El consejero delegado de OpenAI, Sam Altman, ha vuelto a agitar el debate sobre los plazos y el impacto de la inteligencia artificial. En una entrevista con Jan Philipp Burgard, editor jefe del diario Die Welt en el marco de la red de reporteros globales de Axel Springer, Altman afirmó que la inteligencia artificial general (AGI) —o “superinteligencia”, en sus palabras— llegará antes de 2030. A la vez, evitó cuantificar en puestos de trabajo, pero sí se mostró convencido de que la IA asumirá entre el 30 % y el 40 % de las tareas que hoy se realizan en la economía “en un futuro no muy lejano”.
El directivo viajó a la capital alemana para recibir el Axel Springer Award y, en una conversación que tocó desde la técnica a la política, dejó varios titulares: desde que el último GPT-5 “es en muchos sentidos más listo que mucha gente, incluido él mismo”, hasta que la industria tecnológica debe trabajar con cualquier presidente de Estados Unidos, pasando por su visión —optimista— de la relación humano-máquina en un escenario de superinteligencia.
“Si en 2030 no tenemos modelos extraordinariamente capaces, me sorprendería”
Preguntado por los plazos, Altman fue tajante: espera ver superinteligencia antes de que termine la década. «Si en 2030 no tenemos modelos extraordinariamente capaces que hagan cosas que nosotros no podemos, me sorprendería», dijo. Para aterrizar su confianza, apuntó a la evolución de GPT-5, que a su juicio ya supera a “mucha gente” en múltiples dimensiones cognitivas, aunque no entró en detalles técnicos ni en métricas concretas.
La afirmación llega en un contexto en el que grandes compañías tecnológicas compiten por modelos de frontera más potentes, con capacidad de razonamiento y acción sobre entornos informáticos: navegar, operar aplicaciones, generar y ejecutar código o coordinar “agentes” que realizan tareas de principio a fin. El propio Altman matizó, no obstante, que incluso si la predicción se cumple, existen efectos colaterales que aún no comprendemos del todo, lo que refuerza, en su opinión, la urgencia de alinear los sistemas “con valores humanos”.
30–40 % de tareas, no de empleos: el matiz que Altman quiso enfatizar
A la cuestión de cuántos empleos desaparecerán, Altman evitó dar una cifra. Prefirió hablar de tareas: entre el 30 % y el 40 % de lo que ocurre en la economía lo hará la IA “en un horizonte no muy lejano”. Recordó que muchos trabajos de hace 30 años ya no existen hoy —sin la influencia de la IA— y que la historia del empleo es, en buena medida, recomposición de habilidades.
El matiz no es menor. En los últimos meses se han conocido miles de despidos ligados directa o indirectamente a la adopción de IA generativa. El giro de Altman —de “empleos” a “tareas”— sugiere un impacto transversal que no siempre implica sustitución total de puestos, pero sí rediseño de procesos: segmentación de lo que automatiza la máquina y de lo que aporta la persona. El reparto concreto, admite, dependerá del sector y de la capacidad de organizaciones y trabajadores para adaptarse.
Consejos “a 30 años vista”: aprender a aprender (y a entender a la gente)
Interpelado sobre qué le diría a su hijo para no quedar fuera del mercado laboral dentro de 30 años, Altman se apartó de los atajos. Recomendó la meta-habilidad de aprender a aprender, adaptarse y ser resiliente al cambio. También puso el acento en habilidades humanas: descubrir qué quiere la gente, construir productos y servicios útiles, interactuar con el mundo.
En un ecosistema con IA ubicua, esa lista puede leer casi como un mapa de ventaja comparativa: creatividad aplicada, criterio, empatía, sentido del contexto y capacidad de síntesis. Son ámbitos donde el juicio humano —al menos por ahora— conserva un peso diferencial, incluso si la ejecución técnica o repetitiva se desplaza hacia sistemas automáticos.
¿Superinteligencia “padre amoroso” o “humanos como hormigas”? Altman elige el optimismo (con alineación)
El entrevistador le pidió su opinión sobre una comparación famosa de Eliezer Yudkowsky, investigador en seguridad de IA: la relación entre superinteligencia y humanos sería como la de humanos y hormigas. ¿Teme que una AGI nos desprecie y nos destruya?
Altman, previsiblemente, no comparte esa visión apocalíptica. Dijo esperar que la AGI trate a la humanidad como un “padre amoroso”. La idea conecta con declaraciones recientes de dos “padrinos” de la IA —Geoffrey Hinton y Yann LeCun— sobre la importancia de inculcar “instintos maternales” en los modelos para que “de verdad se preocupen por la gente”. A renglón seguido, Altman admite que habrá efectos secundarios y consecuencias que hoy no entendemos, de ahí que insista en la alineación a valores humanos como tarea clave: “Podemos alinear esta herramienta a valores humanos, y no creo que trate a los humanos como a hormigas. Digámoslo así”.
Política y tecnología: colaborar con quien gobierne y normalizar la IA en decisiones de Estado
La conversación no eludió la política. Burgard preguntó por la aparente inflexión de muchas compañías tecnológicas que han pasado de posiciones liberal-demócratas a mostrar simpatía por Donald Trump. Altman evitó bandos y dijo que el sector tecnológico debería trabajar con quien sea presidente de EE. UU., añadiendo que desde la asunción del cargo han visto cambios regulatorios “bienvenidos”, con un **clima más pro-empresa y pro-tecnología.
Más polémico fue su pronóstico de que más presidentes y líderes en el mundo usarán IA para tomar decisiones. El comentario llega tras la controversia que generó el primer ministro sueco, Ulf Kristersson, al revelar que consulta habitualmente chatbots en su labor de gobierno. Altman se mostró confiado en el uso de estas herramientas como apoyo, aunque no profundizó en límites, transparencia ni responsabilidad.
Un líder de la IA que no pregunta a su chatbot sobre relaciones
A modo de nota final, Altman confesó que, a diferencia de muchos usuarios, no acude a ChatGPT para pedir ayuda con asuntos de pareja. Un guiño ligero en una charla cargada de afirmaciones de calado.
Claves para leer (con lupa) las predicciones de Altman
Más allá del titular, la entrevista ofrece pistas y advertencias:
- Plazos ambiciosos: AGI antes de 2030 supone un salto cualitativo en poco más de un lustro. La historia reciente de la IA muestra avances acelerados, pero también retos en robustez, seguridad, coste y energía. Conviene seguir hechos verificables (capacidades reproducidas) y evaluaciones independientes.
- Impacto en tareas, no solo empleos: el 30–40 % sugiere automatización transversal. La recomposición del trabajo —y de los salarios— dependerá de rediseñar procesos y de formación continua. No es lo mismo un sustituto total que una herramienta que amplifica.
- Alineación y gobernanza: incluso los optimistas reconocen riesgos. Que la IA se use para decisiones públicas exige transparencia, rendición de cuentas y explicabilidad. El entusiasmo por la “superinteligencia” debe convivir con políticas de seguridad.
- Competencia geopolítica: los modelos de frontera consumen recursos (chips, memoria, energía) y datos en escalas inéditas. La carrera por la infraestructura (semiconductores, centros de datos, redes) condicionará quién puede materializar esa AGI y cómo.
- Señales culturales: recomendaciones como “aprender a aprender” o “entender qué quiere la gente” reflejan una realidad: las habilidades humanas (criterio, empatía, diseño de producto) seguirán siendo valiosas incluso con IA muy capaz.
Qué significa para empresas y profesionales hoy
- Empresas: pensar en tareas susceptibles de automatización y en flujo mixto humano-IA; invertir en gobernanza de datos y seguridad; medir resultado (no solo POC); formar en competencias complementarias (prompting, revisión, diseño de procesos).
- Profesionales: cultivar meta-habilidades (aprender, adaptarse), criterio sobre herramientas y soft skills que la IA todavía no replica bien: negociación, narrativa, gestión del cambio, interacción con clientes y equipos.
- Sector público: si se exploran usos de IA para decisiones, establecer límites claros, mecanismos de supervisión, explicabilidad y auditoría. Y evitar la opacidad: anunciar que se usa IA no equivale a justificar sus respuestas.
La gran incógnita: ¿y si no llega?
Altman asume que se sorprendería si en 2030 no vemos modelos “extraordinarios” que hagan lo que no podemos. La posibilidad contraria —que no llegue a tiempo, o que llegue con limitaciones— no se explora en la entrevista. En ese escenario, el valor seguirá estando en IA especializada, agentes confiables en dominios concretos y combinación de datos, software y procesos. Quizá no haya una “AGI” monolítica, sino muchas IA útiles que reduzcan fricciones en la economía.
Conclusión: optimismo estratégico con suelo firme
Las palabras de Sam Altman encajan con el optimismo estratégico que ha caracterizado su liderazgo: subir el listón de lo posible y acelerar el calendario. Que AGI llegue “antes de 2030” y que la IA asuma el 30–40 % de las tareas dibuja un futuro cercano con sistemas muy potentes y organizaciones reconfiguradas. El cómo —alineación, gobernanza, impacto laboral, energía— es la agenda que los próximos años tendrán que resolver.
Mientras tanto, la recomendación pragmática es clara: usar la IA hoy allí donde aporta (productividad, calidad, acceso) y prepararse —personas y empresas— para aprender y adaptarse en ciclos más cortos. La “superinteligencia” puede estar a la vuelta de la esquina; la inteligencia organizativa sigue siendo responsabilidad humana.
Preguntas frecuentes
¿Qué entiende Sam Altman por AGI o “superinteligencia” y cuál es su plazo?
En la entrevista, Altman usa AGI/superinteligencia para referirse a sistemas extraordinariamente capaces que hacen cosas que los humanos no pueden. Asegura que antes de 2030 espera ver modelos así y que se sorprendería si no llegan a tiempo.
¿La IA eliminará el 40 % de los empleos?
Altman no habla de empleos eliminados sino de tareas: sostiene que la IA asumirá el 30–40 % de lo que hoy ocurre en la economía “en un futuro no muy lejano”. El impacto en puestos variará por sector y dependerá de cómo se rediseñen procesos y de la adaptación de las personas.
¿Altman teme que una AGI trate a la humanidad “como hormigas”?
No. Afirma que espera una relación benigna (“padre amoroso”), siempre que se alinee la IA con valores humanos. Reconoce posibles efectos secundarios que hoy no entendemos, por lo que insiste en alineación y seguridad.
¿Cuál es el consejo de Altman para preparar una carrera a 30 años vista en la era de la IA?
Focalizarse en la meta-habilidad de aprender a aprender, adaptarse y ser resiliente. Desarrollar capacidad para entender qué quiere la gente, diseñar productos/servicios útiles e interactuar eficazmente en el mundo. Estas competencias humanas ganan valor incluso con IA avanzada.
vía: politico