Leopold Aschenbrenner, ex investigador de OpenAI, ha publicado recientemente una serie de ensayos en los que detalla su perspectiva sobre la Inteligencia Artificial General (AGI). En estos textos, Aschenbrenner argumenta que el ritmo de progreso en la inteligencia artificial será uno de los eventos más intensos y volátiles de la historia humana.
Según Aschenbrenner, «nadie está anticipando» lo que está por venir en el campo de la IA. Predice que, para 2027, se podría esperar un salto en el desarrollo de la IA comparable al avance visto entre GPT-2 y GPT-4, lo cual nos llevaría a alcanzar la AGI.
El investigador prevé que, una vez alcanzada, la AGI acelerará el progreso a tal punto que décadas de avances podrían comprimirse en un solo año. También destaca las ventajas económicas y militares que traerá consigo la AGI, calificándola como un tema de seguridad nacional que requiere un proyecto de la magnitud del ‘Proyecto Manhattan’.
Aschenbrenner reiteró estos puntos durante una aparición en el podcast de Dwarkesh, donde también reveló que fue despedido de OpenAI tras plantear preocupaciones sobre la seguridad de la IA.
Como antiguo miembro de OpenAI, el análisis de Aschenbrenner tiene un peso significativo. Sus proyecciones presentan una imagen impactante de cómo la AGI transformará radicalmente el mundo. Su comentario sobre su despido añade un nivel adicional de drama, especialmente en el contexto de la actual batalla mediática de OpenAI con ex investigadores y la junta directiva sobre cuestiones de seguridad.