Insider de OpenAI estima un 70% de probabilidad de que la IA destruya o perjudique catastróficamente a la humanidad

Un insider de OpenAI ha advertido sobre un alarmante 70% de probabilidad de que la inteligencia artificial (IA) cause daños catastróficos a la humanidad, criticando la obsesión de la compañía con la inteligencia artificial general (AGI).

Preocupaciones internas sobre los riesgos de la IA

Daniel Kokotajlo, ex investigador de gobernanza en OpenAI, junto con otros empleados actuales y anteriores, ha expresado serias preocupaciones sobre los riesgos que plantea la IA. En una entrevista con The New York Times, Kokotajlo acusó a la empresa de ignorar los enormes riesgos asociados con el desarrollo de AGI debido a su entusiasmo por las posibilidades de esta tecnología.

«OpenAI está realmente emocionada por construir AGI,» afirmó Kokotajlo, «y están corriendo imprudentemente para ser los primeros en lograrlo.»

Predicciones sombrías y salidas clave

La declaración más impactante de Kokotajlo fue que hay un 70% de probabilidad de que la IA cause un daño catastrófico o incluso destruya a la humanidad, una cifra que supera la probabilidad de un simple lanzamiento de moneda. Esta inquietante predicción ha generado preocupación tanto dentro como fuera de la comunidad tecnológica.

Kokotajlo se unió a OpenAI en 2022 y rápidamente se convenció de que la industria alcanzaría AGI para 2027, pero con un alto riesgo de consecuencias devastadoras para la humanidad. A pesar de sus intentos por instar a la compañía a priorizar medidas de seguridad, sintió que sus advertencias no fueron tomadas en serio.

Advertencias no escuchadas

Según Kokotajlo, aunque el CEO de OpenAI, Sam Altman, parecía estar de acuerdo en la necesidad de centrarse más en la seguridad, esta postura no se tradujo en acciones concretas. Frustrado por la falta de compromiso real, Kokotajlo decidió dejar la empresa en abril, expresando su desconfianza en que OpenAI actuara de manera responsable.

«El mundo no está listo, y nosotros tampoco,» escribió Kokotajlo en un correo electrónico a su equipo, compartido con el NYT. «Estoy preocupado de que estemos avanzando sin importar las consecuencias y justificando nuestras acciones.»

Reacciones y declaraciones de OpenAI

OpenAI, por su parte, ha respondido a estas críticas destacando su compromiso con la seguridad y la importancia del debate riguroso. «Estamos orgullosos de nuestro historial al proporcionar los sistemas de IA más capaces y seguros, y creemos en nuestro enfoque científico para abordar el riesgo,» dijo la compañía en un comunicado. «Estamos de acuerdo en que el debate riguroso es crucial dado el significado de esta tecnología y continuaremos colaborando con gobiernos, sociedad civil y otras comunidades en todo el mundo.»

La empresa también subrayó la existencia de vías para que los empleados expresen sus preocupaciones, incluyendo una línea de integridad anónima y un Comité de Seguridad y Protección.

Futuro incierto

Con la salida de figuras clave y predicciones aterradoras, el futuro de OpenAI y el desarrollo de AGI se presentan con desafíos significativos. Las preocupaciones sobre la seguridad y el impacto de la IA en la humanidad continúan siendo un tema central de discusión y debate en la comunidad tecnológica global.

Fuente: Futurism

Scroll al inicio