Más renuncias en OpenAI, aumentando las preocupaciones sobre la seguridad de la IA

Elena Digital López

OpenAI ha experimentado una serie de salidas de alto perfil, perdiendo a tres figuras clave en su equipo: el cofundador Greg Brockman, el gerente de producto Peter Deng y, de manera más destacada, el cofundador John Schulman. Estos movimientos se producen en un momento delicado para la organización, que ya ha sido objeto de controversias en torno a la seguridad de la inteligencia artificial (IA).

Greg Brockman ha anunciado que tomará una licencia extendida para «relajarse y recargar energías». Peter Deng también ha dejado su puesto, pero la salida más impactante es la de John Schulman, quien ha decidido unirse a Anthropic, un competidor de OpenAI, para centrarse más en el alineamiento de la IA y en trabajos técnicos prácticos. Schulman, conocido por su papel en el equipo de «post-entrenamiento» de OpenAI, desempeñó un papel crucial en la refinación de modelos de IA para ChatGPT.

Una Salida Sorprendente en un Momento Crítico

La partida de Schulman ha dejado a OpenAI con solo tres de sus once fundadores originales: Sam Altman, Wojciech Zaremba y Greg Brockman, quien actualmente está en una sabática. Esta salida sigue a la de otros cofundadores importantes: Andrej Karpathy en febrero, Jan Leike en mayo para unirse también a Anthropic, e Ilya Sutskever, quien dejó la organización en mayo para fundar Safe Superintelligence Inc.

La salida de Schulman ha intensificado los rumores y las preocupaciones sobre el enfoque de OpenAI hacia la seguridad de la IA. Aunque Schulman ha declarado que su salida no se debió a una falta de apoyo en OpenAI, la acumulación de salidas anteriores y las críticas de ex empleados sobre la falta de pruebas de seguridad han puesto a la organización bajo un escrutinio riguroso.

Controversias y Cuestionamientos

La controversia en torno a OpenAI ha aumentado tras la salida de Leike y Sutskever, quienes citaron una falta de enfoque en la seguridad como su razón para dejar la compañía. La situación ha generado un debate sobre la responsabilidad y el compromiso de OpenAI con la investigación en seguridad de la IA. Críticos han cuestionado repetidamente si la empresa está priorizando adecuadamente la seguridad en sus desarrollos de IA, especialmente con la disolución del equipo de «super alineamiento» que se centraba en la seguridad.

Además, antiguos empleados han expresado preocupaciones sobre la falta de rigurosidad en las pruebas de seguridad, lo que podría tener implicaciones significativas para el desarrollo y la implementación de tecnologías de IA de OpenAI.

El Futuro de OpenAI y la Seguridad de la IA

Con estas salidas de alto perfil, OpenAI enfrenta un desafío significativo para mantener su liderazgo en el campo de la inteligencia artificial mientras aborda las preocupaciones sobre la seguridad y la ética en el desarrollo de IA. La organización deberá trabajar arduamente para reconstruir la confianza y demostrar un compromiso renovado con la investigación y las prácticas de seguridad en IA.

La competencia en el campo de la IA se está intensificando, y la partida de figuras clave como Schulman para unirse a competidores como Anthropic subraya la importancia crítica de estos temas. La industria de la IA está observando de cerca cómo OpenAI responderá a estos desafíos y si podrá mantener su posición a la vanguardia de la innovación en inteligencia artificial.

En este contexto, OpenAI debe abordar las preocupaciones sobre la seguridad de la IA y reforzar su compromiso con prácticas responsables para continuar siendo un líder en el desarrollo de tecnologías que puedan transformar positivamente la sociedad.

Scroll al inicio