El CEO de OpenAI, Sam Altman, ha renunciado a su puesto en el Comité de Seguridad y Protección (SSC, por sus siglas en inglés) de la compañía. Este comité fue creado en mayo con el objetivo de supervisar decisiones críticas en materia de seguridad. La salida de Altman es parte de un movimiento más amplio por parte de OpenAI para transformar el comité en un grupo de supervisión “independiente”.
El profesor de Carnegie Mellon, Zico Kolter, asumirá la presidencia del nuevo grupo, cuyos miembros son en su totalidad miembros de la junta directiva de OpenAI. Esta situación ha suscitado interrogantes sobre la verdadera independencia del comité, dado que su composición está alineada con la dirección corporativa de la empresa.
La reestructuración del SSC parece seguir el ejemplo de Meta, que cuenta con un Consejo de Supervisión que revisa todas las decisiones políticas relacionadas con el contenido, aunque, a diferencia de OpenAI, ninguno de sus miembros forma parte de la junta de Meta.
El nuevo Consejo de Supervisión de OpenAI continuará recibiendo informes periódicos sobre evaluaciones técnicas de los modelos actuales y futuros, y tendrá la capacidad de retrasar el lanzamiento de nuevos modelos hasta que se aborden las preocupaciones de seguridad.
La renuncia de Altman y la reestructuración del SSC se producen en un contexto de creciente presión. Recientemente, cinco senadores de EE. UU. enviaron una carta abierta a Altman cuestionando su enfoque en seguridad y protección. Además, casi la mitad del personal de OpenAI que trabajaba en la mitigación de riesgos a largo plazo ha abandonado la empresa este año. Varios exempleados han acusado a Altman de oponerse a la regulación de la inteligencia artificial en favor de los objetivos corporativos, lo cual se refleja en el presupuesto de OpenAI para cabildeo federal, que ha aumentado a 800.000 dólares, en comparación con los 260.000 del año anterior.