Más de 200 empleados de Google DeepMind, el laboratorio de investigación y desarrollo de inteligencia artificial de Google, han firmado y distribuido una carta que pide a la compañía que termine sus contratos con organizaciones militares. La misiva, fechada el 16 de mayo, expresa inquietudes sobre el uso de la IA para fines bélicos, en lo que los firmantes consideran una violación de los principios de IA de Google, los cuales, desde la adquisición de DeepMind en 2014, prohíben el uso de su tecnología en aplicaciones militares o de vigilancia.
Aunque la carta no menciona conflictos específicos ni nombra directamente a los militares, hace referencia a un contrato conocido como Proyecto Nimbus, mediante el cual Google provee servicios de computación en la nube y tecnología de IA al ejército israelí. Según la carta, el ejército israelí utiliza esta tecnología para vigilancia y bombardeos selectivos, y se encuentra obligado por ley gubernamental a asegurar estos servicios en la nube a través de Google.
Los empleados de DeepMind argumentan que estos contratos contradicen los principios éticos que la compañía ha defendido, afectando su reputación como líderes en IA responsable y ética. En la carta, se insta a la dirección de Google a cumplir con sus principios de IA, investigar las alegaciones, bloquear el acceso militar a su tecnología y prevenir futuros contratos de este tipo. Sin embargo, los empleados afirman que, hasta la fecha, no han recibido una respuesta significativa por parte de la dirección.
A pesar de que solo el 5% de la fuerza laboral de Google ha firmado esta carta, el hecho subraya las crecientes tensiones y un choque cultural dentro de la empresa. Mientras Google continúa vendiendo servicios en la nube y tecnología de IA a clientes militares, su división de IA, DeepMind, se ha comprometido a evitar el desarrollo de tecnologías que puedan ser utilizadas para fines militares.
Este conflicto refleja una creciente preocupación sobre el papel de la tecnología en la guerra y plantea preguntas cruciales sobre la ética en el desarrollo y la aplicación de la inteligencia artificial. La situación subraya la necesidad de un debate más amplio sobre cómo las grandes empresas tecnológicas manejan la responsabilidad ética en la era de la IA.