Google modifica sus principios de IA y elimina la prohibición de desarrollar armas con inteligencia artificial

En una actualización significativa de sus principios de inteligencia artificial (IA), Google ha eliminado una de las restricciones más importantes de su política anterior: la prohibición expresa de desarrollar armamento o tecnologías con el propósito de causar daño a personas. Este cambio plantea interrogantes sobre la postura ética de la compañía en relación con la aplicación de la IA en entornos militares y de vigilancia.

El ajuste en la política de IA de Google sigue una tendencia observada en otras empresas tecnológicas. En 2023, OpenAI eliminó ciertas restricciones en sus términos antes de anunciar un acuerdo con el Pentágono. Ahora, Google ha realizado modificaciones en su documento de principios para la IA, eliminando una categoría específica que detallaba las aplicaciones que no se desarrollarían bajo ningún concepto.


Un cambio en la ética de la IA: Google elimina la lista de usos prohibidos

Hasta hace poco, la política de IA de Google incluía una sección titulada “Aplicaciones de IA que no vamos a abordar”, donde se especificaban áreas en las que la empresa no diseñaría ni implementaría soluciones de inteligencia artificial. Entre ellas se encontraban:

  • Tecnologías que puedan causar daño significativo, a menos que los beneficios superaran ampliamente los riesgos.
  • El desarrollo de armas o sistemas cuya finalidad principal sea causar daño a personas.
  • Sistemas de vigilancia masiva que violen las normas internacionales.
  • Aplicaciones contrarias a los derechos humanos y al derecho internacional.

Con la última actualización, esta sección ha desaparecido del documento, lo que implica que Google ya no se compromete públicamente a evitar estos usos de la IA. En su lugar, la nueva redacción menciona que la empresa trabajará para «mitigar resultados no deseados o dañinos» y «alinearse con principios aceptados del derecho internacional y los derechos humanos», pero sin incluir restricciones explícitas sobre el desarrollo de armas.


¿Por qué Google ha eliminado esta restricción?

El cambio en la política de IA de Google ocurre en un contexto de creciente interés del sector tecnológico en contratos con gobiernos y organismos militares. Desde la cancelación del Proyecto Maven en 2018, la relación de la compañía con el sector de defensa ha sido objeto de debate.

  • Proyecto Maven (2017-2018): Google colaboró con el Pentágono en el desarrollo de IA para analizar imágenes captadas por drones y mejorar la identificación de objetivos en zonas de conflicto. Sin embargo, tras las protestas de miles de empleados, la empresa decidió no renovar el contrato y reafirmó su compromiso de no desarrollar IA para aplicaciones militares letales.
  • Expansión en contratos gubernamentales: A pesar de la controversia con Maven, Google ha continuado proporcionando servicios de nube y análisis de datos a agencias gubernamentales y de defensa de EE.UU. e Israel.
  • Tendencia en la industria: Empresas como Microsoft y Amazon han participado activamente en licitaciones para proveer tecnología avanzada a las fuerzas armadas, lo que podría haber influido en Google para flexibilizar su postura en materia de IA.

La respuesta de Google y el debate sobre la ética en IA

Consultados sobre el cambio, Google respondió con una publicación de blog firmada por James Manyika, vicepresidente senior, y Demis Hassabis, CEO de Google DeepMind. En el documento, la empresa reafirma su compromiso con el desarrollo responsable de la IA, pero evita mencionar de manera directa la eliminación de la restricción sobre armamento.

“Reconocemos la rapidez con la que la tecnología subyacente y el debate en torno al avance, implementación y uso de la IA seguirán evolucionando. Continuaremos adaptando y refinando nuestro enfoque a medida que todos aprendamos con el tiempo.” – Google AI

Sin embargo, la falta de una explicación clara sobre la eliminación de esta restricción ha generado especulación en la industria y entre expertos en ética de la IA. La ausencia de un compromiso explícito de no desarrollar tecnología militar plantea preguntas sobre si Google se está preparando para reabrir sus colaboraciones con el Pentágono y otras agencias de defensa.


¿Qué significa esto para el futuro de Google y la IA militar?

El cambio en la política de IA de Google podría tener varias implicaciones a corto y largo plazo:

1. Mayor flexibilidad en contratos militares

La eliminación de la restricción contra el desarrollo de armas sugiere que Google podría considerar futuros acuerdos con el Pentágono u otros gobiernos en proyectos de IA con aplicaciones militares. Esto podría incluir análisis de datos para inteligencia militar, automatización en logística y ciberseguridad, aunque sin llegar necesariamente al desarrollo directo de armas letales.

2. Posible reacción interna de empleados

Históricamente, Google ha enfrentado protestas internas cuando ha intentado colaborar con el sector militar. En 2018, miles de trabajadores firmaron una carta abierta exigiendo el fin de la participación de la empresa en el Proyecto Maven. Si la compañía avanza en nuevos contratos con el Departamento de Defensa, podría enfrentarse nuevamente a conflictos laborales y crisis de reputación.

3. Regulación y supervisión

A medida que las empresas tecnológicas amplían su participación en defensa y seguridad, es probable que los gobiernos comiencen a regular más estrictamente el uso de la IA en aplicaciones militares. La Unión Europea y EE.UU. están trabajando en normativas para controlar el desarrollo y uso de IA en sectores sensibles, lo que podría afectar a Google y otras empresas del sector.

4. Precedente para otras empresas tecnológicas

Si Google, que anteriormente se negó a desarrollar IA con fines militares, ahora modifica sus principios, otras empresas tecnológicas podrían seguir el mismo camino y flexibilizar sus restricciones en este ámbito. Esto podría abrir la puerta a una mayor competencia en el mercado de IA para defensa y seguridad nacional.


Conclusión: un giro estratégico con interrogantes éticas

La eliminación de la restricción sobre el desarrollo de armas con IA en la política de Google representa un cambio estratégico que deja abierta la posibilidad de futuras colaboraciones con el sector de defensa. Aunque la compañía sigue mencionando el respeto a los derechos humanos y el derecho internacional, la omisión de una prohibición explícita ha despertado inquietudes en la comunidad tecnológica.

En un momento en el que la IA se está convirtiendo en una herramienta clave en la seguridad y defensa global, la decisión de Google podría marcar un punto de inflexión en cómo las grandes tecnológicas abordan su participación en proyectos militares. Ahora, la atención estará puesta en si la empresa anuncia nuevos contratos con el Pentágono y en cómo responde su plantilla ante este cambio en sus principios.

Referencia: IA Google y versión antigua de los principios de IA Google en web archive

Scroll al inicio