La Ley de Competencia Como Herramienta Para Promover La Innovación En IA En EE. UU.

Elena Digital López

En un intento por mantener su posición a la vanguardia en el desarrollo y regulación de la inteligencia artificial (IA), Estados Unidos ha intensificado sus esfuerzos en desarrollar políticas que rodeen esta creciente tecnología. La raíz de este enfoque se encuentra en la promulgación de la Ley Nacional de Iniciativa de Inteligencia Artificial en 2020, que se convirtió en ley en 2021 y estableció un marco integral para supervisar y evaluar los sistemas basados en IA en el país.

Posteriormente, en 2022, la Oficina de Política Científica y Tecnológica de la Casa Blanca presentó el Blueprint para una Carta de Derechos de la IA. Este documento guiará la protección de los derechos de los ciudadanos estadounidenses contra los sistemas automatizados. El proceso para cristalizar estos principios fundamentales abarcó un año de diálogo público.

La irrupción de tecnologías avanzadas como ChatGPT, desarrollada por OpenAI y lanzada en noviembre de 2022, cuya proyección económica podría superar los 2.1 billones de dólares, ha generado inquietudes sobre su integración en el sistema de justicia, especialmente por sus capacidades que evolucionan a gran velocidad.

Como respuesta a estas inquietudes, en octubre de 2023, el presidente Biden emitió una orden ejecutiva para desarrollar un entorno de IA seguro y confiable. Esta directriz exige que las empresas que desarrollen sistemas muy potentes compartan sus datos de prueba de seguridad con el gobierno estadounidense, especialmente si estos sistemas suponen riesgos para la seguridad nacional o la salud pública.

Por otro lado, el marco regulatorio de las leyes antimonopolio en Estados Unidos, originado a finales del siglo XIX, también se enfrenta a desafíos significativos frente al veloz avance de la IA. Leyes fundamentales como la Ley Sherman y la Ley Clayton fueron diseñadas para conservar la competencia libre y evitar la formación de monopolios y prácticas comerciales injustas.

Además, a nivel estatal, iniciativas como la Ley de IA de Colorado están comenzando a establecer precedentes en regulación específica de IA. Esta normativa, que entrará en vigor en 2026, se centra en los sistemas de IA de alto riesgo, obligando a los desarrolladores a aplicar salvaguardas y compartir información crucial sobre sus modelos y medidas de mitigación de riesgos.

A pesar de los avances significativos, Estados Unidos aún enfrenta el desafío de equilibrar la promoción de la innovación con la implementación de salvaguardias adecuadas para proteger a los consumidores y preservar la competencia. Con varias leyes específicas de competencia digital aún pendientes de aprobación, queda claro que el país tiene un camino extenso por recorrer en la regulación de la IA. En este contexto, un enfoque multilateral y colaborativo entre el sector público y privado será esencial para lograr un marco regulatorio efectivo y equitativo para estas emergentes tecnologías.

Scroll al inicio