5 claves sobre la nueva Ley de Inteligencia Artificial de la UE

En 1997, el mundo fue testigo de un hito histórico cuando Deep Blue, una computadora desarrollada por IBM, venció al campeón mundial de ajedrez Garry Kasparov. Este evento no solo destacó los avances en hardware y capacidad de cálculo, sino que también marcó un punto de inflexión en el desarrollo y la percepción de la inteligencia artificial (IA), un campo de estudio que se remonta a figuras pioneras como Alan Turing, John McCarthy y el programa Eliza. Hoy, la IA continúa evolucionando e integrándose cada vez más en nuestras vidas diarias y en el ámbito profesional.

«La IA ha creado enormes expectativas en términos de crecimiento y eficiencia, así como en la mejora de las condiciones de vida y el avance de la investigación», afirma Miquel Peguera, catedrático de los Estudios de Derecho y Ciencia Política de la Universitat Oberta de Catalunya (UOC). No obstante, Peguera advierte sobre los riesgos significativos asociados con la tecnología, especialmente en cuanto a la discriminación y los sesgos que pueden surgir en diversos contextos.

Los algoritmos de IA, por ejemplo, pueden llevar a decisiones automatizadas que resulten en que ciertas personas queden excluidas de servicios esenciales, la denegación de créditos bancarios, o incluso la manipulación de grupos vulnerables. Además, la generación de contenido falso como los deepfakes y la potencial distorsión en procesos electorales representan desafíos críticos que necesitan ser abordados para garantizar que la tecnología se desarrolle de manera ética y responsable.

Para hacer frente a estos riesgos y favorecer al desarrollo de una IA segura, la Unión Europea tiene previsto poner en funcionamiento la nueva Ley de Inteligencia Artificial (AI Act) —aún pendiente de ser aprobada por el Consejo de la UE y de su publicación oficial-, que se espera que vea la luz en las próximas semanas. Se trata de una iniciativa pionera con la que la UE asume cierto rol de liderazgo en esta materia, de manera similar a como ya hizo con el Reglamento general de protección de datos (RGPD) que se ha convertido en un modelo de regulación a nivel internacional. «La UE quiere marcar la pauta internacional en la regulación de la IA centrándose exclusivamente en aquellos sistemas que pueden ocasionar riesgos relevantes y dejando fuera el resto de las soluciones de IA para evitar una regulación excesiva», explica Peguera.

De este modo, la nueva ley «establecerá sanciones económicas muy elevadas a quien infrinja el reglamento, que se aplica también a los proveedores de fuera de la UE si sus sistemas de IA se usan en el territorio europeo«, comenta el experto. Por lo tanto, la nueva regulación afectará a GPT4 (Open AI), Gemini (Google), LlaMA (Meta), entre otros.

Para profundizar en los cambios y los retos futuros de esta ley, los Estudios de Derecho y Ciencia Política de la UOC han organizado, el próximo 22 de mayo a las 9.30 horas, una jornada presencial y en línea sobre esta nueva legislación europea: Elementos clave y retos de la nueva Ley de Inteligencia Artificial. Esta jornada forma parte de una formación específica en forma del seminario en línea de Inteligencia artificial y derecho: claves y retos, que empezará el 12 de junio en modalidad en línea y tendrá una duración de cuatro semanas.

Cinco claves de la nueva Ley de Inteligencia Artificial de la UE

Para el experto, este nuevo reglamento tiene como claves principales las siguientes:

  1. Regula la comercialización y el uso de sistemas de IA en la Unión Europea.
  2. Busca promover la adopción y el desarrollo de la IA y, al mismo tiempo, mitigar los riesgos que un mal uso de esta tecnología puede suponer para la salud, la seguridad y los derechos fundamentales.
  3. Prohíbe determinadas prácticas que se consideran de riesgo inaceptable para los ciudadanos y para el conjunto de la sociedad. Por ejemplo, crear bases de datos de reconocimiento facial a partir de la extracción indiscriminada de imágenes de internet, evaluar o clasificar a las personas a lo largo del tiempo por su comportamiento social o sus características personales, o bien explotar las vulnerabilidades de una persona o grupo con la intención de causar daño.
  4. Centra la regulación en los sistemas de IA que considera de alto riesgo. Por ejemplo, en relación con el acceso a servicios esenciales (públicos o privados) o con la categorización biométrica de las personas, entre otros supuestos.
  5. Exige transparencia con respecto a los contenidos creados o manipulados con herramientas de IA o a los sistemas de reconocimiento de emociones.
Scroll al inicio