OpenAI financia un proyecto para dotar de moralidad a la inteligencia artificial

La universidad de Duke recibe 1 millón de dólares para investigar cómo los algoritmos de IA pueden tomar decisiones morales en situaciones complejas.

OpenAI ha otorgado un financiamiento de 1 millón de dólares a la Universidad de Duke, en Carolina del Norte, para desarrollar un ambicioso proyecto que busca entrenar algoritmos de inteligencia artificial (IA) capaces de comprender, prever y tomar decisiones éticas en escenarios cargados de conflictos, como el ámbito sanitario, legal y empresarial. Este proyecto, titulado Research AI Morality, estará dirigido por los profesores Walter Sinnott-Armstrong y Jana Borg, quienes tienen una amplia trayectoria en estudios relacionados con la moralidad en sistemas de IA.

Un GPS moral para decisiones humanas

Los profesores Sinnott-Armstrong y Borg ya han explorado anteriormente cómo la inteligencia artificial podría actuar como un “GPS moral” para ayudar a los humanos a tomar decisiones más éticas. Como parte de su investigación, han trabajado en algoritmos diseñados para apoyar a médicos en decisiones críticas, como determinar qué pacientes deberían recibir un trasplante de riñón de manera prioritaria, basado en principios éticos.

Según los investigadores, este tipo de IA podría desempeñar un papel crucial en la toma de decisiones difíciles, donde las emociones humanas o los prejuicios culturales podrían interferir con la objetividad necesaria. Sin embargo, los desafíos para alcanzar este objetivo no son menores.

El precedente y los retos de la moralidad en IA

El proyecto se enmarca en un contexto en el que los intentos previos de crear inteligencia artificial moral han enfrentado importantes críticas y desafíos. Un caso relevante es el de Ask Delphi, desarrollado por el Instituto Allen para la Inteligencia Artificial en 2021. Este sistema fue entrenado para ofrecer respuestas éticas a preguntas cotidianas, como afirmar que hacer trampa en un examen es moralmente incorrecto. Sin embargo, debido a su entrenamiento basado en datos recopilados de internet, reflejaba una visión sesgada hacia valores occidentales e industrializados, generando respuestas que en ocasiones resultaban poco confiables o incluso inmorales.

Este precedente evidencia el gran desafío que enfrentan los profesores de Duke: superar los sesgos inherentes a los datos y las perspectivas subjetivas de la moralidad, que varían enormemente según el contexto cultural, social y personal.

Aplicaciones potenciales y el debate ético

El proyecto financiado por OpenAI tiene el potencial de impactar múltiples áreas, desde ayudar a los profesionales de la salud a priorizar pacientes en situaciones críticas hasta proporcionar herramientas éticas en decisiones empresariales o legales. Sin embargo, también plantea cuestiones éticas fundamentales:

  1. ¿De quién es la moralidad? Dado que los conceptos de lo correcto e incorrecto varían entre culturas y personas, surge la pregunta de quién define los estándares éticos que la IA debe aprender.
  2. ¿Cómo evitar los sesgos? Si la IA se entrena con datos sesgados, podría perpetuar desigualdades o discriminaciones, lo que sería contraproducente en decisiones de alto impacto.
  3. ¿Es confiable una moralidad automatizada? A pesar de sus beneficios, depender de una máquina para decisiones éticas plantea interrogantes sobre la delegación de responsabilidades humanas.

Un paso hacia la innovación ética

Aunque el camino para construir una IA moral no está exento de retos, este proyecto abre una puerta a un nuevo tipo de tecnología que podría transformar cómo las sociedades enfrentan dilemas éticos en el futuro.

Según los responsables del proyecto, el objetivo no es sustituir el juicio humano, sino complementarlo con herramientas objetivas basadas en datos que ayuden a mitigar sesgos y errores. No obstante, subrayan que será crucial incluir en el diseño a expertos en ética, sociología y cultura, para garantizar que la IA sea inclusiva y representativa de diversas perspectivas.

Este enfoque podría marcar un punto de inflexión en la forma en que las máquinas interactúan con los valores humanos, y será interesante observar cómo evoluciona esta investigación en los próximos años. Tal y como ocurrió con iniciativas anteriores, el equilibrio entre innovación y ética seguirá siendo un tema central en la carrera por crear una inteligencia artificial verdaderamente “moral”.

Scroll al inicio