En el cambiante panorama de la inteligencia artificial (IA), un nuevo informe destaca inquietantes lagunas en la atención a los sesgos y los desafíos éticos que plantea esta tecnología. Según un estudio reciente, el 27.1% de los profesionales de la IA y el 32.5% de los usuarios finales de herramientas basadas en inteligencia artificial no se enfocan específicamente en los sesgos y problemas éticos inherentes al uso de la IA.
La IA está transformando rápidamente industrias como la salud, donde puede potencialmente mejorar los diagnósticos médicos, pero al mismo tiempo genera serias preocupaciones éticas. Entre estas preocupaciones se encuentran el potencial de sesgos en los sistemas de IA, amenazas a los derechos humanos, y una contribución negativa al cambio climático. Con el mercado global de IA proyectado para alcanzar un tamaño de 1.8 billones de dólares para 2030, resulta crucial enfrentar estos desafíos éticos desde su origen.
El sesgo puede aparecer en cualquier etapa del desarrollo de IA, siendo la recolección de datos una fuente primaria. La dependencia de datos que no sean diversos o que no representen a minorías podría perpetuar estos sesgos. Otros riesgos emergen en el etiquetado de datos, donde distintas interpretaciones pueden crear disparidades, y en la formación de modelos, los cuales requieren arquitecturas balanceadas capaces de manejar entradas diversas. El despliegue de IA también debe estar sujeto a rigurosos escrutinios para evitar sesgos perjudiciales antes de que los sistemas sean utilizados.
Casos de sesgo en aplicaciones de IA dentro de la salud han sido documentados. Los sistemas de diagnóstico asistido por computadora han mostrado menores niveles de precisión para pacientes femeninas negras en comparación con sus contrapartes blancas. Asimismo, investigaciones académicas han revelado que algunas plataformas tienden a reproducir imágenes estereotipadas, presentando a hombres en profesiones especializadas como mayores y a mujeres como más jóvenes, perpetuando así sesgos de género.
Además, el uso de IA en el sistema de justicia penal mediante herramientas predictivas puede reforzar patrones de discriminación racial al basarse en datos históricos, focalizando de manera desproporcionada a comunidades minoritarias.
Los desafíos no se limitan al sesgo y la discriminación. La IA enfrenta otros problemas éticos, como la seguridad, donde los sistemas pueden ser vulnerables a hackeos, generando desinformación y causando posibles desplazamientos laborales. En el ámbito de la propiedad intelectual, han surgido litigios por la utilización ilegal de obras protegidas. Estos desafíos subrayan la necesidad de que las empresas prioricen la ética en sus desarrollos de IA, asegurando medidas de seguridad adecuadas.
Para abordar estos problemas, algunas organizaciones recurren a auditorías regulares. El 44.1% de los profesionales y el 31.1% de los usuarios finales han indicado que utilizan esta estrategia para evaluar y mitigar el sesgo en sus sistemas. No obstante, una proporción significativa de usuarios (32.5%) y profesionales (27.1%) admitieron no tomar medidas específicas para abordar estos asuntos, lo que resalta la urgente necesidad de una mayor conciencia y acción en la industria.
Los principios propuestos por organismos como la UNESCO enfatizan la importancia de un enfoque centrado en el ser humano en la IA, promoviendo valores como la proporcionalidad, seguridad, privacidad y no discriminación. En última instancia, para que la inteligencia artificial realmente beneficie a todos, debe integrarse con una comprensión ética que proteja a todas las minorías y respalde procesos justos en sectores críticos como la salud y la justicia.