Conclusiones tras un año de desarrollo de IA generativa responsable y a escala

El año pasado trajo notables avances en la inteligencia artificial (IA) generativa, desde la capacidad de generar imágenes realistas con palabras hasta las herramientas de Microsoft Copilot, que pueden resumir reuniones, redactar propuestas comerciales o sugerir menús de cena basados en el contenido del refrigerador. Microsoft ha mantenido principios y procesos para minimizar los daños inesperados y ofrecer experiencias valiosas, pero el despliegue de la IA generativa a gran escala ha traído nuevos desafíos y oportunidades.

Para abordar estos retos, Microsoft publicó su primer Informe Anual de Transparencia en IA Responsable y lanzó nuevas herramientas en Azure AI para ayudar a clientes empresariales y desarrolladores a salvaguardar la calidad de sus sistemas de IA, protegiéndose contra usos malintencionados.

Natasha Crampton, directora responsable de IA, y Sarah Bird, directora de productos de IA Responsable, ofrecen siete conclusiones clave tras un año de desarrollo responsable de IA generativa:

1. Integrar la IA Responsable desde el Principio

La IA responsable no debe ser responsabilidad de un solo equipo, sino de todos los empleados. Microsoft ha integrado su estándar de IA responsable, que requiere que todos los que desarrollan aplicaciones de IA sigan procedimientos para evaluar el impacto potencial, gestionar fallas y proporcionar información para que los usuarios puedan tomar decisiones informadas.

A finales del año pasado, el 99% de los empleados completaron la formación en IA responsable, y Natasha Crampton destaca: «No se trata de una lista de verificación que se marque antes de lanzar un producto, sino de integrar la responsabilidad desde el inicio».

2. Evolucionar y Adaptarse Rápidamente

El desarrollo de IA es dinámico, y las pruebas piloto permiten obtener valiosos comentarios de los clientes, facilitando la mejora continua del producto. Así, Microsoft implementó diferentes estilos conversacionales en Copilot para Bing: creativo, equilibrado y preciso.

Sarah Bird señala: «Necesitamos un ciclo de experimentación con los clientes. Aprendemos y adaptamos el producto en consecuencia».

3. Centralizar para Acelerar

Con la introducción de Microsoft Copilot, se creó un sistema centralizado para asegurar que todos los productos cumplieran con los estándares de IA responsable. La pila tecnológica de IA responsable en Azure AI permite a los equipos utilizar herramientas y procesos comunes.

Los expertos de IA responsable también desarrollaron un enfoque centralizado para revisar y aprobar lanzamientos de productos, lo que ha facilitado detectar y mitigar vulnerabilidades, desarrollar procedimientos recomendados e intercambiar información de manera oportuna.

4. Aclarar la Procedencia

La capacidad de la IA para generar imágenes, videos y audio dificulta distinguir entre lo real y lo artificial. Por eso, Microsoft se unió a otras 19 empresas en un conjunto de compromisos voluntarios para combatir el uso engañoso de la IA en las elecciones de 2024.

Microsoft desarrolló «Credenciales de Contenido», que permiten verificar si una imagen o video fue generado por IA. Además, el AI for Good Lab se centra en identificar deepfakes, rastrear malos actores y analizar sus tácticas.

«Estos problemas no son solo un desafío para las empresas de tecnología, sino también un desafío social más amplio», comenta Crampton.

5. Facilitar Herramientas de IA Responsable a los Clientes

Microsoft pone a disposición de los clientes herramientas y servicios que ayudan a construir sistemas de IA responsables. Azure AI Content Safety permite identificar y filtrar contenido no deseado, como violencia o contenido sexual.

Además, Microsoft ha añadido nuevas características en Azure AI Studio que permiten evaluar la seguridad, identificar vulnerabilidades, realizar monitoreo adicional y detectar cuando un modelo genera información falsa.

«Queremos que sea fácil estar seguro por defecto», dice Bird.

6. Anticipar Fallas y Abusos

El fenómeno de los «jailbreaks» busca manipular las características de seguridad de los sistemas de IA. Microsoft ha desarrollado modelos que utilizan el reconocimiento de patrones para detectar y bloquear ataques, salvaguardando la integridad de los modelos de lenguaje.

Crampton explica: «Estos son usos no previstos, pero es lo que ocurre cuando se empuja la tecnología al límite».

7. Educar sobre los Límites de la IA

La IA puede hacer mucho para facilitar la vida, pero no es perfecta. Microsoft proporciona vínculos a fuentes citadas y notas de transparencia que detallan las capacidades, limitaciones y usos responsables.

Es fundamental que los usuarios comprendan los riesgos y el potencial de errores de la IA. Bird subraya: «Tenemos que ser humildes al decir que no sabemos cómo la gente usará esta tecnología, por lo que necesitamos escuchar a los usuarios».

Estas conclusiones muestran que la IA generativa sigue evolucionando rápidamente, y que mantener altos estándares éticos y adaptarse a las regulaciones emergentes serán claves para el desarrollo responsable de la tecnología.

Fuente: Microsoft

Scroll al inicio