La inteligencia artificial generativa está transformando rápidamente el panorama tecnológico, con el desarrollo constante de nuevas herramientas y modelos. Según Gartner, la inteligencia artificial agencial se presenta como una de las tendencias tecnológicas más importantes para 2025. Muchas organizaciones están en fase de prototipado, buscando integrar estos agentes en sus operaciones empresariales. Uno de los principales desafíos es la comunicación eficiente entre herramientas, un problema que el Protocolo de Contexto del Modelo (MCP) de Anthropic busca resolver.
El MCP, de código abierto, pretende establecer un estándar de comunicación entre herramientas diversas, facilitando así la conexión entre APIs empresariales y herramientas externas de manera estandarizada. Sin embargo, su implementación en grandes organizaciones, especialmente en el sector financiero, resulta compleja debido a la gobernanza de datos y modelos operativos.
Actualmente, los equipos desarrollan herramientas de manera aislada, duplicando esfuerzos y recursos. Este enfoque silo limita la innovación y crea inconsistencias en la integración de sistemas, afectando la escalabilidad de las iniciativas de inteligencia artificial. A pesar de estos obstáculos, las soluciones generativas poseen un gran potencial, especialmente en áreas como el procesamiento posterior a las operaciones, la automatización del servicio al cliente y el cumplimiento regulatorio.
Una solución innovadora es el uso de un servidor centralizado de MCP con Amazon Bedrock. Este sistema proporciona acceso compartido a herramientas y recursos, permitiendo que los equipos se concentren en desarrollar capacidades de inteligencia artificial en lugar de mantener herramientas. Al estandarizar el acceso mediante MCP, se acelera el desarrollo de agentes de inteligencia artificial y se mejora la gobernanza y seguridad al manejar el acceso de manera centralizada, minimizando el riesgo de exfiltración de datos.
En una organización financiera, los servidores MCP pueden gestionarse a través de diferentes líneas de negocio, cada una con funciones específicas. Por ejemplo, una línea de comercio gestiona operaciones mientras que otra de gestión de riesgos supervisa los controles necesarios. Esto asegura que cada división desarrolle servidores MCP que se integren en un registro central, promoviendo la colaboración y el uso eficiente de soluciones basadas en inteligencia artificial.
La arquitectura que respalda esta solución incluye una API de descubrimiento de servidores MCP, aplicaciones agenciales alojadas en AWS Fargate y un centro central de servidores MCP, garantizando que la infraestructura sea escalable y priorizando la seguridad.
Los beneficios de este modelo son considerables, ofreciendo escalabilidad y resiliencia sin que las organizaciones tengan que gestionar la infraestructura. La seguridad se refuerza mediante controles en la red, asegurando que las aplicaciones solo se conecten a servidores MCP confiables dentro de la organización.
Este modelo no solo se dirige a la industria financiera sino que se puede aplicar a diversas cargas de trabajo empresariales. Se han propuesto pasos específicos para la implementación de aplicaciones agenciales en escenarios de operaciones post-trade, usando herramientas a través del servidor MCP.
En resumen, esta solución centralizada y práctica permite la implementación eficaz de servidores MCP en AWS, facilitando el desarrollo de aplicaciones innovadoras y superando las ineficiencias operativas. La accesibilidad de un entorno central puede acelerar la transición hacia flujos de trabajo más inteligentes y entregar mejores resultados a los clientes.