La frase “MCP is Dead” funciona muy bien como titular, pero hoy no encaja con la realidad del mercado. El Model Context Protocol no da señales de desaparición; más bien ocurre lo contrario: mantiene una hoja de ruta activa para 2026, dispone de una especificación oficial vigente y cuenta con un registro público de servidores que sigue actualizándose. Lo que sí está muriendo, y bastante deprisa, es la idea de que MCP por sí solo resuelve cualquier flujo de trabajo con agentes de IA sin coste de complejidad.
El debate, por tanto, no debería centrarse en si MCP “ha muerto”, sino en si está entrando en una fase menos ingenua y más empresarial. Y la respuesta parece ser sí. El propio roadmap oficial del protocolo para 2026 pone el foco en problemas muy concretos de madurez: escalabilidad del transporte, gestión de sesiones, comunicación entre agentes, gobernanza y preparación para entornos enterprise. Dicho de otra forma, los responsables del estándar no actúan como si el trabajo estuviera terminado, sino como si el protocolo estuviera avanzando hacia una etapa más seria y mucho más exigente.
El verdadero problema de MCP no es su muerte, sino su complejidad
MCP nació con una promesa atractiva: conectar aplicaciones de IA con sistemas externos de una forma estandarizada, algo así como un puerto universal para herramientas, datos y flujos. Así lo define Anthropic en su documentación oficial, donde explica que Claude o ChatGPT pueden usar MCP para conectarse a archivos, bases de datos, buscadores, calculadoras y otros sistemas.

Pero una cosa es la promesa conceptual y otra la implementación real. En la práctica, MCP añade una nueva capa de transporte, autenticación, definición de herramientas, permisos, mantenimiento y observabilidad. Eso no lo invalida, pero sí eleva el coste operativo. Y ese es precisamente el punto que muchos equipos están descubriendo ahora: MCP no es una varita mágica, sino una infraestructura adicional que conviene justificar bien antes de meterla en producción. La propia hoja de ruta del protocolo reconoce, indirectamente, esa dificultad al priorizar transporte escalable, sesiones resilientes y gobernanza.
Dicho de una forma más clara: instalar un servidor MCP para dos herramientas internas y un solo caso de uso muy estable puede acabar siendo más engorroso que usar una integración directa por API. En cambio, cuando una organización necesita que varios agentes o asistentes trabajen con múltiples fuentes, herramientas y permisos de forma más homogénea, MCP sí empieza a tener más sentido. Esa conclusión no aparece formulada así en la documentación oficial, pero se desprende de cómo los propios proveedores están posicionando el protocolo: como una capa de conexión estándar, no como la única forma razonable de integrar IA con software corporativo.
Las grandes plataformas no se están alejando de MCP, sino acercándose
Si MCP estuviera realmente en retirada, costaría explicar lo que está ocurriendo en las plataformas más relevantes del sector. OpenAI documenta soporte para MCP remoto en la Responses API, y además ha publicado guías específicas para construir servidores MCP que funcionen en ChatGPT y en integraciones vía API. A eso se suma que ChatGPT Business y ChatGPT Enterprise/Edu han comenzado a desplegar soporte MCP con developer mode para crear, probar y publicar conectores con capacidades de lectura y escritura.
Anthropic tampoco se ha movido en la dirección opuesta. Claude Code se presenta como una herramienta agéntica para programación que se integra con herramientas de desarrollo, y su documentación incluye gestión de servidores MCP, comandos específicos como /mcp, diálogo de administración dentro de VS Code y almacenamiento de configuraciones en .mcp.json. Además, Anthropic sigue definiendo MCP como el estándar abierto para conectar aplicaciones de IA con sistemas externos.
En paralelo, el ecosistema tampoco parece congelado. El registro oficial de MCP sigue activo y actualizándose, y el proyecto mantiene una gobernanza pública con publicaciones periódicas de mantenedores y propuestas de evolución. Eso no describe un estándar moribundo, sino uno que todavía está en expansión y consolidación.
Entonces, ¿qué está cambiando de verdad?
Lo que está cambiando es la expectativa. Durante meses, MCP se vendió casi como el equivalente al “USB-C de la IA”, una metáfora que sigue usando Anthropic para explicar el concepto. El problema de esa comparación es que oculta la parte más difícil: en el mundo real no basta con enchufar y usar. Hay que resolver permisos, latencia, descubrimiento de herramientas, autenticación, estado de sesión, límites de uso y trazabilidad. En un prototipo pequeño todo eso parece asumible; en una empresa con varios equipos, varios clientes y varias herramientas, ya no tanto.
Por eso el mercado está empezando a separar dos conversaciones que antes se mezclaban. La primera es si MCP tiene futuro como estándar. Hoy la evidencia apunta a que sí. La segunda es si todo producto basado en IA necesita MCP. Ahí la respuesta es mucho más matizada. Muchos flujos sencillos seguirán funcionando mejor con integraciones directas, herramientas nativas o conectores cerrados. MCP empieza a justificar su complejidad cuando el problema real es la interoperabilidad entre múltiples sistemas, múltiples asistentes o múltiples equipos. Esa es la frontera que se está dibujando ahora.
Lo que deja el artículo de UX Planet
La tesis de UX Planet puede entenderse como una reacción útil contra el entusiasmo excesivo. En ese sentido, el texto acierta al señalar que MCP puede introducir una capa extra de complejidad y que no siempre es la mejor elección para un trabajo de diseño o producto. Pero convertir esa crítica en una declaración de defunción es exagerado a la luz de los hechos. Mientras OpenAI extiende soporte MCP en ChatGPT y su API, Anthropic lo mantiene en Claude Code y el protocolo publica una hoja de ruta centrada en escalarlo para entornos reales, resulta difícil sostener que la tecnología haya entrado en fase terminal.
La lectura más razonable hoy es otra: MCP no ha muerto; ha dejado de ser una moda simple para convertirse en una tecnología de infraestructura. Y eso significa dos cosas al mismo tiempo. Por un lado, que seguirá creciendo porque resuelve un problema real de interoperabilidad. Por otro, que exigirá más criterio arquitectónico, más gobierno y más disciplina de producto de la que muchos prometían cuando lo presentaban como una solución casi automática.
Preguntas frecuentes
¿MCP está realmente en retirada?
No hay señales claras de eso. El protocolo mantiene una especificación oficial, una hoja de ruta activa para 2026 y un registro público de servidores en actualización constante. Además, OpenAI y Anthropic siguen integrándolo en productos y documentación oficial.
¿Por qué algunos desarrolladores dicen que MCP complica demasiado las cosas?
Porque añade capas de configuración, autenticación, sesiones, permisos y mantenimiento que no siempre compensan en flujos sencillos. El propio roadmap del estándar muestra que esos problemas de escalado y gobernanza siguen siendo prioritarios.
¿Cuándo tiene sentido usar MCP?
Suele tener más sentido cuando una aplicación o un agente necesita trabajar con varias herramientas y fuentes externas de una forma estandarizada. Para integraciones cerradas, concretas y muy estables, una API directa puede resultar más simple. Esta última conclusión es una inferencia razonable a partir del uso que los proveedores hacen del protocolo, no una regla absoluta.
¿Qué están haciendo OpenAI y Anthropic con MCP en 2026?
OpenAI documenta soporte MCP en la Responses API y ha empezado a desplegar conectores MCP en ChatGPT Business y Enterprise/Edu. Anthropic mantiene soporte y gestión de servidores MCP en Claude Code y sigue definiendo MCP como el estándar abierto para conectar aplicaciones de IA con sistemas externos.













