Ir al contenido principal
IngenieríaMar 28, 2026

Como MCP se convirtio en el USB-C de la integracion AI — analisis tecnico profundo

OS
Open Soft Team

Engineering Team

El problema de integracion N x M

Antes de que existiera el Model Context Protocol, conectar modelos de AI a herramientas externas era un ejercicio de explosion combinatoria. Cada aplicacion de AI (Claude, GPT, Gemini, Copilot) necesitaba una integracion personalizada para cada herramienta (Slack, Jira, GitHub, bases de datos, APIs). Con M aplicaciones de AI y N herramientas, la industria necesitaba M x N adaptadores personalizados — cada uno con su propio flujo de autenticacion, formato de datos, manejo de errores y carga de mantenimiento.

Considera la escala: para 2025, habia aproximadamente 20 grandes plataformas de aplicaciones de AI y cientos de herramientas empresariales. Las matematicas eran insostenibles. Cada nueva plataforma de AI tenia que reconstruir integraciones desde cero. Cada nueva herramienta tenia que escribir adaptadores para cada plataforma de AI. Era el mismo problema que la industria del hardware tenia antes de USB: cada dispositivo tenia su propio conector propietario, y cada computadora necesitaba puertos diferentes.

MCP resuelve esto de la misma manera que USB-C resolvio el problema de los conectores: estandarizar la interfaz. Con MCP, cada aplicacion de AI implementa un MCP client, y cada herramienta implementa un MCP server. El problema M x N se convierte en M + N. Un protocolo, compatibilidad universal.

Arquitectura del protocolo: JSON-RPC, Capabilities y las tres primitivas

MCP esta construido sobre JSON-RPC 2.0, el mismo protocolo RPC ligero utilizado por el Language Server Protocol (LSP) que alimenta todos los editores de codigo modernos. Esta fue una decision de diseno deliberada: JSON-RPC es simple, bien entendido, agnostico en cuanto al lenguaje y probado en batalla.

Negociacion de capacidades

Una conexion MCP comienza con un handshake initialize donde el client y el server declaran mutuamente sus capacidades. Esto permite una evolucion elegante del protocolo. Las nuevas funcionalidades se agregan como nuevos flags de capability, y los clientes o servidores antiguos pueden ignorar las capabilities desconocidas.

Las tres primitivas

MCP define tres primitivas fundamentales:

  1. Tools: Funciones que el modelo de AI llama. Se descubren via tools/list y se ejecutan via tools/call. Cada tool tiene un nombre, descripcion y esquema de entrada definido en JSON Schema.

  2. Resources: Datos que el modelo de AI lee. Identificados por URI y obtenidos via resources/read. Incluye archivos, registros de base de datos, respuestas de API, etc.

  3. Prompts: Plantillas de prompts reutilizables proporcionadas por el servidor. Se descubren via prompts/list y se obtienen via prompts/get. Estandarizan como la AI aborda las tareas especificas del dominio del servidor.

Comparacion con function calling y OpenAPI

Para entender la posicion de MCP, comparemoslo con dos alternativas principales.

MCP vs Function Calling

El function calling (usado por OpenAI, Anthropic y otros) incorpora definiciones de tools en linea en cada solicitud API. Los desarrolladores describen tools como JSON Schemas, y el LLM elige que tool llamar y con que parametros.

AspectoFunction CallingMCP
Definicion de toolsEn linea en la solicitud APIDefinida en servidor externo
DescubrimientoNinguno (proporcionado por el desarrollador)Dinamico (descubrimiento via tools/list)
EstadoStateless (por solicitud)Stateful (basado en sesiones)
TransporteLlamadas HTTPS APIstdio, SSE, Streamable HTTP
EstandarizacionEspecifico del proveedorEstandar abierto
Multiples toolsOrquestacion manualNativo del protocolo

MCP vs OpenAPI

OpenAPI (antes Swagger) es una especificacion para describir APIs REST. La AI puede leer directamente especificaciones OpenAPI y generar llamadas API, pero hay diferencias importantes.

AspectoOpenAPIMCP
PropositoDocumentacion de API RESTComunicacion AI-herramienta
Optimizado para AINo (generalista)Disenado para interaccion AI
Gestion de sesionesNingunaIncorporada
Seguridad de tiposJSON SchemaJSON Schema + validacion en runtime
Modelo de recursosURL + metodo HTTPURI + tipo de recurso

Linea temporal de adopcion

Sigamos la evolucion de MCP:

  • Noviembre 2024: Anthropic publica MCP como codigo abierto. La version inicial solo soporta el transporte stdio.
  • Q1 2025: Claude Desktop, Cursor y Windsurf integran soporte MCP. La comunidad de desarrolladores se expande rapidamente.
  • Q2 2025: Se agrega el transporte SSE. Los servidores MCP remotos se vuelven practicos.
  • Q3 2025: OpenAI anuncia soporte MCP. Google DeepMind integra un MCP client en Gemini.
  • Q4 2025: Se publica el transporte Streamable HTTP. La adopcion empresarial se acelera.
  • Q1 2026: Microsoft adopta MCP en su plataforma Copilot. Se lanza el MCP Registry (catalogo oficial de servidores).
  • Q2 2026: MCP se convierte en el estandar de facto para la comunicacion AI-herramienta. Mas de 1,000 servidores oficiales estan registrados en el Registry.

El futuro de la comunicacion agente-a-agente

La proxima evolucion de MCP es la comunicacion agente-a-agente (A2A). Actualmente, MCP define la comunicacion entre aplicaciones de AI (host) y herramientas externas (server), pero la capacidad de los agentes de AI para comunicarse directamente entre si aun esta en etapas iniciales.

Vision futura:

  • Los agentes exponen servidores MCP: Cada agente de AI tiene su propio servidor MCP, descubrible e invocable por otros agentes como herramientas disponibles
  • Orquestacion multi-agente: Un gateway MCP gestiona la delegacion de tareas y el flujo de datos entre multiples agentes
  • Protocolo de delegacion estandarizado: Un metodo estandar para que los agentes descompongan tareas complejas en subtareas y las deleguen a agentes especializados

FAQ

P: MCP esta relacionado con el LSP (Language Server Protocol)? R: Si. MCP esta inspirado en el LSP. Ambos usan JSON-RPC 2.0, emplean el patron de capability negotiation y siguen una arquitectura client-server. Asi como el LSP desacoplo los editores de codigo del soporte de lenguajes de programacion, MCP desacopla las aplicaciones de AI de la integracion de herramientas.

P: Cuales son los riesgos de seguridad al exponer un servidor MCP? R: Los riesgos principales incluyen evasion de autenticacion, uso indebido de tools, fuga de datos y denegacion de servicio. El uso de autenticacion OAuth 2.0, validacion de entradas, limitacion de velocidad, autorizacion a nivel de tool y registro de auditoria de todas las llamadas a tools son medidas esenciales.

P: Se puede convertir una API REST existente en un servidor MCP? R: Si. El patron comun es envolver cada endpoint API como un tool MCP. Tambien hay herramientas disponibles para generar automaticamente servidores MCP a partir de especificaciones OpenAPI.

P: Cual es el overhead de rendimiento de MCP? R: El overhead del protocolo JSON-RPC es minimo. Para el transporte stdio es del orden de microsegundos; para el transporte HTTP es equivalente a una solicitud HTTP normal. El cuello de botella suele estar en la ejecucion del tool en si (consulta de base de datos, llamada API).

P: Hay un limite de tamano para los mensajes MCP? R: El protocolo en si no tiene limite de tamano. Los limites practicos dependen del transporte y la infraestructura. Para despliegues en produccion, manten las respuestas individuales por debajo de 10 MB y usa paginacion o streaming para grandes conjuntos de datos.

Etiquetas