Yolo Vision Shenzhen
Shenzhen
Únete ahora
Glosario

Protocolo de contexto del modelo (MCP)

Descubra cómo el Protocolo de Contexto Modelo (MCP) estandariza las conexiones de IA con datos y herramientas. Descubra cómo integrar Ultralytics con MCP para obtener flujos de trabajo más inteligentes.

El Protocolo de Contexto de Modelos (MCP) es un estándar abierto diseñado para estandarizar la forma en que los modelos de IA interactúan con datos, herramientas y entornos externos. Históricamente, conectar grandes modelos de lenguaje (LLM) o sistemas de visión por ordenador a fuentes de datos del mundo real, como archivos locales, bases de datos o puntos finales de API, requería crear integraciones personalizadas para cada herramienta. El MCP resuelve esta fragmentación proporcionando un protocolo universal, similar a un puerto USB para aplicaciones de IA. Esto permite a los desarrolladores crear un conector una sola vez y hacerlo funcionar en múltiples clientes de IA , lo que reduce significativamente la complejidad de crear agentes de atención al cliente sensibles al contexto y asistentes inteligentes.

Cómo funciona MCP

En esencia, MCP funciona a través de una arquitectura cliente-host-servidor. El «cliente» es la aplicación de IA (como un asistente de codificación o una interfaz de chatbot) que inicia la solicitud. El «host» proporciona el entorno de ejecución y el «servidor» es el puente hacia los datos o la herramienta específicos. Cuando un agente de IA necesita acceder a un archivo o consultar una base de datos, envía una solicitud a través del protocolo. El servidor MCP gestiona esta solicitud, recupera el contexto necesario y lo formatea de nuevo al modelo de forma estructurada.

Esta arquitectura admite tres capacidades principales:

  • Recursos: permiten al modelo leer datos, como registros, archivos de código o documentos empresariales, proporcionando la base necesaria para la generación aumentada por recuperación (RAG).
  • Indicaciones: Plantillas predefinidas que ayudan a los usuarios o modelos a interactuar con el servidor de manera eficaz, agilizando los flujos de trabajo de ingeniería de indicaciones.
  • Herramientas: Funciones ejecutables que permiten al modelo realizar acciones, como editar un archivo, ejecutar un script o interactuar con un canal de visión artificial.

Aplicaciones en el mundo real

MCP está ganando terreno rápidamente porque desacopla el modelo de la lógica de integración. Aquí hay dos ejemplos concretos de su aplicación:

  1. Entornos de desarrollo unificados: En ingeniería de software, los desarrolladores suelen cambiar entre un IDE, un terminal y la documentación. Un asistente de codificación habilitado para MCP puede conectarse a un repositorio GitHub, un sistema de archivos local y una base de datos de seguimiento de errores simultáneamente. Si un desarrollador pregunta: «¿Por qué falla el inicio de sesión ?», la IA puede utilizar servidores MCP para extraer registros de errores recientes, leer el código de autenticación relevante y comprobar los problemas abiertos, sintetizando estos datos multimodales en una solución sin que el usuario tenga que copiar y pegar el contexto.

  2. Inspección visual sensible al contexto: En entornos industriales, un modelo de visión estándar detecta defectos, pero carece de contexto histórico. Mediante el uso de MCP, un sistema de detección Ultralytics se puede vincular a una base de datos de inventario. Cuando el modelo detecta una «pieza dañada», activa una herramienta MCP para consultar la base de datos sobre la disponibilidad de repuestos y redacta automáticamente un ticket de mantenimiento. Esto transforma una simple tarea de detección de objetos en un completo flujo de trabajo de automatización.

Diferenciar términos relacionados

Es útil distinguir el MCP de conceptos similares en el ecosistema de la IA:

  • MCP frente a API: una interfaz de programación de aplicaciones (API) es un conjunto específico de reglas para que un software se comunique con otro. MCP es un protocolo que estandariza la forma en que cualquier modelo de IA interactúa con cualquier API o fuente de datos. Se puede crear un servidor MCP que envuelva una API específica, haciéndola universalmente accesible para los clientes compatibles con MCP.
  • MCP frente a RAG: La generación aumentada por recuperación (RAG) es una técnica para alimentar datos externos a un modelo. MCP es la infraestructura que lo hace posible. RAG es el «qué» (obtener datos), mientras que MCP es el «cómo» (el canal de conexión estándar).
  • MCP frente a llamada de funciones: Muchos modelos, incluido OpenAI GPT-4, admiten la llamada de funciones de forma nativa. MCP crea una forma estándar de definir y exponer estas funciones (herramientas) para que no tengan que codificarse de forma rígida en el sistema de indicaciones del modelo cada vez.

Integración con la visión por ordenador

Aunque originalmente se popularizó para los LLM basados en texto, el MCP es cada vez más relevante para los flujos de trabajo centrados en la visión. Los desarrolladores pueden crear servidores MCP que expongan las capacidades de visión artificial como herramientas. Por ejemplo, un LLM que actúe como controlador central podría delegar una tarea visual a un Ultralytics a través de un Python local expuesto como una herramienta MCP .

El siguiente Python muestra un flujo de trabajo conceptual en el que un script utiliza un modelo de visión para generar contexto, que luego podría servirse a través de un punto final compatible con MCP:

from ultralytics import YOLO

# Load the YOLO26 model (efficient, end-to-end detection)
model = YOLO("yolo26n.pt")

# Perform inference to get visual context from an image
results = model("https://ultralytics.com/images/bus.jpg")

# Extract detection data to be passed as context
detections = []
for r in results:
    for box in r.boxes:
        cls_name = model.names[int(box.cls)]
        detections.append(f"{cls_name} (conf: {box.conf.item():.2f})")

# This string serves as the 'context' a downstream agent might request
context_string = f"Visual Analysis: Found {', '.join(detections)}"
print(context_string)

El futuro de la conectividad de la IA

La introducción del Protocolo de Contexto Modelo marca un cambio hacia sistemas de IA agentesque son modulares e interoperables. Al estandarizar las conexiones, la industria se aleja de los chatbots aislados y se dirige hacia asistentes integrados capaces de realizar un trabajo significativo dentro de la infraestructura existente de una organización. A medida que herramientas como la Ultralytics continúan evolucionando, es probable que los protocolos estándar como el MCP desempeñen un papel crucial en la forma en que los modelos entrenados a medida se implementan y utilizan dentro de los flujos de trabajo de las grandes empresas.

Únase a la comunidad Ultralytics

Únete al futuro de la IA. Conecta, colabora y crece con innovadores de todo el mundo

Únete ahora