Descubra cómo el encadenamiento rápido divide las tareas complejas de IA en flujos de trabajo fiables. Explore cómo integrar Ultralytics con LLM para crear agentes de IA avanzados.
El encadenamiento de indicaciones es un patrón arquitectónico avanzado en el desarrollo de la inteligencia artificial (IA) en el que una tarea compleja se descompone en una secuencia de subtareas más pequeñas y manejables. En este flujo de trabajo, el resultado de un paso, a menudo generado por un modelo de lenguaje grande (LLM) o un sistema de visión por ordenador , sirve como entrada para el paso siguiente. A diferencia de un único prompt monolítico que intenta resolver un problema multifacético de una sola vez, el encadenamiento permite a los desarrolladores crear aplicaciones más fiables, comprobables y capaces . Este enfoque modular es esencial para crear sofisticados agentes de IA que puedan razonar, navegar por la web o interactuar con entornos físicos.
En esencia, el encadenamiento rápido aborda las limitaciones de las ventanas de contexto y las capacidades de razonamiento en modelos base. Cuando se pide a un modelo que realice demasiadas operaciones distintas en una sola solicitud (por ejemplo, «analizar esta imagen, extraer el texto, traducirlo al español y formatearlo como una factura JSON»), la probabilidad de error aumenta. Al dividir esto en un flujo de trabajo, los desarrolladores pueden verificar la precisión de cada etapa.
Las cadenas eficaces suelen utilizar «código pegamento» escrito en Python o gestionado por bibliotecas de orquestación como LangChain para gestionar la transformación de datos entre pasos. Esto permite la integración de tecnologías dispares, como la combinación de la agudeza visual de la detección de objetos con la fluidez lingüística de los modelos de texto generativo.
El encadenamiento rápido es especialmente potente a la hora de salvar la brecha entre diferentes modalidades de datos, lo que permite que los modelos multimodales funcionen en entornos industriales y comerciales dinámicos .
El siguiente ejemplo muestra el primer «eslabón» de una cadena: el uso de la visión artificial (CV) para generar datos estructurados que sirven de contexto para una indicación posterior.
from ultralytics import YOLO
# Load the YOLO26 model (natively end-to-end and highly efficient)
model = YOLO("yolo26n.pt")
# Step 1: Run inference to 'see' the environment
results = model("https://ultralytics.com/images/bus.jpg")
# Step 2: Format visual detections into a natural language string
det_names = [model.names[int(c)] for c in results[0].boxes.cls]
prompt_context = f"The scene contains: {', '.join(det_names)}. Please describe the likely activity."
# The 'prompt_context' variable is now ready to be sent to an LLM API
print(prompt_context)
Para implementar arquitecturas eficaces de aprendizaje automático (ML), resulta útil diferenciar el encadenamiento de indicaciones de otros términos similares en el ámbito de la IA:
Aprovechando el encadenamiento rápido, los equipos pueden crear aplicaciones robustas que integren lógica, recuperación de datos y reconocimiento de acciones. Para gestionar los conjuntos de datos y entrenar los modelos de visión que alimentan estas cadenas, la Ultralytics ofrece una solución centralizada para la anotación, el entrenamiento y la implementación.