Saiba como o encadeamento rápido divide tarefas complexas de IA em fluxos de trabalho confiáveis. Explore como integrar Ultralytics com LLMs para criar agentes de IA avançados.
O encadeamento de prompts é um padrão arquitetónico avançado no desenvolvimento de Inteligência Artificial (IA) em que uma tarefa complexa é decomposta numa sequência de subtarefas menores e mais fáceis de gerir. Neste fluxo de trabalho, o resultado de uma etapa — frequentemente gerado por um Modelo de Linguagem Grande (LLM) ou um sistema de visão computacional — serve como entrada para a etapa seguinte. Ao contrário de um prompt monolítico único que tenta resolver um problema multifacetado de uma só vez, o encadeamento permite que os programadores criem aplicações mais confiáveis, testáveis e capazes . Essa abordagem modular é essencial para criar agentes de IA sofisticados que podem raciocinar, navegar na web ou interagir com ambientes físicos.
Em sua essência, o encadeamento rápido aborda as limitações das janelas de contexto e dos recursos de raciocínio nos Modelos de Base. Quando um modelo é solicitado a executar muitas operações distintas em uma única solicitação (por exemplo, "Analise esta imagem, extraia o texto, traduza-o para o espanhol e formate-o como uma fatura JSON"), a probabilidade de erro aumenta. Ao dividir isso em um pipeline, os desenvolvedores podem verificar a precisão de cada estágio.
As cadeias eficazes utilizam frequentemente «código cola» escrito em Python ou gerido por bibliotecas de orquestração como LangChain para lidar com a transformação de dados entre etapas. Isso permite a integração de tecnologias díspares, como combinar a acuidade visual da deteção de objetos com a fluência linguística de modelos de texto generativos.
O encadeamento de prompts é particularmente poderoso ao preencher a lacuna entre diferentes modalidades de dados, permitindo que modelos multimodais funcionem em ambientes industriais e comerciais dinâmicos .
O exemplo a seguir demonstra o primeiro «elo» de uma cadeia: usar Visão Computacional (CV) para gerar dados estruturados que servem como contexto para um prompt a jusante.
from ultralytics import YOLO
# Load the YOLO26 model (natively end-to-end and highly efficient)
model = YOLO("yolo26n.pt")
# Step 1: Run inference to 'see' the environment
results = model("https://ultralytics.com/images/bus.jpg")
# Step 2: Format visual detections into a natural language string
det_names = [model.names[int(c)] for c in results[0].boxes.cls]
prompt_context = f"The scene contains: {', '.join(det_names)}. Please describe the likely activity."
# The 'prompt_context' variable is now ready to be sent to an LLM API
print(prompt_context)
Para implementar arquiteturas eficazes de aprendizagem automática (ML), é útil diferenciar o encadeamento de prompts de termos semelhantes no panorama da IA:
Ao aproveitar o encadeamento rápido, as equipas podem criar aplicações robustas que integram lógica, recuperação de dados e reconhecimento de ações. Para gerir os conjuntos de dados e treinar os modelos de visão que alimentam essas cadeias, a Ultralytics oferece uma solução centralizada para anotação, treinamento e implementação.