Yolo Vision Shenzhen
Shenzhen
Junte-se agora
Glossário

Encadeamento de Prompts

Saiba como o encadeamento rápido divide tarefas complexas de IA em fluxos de trabalho confiáveis. Explore como integrar Ultralytics com LLMs para criar agentes de IA avançados.

O encadeamento de prompts é um padrão arquitetónico avançado no desenvolvimento de Inteligência Artificial (IA) em que uma tarefa complexa é decomposta numa sequência de subtarefas menores e mais fáceis de gerir. Neste fluxo de trabalho, o resultado de uma etapa — frequentemente gerado por um Modelo de Linguagem Grande (LLM) ou um sistema de visão computacional — serve como entrada para a etapa seguinte. Ao contrário de um prompt monolítico único que tenta resolver um problema multifacetado de uma só vez, o encadeamento permite que os programadores criem aplicações mais confiáveis, testáveis e capazes . Essa abordagem modular é essencial para criar agentes de IA sofisticados que podem raciocinar, navegar na web ou interagir com ambientes físicos.

A mecânica do encadeamento

Em sua essência, o encadeamento rápido aborda as limitações das janelas de contexto e dos recursos de raciocínio nos Modelos de Base. Quando um modelo é solicitado a executar muitas operações distintas em uma única solicitação (por exemplo, "Analise esta imagem, extraia o texto, traduza-o para o espanhol e formate-o como uma fatura JSON"), a probabilidade de erro aumenta. Ao dividir isso em um pipeline, os desenvolvedores podem verificar a precisão de cada estágio.

As cadeias eficazes utilizam frequentemente «código cola» escrito em Python ou gerido por bibliotecas de orquestração como LangChain para lidar com a transformação de dados entre etapas. Isso permite a integração de tecnologias díspares, como combinar a acuidade visual da deteção de objetos com a fluência linguística de modelos de texto generativos.

Aplicações no Mundo Real

O encadeamento de prompts é particularmente poderoso ao preencher a lacuna entre diferentes modalidades de dados, permitindo que modelos multimodais funcionem em ambientes industriais e comerciais dinâmicos .

  1. Relatórios visuais automatizados: Na fabricação inteligente, um sistema de controlo de qualidade pode encadear um modelo de visão com um LLM. Primeiro, um modelo de alta velocidade como o Ultralytics digitaliza componentes em uma linha de montagem. A saída estruturada (por exemplo, «Classe: Lata_amolgada, Confiança: 0,92») é convertida numa sequência de texto. Este texto é então passado para um modelo de linguagem com um prompt como «Elabore um pedido de manutenção com base neste defeito», gerando um e-mail legível por humanos para o gerente de chão de fábrica.
  2. Suporte ao cliente sensível ao contexto: Os chatbots inteligentes costumam usar encadeamento para navegar por consultas complexas dos utilizadores. O O primeiro elo da cadeia pode usar Processamento de Linguagem Natural (NLP) para classify a intenção classify . Se a intenção for técnica, o sistema aciona um fluxo de trabalho de Geração Aumentada por Recuperação (RAG) : ele gera embeddings para a consulta, pesquisa um banco de dados vetorial para documentação e, finalmente, solicita a um LLM que sintetize os trechos recuperados em uma resposta útil.

Exemplo de código de visão para linguagem

O exemplo a seguir demonstra o primeiro «elo» de uma cadeia: usar Visão Computacional (CV) para gerar dados estruturados que servem como contexto para um prompt a jusante.

from ultralytics import YOLO

# Load the YOLO26 model (natively end-to-end and highly efficient)
model = YOLO("yolo26n.pt")

# Step 1: Run inference to 'see' the environment
results = model("https://ultralytics.com/images/bus.jpg")

# Step 2: Format visual detections into a natural language string
det_names = [model.names[int(c)] for c in results[0].boxes.cls]
prompt_context = f"The scene contains: {', '.join(det_names)}. Please describe the likely activity."

# The 'prompt_context' variable is now ready to be sent to an LLM API
print(prompt_context)

Distinguir conceitos relacionados

Para implementar arquiteturas eficazes de aprendizagem automática (ML), é útil diferenciar o encadeamento de prompts de termos semelhantes no panorama da IA:

  • Vs. Prompt de cadeia de pensamento: A cadeia de pensamento (CoT) é uma técnica usada dentro de um único prompt para incentivar um modelo a "mostrar o seu trabalho" (por exemplo, "Pense passo a passo"). O encadeamento de prompts envolve várias chamadas de API distintas, em que a entrada para o passo B depende da saída do passo A.
  • Vs. Engenharia de prompts: A engenharia de prompts é a disciplina mais ampla de otimização de entradas de texto para obter um melhor desempenho do modelo. O encadeamento é um padrão de engenharia específico que se concentra no fluxo sequencial de operações e controlo lógico.
  • Vs. Ajuste rápido: O ajuste rápido é um método de otimização de modelo que atualiza parâmetros aprendíveis (soft prompts) durante uma fase de treino. O encadeamento rápido ocorre inteiramente durante a inferência em tempo real e não altera os pesos do modelo.

Ao aproveitar o encadeamento rápido, as equipas podem criar aplicações robustas que integram lógica, recuperação de dados e reconhecimento de ações. Para gerir os conjuntos de dados e treinar os modelos de visão que alimentam essas cadeias, a Ultralytics oferece uma solução centralizada para anotação, treinamento e implementação.

Junte-se à comunidade Ultralytics

Junte-se ao futuro da IA. Conecte-se, colabore e cresça com inovadores globais

Junte-se agora