Yolo Vision Shenzhen
Shenzhen
Junte-se agora
Glossário

Encadeamento de Prompts

Descubra o prompt chaining: uma técnica de IA passo a passo que aprimora a precisão, o controle e a exatidão para tarefas complexas com Large Language Models.

O encadeamento de prompts é uma técnica sofisticada utilizada para executar fluxos de trabalho complexos, dividindo-os numa sequência de entradas interligadas para modelos de modelos de Inteligência Artificial (IA). Em vez de depender de uma instrução única e monolítica para executar uma tarefa multifacetada, este método estrutura o processo de modo a que o resultado de uma etapa sirva de entrada para a seguinte. Esta abordagem modular aumenta significativamente a fiabilidade e a interpretabilidade dos Modelos de Linguagem de Grande Porte (LLMs), permitindo que os programadores criem aplicações robustas capazes de raciocinar, planear e executar operações em várias etapas.

Como o Prompt Chaining Funciona

O princípio fundamental do encadeamento de pedidos é decomposição de tarefas, em que um objetivo complicado é dividido em sub-tarefas geríveis. Cada elo da cadeia concentra-se numa função específica - como como limpeza de dados, extração de informação ou tomada de decisões - antes de passar os resultados adiante. Este processo iterativo permite a validação intermédia, garantindo que que os erros sejam detectados precocemente em vez de se propagarem através de uma resposta complexa.

Esta metodologia é fundamental para a criação de Agentes de IA que podem interagir com ferramentas externas ou APIs. Estruturas especializadas como a LangChain surgiram para facilitar esta orquestração, gerindo o fluxo de dados entre o modelo de IA, bases de dados vectoriais e outros componentes de software. Ao manter o estado ao longo destas interações, o encadeamento imediato permite a criação de sistemas dinâmicos que se podem adaptar às entradas do utilizador e aos dados em mudança. aos inputs dos utilizadores e à alteração dos dados.

Aplicações no Mundo Real

O encadeamento de prompts é particularmente eficaz quando se combinam processamento de linguagem natural (PNL) com outras modalidades ou fontes de dados especializadas.

  1. Serviço inteligente ao cliente: Um sistema de apoio pode utilizar uma classificação de texto para categorizar o pedido de informação de um utilizador. Se o problema for identificado como "técnico", o fluxo de trabalho acciona uma Geração de Recuperação-Aumentada (RAG) (RAG). O sistema procura artigos relevantes numa base de conhecimentos técnicos e uma mensagem subsequente dá instruções ao LLM para sintetizar a informação recuperada numa resposta de fácil utilização.
  2. Controlo da qualidade visual: No fabrico fabrico, um fluxo de trabalho pode encadear texto e modelos de visão. Um utilizador pode fornecer uma descrição textual de um defeito (por exemplo, "risco na superfície"). Esta descrição é analisada para configurar um modelo de modelo de visão por computador (CV) como Ultralytics YOLO11. O modelo de visão efectua a deteção de objectos na alimentação da linha de montagem, e os resultados da deteção são introduzidos num prompt final para gerar uma inspeção de qualidade automatizada.

Exemplo de código

O seguinte Python demonstra um simples elo de corrente. Utiliza o de um modelo de deteção de objectos YOLO11 para construir uma mensagem em linguagem natural para um hipotético próximo passo.

from ultralytics import YOLO

# Load the YOLO11 model for object detection
model = YOLO("yolo11n.pt")

# Step 1: Run inference on an image
# The output contains detected objects which will fuel the next link in the chain
results = model("https://ultralytics.com/images/bus.jpg")

# Step 2: Process results to create input for the next link
# We extract class names to form a descriptive sentence
detected_objects = [model.names[int(c)] for c in results[0].boxes.cls]
next_prompt = f"I found these objects: {', '.join(detected_objects)}. Describe the scene."

# The 'next_prompt' variable is now ready to be sent to an LLM
print(next_prompt)

Encadeamento de Prompts vs. Conceitos Relacionados

É útil distinguir o encadeamento de pedidos de outros termos no termos no panorama da aprendizagem automática:

  • Engenharia rápida: Esta é a disciplina mais ampla da conceção de entradas óptimas para orientar o comportamento do modelo. O encadeamento de prompts é um específico da engenharia de prompts que se concentra na execução sequencial.
  • Promoção da cadeia de pensamento: Esta técnica incentiva um modelo a raciocinar "passo a passo" num único ciclo de resposta. Em contraste, o encadeamento de pedidos envolve várias chamadas distintas, muitas vezes passando dados entre diferentes modelos ou ferramentas de software diferentes.
  • Sintonização rápida: A método de otimização de modelos que actualiza "prompts suaves" (parâmetros aprendíveis) durante o treino. O encadeamento de prompts é uma estratégia de tempo de inferência que utiliza linguagem natural sem alterar os pesos do modelo. pesos do modelo.

Ao tirar partido do encadeamento de pedidos, os programadores podem ultrapassar os limites de contexto e os estrangulamentos de raciocínio dos modelos modelos autónomos. Esta técnica é indispensável para a construção de IA agêntica que integram visão, linguagem e lógica para resolver problemas complexos e dinâmicos em complexos e dinâmicos em robótica e automação.

Junte-se à comunidade Ultralytics

Junte-se ao futuro da IA. Conecte-se, colabore e cresça com inovadores globais

Junte-se agora