Glossário

Encadeamento de pedidos

Descubra o encadeamento de pedidos: uma técnica de IA passo a passo que melhora a exatidão, o controlo e a precisão de tarefas complexas com modelos de linguagem de grande dimensão.

O encadeamento de prompts é uma técnica poderosa utilizada para gerir tarefas complexas, dividindo-as numa série de prompts mais pequenos e interligados para um modelo de Inteligência Artificial (IA). Em vez de depender de um único e enorme prompt para resolver um problema de várias etapas, é criada uma cadeia em que o resultado de um prompt se torna a entrada para o seguinte. Esta abordagem modular melhora a fiabilidade, a transparência e o desempenho global dos sistemas de IA, em especial dos modelos de linguagem de grande dimensão (LLM). Permite a construção de fluxos de trabalho sofisticados que podem envolver lógica, ferramentas externas e até vários modelos de IA diferentes.

Como funciona o encadeamento de prompts

Na sua essência, o encadeamento de mensagens orquestra uma sequência de chamadas para um ou mais modelos de IA. O processo segue um fluxo lógico: um pedido inicial é enviado para o modelo, a sua resposta é processada e as principais informações dessa resposta são extraídas e utilizadas para construir o pedido seguinte na sequência. Este ciclo continua até que o objetivo final seja alcançado. Esta metodologia é essencial para construir agentes de IA que possam raciocinar e atuar.

Esta abordagem permite a decomposição de tarefas, em que cada passo da cadeia é optimizado para uma sub-tarefa específica. Por exemplo, um prompt pode ser concebido para a extração de informação, o seguinte para a sumarização de dados e o último para a criação de texto criativo. Estruturas como a LangChain foram especificamente concebidas para simplificar o desenvolvimento destas cadeias, gerindo o estado, os prompts e a integração de ferramentas externas.

Aplicações no mundo real

O encadeamento de prompts é versátil e tem muitas aplicações práticas na aprendizagem automática (ML) e na automatização do fluxo de trabalho.

  1. Agente de apoio ao cliente automatizado: Um utilizador submete um pedido de suporte complexo.

    • Prompt 1 (Classificação): Um LLM analisa a mensagem do utilizador para classificar o problema (por exemplo, "faturação", "técnico", "acesso à conta").
    • Consulta 2 (Recuperação de dados): Com base na classificação "técnica", o sistema executa um passo de Geração Aumentada de Recuperação (RAG). Uma nova mensagem pede à IA para procurar documentos relevantes numa base de conhecimentos técnicos.
    • Consulta 3 (Geração de respostas): Os documentos recuperados são introduzidos num prompt final que instrui o LLM a sintetizar a informação e a gerar uma solução clara e passo-a-passo para o utilizador. Saiba mais sobre a mecânica dos sistemas RAG.
  2. Criação de conteúdos multimodais: Um profissional de marketing pretende criar uma campanha nas redes sociais para um novo produto.

    • Sugestão 1 (Geração de texto): O comerciante fornece detalhes do produto e um prompt pede a um LLM para gerar cinco slogans de marketing cativantes.
    • Proposta 2 (Criação de imagens): O slogan escolhido é depois utilizado como semente para uma nova proposta dirigida a um modelo de texto-imagem como o Stable Diffusion para criar uma imagem correspondente.
    • Sugestão 3 (Análise de visão): Um modelo de visão computacional, como um modelo YOLO Ultralytics treinado de forma personalizada, pode então ser utilizado num passo subsequente para garantir que a imagem gerada cumpre as diretrizes da marca (por exemplo, confirmando que o logótipo correto está presente). Esses modelos podem ser geridos e implementados através de plataformas como o Ultralytics HUB.

Encadeamento de prompts vs. conceitos relacionados

É útil distinguir o encadeamento de pedidos de técnicas semelhantes:

  • Engenharia rápida: Esta é a prática geral de conceber prompts eficazes. O encadeamento de prompts é uma técnica específica da engenharia de prompts que se centra na estruturação sequencial de vários prompts.

  • Prompting de Cadeia de Pensamento (CoT): A CoT tem como objetivo melhorar o raciocínio de um LLM numa única pergunta, pedindo-lhe para "pensar passo a passo". Em contrapartida, o encadeamento de instruções divide a tarefa em várias etapas distintas, que podem envolver diferentes modelos ou ferramentas em cada etapa.

  • Geração Aumentada por Recuperação (RAG): A RAG é uma técnica em que uma IA recupera informações de uma fonte externa antes de gerar uma resposta. A RAG é frequentemente utilizada como um passo específico numa cadeia de respostas mais vasta e não como o próprio mecanismo de encadeamento.

  • Enriquecimento de prompts: Trata-se de acrescentar automaticamente contexto ao pedido inicial de um utilizador antes de este ser enviado para a IA. Melhora um único pedido em vez de orquestrar o processamento sequencial de vários pedidos interligados.

  • Sintonização rápida: Um método de afinação eficiente de parâmetros (PEFT) que aprende "avisos suaves"(embeddings) durante a formação do modelo. É uma técnica de personalização de modelos, distinta da estrutura de execução em tempo de execução do encadeamento de prompts.

O encadeamento de prompts é um método poderoso para estruturar interações com modelos avançados de IA, como os LLM, e até para os integrar noutros sistemas de IA, incluindo os utilizados para classificação de imagens ou segmentação de instâncias. Isto torna as tarefas complexas mais fáceis de gerir e melhora a fiabilidade dos resultados em várias aplicações de aprendizagem automática, desde a análise básica de dados até aos sofisticados sistemas de IA multimodais. A implementação de modelos especializados que podem formar componentes de tais cadeias é facilitada por plataformas de ponta a ponta. Pode explorar uma variedade de tarefas de visão computacional que podem ser integradas nestes fluxos de trabalho avançados.

Junte-se à comunidade Ultralytics

Junte-se ao futuro da IA. Ligue-se, colabore e cresça com inovadores globais

Aderir agora
Ligação copiada para a área de transferência