O encadeamento de instruções é uma técnica utilizada na Inteligência Artificial (IA) para gerir tarefas complexas, dividindo-as numa sequência de instruções mais simples e interligadas. Em vez de utilizar uma única solicitação grande e potencialmente pesada para atingir um objetivo, o encadeamento de solicitações envolve alimentar a saída da resposta de um modelo de IA (frequentemente um Modelo de Linguagem Grande ou LLM) como a entrada para a próxima solicitação na sequência. Esta abordagem modular permite um maior controlo, uma maior precisão e a capacidade de lidar com raciocínios ou fluxos de trabalho mais sofisticados, tornando as tarefas complexas de IA mais fáceis de gerir.
Como funciona o encadeamento de prompts
A ideia central por detrás do encadeamento de pedidos é a decomposição de tarefas. Um problema complexo, que pode ser difícil para uma IA resolver com precisão numa única etapa, é dividido em sub-tarefas mais pequenas e geríveis. Cada sub-tarefa é abordada por uma solicitação específica dentro da cadeia. A IA processa a primeira solicitação, gera um resultado, e este resultado (ou uma versão processada do mesmo) torna-se parte do input para a segunda solicitação, e assim por diante. Este processo passo a passo guia a IA através da tarefa, assegurando que cada fase se baseia logicamente na anterior. Este método contrasta com a tentativa de resolver todo o problema utilizando um único comando, muitas vezes complexo e menos fiável. Estruturas como a LangChain são normalmente utilizadas para implementar estas cadeias, simplificando a orquestração destes processos de várias etapas. O fluxo de informação entre os prompts é fundamental para o sucesso da cadeia.
Benefícios e aplicações
O encadeamento imediato oferece várias vantagens para o desenvolvimento de sistemas de IA sofisticados:
- Melhoria da precisão e da fiabilidade: A divisão das tarefas reduz a complexidade em cada passo, conduzindo a resultados intermédios e finais mais precisos. Este refinamento passo a passo minimiza a possibilidade de erros ou alucinações de IA.
- Controlo e depuração melhorados: Cada etapa da cadeia pode ser monitorada, avaliada e depurada individualmente, facilitando a identificação e a correção de problemas em comparação com a solução de problemas de um único prompt monolítico. Isto alinha-se com as melhores práticas em MLOps.
- Lida com a complexidade: Permite à IA lidar com tarefas que requerem várias fases de raciocínio, recuperação de informação ou transformação que seriam demasiado complexas para um único comando. Isto é crucial para a construção de agentes de IA avançados.
- Modularidade e reutilização: Os prompts individuais ou as subcadeias podem ser potencialmente reutilizados em diferentes fluxos de trabalho, promovendo a eficiência no desenvolvimento. Esta modularidade é um princípio fundamental na engenharia de software.
Exemplos do mundo real:
- Automatização do apoio ao cliente: A chatbot utiliza o encadeamento de pedidos para tratar uma consulta do utilizador.
- Sugestão 1: Analisa o pedido do utilizador para identificar a intenção e as entidades-chave (por exemplo, nome do produto, tipo de problema).
- Faz a pergunta 2: Usa as entidades extraídas para pesquisar uma base de conhecimento para artigos de resolução de problemas relevantes ou FAQs.
- Sugestão 3: Resume as informações recuperadas com base no problema específico do utilizador.
- Sugestão 4: Gera uma resposta clara e empática ao utilizador que incorpora o resumo.
- Integração da visão e da linguagem para a elaboração de relatórios: Gerar um relatório descritivo a partir de uma imagem captada por um sistema de segurança.
Encadeamento de prompts vs. conceitos relacionados
É útil distinguir o encadeamento de pedidos de técnicas semelhantes:
- Engenharia de prompts: Esta é a prática alargada de conceber prompts eficazes para modelos de IA. O encadeamento de prompts é uma técnica específica da engenharia de prompts, que se concentra na estruturação sequencial de vários prompts.
- Prompting de Cadeia de Pensamento (CoT): A CoT tem como objetivo melhorar a capacidade de raciocínio de um LLM através de um único prompt, pedindo-lhe para "pensar passo a passo". A cadeia de raciocínio, por outro lado, divide a tarefa em várias etapas distintas, envolvendo potencialmente diferentes modelos ou ferramentas em cada etapa.
- Geração Aumentada por Recuperação (RAG): A RAG é uma técnica em que um modelo de IA recupera informações relevantes de uma fonte de conhecimento externa antes de gerar uma resposta. O RAG é frequentemente utilizado como um passo específico dentro de uma cadeia de pedidos maior (por exemplo, a pesquisa na base de conhecimentos no exemplo do apoio ao cliente). Sabe mais sobre os sistemas RAG.
- Enriquecimento de mensagens: Envolve a adição automática de contexto ou detalhes ao pedido inicial de um utilizador antes de ser enviado para a IA. Embora melhore uma única mensagem, não envolve o processamento sequencial de várias mensagens interligadas, como acontece com o encadeamento.
- Ajuste de prompts: Um método de ajuste fino eficiente de parâmetros (PEFT) que envolve a aprendizagem de "prompts suaves" específicos(embeddings) em vez de criar prompts de texto. É uma técnica de treinamento de modelo, distinta da estrutura de execução em tempo de execução do encadeamento de prompts.
O encadeamento de prompts é um método poderoso para estruturar interações com modelos avançados de IA, como os LLM, e até para os integrar noutros sistemas de IA, como os utilizados para a classificação de imagens ou a segmentação de instâncias. Torna as tarefas complexas mais fáceis e melhora a fiabilidade dos resultados em várias aplicações de aprendizagem automática, desde a análise básica de dados até aos sofisticados sistemas de IA multimodais. Plataformas como o Ultralytics HUB facilitam a formação e a implantação de modelos que podem formar componentes dessas cadeias.