Prompting de cadeia de pensamento
Reforçar o raciocínio da IA com a sugestão de cadeia de pensamento! Melhore a exatidão, a transparência e a retenção do contexto para tarefas complexas e de várias etapas.
A solicitação de cadeia de pensamento (CoT) é uma técnica avançada de engenharia de solicitação concebida para melhorar as capacidades de raciocínio dos modelos de linguagem de grande porte (LLMs). Em vez de pedir uma resposta direta a um modelo, a solicitação CoT incentiva o modelo a gerar uma série de passos intermédios e coerentes que conduzem à conclusão final. Este método imita a resolução de problemas humanos, dividindo questões complexas em partes mais pequenas e manejáveis, melhorando significativamente o desempenho em tarefas que requerem aritmética, senso comum e raciocínio simbólico. A ideia central foi introduzida num documento de investigação da Google AI, que demonstra que esta abordagem ajuda os modelos a obter respostas mais precisas e fiáveis.
Esta técnica não só aumenta a exatidão dos resultados do modelo, como também fornece uma janela para o seu "processo de pensamento", tornando os resultados mais interpretáveis e fiáveis. Este é um passo crucial para o desenvolvimento de uma IA mais explicável (XAI). Ao seguir a cadeia de pensamento do modelo, os programadores podem compreender melhor como se chegou a uma conclusão e identificar potenciais erros na sua lógica, o que é vital para depurar e aperfeiçoar os sistemas de IA.
Como funciona o estímulo da cadeia de pensamento
Existem dois métodos principais para implementar a solicitação de CoT, cada um deles adequado a diferentes cenários:
- CoT de tiro zero: Esta é a abordagem mais simples, em que uma frase simples como "Vamos pensar passo a passo" é adicionada ao final de uma pergunta. Esta instrução leva o modelo a articular o seu processo de raciocínio sem precisar de exemplos anteriores. É uma aplicação poderosa da aprendizagem zero-shot, permitindo ao modelo efetuar raciocínios complexos em tarefas que nunca viu antes.
- CoT de poucos exemplos: Este método consiste em fornecer ao modelo alguns exemplos dentro da própria pergunta. Cada exemplo inclui uma pergunta, um processo de raciocínio detalhado passo a passo (a cadeia de pensamento) e a resposta final. Ao ver estes exemplos, o modelo aprende a seguir o padrão de raciocínio desejado quando se depara com uma nova pergunta semelhante. Esta abordagem, que aproveita a aprendizagem de poucos exemplos, é frequentemente mais eficaz do que a CoT de zero exemplos para problemas altamente complexos ou específicos de um domínio.
Aplicações no mundo real
A solicitação de CoT tem aplicações práticas em vários sectores onde é necessária a resolução de problemas complexos.
- Resolução de problemas matemáticos e científicos: Um caso de utilização clássico é a resolução de problemas matemáticos em várias etapas. Um LLM pode ser solicitado a decompor o problema, identificar as variáveis, formular os passos necessários, efetuar cálculos e chegar a uma resposta final, reduzindo significativamente os erros em comparação com a solicitação de resposta direta. Esta questão é explorada em profundidade por organizações como a DeepMind.
- Apoio ao cliente e diagnóstico complexos: Um chatbot alimentado por IA numa função de suporte técnico pode utilizar a CoT para lidar com problemas complexos dos utilizadores. Em vez de uma resposta genérica, o bot pode analisar o problema: "Primeiro, vou confirmar o dispositivo do utilizador e a versão do software. De seguida, verifico se existem problemas conhecidos relacionados com esta versão. Depois, pergunto por mensagens de erro específicas. Por fim, apresentarei uma solução passo a passo com base nestas informações." Esta abordagem estruturada conduz a um apoio mais útil e preciso.
Comparação com conceitos relacionados
A solicitação de CoT está relacionada com outras técnicas de processamento de linguagem natural (PNL) e de aprendizagem automática (ML), mas é distinta destas.
- Encadeamento de prompts: O encadeamento de prompts divide uma tarefa complexa em uma sequência de prompts mais simples e interconectados, em que a saída de um prompt se torna a entrada para o próximo. Isto requer frequentemente uma orquestração externa (por exemplo, utilizando estruturas como LangChain). Em contraste, o CoT visa obter todo o processo de raciocínio numa única interação prompt-resposta.
- Geração Aumentada por Recuperação (RAG): A RAG é uma técnica em que um modelo recupera primeiro informações relevantes de uma base de conhecimentos externa antes de gerar uma resposta. O RAG pode ser um componente de um processo de cadeia de pensamento (por exemplo, um passo pode ser "procurar X na base de dados"), mas a CoT descreve a estrutura geral do próprio raciocínio. Saiba mais sobre o funcionamento dos sistemas RAG.
- Enriquecimento do pedido: Envolve a adição de contexto ou detalhes ao pedido inicial de um utilizador antes de o enviar para a IA. Melhora uma única pergunta, mas não cria o processo de raciocínio sequencial, passo a passo, que define a CoT.
A solicitação de CoT representa um passo significativo para a construção de sistemas de Inteligência Artificial (IA) mais capazes e interpretáveis. A compreensão e a utilização destas técnicas podem ser benéficas para o desenvolvimento de modelos sofisticados de IA. Plataformas como o Ultralytics HUB podem ajudar a gerir a formação e a implementação de vários modelos. Técnicas como a Autoconsistência podem melhorar ainda mais a CoT, amostrando vários caminhos de raciocínio e selecionando a resposta mais consistente. À medida que os modelos se tornam mais complexos, desde LLMs a modelos de visão por computador como o Ultralytics YOLO11, os princípios do raciocínio estruturado tornar-se-ão cada vez mais importantes.