Melhora o raciocínio da IA com a sugestão de cadeia de pensamento! Aumenta a precisão, a transparência e a retenção de contexto para tarefas complexas e de vários passos.
A sugestão de cadeia de pensamento (CoT) é uma técnica avançada utilizada principalmente com modelos de linguagem de grande porte (LLMs) para melhorar a sua capacidade de realizar tarefas de raciocínio complexas. Em vez de pedir apenas a resposta final, a CoT incentiva o modelo a gerar passos intermédios ou uma "cadeia de pensamento" que conduza logicamente à solução. Esta abordagem imita os processos humanos de resolução de problemas e ajuda os modelos a resolver problemas que requerem raciocínio aritmético, de senso comum ou simbólico de forma mais eficaz, conduzindo frequentemente a uma precisão significativamente melhor. A técnica foi destacada na investigação da Google AI.
As instruções CoT orientam um modelo de IA mostrando-lhe explicitamente como resolver um problema. Existem duas variantes principais:
Ao exteriorizar os passos do raciocínio, a CoT torna o processo do modelo mais transparente e permite uma depuração mais fácil dos pontos onde o raciocínio pode ter corrido mal. Contrasta com o estímulo padrão, que muitas vezes pede uma resposta direta e pode falhar em tarefas que requerem vários passos lógicos.
A principal vantagem do estímulo da CoT é a sua capacidade de melhorar as capacidades de raciocínio dos LLMs para tarefas complexas, com as quais o estímulo padrão não consegue lidar. As principais vantagens incluem:
Exemplos do mundo real:
A CoT é particularmente valiosa em domínios que exigem uma tomada de decisões fiável e complexa, como o apoio à análise de imagens médicas ou a modelação financeira, complementando os avanços em áreas como a visão por computador (CV), impulsionados por modelos como Ultralytics YOLO.
A solicitação de CoT está relacionada com outras técnicas de processamento de linguagem natural (PNL) e de aprendizagem automática (ML), mas distingue-se delas:
A solicitação de CoT representa um passo significativo para a construção de sistemas de Inteligência Artificial (IA) mais capazes e interpretáveis. Compreender e utilizar essas técnicas pode ser benéfico para o desenvolvimento de modelos sofisticados de IA, potencialmente aproveitando plataformas como o Ultralytics HUB para gerir a formação e a implementação. Técnicas como a autoconsistência podem melhorar ainda mais a CoT, recolhendo amostras de vários caminhos de raciocínio e selecionando a resposta mais consistente.