Yolo Vision Shenzhen
Shenzhen
Junte-se agora
Glossário

Prompting de Cadeia de Pensamento

Aprimore o raciocínio da IA com o prompting de cadeia de pensamento! Melhore a precisão, a transparência e a retenção de contexto para tarefas complexas de várias etapas.

O estímulo da cadeia de pensamento (CoT) é uma técnica sofisticada de engenharia de prontidão concebida para melhorar as capacidades de raciocínio de modelos de linguagem de grande porte (LLMs). Em vez de em vez de pedir a um modelo de IA que forneça uma resposta imediata a uma pergunta complexa, a solicitação CoT instrui o modelo a dividir o problema numa série de passos lógicos intermédios. problema numa série de passos intermédios e lógicos. Este método imita os processos humanos de resolução de problemas, permitindo que o modelo "pense em voz alta" antes de chegar a uma conclusão final. Ao gerar uma sequência de de passos de raciocínio, o modelo pode melhorar significativamente o seu desempenho em tarefas que exijam aritmética, raciocínio raciocínio e lógica simbólica. Esta abordagem foi popularizada pelos investigadores do Google Brain, demonstrando que os processos de pensamento estruturados conduzem a resultados mais fiáveis e precisos da resultados de Inteligência Artificial (IA) mais fiáveis e precisos.

Mecanismos da cadeia de pensamento

A eficácia da CoT reside na sua capacidade de decompor tarefas complexas em componentes geríveis. Isto não só ajuda o modelo a manter a coerência, mas também proporciona transparência sobre a forma como uma resposta foi obtida, um fator-chave na IA explicável (XAI). Existem duas formas principais de implementar esta estratégia:

  • CoT de disparo zero: Isto envolve anexar uma frase de ativação como "Vamos pensar passo a passo" no final de uma mensagem. Tal como descrito na investigação sobre sobre Zero-Shot Reasoners, esta instrução simples ativa as capacidades de raciocínio do modelo do modelo sem precisar de exemplos específicos, aproveitando a aprendizagem zero-shot para lidar com tarefas novas.
  • CdT de poucas perguntas: Neste cenário, o prompt inclui alguns exemplos de perguntas emparelhadas com as suas soluções passo-a-passo. Isto utiliza a aprendizagem de poucos exemplos, em que o modelo aprende o modelo aprende o padrão de raciocínio do contexto fornecido e aplica-o à nova entrada.

Aplicações no Mundo Real

A sugestão de cadeia de pensamento está a transformar a forma como os programadores criam aplicações em vários domínios, particularmente onde a precisão e a lógica são fundamentais.

  1. Análise de dados complexos: Em domínios como as finanças ou a análise de dados, a CoT é utilizada para orientar modelos através de cálculos em várias fases. Por exemplo, um analista pode pedir a uma IA que "Primeiro extraia os valores das receitas para o primeiro trimestre, depois ajustar a inflação usando o índice CPI e, finalmente, comparar a taxa de crescimento com o ano fiscal anterior. ano fiscal anterior". Esta abordagem estruturada reduz os erros de cálculo comuns nas solicitações de resposta direta.
  2. Geração e depuração de código: Os programadores utilizam o CoT para gerar código robusto para visão por computador (CV) tarefas. Em vez de simplesmente pedir um script, um utilizador pode pedir ao modelo para delinear a lógica para carregar um conjunto de dados, configurar a arquitetura do modelo e executar o ciclo de treino. Isso garante que os scripts gerados para bibliotecas como ultralytics são logicamente sólidos e sintaticamente corretos.

Exemplo de código

Embora a CoT seja uma técnica baseada em texto, é frequentemente utilizada para gerar código Python correto para fluxos de trabalho de aprendizagem automática para fluxos de trabalho de aprendizagem automática. O exemplo seguinte demonstra como estruturar uma cadeia de prompt em Python para obter uma solução passo-a-passo para utilizar o YOLO11 para detect objectos.

# Example of a Chain-of-Thought prompt structure for generating YOLO11 code
prompt = """
Task: Write a Python script to detect objects in a video stream using YOLO11.

Chain of Thought:
1. Import the YOLO class from the ultralytics package.
2. Load the pre-trained 'yolo11n.pt' model weights.
3. Define the source as '0' for the webcam or a video file path.
4. Run the predict() method with show=True to visualize results in real-time.

Now, generate the Python code based on these steps.
"""

print(f"Sending the following prompt to LLM:\n{prompt}")

Comparação com Conceitos Relacionados

É importante distinguir o estímulo da cadeia de pensamento de outras técnicas de aprendizagem automática (ML):

  • Encadeamento de prompts: Enquanto a CoT ocorre dentro de um único ciclo de prompt-resposta, o encadeamento de prompts envolve a quebra de uma tarefa numa sequência de chamadas API separadas, em que a saída de um prompt se torna a entrada para o próximo. O CoT centra-se no raciocínio interno raciocínio interno, enquanto o encadeamento se concentra na orquestração do fluxo de trabalho.
  • Geração Aumentada por Recuperação (RAG): A RAG envolve a obtenção de dados externos para fundamentar o conhecimento do modelo antes de gerar uma resposta. A CoT pode ser pode ser combinada com RAG (por exemplo, "Primeiro, obter o documento, depois raciocinar sobre o seu conteúdo"), mas CoT refere-se especificamente à estrutura de raciocínio e não ao mecanismo de recuperação de dados.
  • Sintonização rápida: Trata-se de uma afinação eficiente de parâmetros (PEFT) que optimiza prompts (vectores) suaves contínuos durante o treino. Em contraste, o CoT é uma estratégia discreta de discreta e em linguagem natural aplicada em tempo de inferência sem alterar os pesos pesos do modelo.

Ao integrar a solicitação da Cadeia de Pensamento, os programadores podem desbloquear todo o potencial da IA generativa, garantindo que os modelos não só fornecem respostas, mas também demonstram a validade lógica das suas soluções. Isto é essencial para a implementação de agentes de agentes de IA fiáveis em ambientes críticos.

Junte-se à comunidade Ultralytics

Junte-se ao futuro da IA. Conecte-se, colabore e cresça com inovadores globais

Junte-se agora