Yolo Vision Shenzhen
Shenzhen
Junte-se agora
Glossário

Cadeia de Verificação (CoVe)

Descubra como a Chain of Verification (CoVe) reduz as alucinações dos modelos de linguagem de grande escala (LLM). Aprenda a melhorar a precisão factual utilizando esta técnica de engenharia de prompts com Ultralytics .

A Cadeia de Verificação (CoVe) é uma técnica avançada de engenharia de prompts concebida para reduzir imprecisões e erros factuais nas saídas de Grandes Modelos de Linguagem (LLMs) . À medida que os sistemas de inteligência artificial se tornam mais complexos, a sua tendência para gerar informações falsas com confiança — um fenómeno conhecido como alucinação de LLM — continua a ser um desafio significativo. A CoVe resolve este problema obrigando o modelo a verificar sistematicamente a veracidade das suas próprias respostas iniciais antes de apresentar uma resposta final ao utilizador. Este mecanismo de autocorreção melhora significativamente a fiabilidade das aplicações de IA generativa em diversos setores.

Como funciona o processo de verificação

A metodologia CoVe divide o processo de geração em quatro etapas distintas e sequenciais. Esta abordagem estruturada espelha os fluxos de trabalho de verificação de factos realizados por humanos e é ativamente investigada por organizações líderes em IA para melhorar a segurança e a consistência da IA ​​.

  • Elaborar uma resposta inicial : O modelo gera uma resposta básica para a consulta do utilizador. Esta versão preliminar pode conter afirmações não verificadas ou hipotéticas.
  • Questões para verificação do plano : O modelo analisa a sua própria versão preliminar e gera uma lista de questões específicas e dirigidas, elaboradas para verificar as afirmações factuais feitas no texto inicial.
  • Realizar verificações independentes : O modelo responde às questões de verificação de forma independente, sem depender do contexto do rascunho original. Isto impede que o modelo simplesmente confirme os seus próprios enviesamentos ou erros anteriores.
  • Gerar a Saída Final Verificada : Utilizando os factos recém-verificados, o modelo revê a versão inicial, removendo imprecisões e apresentando uma resposta refinada e verídica.

Diferenciando o CoVe de técnicas relacionadas

Embora o CoVe seja frequentemente comparado ao Chain-of-Thought Prompting , os dois têm propósitos diferentes. O Chain-of-Thought incentiva um modelo a "mostrar o seu raciocínio" decompondo o raciocínio lógico complexo em componentes passo a passo para resolver um problema. Em contraste, o Chain of Verification visa especificamente a precisão factual, auditando e revendo as afirmações após a produção de um rascunho. Além disso, o CoVe pode ser combinado com pipelines de Retrieval-Augmented Generation (RAG) , onde a etapa de verificação extrai dados de referência de uma base de dados vetorial externa, em vez de depender exclusivamente dos pesos internos do modelo.

Aplicações no Mundo Real

O CoVe é extremamente benéfico em domínios onde a precisão factual é crucial. Ao integrar este ciclo de autoverificação, os programadores podem confiar nos sistemas de inteligência artificial para tarefas de maior impacto.

  • Assistentes médicos e de saúde : Quando uma IA resume os sintomas do paciente ou a literatura médica, o CoVe garante que o sistema verifica as interações medicamentosas, as dosagens e os critérios de diagnóstico com base no conhecimento médico estabelecido antes de fornecer recomendações.
  • Relatórios Industriais Automatizados : Nas fábricas inteligentes, um LLM (Line Language Model) pode gerar um relatório resumido com base em registos de inspeção visual. Ao combinar o CoVe (Centro de Visão por Computador) com modelos de visão por computador , o modelo de linguagem pode consultar o sistema de visão para verificar se um defeito específico foi realmente detetado na linha de montagem antes de finalizar o relatório de manutenção diária.

Verificação de ligação à terra com modelos de visão

Para melhorar a etapa "Executar" do CoVe, os programadores podem consultar modelos de aprendizagem automática fiáveis ​​para obter dados de referência. Por exemplo, utilizando Ultralytics YOLO26 para deteção de objetos , um modelo de aprendizagem automática pode verificar afirmações físicas sobre uma imagem. As equipas podem gerir estes conjuntos de dados e implementar estes modelos de visão de forma eficiente, utilizando a plataforma intuitiva Ultralytics .

O seguinte exemplo Python demonstra como usar o ultralytics pacote para extrair uma lista verificada de objetos, que pode servir como fonte de fundamentação factual para um LLM que executa um passo de Cadeia de Verificação.

from ultralytics import YOLO

# Load the YOLO26n model to act as a factual verification source
model = YOLO("yolo26n.pt")

# Run inference on an image to get ground-truth detections
results = model("https://ultralytics.com/images/bus.jpg")

# Extract the class names of actually detected objects for CoVe grounding
detected_objects = [model.names[int(c)] for c in results[0].boxes.cls]

# Pass this factual list to the LLM during its verification execution step
print(f"CoVe Ground Truth Facts: {detected_objects}")
# Output example: ['bus', 'person', 'person', 'person', 'person']

Ao integrar resultados determinísticos de frameworks de visão de alto desempenho, como PyTorch , no pipeline do CoVe, os programadores podem reduzir drasticamente os erros generativos e criar aplicações de IA multimodais robustas e fiáveis.

Energize-se com o Ultralytics YOLO

Obtenha visão de IA avançada para seus projetos. Encontre a licença certa para seus objetivos hoje.

Explore as opções de licenciamento