Descubra como a Chain of Verification (CoVe) reduz as alucinações dos modelos de linguagem de grande escala (LLM). Aprenda a melhorar a precisão factual utilizando esta técnica de engenharia de prompts com Ultralytics .
A Cadeia de Verificação (CoVe) é uma técnica avançada de engenharia de prompts concebida para reduzir imprecisões e erros factuais nas saídas de Grandes Modelos de Linguagem (LLMs) . À medida que os sistemas de inteligência artificial se tornam mais complexos, a sua tendência para gerar informações falsas com confiança — um fenómeno conhecido como alucinação de LLM — continua a ser um desafio significativo. A CoVe resolve este problema obrigando o modelo a verificar sistematicamente a veracidade das suas próprias respostas iniciais antes de apresentar uma resposta final ao utilizador. Este mecanismo de autocorreção melhora significativamente a fiabilidade das aplicações de IA generativa em diversos setores.
A metodologia CoVe divide o processo de geração em quatro etapas distintas e sequenciais. Esta abordagem estruturada espelha os fluxos de trabalho de verificação de factos realizados por humanos e é ativamente investigada por organizações líderes em IA para melhorar a segurança e a consistência da IA .
Embora o CoVe seja frequentemente comparado ao Chain-of-Thought Prompting , os dois têm propósitos diferentes. O Chain-of-Thought incentiva um modelo a "mostrar o seu raciocínio" decompondo o raciocínio lógico complexo em componentes passo a passo para resolver um problema. Em contraste, o Chain of Verification visa especificamente a precisão factual, auditando e revendo as afirmações após a produção de um rascunho. Além disso, o CoVe pode ser combinado com pipelines de Retrieval-Augmented Generation (RAG) , onde a etapa de verificação extrai dados de referência de uma base de dados vetorial externa, em vez de depender exclusivamente dos pesos internos do modelo.
O CoVe é extremamente benéfico em domínios onde a precisão factual é crucial. Ao integrar este ciclo de autoverificação, os programadores podem confiar nos sistemas de inteligência artificial para tarefas de maior impacto.
Para melhorar a etapa "Executar" do CoVe, os programadores podem consultar modelos de aprendizagem automática fiáveis para obter dados de referência. Por exemplo, utilizando Ultralytics YOLO26 para deteção de objetos , um modelo de aprendizagem automática pode verificar afirmações físicas sobre uma imagem. As equipas podem gerir estes conjuntos de dados e implementar estes modelos de visão de forma eficiente, utilizando a plataforma intuitiva Ultralytics .
O seguinte exemplo Python demonstra como usar o ultralytics pacote para extrair uma lista verificada de objetos, que pode servir como fonte de fundamentação factual para um LLM que executa um passo de Cadeia de Verificação.
from ultralytics import YOLO
# Load the YOLO26n model to act as a factual verification source
model = YOLO("yolo26n.pt")
# Run inference on an image to get ground-truth detections
results = model("https://ultralytics.com/images/bus.jpg")
# Extract the class names of actually detected objects for CoVe grounding
detected_objects = [model.names[int(c)] for c in results[0].boxes.cls]
# Pass this factual list to the LLM during its verification execution step
print(f"CoVe Ground Truth Facts: {detected_objects}")
# Output example: ['bus', 'person', 'person', 'person', 'person']
Ao integrar resultados determinísticos de frameworks de visão de alto desempenho, como PyTorch , no pipeline do CoVe, os programadores podem reduzir drasticamente os erros generativos e criar aplicações de IA multimodais robustas e fiáveis.