Descubre cómo Chain of Verification (CoVe) reduce las alucinaciones de los modelos de lenguaje grande (LLM). Aprende a mejorar la precisión de los datos utilizando esta técnica de ingeniería de prompts con Ultralytics .
La Cadena de Verificación (CoVe) es una técnica avanzada de ingeniería de mensajes diseñada para reducir las imprecisiones y los errores fácticos en los resultados de los Modelos de Lenguaje a Gran Escala (LLM) . A medida que los sistemas de inteligencia artificial se vuelven más complejos, su tendencia a generar información falsa con confianza —un fenómeno conocido como alucinación de LLM— sigue siendo un desafío importante. CoVe aborda este problema obligando al modelo a verificar sistemáticamente sus respuestas iniciales antes de presentar una respuesta final al usuario. Este mecanismo de autocorrección mejora significativamente la fiabilidad de las aplicaciones de IA generativa en diversos sectores.
La metodología CoVe divide el proceso de generación en cuatro pasos distintos y secuenciales. Este enfoque estructurado reproduce los flujos de trabajo de verificación de datos humanos y es objeto de investigación activa por parte de organizaciones líderes en IA para mejorar la seguridad y la coherencia de la IA .
Aunque CoVe se suele comparar con la técnica de Cadena de Pensamiento (Chain-of-Thought Prompting) , ambas cumplen funciones distintas. La Cadena de Pensamiento anima a un modelo a "mostrar su proceso" desglosando razonamientos lógicos complejos en componentes paso a paso para resolver un problema. En cambio, la Cadena de Verificación se centra específicamente en la precisión de los hechos mediante la auditoría y revisión de afirmaciones tras la elaboración de un borrador. Además, CoVe puede combinarse con las canalizaciones de Generación Aumentada por Recuperación (RAG) , donde el paso de verificación extrae datos reales de una base de datos vectorial externa en lugar de depender únicamente de los pesos internos del modelo.
CoVe resulta muy beneficioso en ámbitos donde la precisión fáctica es fundamental. Al integrar este ciclo de autoverificación, los desarrolladores pueden confiar a los sistemas de inteligencia artificial tareas de mayor importancia.
Para optimizar el paso de "Ejecución" de CoVe, los desarrolladores pueden consultar modelos de aprendizaje automático autorizados para obtener datos de referencia. Por ejemplo, utilizando Ultralytics YOLO26 para la detección de objetos , un modelo de aprendizaje automático puede verificar las afirmaciones físicas sobre una imagen. Los equipos pueden gestionar de forma eficiente estos conjuntos de datos e implementar estos modelos de visión mediante la intuitiva plataforma Ultralytics .
El siguiente ejemplo Python muestra cómo utilizar la función ultralytics Paquete para extraer una lista verificada de objetos, que puede actuar como fuente de fundamento fáctico para un LLM que ejecuta un paso de Cadena de Verificación.
from ultralytics import YOLO
# Load the YOLO26n model to act as a factual verification source
model = YOLO("yolo26n.pt")
# Run inference on an image to get ground-truth detections
results = model("https://ultralytics.com/images/bus.jpg")
# Extract the class names of actually detected objects for CoVe grounding
detected_objects = [model.names[int(c)] for c in results[0].boxes.cls]
# Pass this factual list to the LLM during its verification execution step
print(f"CoVe Ground Truth Facts: {detected_objects}")
# Output example: ['bus', 'person', 'person', 'person', 'person']
Al integrar los resultados deterministas de marcos de visión de alto rendimiento como PyTorch en el flujo de trabajo de CoVe, los desarrolladores pueden reducir drásticamente los errores generativos y crear aplicaciones de IA multimodales robustas y confiables.