Yolo Vision Shenzhen
Shenzhen
Únete ahora
Glosario

Cadena de verificación (CoVe)

Descubre cómo Chain of Verification (CoVe) reduce las alucinaciones de los modelos de lenguaje grande (LLM). Aprende a mejorar la precisión de los datos utilizando esta técnica de ingeniería de prompts con Ultralytics .

La Cadena de Verificación (CoVe) es una técnica avanzada de ingeniería de mensajes diseñada para reducir las imprecisiones y los errores fácticos en los resultados de los Modelos de Lenguaje a Gran Escala (LLM) . A medida que los sistemas de inteligencia artificial se vuelven más complejos, su tendencia a generar información falsa con confianza —un fenómeno conocido como alucinación de LLM— sigue siendo un desafío importante. CoVe aborda este problema obligando al modelo a verificar sistemáticamente sus respuestas iniciales antes de presentar una respuesta final al usuario. Este mecanismo de autocorrección mejora significativamente la fiabilidad de las aplicaciones de IA generativa en diversos sectores.

Cómo funciona el proceso de verificación

La metodología CoVe divide el proceso de generación en cuatro pasos distintos y secuenciales. Este enfoque estructurado reproduce los flujos de trabajo de verificación de datos humanos y es objeto de investigación activa por parte de organizaciones líderes en IA para mejorar la seguridad y la coherencia de la IA .

  • Borrador de respuesta inicial : El modelo genera una respuesta básica a la consulta del usuario. Este borrador puede contener afirmaciones no verificadas o inventadas.
  • Preguntas de verificación del plan : El modelo analiza su propio borrador y genera una lista de preguntas específicas y dirigidas, diseñadas para verificar las afirmaciones fácticas realizadas en el texto inicial.
  • Ejecutar verificaciones independientes : El modelo responde a las preguntas de verificación de forma independiente, sin depender del contexto del borrador original. Esto evita que el modelo simplemente confirme sus propios sesgos o errores anteriores.
  • Generar el resultado final verificado : Utilizando los datos recién verificados, el modelo revisa el borrador inicial, eliminando imprecisiones y presentando una respuesta refinada y veraz.

Diferenciando CoVe de técnicas relacionadas

Aunque CoVe se suele comparar con la técnica de Cadena de Pensamiento (Chain-of-Thought Prompting) , ambas cumplen funciones distintas. La Cadena de Pensamiento anima a un modelo a "mostrar su proceso" desglosando razonamientos lógicos complejos en componentes paso a paso para resolver un problema. En cambio, la Cadena de Verificación se centra específicamente en la precisión de los hechos mediante la auditoría y revisión de afirmaciones tras la elaboración de un borrador. Además, CoVe puede combinarse con las canalizaciones de Generación Aumentada por Recuperación (RAG) , donde el paso de verificación extrae datos reales de una base de datos vectorial externa en lugar de depender únicamente de los pesos internos del modelo.

Aplicaciones en el mundo real

CoVe resulta muy beneficioso en ámbitos donde la precisión fáctica es fundamental. Al integrar este ciclo de autoverificación, los desarrolladores pueden confiar a los sistemas de inteligencia artificial tareas de mayor importancia.

  • Asistentes médicos y sanitarios : Cuando una IA resume los síntomas del paciente o la literatura médica, CoVe garantiza que el sistema verifique las interacciones farmacológicas, las dosis y los criterios de diagnóstico comparándolos con el conocimiento médico establecido antes de proporcionar recomendaciones.
  • Informes industriales automatizados : En las fábricas inteligentes, un modelo de lenguaje natural (LLM) puede generar un informe resumido basado en registros de inspección visual. Al combinar CoVe con modelos de visión artificial , el modelo de lenguaje puede consultar al sistema de visión para verificar si se detectó un defecto específico en la línea de montaje antes de finalizar el informe de mantenimiento diario.

Verificación de fundamentos con modelos de visión

Para optimizar el paso de "Ejecución" de CoVe, los desarrolladores pueden consultar modelos de aprendizaje automático autorizados para obtener datos de referencia. Por ejemplo, utilizando Ultralytics YOLO26 para la detección de objetos , un modelo de aprendizaje automático puede verificar las afirmaciones físicas sobre una imagen. Los equipos pueden gestionar de forma eficiente estos conjuntos de datos e implementar estos modelos de visión mediante la intuitiva plataforma Ultralytics .

El siguiente ejemplo Python muestra cómo utilizar la función ultralytics Paquete para extraer una lista verificada de objetos, que puede actuar como fuente de fundamento fáctico para un LLM que ejecuta un paso de Cadena de Verificación.

from ultralytics import YOLO

# Load the YOLO26n model to act as a factual verification source
model = YOLO("yolo26n.pt")

# Run inference on an image to get ground-truth detections
results = model("https://ultralytics.com/images/bus.jpg")

# Extract the class names of actually detected objects for CoVe grounding
detected_objects = [model.names[int(c)] for c in results[0].boxes.cls]

# Pass this factual list to the LLM during its verification execution step
print(f"CoVe Ground Truth Facts: {detected_objects}")
# Output example: ['bus', 'person', 'person', 'person', 'person']

Al integrar los resultados deterministas de marcos de visión de alto rendimiento como PyTorch en el flujo de trabajo de CoVe, los desarrolladores pueden reducir drásticamente los errores generativos y crear aplicaciones de IA multimodales robustas y confiables.

Potencia con Ultralytics YOLO

Obtenga visión artificial avanzada para sus proyectos. Encuentre la licencia adecuada para sus objetivos hoy mismo.

Explore las opciones de licencia