Descubra las causas de las alucinaciones en los modelos de lenguaje grandes (LLM) y explore estrategias eficaces para mitigar las imprecisiones en el contenido generado por la IA.
En el contexto de grandes modelos lingüísticos (LLM)se produce una alucinación cuando un modelo generativo produce un contenido seguro y sintácticamente fluido pero pero incorrecto en cuanto a los hechos, sin sentido o infiel al material de origen. A diferencia de los errores estándar de recuperación de bases de datos las alucinaciones en IA Generativa son suelen sonar plausibles, lo que dificulta su detect por parte de los usuarios sin una verificación independiente. Este fenómeno Este fenómeno se debe al diseño fundamental de estos modelos, que dan prioridad a las alucinaciones. generación de texto basada en probabilidad estadística en lugar de la validación de la verdad. Comprender las alucinaciones es fundamental para desplegar sistemas de IA seguros, sobre todo en sectores de alto riesgo como la sanidad, las finanzas y los servicios jurídicos.
La causa principal de la alucinación radica en la Transformador y en los objetivos de entrenamiento utilizados para construir los modelos de base. Estos sistemas se entrenan para predecir el próximo token en una secuencia basada en patrones aprendidos a partir de grandes cantidades de datos de entrenamiento. No poseen un concepto inherente de "realidad" o "ficción", sino que modelan la probabilidad de que las palabras aparezcan juntas. probabilidad de que las palabras aparezcan juntas.
Varios factores contribuyen a este comportamiento:
Las alucinaciones pueden manifestarse de diversas formas, desde sutiles inexactitudes hasta fabricaciones completas:
ultralytics.detect_everything()) basándose en las convenciones de nomenclatura estándar que ha visto en sus
datos de entrenamiento, aunque esa función específica nunca se haya implementado.
Reducir las alucinaciones es uno de los principales objetivos de seguridad de la IA de la IA. Varias técnicas se emplean actualmente para aterrizar los modelos en la realidad:
Una forma eficaz de mitigar las alucinaciones en los flujos de trabajo multimodales es utilizar un detección de objetos para verificar el contenido físico de una imagen antes de que un LLM la describa. Al introducir en el contexto del LLM una lista verificada de objetos del LLM, se evita que invente elementos que no existen.
El siguiente ejemplo muestra cómo utilizar Ultralytics YOLO11 para generar una para generar una lista de objetos que puede servir como restricción factual para un modelo generativo.
from ultralytics import YOLO
# Load the official YOLO11 model
model = YOLO("yolo11n.pt")
# Run inference on an image to get factual data
results = model("https://ultralytics.com/images/bus.jpg")
# Extract the class names of detected objects to ground the LLM
detected_objects = [model.names[int(c)] for c in results[0].boxes.cls]
# This list prevents the LLM from hallucinating objects not present
print(f"Verified Objects: {detected_objects}")
# Output: Verified Objects: ['bus', 'person', 'person', 'person', 'person']
Es importante distinguir las alucinaciones de otros tipos de errores de IA:
Para obtener más información sobre la evaluación de modelos generativos, consulte la página Marco de gestión de riesgos de la IA del NIST ofrece una visión completa de las normas de fiabilidad y seguridad. Además, los investigadores siguen desarrollando algoritmos de verificación de hechos para detect y marcar automáticamente contenidos alucinatorios en tiempo real.