Explora las causas y los riesgos de las alucinaciones de IA en los modelos de lenguaje grande (LLM). Aprende a mitigar los errores fácticos utilizando RAG, RLHF y el método de fundamentación con Ultralytics .
En el ámbito de la inteligencia artificial (IA), una alucinación se refiere a un fenómeno en el que un gran modelo de lenguaje (LLM) genera contenido que es seguro y sintácticamente correcto, pero inexacto en cuanto a los hechos, sin sentido o infiel a la fuente de entrada. A diferencia de los errores de software estándar que pueden provocar un bloqueo o un fallo visible, un modelo alucinante se comporta como un fabricante convincente, presentando información falsa con la misma autoridad que los hechos válidos. Esto plantea importantes retos para las organizaciones que implementan IA generativa en campos sensibles como la sanidad, el derecho y las finanzas, donde la integridad de los datos es primordial.
Para entender por qué los modelos tienen alucinaciones, es útil fijarse en cómo están construidos. Los LLM se basan normalmente en la arquitectura Transformer, que funciona como un sofisticado motor de predicción. En lugar de consultar una base de datos estructurada de hechos verificados, el modelo predice el siguiente token de una secuencia basándose en probabilidades estadísticas derivadas de sus datos de entrenamiento.
Hay varios factores que impulsan este comportamiento:
Las alucinaciones pueden manifestarse de diversas formas, desde inofensivos adornos creativos hasta graves errores fácticos:
Reducir la frecuencia de las alucinaciones es uno de los principales objetivos de la seguridad de la IA. Los ingenieros e investigadores emplean varias técnicas para basar los modelos en la realidad:
En los sistemas de IA multimodal, la generación de texto puede basarse en datos visuales. Si se le pide a un LLM que describa una escena, podría alucinar objetos que no están allí. Al integrar un detector de objetos de alta precisión como YOLO26, los desarrolladores pueden proporcionar al LLM una lista factual de los objetos presentes, limitando estrictamente su salida a las detecciones verificadas .
El siguiente Python muestra cómo utilizar el ultralytics paquete para extraer una lista verificada de
objetos, que luego puede servir como una restricción factual para una indicación del modelo de lenguaje.
from ultralytics import YOLO
# Load the YOLO26n model (latest generation, efficient and accurate)
model = YOLO("yolo26n.pt")
# Run inference on an image to get ground-truth detections
results = model("https://ultralytics.com/images/bus.jpg")
# Extract the class names of actually detected objects
detected_objects = [model.names[int(c)] for c in results[0].boxes.cls]
# This factual list prevents the LLM from hallucinating items
print(f"Verified Objects for Prompt Context: {detected_objects}")
# Output example: ['bus', 'person', 'person', 'person', 'person']
Es importante distinguir las alucinaciones de otros errores comunes de la IA:
Para aquellos que buscan gestionar conjuntos de datos y entrenar modelos con una alta integridad de datos para evitar errores posteriores, Ultralytics ofrece herramientas completas para la anotación y la gestión de conjuntos de datos. Además, la orientación del Marco de Gestión de Riesgos de IA del NIST proporciona normas para evaluar y mitigar estos riesgos en entornos de producción.
Comience su viaje con el futuro del aprendizaje automático