Изучите причины и риски галлюцинаций ИИ в LLM. Узнайте, как уменьшить количество фактических ошибок с помощью RAG, RLHF и заземления с Ultralytics .
В области искусственного интеллекта (ИИ) галлюцинация означает явление, при котором большая языковая модель (LLM) генерирует контент, который выглядит достоверным и синтаксически правильным, но на самом деле является неточным, бессмысленным или неверным по отношению к исходному вводу. В отличие от стандартных ошибок программного обеспечения, которые могут привести к сбою или видимому сбою, галлюцинирующая модель ведет себя как убедительный фальсификатор, представляя ложную информацию с той же авторитетностью, что и достоверные факты. Это создает серьезные проблемы для организаций, использующих генеративный ИИ в таких чувствительных областях, как здравоохранение, право и финансы, где целостность данных имеет первостепенное значение.
Чтобы понять, почему модели галлюцинируют, полезно посмотреть, как они построены. LLM обычно основаны на архитектуре Transformer, которая функционирует как сложный механизм прогнозирования. Вместо запроса к структурированной базе данных проверенных фактов, модель предсказывает следующий токен в последовательности на основе статистических вероятностей , полученных из ее обучающих данных.
Это поведение обусловлено несколькими факторами:
Галлюцинации могут проявляться по-разному, от безобидных творческих приукрашиваний до серьезных фактических ошибок:
Снижение частоты галлюцинаций является основной задачей безопасности ИИ. Инженеры и исследователи используют несколько методов для привязки моделей к реальности:
В мультимодальных системах искусственного интеллекта генерация текста может быть основана на визуальных данных. Если LLM попросить описать сцену, он может галлюцинировать объекты, которых нет. Благодаря интеграции высокоточного детектора объектов, такого как YOLO26, разработчики могут предоставить LLM фактический список присутствующих объектов, строго ограничивая его вывод проверенными обнаружениями.
Следующий Python показывает, как использовать ultralytics пакет для извлечения проверенного списка
объектов, который затем может служить фактическим ограничением для подсказки языковой модели.
from ultralytics import YOLO
# Load the YOLO26n model (latest generation, efficient and accurate)
model = YOLO("yolo26n.pt")
# Run inference on an image to get ground-truth detections
results = model("https://ultralytics.com/images/bus.jpg")
# Extract the class names of actually detected objects
detected_objects = [model.names[int(c)] for c in results[0].boxes.cls]
# This factual list prevents the LLM from hallucinating items
print(f"Verified Objects for Prompt Context: {detected_objects}")
# Output example: ['bus', 'person', 'person', 'person', 'person']
Важно отличать галлюцинации от других распространенных ошибок ИИ:
Для тех, кто хочет управлять наборами данных и обучать модели с высокой целостностью данных, чтобы предотвратить ошибки на последующих этапах, Ultralytics предлагает комплексные инструменты для аннотирования и управления наборами данных. Кроме того, руководство NIST AI Risk Management Framework предоставляет стандарты для оценки и снижения этих рисков в производственных средах.
Начните свой путь в будущее машинного обучения