Узнайте, что вызывает галлюцинации в больших языковых моделях (LLM), и изучите эффективные стратегии смягчения неточностей в контенте, сгенерированном AI.
В контексте Большие языковые модели (БЯМ)галлюцинация возникает, когда генеративная модель производит контент, который уверенно и синтаксически бегло, но но фактологически неверный, нелепый или неверный исходному материалу. В отличие от стандартных ошибок поиска в базе данных, галлюцинации в генеративный ИИ являются часто звучат правдоподобно, что затрудняет их detect пользователями без независимой проверки. Этот феномен обусловлено фундаментальным дизайном этих моделей, в которых приоритет отдается генерация текста на основе статистической вероятности, а не на проверке истинности. Понимание галлюцинаций имеет решающее значение для внедрения безопасных систем искусственного интеллекта особенно в таких ответственных отраслях, как здравоохранение, финансы и юридические услуги.
Основная причина галлюцинаций кроется в Трансформер архитектуре и Цели обучения, используемые для построения базовых моделей. Эти системы обучаются предсказывать следующий лексема в последовательности на основе шаблонов полученных из огромного количества обучающие данные. Они не обладают врожденной концепцией "факта" или "вымысла"; скорее, они моделируют вероятность того, что слова будут встречаться вместе.
Такое поведение обусловлено несколькими факторами:
Галлюцинации могут проявляться в различных формах, начиная от тонких неточностей и заканчивая полными выдумками:
ultralytics.detect_everything()), основываясь на стандартных соглашениях об именовании, которые он видел в своих
обучающих данных, даже если эта конкретная функция никогда не была реализована.
Уменьшение галлюцинаций является одним из основных направлений исследования в области безопасности искусственного интеллекта исследований. Несколько методов в настоящее время используется несколько методов, чтобы приземлить модели в реальность:
Одним из эффективных способов уменьшения галлюцинаций в мультимодальных рабочих процессах является использование высокоточного обнаружение объектов модель для проверки физического содержимого изображения до того, как LLM его опишет. Подача проверенного списка объектов в контекст LLM контекст, вы не позволите ему изобрести элементы, которых там нет.
Следующий пример демонстрирует, как использовать Ultralytics YOLO11 для создания список объектов, который затем может служить фактическим ограничением для генеративной модели.
from ultralytics import YOLO
# Load the official YOLO11 model
model = YOLO("yolo11n.pt")
# Run inference on an image to get factual data
results = model("https://ultralytics.com/images/bus.jpg")
# Extract the class names of detected objects to ground the LLM
detected_objects = [model.names[int(c)] for c in results[0].boxes.cls]
# This list prevents the LLM from hallucinating objects not present
print(f"Verified Objects: {detected_objects}")
# Output: Verified Objects: ['bus', 'person', 'person', 'person', 'person']
Важно отличать галлюцинации от других типов ошибок ИИ:
Чтобы узнать больше об оценке генеративных моделей, изучите NIST AI Risk Management Framework содержит исчерпывающий обзор стандартов надежности и безопасности. Кроме того, исследователи продолжают разрабатывать алгоритмы проверки фактов для автоматического detect и отметки галлюцинаторного контента в режиме реального времени.