了解大型语言模型 (LLM) 中产生幻觉的原因,并探索有效策略来减少 AI 生成内容中的不准确之处。
在以下方面 大型语言模型(LLMs)在大型语言模型(LLMs)中,当生成模型生成的内容自信且句法流畅,但却与源材料事实不符、无意义或不真实时,就会产生幻觉。 在大型语言模型(LLM)中,当生成模型生成的内容自信且句法流畅,但与事实不符、无意义或不忠于源材料时,就会出现幻觉。与标准的数据库检索错误不同、 生成式人工智能中的幻觉 生成式人工智能是 与标准的数据库检索错误不同,生成式人工智能中的detect 往往听起来似是而非,因此用户很难在没有独立验证的情况下detect 它们。这种现象 源于这些模型的基本设计,它们优先考虑的是 文本生成基于 统计概率生成文本,而不是进行真相验证。理解幻觉对于部署安全的人工智能 系统至关重要,尤其是在医疗保健、金融和法律服务等高风险行业。
产生幻觉的主要原因在于 Transformer架构和 用于建立基础模型的训练目标。这些系统的训练目的是预测下一个 标记预测序列中的下一个标记。 从大量 训练数据.它们并不具备 "事实 "或 "虚构 "的固有概念;相反,它们模拟的是 词出现在一起的可能性。
造成这种行为的因素有几个:
幻觉的表现形式多种多样,既有细微的不准确,也有完全的捏造:
ultralytics.detect_everything())是基于它在训练数据中看到的标准命名规则。
的标准命名规则,即使该特定函数从未被执行过。
减少幻觉是 人工智能安全研究的重点。目前有几种技术 目前采用了几种技术,使模型与现实接轨:
在多模态工作流程中减少幻觉的有效方法之一是使用高精度的 物体检测模型来验证 图像的物理内容。通过向 LLM 的上下文输入经过验证的对象列表 上下文,就能防止它编造出不存在的元素。
下面的示例演示了如何使用 Ultralytics YOLO11生成一个 对象的真实列表,然后将其作为生成模型的事实约束。
from ultralytics import YOLO
# Load the official YOLO11 model
model = YOLO("yolo11n.pt")
# Run inference on an image to get factual data
results = model("https://ultralytics.com/images/bus.jpg")
# Extract the class names of detected objects to ground the LLM
detected_objects = [model.names[int(c)] for c in results[0].boxes.cls]
# This list prevents the LLM from hallucinating objects not present
print(f"Verified Objects: {detected_objects}")
# Output: Verified Objects: ['bus', 'person', 'person', 'person', 'person']
必须将幻觉与其他类型的人工智能错误区分开来:
有关评估生成模型的更多信息,请访问 NIST 人工智能风险管理框架 全面了解可靠性和安全性标准。此外,研究人员还在继续开发 事实检查算法 实时detect 和标记幻觉内容。

