探索大型语言模型中AI幻觉的成因与风险。了解如何通过Ultralytics 结合RAG、RLHF和接地技术来降低事实性错误。
在人工智能(AI)领域,幻觉现象指大型语言模型(LLM)生成内容时出现的情况:这些内容语法正确且充满自信,但事实错误、毫无意义或与原始输入不符。 与可能导致崩溃或可见故障的标准软件错误不同,产生幻觉的模型如同可信的造假者,以与真实事实同等的权威性呈现虚假信息。这对在医疗、法律和金融等数据完整性至关重要的敏感领域部署生成式AI的企业构成了重大挑战。
要理解模型为何会产生幻觉,了解其构建方式很有帮助。大型语言模型通常基于 Transformer 架构,本质上是 精密的预测引擎。它不查询结构化数据库中的验证事实,而是基于训练数据推导出的统计概率 预测序列中的下一个词元。
多种因素促成了这种行为:
幻觉的表现形式多种多样,从无害的创意润色到严重的事实错误:
降低幻觉频率是人工智能安全领域的重要关注点。工程师和研究人员采用多种技术将模型锚定于现实:
在多模态人工智能系统中,文本生成可通过视觉数据实现锚定。若要求大型语言模型描述场景,其可能虚构不存在的物体。通过集成YOLO26等高精度物体检测器,开发者可向语言模型提供实际存在的物体清单,严格限制其输出内容仅限于经检测验证的物体。
以下Python 展示了如何使用 ultralytics 用于提取经验证的对象列表的包,
该列表可作为语言模型提示的实际约束条件。
from ultralytics import YOLO
# Load the YOLO26n model (latest generation, efficient and accurate)
model = YOLO("yolo26n.pt")
# Run inference on an image to get ground-truth detections
results = model("https://ultralytics.com/images/bus.jpg")
# Extract the class names of actually detected objects
detected_objects = [model.names[int(c)] for c in results[0].boxes.cls]
# This factual list prevents the LLM from hallucinating items
print(f"Verified Objects for Prompt Context: {detected_objects}")
# Output example: ['bus', 'person', 'person', 'person', 'person']
区分幻觉与其他常见AI错误至关重要:
对于希望管理数据集并训练模型以确保数据完整性、防止下游错误的用户Ultralytics 提供了全面的标注与数据集管理工具。此外,NIST人工智能风险管理框架的指导原则为生产环境中评估和缓解这些风险提供了标准依据。