探索LLM中AI幻觉的成因和风险。了解如何使用RAG、RLHF以及通过Ultralytics YOLO26进行接地来缓解事实错误。
在人工智能 (AI)领域,幻觉是指大语言模型 (LLM)生成的内容在语法上正确且自信,但事实不准确、毫无意义或与源输入不符的现象。与可能导致崩溃或可见故障的标准软件错误不同,出现幻觉的模型表现得像一个令人信服的编造者,以与有效事实相同的权威性呈现虚假信息。这给在医疗保健、法律和金融等对数据完整性至关重要的敏感领域部署生成式AI的组织带来了重大挑战。
为了理解模型产生幻觉的原因,了解它们的构建方式会很有帮助。大型语言模型 (LLM) 通常基于 Transformer 架构,该架构充当复杂的预测引擎。模型不是查询经过验证事实的结构化数据库,而是根据从其 训练数据 中得出的统计概率来预测序列中的下一个 token。
导致这种行为的因素有:
幻觉可以通过多种方式表现出来,从无害的创意修饰到严重的客观错误:
减少幻觉的频率是AI安全的一个主要关注点。工程师和研究人员采用多种技术使模型立足于现实:
在多模态AI系统中,文本生成可以通过视觉数据进行“接地”(grounded)。如果要求LLM描述一个场景,它可能会幻觉出不存在的物体。通过集成像YOLO26这样的高精度目标detect器,开发者可以向LLM提供一个现有物体的真实列表,严格将其输出限制在经过验证的detections范围内。
以下python示例展示了如何使用 ultralytics 包来提取一个经过验证的物体列表,然后可以作为语言模型提示的事实约束。
from ultralytics import YOLO
# Load the YOLO26n model (latest generation, efficient and accurate)
model = YOLO("yolo26n.pt")
# Run inference on an image to get ground-truth detections
results = model("https://ultralytics.com/images/bus.jpg")
# Extract the class names of actually detected objects
detected_objects = [model.names[int(c)] for c in results[0].boxes.cls]
# This factual list prevents the LLM from hallucinating items
print(f"Verified Objects for Prompt Context: {detected_objects}")
# Output example: ['bus', 'person', 'person', 'person', 'person']
将幻觉与其他常见的AI错误区分开来很重要:
对于那些希望管理数据集并训练具有高数据完整性模型以防止下游错误的用户,Ultralytics Platform提供了全面的标注和数据集管理工具。此外,NIST AI风险管理框架的指导为评估和减轻生产环境中的这些风险提供了标准。

开启您的机器学习未来之旅