大規模言語モデル(LLM)におけるハルシネーションの原因を解明し、AI生成コンテンツの不正確さを軽減するための効果的な戦略を探求します。
という文脈では 大規模言語モデル(LLM)幻覚は、生成モデルが、自信に満ち、構文的には流暢だが、事実的には不正確で、原文に忠実でないコンテンツを生成するときに起こる。 を生成するときに発生する。標準的なデータベース検索エラーとは異なる、 における幻覚は 生成AIは もっともらしく聞こえることが多いため、ユーザーが独自の検証なしにdetect するのは難しい。この現象は この現象は、これらのモデルの基本的な設計に起因している。 テキスト生成に基づく この現象は、これらのモデルの基本的な設計に起因している。幻覚を理解することは、安全なAI システム、特に医療、金融、法律サービスのようなリスクの高い業界において重要である。
幻覚の主な原因は次のようなものである。 トランスフォーマーアーキテクチャと 基礎モデルを構築するために使用されるトレーニング目標にある。これらのシステムは、次の トークンを予測するように訓練される。 膨大な量の 学習データ.事実」や「虚構」という固有の概念を持たず、むしろ、単語が一緒に現れる可能性をモデル化する。 単語が一緒に現れる可能性をモデル化する。
この行動にはいくつかの要因がある:
幻覚は、微妙な不正確さから完全な作り話まで、さまざまな形で現れる:
ultralytics.detect_everything()トレーニングデータで見た標準的な命名規則に基づいている。
という標準的な命名規則に基づいている。
幻覚の軽減は、この分野の主要な焦点である。 AIセーフティの研究である。現在 が採用されている:
マルチモーダルワークフローにおける幻覚を軽減する効果的な方法の1つは、高精度の 物体検出モデルを使用して 高精度オブジェクト検出モデルを使用することです。検証されたオブジェクトのリストをLLMの コンテキストに送り込むことで、LLMがそこにない要素を作り出さないようにします。
次の例は Ultralytics YOLO11を使用して 生成モデルのための事実上の制約として機能することができます。
from ultralytics import YOLO
# Load the official YOLO11 model
model = YOLO("yolo11n.pt")
# Run inference on an image to get factual data
results = model("https://ultralytics.com/images/bus.jpg")
# Extract the class names of detected objects to ground the LLM
detected_objects = [model.names[int(c)] for c in results[0].boxes.cls]
# This list prevents the LLM from hallucinating objects not present
print(f"Verified Objects: {detected_objects}")
# Output: Verified Objects: ['bus', 'person', 'person', 'person', 'person']
幻覚を他のタイプのAIエラーと区別することは重要である:
ジェネレーティブ・モデルの評価については、以下の文献を参照されたい。 NIST AIリスク管理フレームワーク では、信頼性と安全性の基準について包括的に見ることができる。さらに、研究者たちは ファクトチェックアルゴリズム を開発し続けている。


