LLMにおけるAIのハルシネーションの原因とリスクを探求しましょう。RAG、RLHF、そしてUltralytics YOLO26を用いたグラウンディングを使用して、事実誤りを軽減する方法を学びます。
人工知能 (AI)の分野において、ハルシネーションとは、 大規模言語モデル (LLM)が、自信に満ちて文法的に正しいものの、事実と異なったり、無意味であったり、元の入力に忠実でなかったりするコンテンツを生成する現象を指します。クラッシュや目に見えるグリッチを引き起こす可能性のある標準的なソフトウェアエラーとは異なり、ハルシネーションを起こしているモデルは、説得力のある捏造者のように振る舞い、誤った情報を有効な事実と同じ権威をもって提示します。これは、データ整合性が最重要視される医療、法律、金融などの機密性の高い分野で 生成AIを導入する組織にとって、重大な課題となります。
モデルが幻覚を起こす理由を理解するには、それらがどのように構築されているかを見ると役立ちます。LLMは通常、洗練された予測エンジンとして機能するTransformerアーキテクチャに基づいています。検証済みの事実の構造化されたデータベースをクエリする代わりに、モデルはトレーニングデータから導き出された統計的確率に基づいて、シーケンス内の次のトークンを予測します。
この挙動を促進するいくつかの要因があります。
ハルシネーションは、無害な創造的装飾から深刻な事実誤認まで、さまざまな形で現れる可能性があります。
ハルシネーションの頻度を減らすことは、AI安全性の主要な焦点です。エンジニアと研究者は、モデルを現実に根付かせるためにいくつかの手法を採用しています。
マルチモーダルAIシステムでは、テキスト生成は視覚データに基づいて行われます。LLMがシーンを記述するよう求められた場合、存在しないオブジェクトを幻覚する可能性があります。YOLO26のような高精度な物体検出器を統合することで、開発者はLLMに存在するオブジェクトの事実に基づいたリストを提供し、その出力を検証済みのdetectionsに厳密に制限できます。
以下のpythonの例は、 ultralytics 検証済みのオブジェクトリストを抽出するためのパッケージ。これはその後、言語モデルのプロンプトにとって事実上の制約として機能しうるものです。
from ultralytics import YOLO
# Load the YOLO26n model (latest generation, efficient and accurate)
model = YOLO("yolo26n.pt")
# Run inference on an image to get ground-truth detections
results = model("https://ultralytics.com/images/bus.jpg")
# Extract the class names of actually detected objects
detected_objects = [model.names[int(c)] for c in results[0].boxes.cls]
# This factual list prevents the LLM from hallucinating items
print(f"Verified Objects for Prompt Context: {detected_objects}")
# Output example: ['bus', 'person', 'person', 'person', 'person']
ハルシネーションと他の一般的なAIエラーを区別することが重要です。
下流のエラーを防ぐために、高いデータ整合性をもってデータセットを管理し、モデルを学習させたい方には、Ultralytics Platformがアノテーションとデータセット管理のための包括的なツールを提供します。さらに、NIST AIリスク管理フレームワークからのガイダンスは、プロダクション環境におけるこれらのリスクを評価し、軽減するための標準を提供します。

未来の機械学習で、新たな一歩を踏み出しましょう。