大規模言語モデル(LLM)におけるハルシネーションの原因を解明し、AI生成コンテンツの不正確さを軽減するための効果的な戦略を探求します。
大規模言語モデル(LLM)の文脈では、ハルシネーションとは、モデルが自信に満ち、もっともらしいように聞こえるテキストを生成するものの、事実として不正確であったり、意味不明であったり、提供されたソースデータに基づかない現象を指します。高度なテキスト生成のために設計されたこれらのモデルは、事実、ソース、または詳細を捏造し、それらを真実であるかのように提示することがあります。これは、LLMの主な目的が、一貫性のある文章を形成するためにシーケンス内の次の単語を予測することであり、生成する情報の真実性を検証することではないために発生します。生成AIをより信頼性の高いものにするには、ハルシネーションを理解し、軽減することが中心的な課題です。
ハルシネーションは意図的な欺瞞ではなく、LLMがどのように構築され、トレーニングされるかの副産物です。主な原因は次のとおりです。
研究者と開発者は、いくつかの軽減戦略に積極的に取り組んでいます。