发现大型语言模型 (LLM) 中产生幻觉的原因,并探索有效的策略来减少人工智能生成内容的不准确性。
在大语言模型(LLMs)中,幻觉指的是模型生成的文本听起来很有把握、很可信,但与事实不符、不合逻辑或不基于所提供的源数据的现象。这些专为高级文本生成而设计的模型有时会编造事实、来源或细节,把它们说得好像是真的一样。之所以会出现这种情况,是因为LLM 的主要目标是预测序列中的下一个单词,以形成连贯的句子,而不是验证所生成信息的真实性。理解并减少幻觉是让生成式人工智能更加可靠的核心挑战。
幻觉并非有意欺骗,而是建立和训练 LLM 的副产品。主要原因包括
研究人员和开发人员正在积极研究几种缓解策略: