术语表

BERT(来自变压器的双向编码器表示法)

探索谷歌革命性的 NLP 模型 BERT。了解其双向语境理解如何改变搜索和聊天机器人等人工智能任务。

BERT是Bidirectional Encoder Representations from Transformers的缩写,是谷歌开发的一种革命性语言模型。BERT 在 2018 年的一篇研究论文中提出,它是第一个能够根据单词周围的环境从左侧和右侧(双向)理解单词上下文的模型,从而改变了自然语言处理(NLP)领域。这种把握上下文的能力使 BERT 能够比以前的模型更有效地捕捉人类语言的细微差别,以前的模型通常只从单一方向处理文本。它是大语言模型(LLM)的一种,被认为是许多现代 NLP 应用的基础技术。

伯特如何工作

BERT 的核心创新在于其基于Transformer架构的双向训练方法。与早期按顺序阅读文本的模型不同,BERT 的注意力机制允许它一次性考虑整个句子。为了在预训练期间实现这种双向理解,BERT 使用了两种主要策略:

  1. 屏蔽语言模型(MLM):在这项任务中,句子中的一些单词被随机隐藏起来,或者说被 "遮蔽 "起来,而模型的任务就是根据周围未被遮蔽的单词来预测原来被遮蔽的单词。这就迫使模型从两个方向学习深层的上下文关系。
  2. 下一句预测 (NSP):给模型两个句子,模型必须预测第二个句子在逻辑上是否紧跟原文中的第一个句子。这有助于 BERT 理解句子关系,这对问题解答和段落分析等任务至关重要。

在海量文本语料库上进行广泛的预训练后,BERT 可以通过一个称为微调的过程,针对特定任务进行调整。这包括在较小的、针对特定任务的数据集上进一步训练模型,使其成为开发人员和研究人员高度通用的工具。许多预先训练好的 BERT 模型都可以通过Hugging Face 等平台获取。

实际应用

BERT 理解语言细微差别的能力已在现实世界的各种人工智能 (AI)应用中取得了重大改进:

  • 搜索引擎谷歌搜索采用了著名的 BERT 来更好地理解用户查询,尤其是会话查询或复杂查询,从而获得更相关的搜索结果。例如,BERT 通过理解 "for "和 "to "等介词的重要性,帮助把握 "can you get medicine for someone pharmacy "等搜索背后的意图。
  • 聊天机器人和虚拟助理BERT 可增强聊天机器人和虚拟助理的能力,使其更准确地理解用户请求,在对话中保持语境,并在客户服务、预订系统和信息检索中提供更有用的回复。
  • 情感分析企业使用基于 BERT 的模型来分析客户评论、社交媒体评论和调查回复,从而更准确地衡量公众意见和产品反馈。
  • 文本摘要和问题解答可以对 BERT 进行微调,以创建自动总结长文档或根据给定文本段回答问题的系统。这是以斯坦福问题解答数据集(SQuAD)等数据集为基准的。

伯特与其他机型对比

必须将 BERT 与其他人工智能模型区分开来:

Ultralytics HUB等平台有助于训练部署各种人工智能模型,包括基于 Transformer 原理构建的模型。BERT 和类似模型的开发通常涉及PyTorchTensorFlow 等标准机器学习框架。

加入 Ultralytics 社区

加入人工智能的未来。与全球创新者联系、合作和成长

立即加入
链接复制到剪贴板