敬请关注 YOLO Vision 2025!
2025年9月25日
英国夏令时 10:00 - 18:00
混合活动
Yolo Vision 2024
词汇表

BERT(来自 Transformers 的双向编码器表示)

探索 Google 革命性的 NLP 模型 BERT。 了解其双向上下文理解如何改变 AI 任务,如搜索和聊天机器人。

BERT(Bidirectional Encoder Representations from Transformers,来自 Transformer 的双向编码器表征)是由 Google 开发的革命性语言模型。BERT 于 2018 年在一篇研究论文中被提出,它是第一个能够根据单词的左右两侧环境(双向地)理解单词上下文的模型,从而改变了自然语言处理 (NLP)领域。这种理解上下文的能力使 BERT 能够比以前通常以单一方向处理文本的模型更有效地捕捉人类语言的细微差别。它是一种大型语言模型 (LLM),被认为是许多现代 NLP 应用的基础技术。

Bert 如何工作

BERT 的核心创新在于其双向训练方法,该方法建立在 Transformer 架构之上。与早期按顺序读取文本的模型不同,BERT 的 注意力机制 允许它一次考虑整个句子。为了在预训练期间实现这种双向理解,BERT 使用了两种主要策略:

  1. Masked Language Model (MLM)(掩码语言模型): 在此任务中,句子中的一些单词被随机隐藏或“掩盖”,模型的工作是根据周围未掩盖的单词预测原始掩盖的单词。这迫使模型从两个方向学习深层上下文关系。
  2. 下一句预测 (NSP): 该模型被赋予两个句子,并且必须预测第二个句子是否是在原始文本中逻辑上跟随第一个句子的句子。这有助于 BERT 理解句子关系,这对于诸如问答和段落分析等任务至关重要。

在对大量文本语料库进行广泛的预训练之后,可以通过称为微调的过程来调整 BERT 以适应特定任务。这涉及在较小的、特定于任务的数据集上进一步训练模型,使其成为开发人员和研究人员的高度通用工具。许多预训练的 BERT 模型可以通过Hugging Face等平台访问。

实际应用

BERT 理解语言细微差别的能力已显著改进各种实际的 人工智能 (AI) 应用:

  • 搜索引擎: 谷歌搜索 (Google Search) 巧妙地结合了 BERT,可以更好地理解用户的查询,尤其是会话式或复杂的查询,从而获得更相关的搜索结果。例如,BERT 通过理解“for”和“to”等介词的重要性,帮助掌握“你能帮别人在药房拿药吗”等搜索背后的意图。
  • 聊天机器人和虚拟助手: BERT 增强了聊天机器人和虚拟助手更准确地理解用户请求、在对话中保持上下文以及在客户服务、预订系统和信息检索中提供更有帮助的响应的能力。
  • 情感分析: 企业使用基于 BERT 的模型来分析客户评论、社交媒体评论和调查回复,以更高的准确性评估公众舆论和产品反馈。
  • 文本摘要和问答: BERT 可以进行微调,以创建自动摘要长文档或根据给定的文本段落回答问题的系统。这在诸如 Stanford Question Answering Dataset (SQuAD) 之类的数据集上进行基准测试。

Bert 与其他模型对比

区分 BERT 与其他 AI 模型非常重要:

  • GPT 相比: 虽然两者都是基于 Transformer 的 LLM,但 BERT 是一种仅编码器的模型,旨在理解来自两个方向的上下文。这使其擅长诸如情感分析命名实体识别 (NER)和文本分类之类的分析任务。相比之下,GPT 模型以解码器为中心,并以一个方向(从左到右)读取文本,从而使其针对生成新的、连贯的文本进行了优化。
  • 计算机视觉模型 相比: BERT 处理和理解文本,这与 计算机视觉 (CV) 模型(如 Ultralytics YOLO)根本不同。诸如 YOLO11 之类的视觉模型分析图像和视频中的像素,以执行诸如目标检测实例分割之类的任务。虽然 BERT 解释语言,但它推广的 Transformer 架构 激发了 CV 的进步,从而产生了诸如 Vision Transformer (ViT) 之类的模型,这些模型用于诸如 RT-DETR 之类的模型中。

诸如 Ultralytics HUB 这样的平台促进了各种 AI 模型的训练部署,包括那些建立在 Transformer 原理上的模型。BERT 和类似模型的开发通常涉及标准的 机器学习 框架,如 PyTorchTensorFlow

加入 Ultralytics 社区

加入人工智能的未来。与全球创新者联系、协作和共同成长

立即加入
链接已复制到剪贴板