深圳Yolo 视觉
深圳
立即加入
词汇表

BERT(来自 Transformers 的双向编码器表示)

Explore BERT, the revolutionary bidirectional NLP model. Learn how it uses Transformer architecture for sentiment analysis, search, and [multimodal AI](https://www.ultralytics.com/glossary/multimodal-ai) workflows.

BERT(双向编码器表示)Google 研究人员设计的一项突破性深度学习架构Google 帮助机器更好地理解人类语言的细微差别。该模型于2018年问世,通过引入双向训练方法,彻底革新了自然语言处理(NLP)领域。 与以往模型从左至右或从右至左顺序读取文本不同,BERT通过同时分析单词前后上下文来理解词义。这种方法使模型能够更有效地把握微妙含义、习语及同音异义词(具有多重含义的词汇),远超其前代模型。

BERT 如何工作

在核心层面,BERT依赖于 Transformer 架构,特别是编码器 机制。其"双向"特性通过一种名为遮蔽语言 建模(MLM)的训练技术实现。预训练过程中,句子中约15%的单词会被随机遮蔽(隐藏), 模型需根据上下文预测缺失单词。这种机制迫使模型学习深度 双向表示。

此外,BERT通过下一句预测(NSP)任务理解句子间的逻辑关系。在此任务中,模型需处理成对句子,判断后一句是否逻辑上承接前一句。这种能力对需要理解语篇的任务至关重要,例如问答系统和文本摘要生成。

实际应用

BERT的多功能性使其成为许多现代人工智能系统的标准组件。以下是其应用的两个具体实例:

  1. 搜索引擎优化: Google BERTGoogle 搜索算法中,以更精准地解析复杂查询。例如在"2019年巴西游客赴美是否需要签证"的查询中,"赴"字至关重要。 传统模型常将"to"视为停用词(被过滤的常见词),从而忽略了方向性关联。BERT能理解用户是巴西人前往美国而非反向行程,从而提供高度相关的搜索结果。
  2. 客户反馈的情感分析:企业利用BERT技术自动分析数千条客户评价或支持工单。由于BERT具备语境理解能力,它能区分"这吸尘器太烂了"(负面情绪)与"这吸尘器能把所有灰尘都吸干净"(正面情绪)。这种精准的情感分析帮助企业高效处理支持问题,track 。

与相关概念的比较

区分BERT与其他主流架构有助于理解其独特的定位。

  • BERT 与 GPT(生成式预Transformer)的对比: 两者虽均采用Transformer ,但目标各异。BERT使用 编码器堆栈,专为理解与鉴别任务优化(如分类、实体提取)。 而GPT采用解码器堆栈,专为文本生成设计,通过预测序列中的下一个词来撰写文章或代码。
  • BERT与YOLO26这两种模型运作于不同领域。BERT处理序列文本数据以完成语言任务,而YOLO26作为尖端视觉模型,通过处理像素网格实现实时目标检测。 然而现代多模态系统常将二者结合使用:例如YOLO 可detect 图像中的detect 而基于BERT的模型则能解答关于物体间关系的问题。

实现示例:令牌化

要使用BERT,原始文本必须转换为数字令牌。该模型采用特定词汇表(如WordPiece)来分解单词。虽然BERT是文本模型,但类似的预处理概念也适用于计算机视觉领域——其中图像会被分解为图像块。

以下Python 演示了如何使用 transformers 库对句子进行分词处理,以供BERT处理。请注意,虽然Ultralytics 视觉领域,但理解分词处理对 多模态人工智能 工作流。

from transformers import BertTokenizer

# Initialize the tokenizer with the pre-trained 'bert-base-uncased' vocabulary
tokenizer = BertTokenizer.from_pretrained("bert-base-uncased")

# Tokenize a sample sentence relevant to AI
text = "Ultralytics simplifies computer vision."

# Convert text to input IDs (numerical representations)
encoded_input = tokenizer(text, return_tensors="pt")

# Display the resulting token IDs
print(f"Token IDs: {encoded_input['input_ids']}")

人工智能领域中的重要性

BERT的问世标志着自然语言处理领域的"ImageNet ",证明了迁移学习——即在海量数据集上预训练模型,再针对特定任务进行微调——对文本处理具有极高成效。这大大降低了为每个新问题设计专用架构和构建大型标注数据集的需求。

如今,BERT的变体模型(如RoBERTa和DistilBERT)持续为边缘AI应用提供高效算力。开发者若想构建全面的AI解决方案,通常会将这些语言Ultralytics 提供的视觉工具集成,从而打造出既能观察又能理解世界的智能系统。

加入Ultralytics 社区

加入人工智能的未来。与全球创新者联系、协作和共同成长

立即加入