深圳Yolo 视觉
深圳
立即加入
词汇表

注意力机制

了解注意力机制如何通过增强 NLP 和计算机视觉任务(如翻译、目标检测等)来革新 AI!

注意力机制是神经网络中的一种复杂技术 神经网络中的一种复杂技术。 关注机制是神经网络中的一种复杂技术,它模仿人类的认知,使模型能够动态地优先处理输入数据的特定部分。这种方法不是以同等权重处理所有信息 这种方法不是以相同权重处理所有信息,而是为不同元素分配重要性分数,在放大相关细节的同时抑制噪音。 抑制噪音。这种能力已成为现代 人工智能(AI)的基石,推动了 领域的重大突破,包括 自然语言处理 (NLP) 到高级计算机视觉 (CV) 等领域的重大突破。

注意力机制的工作原理

从根本上说,注意力机制会计算一组权重--通常称为注意力分数--这些权重决定了模型对输入序列或图像的每个部分的 "关注 "程度。 决定模型应将多少 "注意力 "放在输入序列或图像的每个部分上。以机器翻译为例 机器翻译为例、 模型使用这些权重将源语言中的单词与目标语言中的适当单词对齐、 即使它们在句子中相距甚远。

在注意力被广泛采用之前,诸如 递归神经网络(RNN) 等架构在处理长序列时遇到了困难。 梯度消失问题。 在这种情况下,当模型到达终点时,序列开头的信息就会消失。注意力通过在数据的所有部分之间建立 解决这一问题的方法是在数据的所有部分之间建立直接连接,而不考虑距离的远近。这一概念在 的开创性论文《注意力就是你所需要的一切》中正式提出。 Google的研究人员在其开创性论文《注意力就是你所需要的一切》中正式提出了这一概念,并介绍了 Transformer架构。

实际应用

注意力机制是当今许多高性能人工智能系统取得成功不可或缺的因素。

  • 语言翻译和生成:谷歌翻译等服务 Google 翻译等服务依靠注意力来理解句子结构的细微差别。 同样、 大型语言模型(LLM),如 GPT-4等大型语言模型(LLM)也利用注意力来保持长时间对话的连贯性。 在广阔的语境窗口中保持对话的连贯性。
  • 视觉物体检测:在计算机视觉中,注意力能帮助模型聚焦于图像的突出区域。 图像的显著区域。基于卷积的标准模型,如 Ultralytics YOLO11等transformer卷积的标准模型效率很高,而transformer 检测器使用注意力来明确模拟对象之间的全局关系。这对于 自动驾驶汽车来说至关重要。 区分行人、交通信号灯和其他车辆。
  • 医学影像:在 在医学图像分析中,注意力图可以 在医学图像分析中,注意力图可以突出特定的异常点,如核磁共振成像扫描中的肿瘤,从而帮助放射科医生指出最关键的诊断区域。 诊断的最关键区域。斯坦福医学院等机构的研究人员 斯坦福医学院等机构的研究人员正在继续探索这些应用。

注意力与自我注意力与瞬间注意力

将 "注意 "与词汇表中的具体变体区分开来是有帮助的。

  • 注意机制:动态加权输入特征的广义概念。它通常指 交叉关注,即模型使用一个序列(如问题)来关注另一个序列(如文档)。
  • 自我关注一种特殊类型 在这种情况下,模型通过查看同一序列来理解内部关系。例如 银行 "一词指的是河岸而不是金融机构。 词。
  • 闪存关注一种 I/O 感知优化算法 优化算法,使 GPU 上计算注意力的速度和内存效率显著提高、 对训练大规模模型至关重要。

在代码中实现注意力

现代框架,如 PyTorchTensorFlow 为关注层提供内置支持。对于计算机 视觉任务 ultralytics 库包括以下模型 RT-DETR,其本机构建在transformer 架构,利用注意力机制实现高 精确度.

下面的示例演示了如何使用 ultralytics 包装

from ultralytics import RTDETR

# Load a pre-trained RT-DETR model (Real-Time DEtection TRansformer)
# This architecture explicitly uses attention mechanisms for object detection.
model = RTDETR("rtdetr-l.pt")

# Perform inference on an image to detect objects
results = model("https://ultralytics.com/images/bus.jpg")

# Display the number of detected objects
print(f"Detected {len(results[0].boxes)} objects using attention-based detection.")

关注的未来

注意力机制的演变继续推动着深度学习(DL)的进步。 深度学习 (DL) 的进步。不断涌现的创新 创新不断涌现,使这些计算更加高效,从而 在边缘设备上进行实时推理。随着 随着DeepMind等团队的研究不断推动人工智能(AGI)的发展,注意力仍然是最基本的组成部分。 人工通用智能(AGI)的研究,注意力仍然是最基本的组成部分。展望未来,即将推出的 Ultralytics 平台将提供全面的工具来训练、部署和监控这些先进的架构。 监控这些先进架构的综合工具,从而简化开发人员和企业的工作流程。

加入Ultralytics 社区

加入人工智能的未来。与全球创新者联系、协作和共同成长

立即加入