探索 Flash Attention 如何优化内存并加速 Transformer 模型。了解它如何增强计算机视觉以及 Ultralytics YOLO26 为何是首选。
闪电注意力是一种高度优化的算法,旨在加速变压器的训练和推理过程。 Transformer 模型。在现代深度学习(DL)领域, 特别是大型模型中,主要瓶颈往往并非处理器的计算速度,而是 数据在存储器与计算单元间传输所耗费的时间。 闪存注意力通过重组注意力机制的数据处理方式,有效突破了这一"内存墙",在保持准确性的同时显著提升性能并降低内存占用。
要理解闪存注意力机制,GPU 图形处理单元)的架构很有帮助。GPU 配备了容量大但速度较慢的高带宽内存(HBM),以及容量小但速度极快的片上SRAM。标准注意力机制需要反复向低速的HBM读写大型矩阵,这会造成数据积压。
Flash Attention 使用一种称为“平铺”的技术,将大型注意力矩阵分解成完全适合高速SRAM的更小块。通过将这些块保留在高速内存中并在那里执行更多计算,然后才将结果写回,该算法显著减少了对HBM的读/写操作次数。这项由 斯坦福大学 研究人员引入的创新,使该过程具有“IO感知”能力,这意味着它明确考虑了数据移动的成本。您可以在 原始研究论文 中探索技术细节。
区分闪现注意与人工智能(AI)术语表中类似概念至关重要:
虽然闪电注意力最初是为自然语言处理(NLP)领域开发,用于处理长文本序列,但如今它已成为计算机视觉(CV)领域的重要技术。当通过视觉变换器(ViT)处理高分辨率图像时,会产生海量的数据序列。
这项技术影响着目标检测器的发展。例如,一些社区驱动的实验性模型,如YOLO12,引入了利用这些原理的注意力层。然而,纯粹基于注意力的架构可能会面临训练不稳定和CPU速度慢的问题。对于大多数专业应用,Ultralytics YOLO26是推荐标准。YOLO26采用高度优化的架构,平衡了端到端目标检测和图像分割的速度和准确性,避免了边缘设备上通常与繁重注意力层相关的开销。
闪存关注带来的效率提升,使得那些此前因成本过高或运行缓慢而无法实现的应用成为可能。
虽然Flash Attention通常是PyTorch等库中的内部优化,但您可以使用Ultralytics轻松利用基于注意力的模型。以下代码片段展示了如何加载一个使用注意力机制的RT-DETR模型,以对图像执行推理。
from ultralytics import RTDETR
# Load a pre-trained RT-DETR model which utilizes transformer attention
model = RTDETR("rtdetr-l.pt")
# Perform inference on an image to detect objects
results = model("https://ultralytics.com/images/bus.jpg")
# Display the number of detected objects
print(f"Detected {len(results[0].boxes)} objects.")
使用Ultralytics平台等工具,开发者无需手动实现复杂的GPU内核,即可训练和部署这些复杂的模型。该平台负责处理基础设施,让团队能够专注于整理高质量数据集和解释结果。

开启您的机器学习未来之旅