深層学習における自己注意機構の基礎を探求する。クエリ・キー・バリューベクトルがUltralytics ーUltralytics 駆動し、優れたAIを実現する仕組みを学ぶ。
自己注意機構は、深層学習における基礎的なメカニズムであり、モデルが入力シーケンス内の異なる要素の相対的な重要性を評価することを可能にする。データを順次処理したり局所的な領域のみに焦点を当てたりする従来のアーキテクチャとは異なり、自己注意機構によりニューラルネットワークは文脈全体を同時に検討できる。 この能力により、システムは文中の単語や画像内の異なる領域など、データの離れた部分間の複雑な関係を識別できるようになる。これは生成AIや現代の知覚システムに大きな進歩をもたらしたトランスフォーマーアーキテクチャの中核を成す構成要素である。
このメカニズムは、各入力特徴に重み(しばしば「注意スコア」と呼ばれる)を割り当てることで認知的集中を模倣する。 これらのスコアを計算するため、モデルは入力データ(通常は埋め込みとして表現される)を3つの異なるベクトルに変換する: クエリ、キー、および値である。
このモデルは、ある要素のクエリを他の全要素のキーと比較し、適合性を判定します。 これらの適合性スコアはソフトマックス関数を用いて正規化され、確率的な重みを生成します。 この重みは値に適用され、文脈豊かな表現を生成します。 このプロセスにより、大規模言語モデル(LLM)や視覚システムは、ノイズをフィルタリングしつつ重要な情報を優先的に処理することが可能となります。
自己注意機構の汎用性により、人工知能(AI)の様々な分野で広く採用されるようになった。
類似の概念と並んで議論されることが多いが、これらの用語には明確な技術的定義がある:
Python 、以下の使用方法を示しています。 RTDETRトランスフォーマーベースの物体検出器が
含まれている ultralytics パッケージ。標準的な畳み込みネットワークとは異なり、このモデルは視覚特徴を処理するために自己注意機構に大きく依存している。
from ultralytics import RTDETR
# Load the RT-DETR model which utilizes self-attention for detection
model = RTDETR("rtdetr-l.pt")
# Perform inference on an image to detect objects with global context
# Self-attention helps the model understand relationships between distant objects
results = model("https://ultralytics.com/images/bus.jpg")
# Print the number of objects detected
print(f"Detected {len(results[0].boxes)} objects using Transformer attention.")
自己注意機構は、従来の 再帰型ニューラルネットワーク(RNN)を阻害していた 勾配消失問題を効果的に解決し、 大規模な基盤モデルの訓練を可能にした。 非常に効果的である一方、標準的な自己注意機構の 計算コストはシーケンス長に比例して二次的に増加する。 この課題に対処するため、現在の研究は効率的な線形注意機構に焦点を当てている。
Ultralytics これらの進歩をYOLO26のような最先端モデルにUltralytics 。このモデルはCNNの高速性とアテンションの文脈理解力を組み合わせ、優れたリアルタイム推論を実現します。これらの最適化されたモデルUltralytics 容易にトレーニングおよびデプロイ可能であり、次世代インテリジェントアプリケーションを開発する開発者のワークフローを効率化します。