Yolo 深圳
深セン
今すぐ参加
用語集

自己注意機構(Self-Attention)

深層学習における自己注意機構の基礎を探求する。クエリ・キー・バリューベクトルがUltralytics ーUltralytics 駆動し、優れたAIを実現する仕組みを学ぶ。

自己注意機構は、深層学習における基礎的なメカニズムであり、モデルが入力シーケンス内の異なる要素の相対的な重要性を評価することを可能にする。データを順次処理したり局所的な領域のみに焦点を当てたりする従来のアーキテクチャとは異なり、自己注意機構によりニューラルネットワークは文脈全体を同時に検討できる。 この能力により、システムは文中の単語や画像内の異なる領域など、データの離れた部分間の複雑な関係を識別できるようになる。これは生成AIや現代の知覚システムに大きな進歩をもたらしたトランスフォーマーアーキテクチャの中核を成す構成要素である。

Self-Attentionの仕組み

このメカニズムは、各入力特徴に重み(しばしば「注意スコア」と呼ばれる)を割り当てることで認知的集中を模倣する。 これらのスコアを計算するため、モデルは入力データ(通常は埋め込みとして表現される)を3つの異なるベクトルに変換する: クエリキーおよび値である

  • クエリ (Q):シーケンスの残りの部分から関連するコンテキストを求める現在の項目を表す。
  • キー (K):クエリが照合されるシーケンス内の各項目に対するラベルまたは識別子として機能します。
  • 値 (V):集計対象となる項目の実際の情報内容を含む。

このモデルは、ある要素のクエリを他の全要素のキーと比較し、適合性を判定します。 これらの適合性スコアはソフトマックス関数を用いて正規化され、確率的な重みを生成します。 この重みは値に適用され、文脈豊かな表現を生成します。 このプロセスにより、大規模言語モデル(LLM)や視覚システムは、ノイズをフィルタリングしつつ重要な情報を優先的に処理することが可能となります。

実際のアプリケーション

自己注意機構の汎用性により、人工知能(AI)の様々な分野で広く採用されるようになった。

  • 自然言語処理(NLP) 機械翻訳などのタスクにおいて、 自己注意機構は代名詞をその指す対象に関連付けることで曖昧性を解消する。 例えば「動物は疲れすぎていたので道を渡らなかった」という文において、 モデルは自己注意を用いて「it」を「動物」と強く関連付け、「道」とは関連付けない。 この文脈認識能力Google ツールを支えている。
  • グローバル画像コンテキスト: コンピュータビジョン(CV)において、 ビジョントランスフォーマー(ViT)のようなアーキテクチャは 画像をパッチに分割し、自己注意機構を適用して シーン全体をグローバルに理解する。 これは複雑な環境における物体検出において重要であり、 物体の識別はその周囲環境の理解に依存する。

関連用語の区別

類似の概念と並んで議論されることが多いが、これらの用語には明確な技術的定義がある:

  • 注意機構 モデルが特定のデータ部分に焦点を当てることを可能にする手法の広範なカテゴリー。これにはクロスアテンションが含まれ、 モデルが1つのシーケンス(デコーダ出力など)を用いて別のシーケンス(エンコーダ入力など)を問い合わせる。
  • 自己注意:クエリ、キー、値のすべてが同一の入力シーケンスに由来する特定の注意方式。単一データセット内の内部依存関係を学習するよう設計されている。
  • フラッシュ・アテンション スタンフォード大学の研究者らが開発した最適化アルゴリズム。GPU上で自己注意の計算を大幅に高速化し、メモリ効率を向上させる一方で、数学的出力を変更しない。

コード例

Python 、以下の使用方法を示しています。 RTDETRトランスフォーマーベースの物体検出器が 含まれている ultralytics パッケージ。標準的な畳み込みネットワークとは異なり、このモデルは視覚特徴を処理するために自己注意機構に大きく依存している。

from ultralytics import RTDETR

# Load the RT-DETR model which utilizes self-attention for detection
model = RTDETR("rtdetr-l.pt")

# Perform inference on an image to detect objects with global context
# Self-attention helps the model understand relationships between distant objects
results = model("https://ultralytics.com/images/bus.jpg")

# Print the number of objects detected
print(f"Detected {len(results[0].boxes)} objects using Transformer attention.")

進化と将来への影響

自己注意機構は、従来の 再帰型ニューラルネットワーク(RNN)を阻害していた 勾配消失問題を効果的に解決し、 大規模な基盤モデルの訓練を可能にした。 非常に効果的である一方、標準的な自己注意機構の 計算コストはシーケンス長に比例して二次的に増加する。 この課題に対処するため、現在の研究は効率的な線形注意機構に焦点を当てている。

Ultralytics これらの進歩をYOLO26のような最先端モデルにUltralytics 。このモデルはCNNの高速性とアテンションの文脈理解力を組み合わせ、優れたリアルタイム推論を実現します。これらの最適化されたモデルUltralytics 容易にトレーニングおよびデプロイ可能であり、次世代インテリジェントアプリケーションを開発する開発者のワークフローを効率化します。

Ultralytics コミュニティに参加する

AIの未来を共に切り開きましょう。グローバルなイノベーターと繋がり、協力し、成長を。

今すぐ参加