注意機構が、翻訳、物体検出などのNLPおよびコンピュータビジョンタスクを強化することにより、AIにどのような変革をもたらすかを解説します。
アテンション・メカニズムとは、人間の認知を模倣するニューラルネットワークの高度な技術である。 ニューラルネットワークにおける高度な技術である。 入力データの特定の部分に動的に優先順位をつけることを可能にする。すべての情報を同じ重みで処理するのではなく この方法は、すべての情報を同じ重みで処理するのではなく、異なる要素に重要度のスコアを割り当て、ノイズを抑制しながら関連する詳細を増幅する。 ノイズを抑制する。この機能は、現代の 人工知能 自然言語処理(NLP)から 自然言語処理(NLP) から高度なコンピュータ・ビジョン(CV)までの分野で大きなブレークスルーをもたらしている。
基本的なレベルでは、注意メカニズムは重みのセットを計算する。 入力シーケンスや画像の各パーツに、モデルがどれだけの「焦点」を当てるべきかを決定する。例えば機械翻訳では 例えば機械翻訳では モデルはこれらの重みを使用して、ソース言語の単語をターゲット言語の適切な単語に揃えます、 たとえそれらが文中で離れていても、である。
アテンションが広く採用される前は、以下のようなアーキテクチャがあった。 リカレント・ニューラル・ネットワーク(RNN) のようなアーキテクチャは 消失勾配問題 という勾配消失問題のために、長いシーケンスの処理に苦労していた。アテンションは、この問題を アテンションは、距離の長さに関係なく、データのすべての部分間に直接接続を作ることでこれを解決する。この概念は の研究者たちによる論文「Attention Is All You Need」で正式に発表された。 Google研究者たちによる論文「Attention Is All You Need」で正式に発表され、Transformerアーキテクチャを紹介した。
注意メカニズムは、今日使われている多くの高性能AIシステムの成功に不可欠である。
アテンション」を用語集にある特定のバリエーションと区別することは有益である。
のような最新のフレームワークがある。 PyTorch そして
TensorFlow は、アテンション・レイヤーをビルトインでサポートする。コンピューター
ビジョン・タスクでは ultralytics ライブラリには
RT-DETRトランスフォーマー
アテンション・メカニズムを利用した
精度.
以下の例では、トランスフォーマーベースのモデルで
ultralytics パッケージで提供される。
from ultralytics import RTDETR
# Load a pre-trained RT-DETR model (Real-Time DEtection TRansformer)
# This architecture explicitly uses attention mechanisms for object detection.
model = RTDETR("rtdetr-l.pt")
# Perform inference on an image to detect objects
results = model("https://ultralytics.com/images/bus.jpg")
# Display the number of detected objects
print(f"Detected {len(results[0].boxes)} objects using attention-based detection.")
注意メカニズムの進化は、ディープラーニング(DL)の進歩を牽引し続けている。 ディープラーニング(DL)の進歩の原動力となっています。このような計算を これらの計算をより効率的にする エッジ・デバイス上でのリアルタイム推論をより効率的にするための革新が常に生まれている。そして DeepMindのようなグループの研究が、人工知能(AGI)の境界を押し広げている。 人工知能(AGI)の限界を押し広げるDeepMindのようなグループによる研究において、注意力は依然として基本的な要素である。今後 Ultralytics Platformは、これらの高度なアーキテクチャをトレーニング、デプロイ、監視するための包括的なツールを提供します。 開発者と企業のワークフローを合理化します。