Yolo 深圳
深セン
今すぐ参加
用語集

バックプロパゲーション

バックプロパゲーションがどのようにニューラルネットワークを訓練し、エラー率を低減させ、画像認識や自然言語処理(NLP)などのAIアプリケーションを効率的に強化するかを学びます。

バックプロパゲーションは、「誤差の後方伝播」の略で、人工ニューラルネットワークを効果的に訓練するために使用される基本的なアルゴリズムである。 人工ニューラルネットワークを効果的に学習させるために使用される基本的なアルゴリズムである。バックプロパゲーションは 数学的エンジンとして機能する。 機械学習モデルが内部パラメータを繰り返し調整することで 内部パラメータを反復的に調整することによって、機械学習モデルがその過ちから学習することを可能にする数学的エンジンとして機能する。勾配を計算することで 損失関数の勾配を計算することで ネットワークの各重みに対する損失関数の勾配を計算することで、バックプロパゲーションは、各ニューロンが全体の誤差にどれだけ貢献したかを正確に決定する。このプロセス により、複雑な ディープラーニング(DL)アーキテクチャの効率的な学習が可能になる。 ランダムな初期化を、視覚認識や言語理解のようなタスクに対応する高精度システムに変換する。 理解することができる。

バックプロパゲーションはどのように学習を促進するか

ニューラルネットワークの学習プロセスは、フォワードパスとバックワードパスからなるサイクルとして視覚化できる。 パスで構成される。バックプロパゲーションは特に "バックワード "フェーズを扱うが、その文脈を理解することが重要である。

  1. フォワード・パス:入力データはネットワークの各レイヤーを通過し、モデルの重みや モデルの重みと 活性化関数を介して変換される。ネットワークは予測値を生成する。 予測値は、実際の地上の真実と比較され、損失関数を使用して誤差値が計算される。
  2. 後方パス(バックプロパゲーション):このアルゴリズムは出力で計算された誤差を受け取り ネットワーク層を通して後方に伝播させる。このアルゴリズムは 利用し、各重みの勾配を計算する。 を計算する。概念的には、このステップでは、最終的なエラーに対して各接続に「責任」または「信用」を割り当てる。 エラー。
  3. ウエイトの更新:勾配が計算されると 最適化アルゴリズムは を使用して重みを更新し、誤差を最小化する方向に重みをわずかに動かします。

このサイクルを何度も繰り返し、モデルの精度を徐々に高めていく。 モデルの精度を高めていく。最新のフレームワーク PyTorchTensorFlowは、バックプロパゲーションの複雑な計算を自動微分と呼ばれる処理によって を自動微分と呼ばれる処理によって自動的に処理する。

バックプロパゲーションと最適化の比較

バックプロパゲーションは最適化ステップと混同されがちだが、モデル学習ループの中では別個のプロセスである。 モデル学習ループ内の別個のプロセスである。

  • バックプロパゲーションは診断ツールである。バックプロパゲーションは勾配を計算し、誤差の地形の勾配を示す地図を効果的に描く。 地図を描く。誤差を減らすにはどの方向に動くべきか? という質問に答えてくれる。
  • 最適化とは行動である。以下のようなアルゴリズムがある。 確率的勾配降下(SGD)Adam ようなアルゴリズムは、バックプロパゲーショ を受け取り、重みを更新する。バックプロパゲーションがマップであるなら、オプティマイザはハイカーである。 である。

実際のアプリケーション

バックプロパゲーションは、事実上、現代のAIが成功するための基本的なメカニズムである。

  • コンピュータビジョンでは のようなモデルを使用した物体検出タスク YOLO11バックプロパゲーションは、ネットワークが空間階層を学習することを可能にする。 空間階層を学習することができる。これは、特定のエッジが形状を形成し、その形状が車や歩行者のような物体 を形成することを理解するのに役立つ。Ultralytics 、2025年後半を目標に、次世代モデルであるYOLO26を開発している。 このモデルは、効率的なバックプロパゲーションに大きく依存する高度なエンド・ツー・エンドのトレーニング技術を活用することで、2025年後半を目標に開発中である。 より小さく、より速く、より正確なアーキテクチャを達成するために、効率的なバックプロパゲーションに大きく依存する高度なエンドツーエンド学習技術を活用する。
  • 自然言語処理(NLP):について 大規模言語モデル(LLM)の場合 OpenAIが開発したような大規模言語モデル(LLM)では、バックプロパゲーショ 文中の次の単語の確率を学習します。不正確なテキスト予測によるエラーを伝播することで、モデルは以下を学習する。 ニュアンス文法と文脈を学習する。 機械翻訳

バックプロパゲーションの課題

このアルゴリズムは強力ではあるが、ディープネットワークでは課題に直面する。それは 勾配の消失問題は、勾配が後方へ進むにつれて小さくなりすぎる場合に発生する。 が後方に向かうにつれて小さくなりすぎ、初期の層の学習が停止してしまう。逆に 爆発的勾配は、勾配 が大きく不安定な値まで累積する。次のようなテクニックがある。 バッチ正規化 ResNetのような特殊なアーキテクチャは のような特殊なアーキテクチャが採用されることが多い。

Python コード例

のような高水準ライブラリがある一方で ultralytics トレーニング中にこのプロセスを抽象化する、 torch PyTorch)を使えば、メカニズムを直接見ることができる。その .backward() メソッドは メソッドはバックプロパゲーション処理をトリガーする。

import torch

# specialized tensor that tracks operations for backpropagation
w = torch.tensor([2.0], requires_grad=True)
x = torch.tensor([3.0])

# Forward pass: compute prediction and loss
loss = (w * x - 10) ** 2

# Backward pass: This command executes backpropagation
loss.backward()

# The gradient is now stored in w.grad, showing how to adjust 'w'
print(f"Gradient (dL/dw): {w.grad.item()}")

さらに読む

バックプロパゲーションがAI開発の広い範囲にどのように適合するかを理解するためには、データ増強の概念を探求することが有益である。 探求することは有益である。 アルゴリズムが効果的に汎化するために必要な様々な例を提供するからだ。さらに のようなトレーニングの成功を評価するために使用される具体的な指標を理解することも有益です。 平均平均精度(mAP) バックプロパゲーションプロセスがどの程度モデルを最適化しているかを解釈するのに役立ちます。より深く理論的に掘り下げるには Stanford CS231nのコースノートに優れた技術的説明があります。 を参照してください。

Ultralytics コミュニティに参加する

AIの未来を共に切り開きましょう。グローバルなイノベーターと繋がり、協力し、成長を。

今すぐ参加