ラベルスムージングが過学習を防ぎ、モデルの汎化性能を向上させる仕組みを学びましょう。Ultralytics この手法を実装し、より良い結果を得る方法を発見してください。
ラベル平滑化は、機械学習で広く用いられる正則化手法であり、モデルの汎化性能向上と過学習防止を目的とする。ニューラルネットワークを学習させる際、通常は予測値と真値の誤差を最小化することが目標となる。 しかし、モデルが予測に過度に自信を持ちすぎると(単一クラスに100%に近い確率を割り当てる)、頑健なパターンを学習する代わりに、 訓練データ内の特定のノイズを記憶し始める傾向があります。 この過学習と呼ばれる現象は、新規の未見データに対する性能を低下させる。ラベル平滑化は、モデルが絶対的な確信を持って予測することを抑制することでこの問題に対処する。本質的に、ネットワークに常にわずかな誤差の余地があることを伝えるのである。
ラベル平滑化がどのように機能するかを理解するには、標準的な「ハード」ターゲットと比較すると理解しやすい。従来の 教師あり学習分類
ラベルは通常、以下のように表現される ワンホット符号化例えば、
猫と犬を区別するタスクでは、「犬」の画像のターゲットベクトルは
[0, 1]これに完璧に一致させるため、モデルは内部スコア(いわゆる
ロジット無限大へ向かうことで、不安定な勾配や適応不能を引き起こす可能性がある。
ラベル平滑化は、これらの厳密な1と0を「ソフト」なターゲットに置き換えます。ターゲット確率が
1.0正しいクラスが割り当てられる可能性があります 0.9残りの確率質量は
(0.1誤ったクラス全体に均等に分散される。この微妙な変化は、目的関数を修正する。 損失関数例えば
交差エントロピー、防止する
活性化関数 (通常
ソフトマックス飽和状態から回避する。その結果、特徴空間においてより緊密なクラスクラスターを学習し、より優れた結果を生成するモデルが得られる。
モデル較正つまり、予測された
確率が正答の真の確率をより正確に反映していることを意味する。
この手法は、データの曖昧性が本質的に存在する領域や、データセットにラベル付けエラーが生じやすい領域において特に重要である。
現代の深層学習フレームワークは、この技術の適用を簡素化する。
ultralytics パッケージを使用すれば、ラベル平滑化をトレーニングパイプラインに簡単に組み込むことができます。
画像分類 検出タスク。これは、最先端モデルからさらなる性能を引き出すために行われることが多い。
YOLO26.
以下の例は、ラベルスムージングを有効にして分類モデルを学習させる方法を示しています:
from ultralytics import YOLO
# Load a pre-trained YOLO26 classification model
model = YOLO("yolo26n-cls.pt")
# Train with label_smoothing set to 0.1
# The target for the correct class becomes 1.0 - 0.5 * 0.1 = 0.95 (depending on implementation specifics)
model.train(data="mnist", epochs=5, label_smoothing=0.1)
ラベル平滑化を他の正則化手法と区別することは、 その使用タイミングを理解する上で有用である。
最終層における勾配消失問題を緩和し、モデルがより頑健な特徴を学習するよう促すことで、ラベル平滑化は現代の深層学習アーキテクチャにおいて依然として定番の手法である。