ラベルスムージングが過学習を防ぎ、モデルの汎化性能をどのように向上させるかを学びましょう。より良い結果を得るためにUltralytics YOLO26でこのテクニックを実装する方法を発見してください。
ラベル平滑化は、モデルの汎化性能を向上させ、過学習を防ぐために機械学習で広く使用されている正則化手法です。ニューラルネットワークを訓練する際、目標は通常、予測と正解の間の誤差を最小限に抑えることです。しかし、モデルがその予測に過度に自信を持ち(単一のクラスにほぼ100%の確率を割り当てる)、堅牢なパターンを学習するのではなく、訓練データ内の特定のノイズを記憶し始めることがよくあります。過学習として知られるこの現象は、新しい、未知の例に対する性能を低下させます。ラベル平滑化は、モデルが絶対的な確信を持って予測することを抑制することでこれに対処し、本質的に、ネットワークに常に小さな誤差の余地があることを伝えます。
ラベル平滑化がどのように機能するかを理解するためには、標準的な「ハード」ターゲットと比較することが役立ちます。従来の 教師あり学習では、分類ラベルは通常、 ワンホットエンコーディング。例えば、猫と犬を区別するタスクでは、「犬」の画像はターゲットベクトルが
[0, 1]。これを完全に一致させるために、モデルは内部スコアを、として出力します。
ロジット、無限大に向かって発散し、不安定な勾配と適応能力の喪失につながる可能性があります。
ラベルスムージングは、これらの厳密な1と0を「ソフト」ターゲットに置き換えます。目標確率が
1.0, 正しいクラスが割り当てられる可能性があります 0.9残りの確率質量(0.1) は、誤ったクラス全体に均一に分布されます。この微妙な変更は、 損失関数, など
交差エントロピーを防ぎます。
活性化関数 (通常
ソフトマックス) が飽和するのを防ぎます。その結果、特徴空間でより密なクラスのクラスタを学習し、より優れた結果を生み出すモデルとなります。
モデルキャリブレーションは、予測された確率が正しさの真の可能性をより正確に反映していることを意味します。
この技術は、データの曖昧さが本質的に存在したり、データセットがラベリングエラーを起こしやすいドメインにおいて特に重要です。
現代の深層学習フレームワークは、この手法の適用を簡素化します。を使用して、
ultralytics パッケージでは、〜のためのトレーニングパイプラインにラベル平滑化を簡単に統合できます。
画像分類 またはdetectタスク。これは、最先端モデルからさらなる性能を引き出すためによく行われます。
YOLO26.
以下の例は、ラベルスムージングを有効にして分類モデルをトレーニングする方法を示しています。
from ultralytics import YOLO
# Load a pre-trained YOLO26 classification model
model = YOLO("yolo26n-cls.pt")
# Train with label_smoothing set to 0.1
# The target for the correct class becomes 1.0 - 0.5 * 0.1 = 0.95 (depending on implementation specifics)
model.train(data="mnist", epochs=5, label_smoothing=0.1)
ラベルスムージングを他の正則化戦略と区別することは、いつそれを使用すべきかを理解する上で役立ちます。
最終層における勾配消失問題を軽減し、モデルがより堅牢な特徴を学習するように促すことで、ラベルスムージングは現代のディープラーニングアーキテクチャにおいて不可欠な要素であり続けています。

未来の機械学習で、新たな一歩を踏み出しましょう。