YOLO Vision 2025にご期待ください!
2025年9月25日
10:00 — 18:00(英国夏時間)
ハイブリッドイベント
Yolo Vision 2024
用語集

検証データ

検証データを使用して機械学習モデルを最適化し、過学習を防ぎ、ハイパーパラメータを調整し、堅牢な実世界のパフォーマンスを保証します。

検証データとは、モデルのハイパーパラメータを調整する際に、モデルの適合性を偏りなく評価するために、トレーニングプロセスから除外されたデータサンプルです。検証セットの主な役割は、頻繁かつ独立してパフォーマンスを評価することにより、機械学習(ML)モデルの開発を導くことです。このフィードバックループは、学習済みのデータで優れたパフォーマンスを発揮するだけでなく、新しい未知のデータにも効果的に一般化できるモデルを構築するために不可欠であり、これは堅牢な人工知能(AI)システムを構築する上で中心となる概念です。

検証データの役割

検証データの主な目的は、過剰適合を防ぐことです。過剰適合は、モデルがトレーニングデータを過剰に学習し、新しいデータには適用されないノイズや詳細をキャプチャして、パフォーマンスを低下させる場合に発生します。開発者は、定期的な間隔(たとえば、各エポック後)で検証セットに対してモデルをテストすることにより、汎化誤差を監視できます。トレーニングデータでのパフォーマンスが向上し続ける一方で、検証データでのパフォーマンスが停滞または低下する場合は、過剰適合の明確な兆候です。

この評価プロセスは、ハイパーパラメータのチューニングに不可欠です。ハイパーパラメータとは、学習率バッチサイズなど、モデル外部の設定であり、データから学習されるものではありません。検証セットを使用することで、さまざまなハイパーパラメータの組み合わせを試し、最適なパフォーマンスが得られるセットを見つけることができます。この反復プロセスは、モデル選択と最適化の中核をなすものです。

検証データ vs. トレーニングデータおよびテストデータ

一般的な機械学習プロジェクトでは、データセットは3つのサブセットに分割され、それらの明確な役割を理解することが基本です。データ分割の一般的なアプローチは、トレーニングに70%、検証に15%、テストに15%を割り当てることです。

  • トレーニングデータ: これは、モデルを教えるために使用されるデータの最大の割合です。モデルは、内部のモデルの重みを調整することにより、このデータセットからパターン、特徴、および関係を繰り返し学習します。
  • 検証データ: この独立したサブセットは、トレーニングプロセス中に偏りのない評価を提供するために使用されます。これにより、ハイパーパラメータを調整し、過学習を防ぐために早期停止を実装するタイミングなど、重要な決定を下すことができます。Ultralyticsのエコシステムでは、この評価は検証モードで処理されます。
  • Test Data: このデータセットは、モデルが完全にトレーニングおよび調整されるまで保持されます。モデルのパフォーマンスに関する最終的な偏りのない評価を提供するために1回だけ使用されます。テストセットのパフォーマンスは、モデルが実際のデプロイメントシナリオでどのように機能すると予想されるかを示します。

厳格な分離、特に検証セットとテストセットの間の分離を維持することは、モデルの能力を正確に評価し、バイアス-バリアンスのトレードオフを回避するために重要です。

実世界の例

  1. コンピュータビジョン 物体検出: 画像内の物体を検出するためにUltralytics YOLOモデルをトレーニングする場合(例えば、VisDroneデータセットを使用)、ラベル付けされた画像の一部は、検証データとして取っておかれます。トレーニング中、モデルのmAP(平均適合率)は、各エポック後にこの検証セットで計算されます。この検証mAPは、テストセットでの最終的な性能チェックの前に、トレーニングを停止するタイミングや、どのデータ拡張テクニックが最適かを決定するのに役立ちます。効果的なモデル評価戦略は、この分割に大きく依存しています。
  2. 自然言語処理テキスト分類: 顧客レビューを肯定または否定(感情分析)として分類するモデルを開発する際に、検証セットを使用して最適なアーキテクチャ(例:LSTM vs. Transformer)を選択したり、ドロップアウト率のようなハイパーパラメータを調整したりします。検証セットで最高のF1スコアまたは精度を達成したモデルが、最終テストのために選択されます。Hugging Face Datasetsのようなリソースは、この目的のために事前に分割されたデータセットを提供することがよくあります。

クロスバリデーション

利用可能なデータ量が限られている場合、クロスバリデーション(特にK分割クロスバリデーション)と呼ばれる手法がよく用いられます。ここでは、トレーニングデータを「K」個のサブセット(フォールド)に分割します。モデルはK回トレーニングされ、各回でK-1個のフォールドをトレーニングに使用し、残りのフォールドを検証セットとして使用します。次に、すべてのK回の実行でパフォーマンスを平均化します。これにより、モデルのパフォーマンスのより堅牢な推定値が得られ、scikit-learnのドキュメントUltralytics K分割クロスバリデーションガイドで説明されているように、限られたデータをより有効に活用できます。

まとめると、検証データは、PyTorchTensorFlowのようなフレームワークを使用して、信頼性が高く高性能なAIモデルを構築するための基礎です。これにより、効果的なハイパーパラメータ調整、モデル選択、および過学習の防止が可能になり、モデルがトレーニングされたデータを超えても適切に汎化されることが保証されます。Ultralytics HUBのようなプラットフォームは、これらのデータセットを効果的に管理するための統合ツールを提供します。

Ultralyticsコミュニティに参加しませんか?

AIの未来を共に切り開きましょう。グローバルなイノベーターと繋がり、協力し、成長を。

今すぐ参加
クリップボードにコピーしました