モデルの精度を高め、オーバーフィッティングを防ぎ、ロバストなパフォーマンスを保証する、機械学習における交差検証の威力をご覧ください。
クロスバリデーションは、機械学習(ML)における強力なモデル評価手法であり、統計解析の結果が独立したデータセットにどのように一般化するかを評価するために使用される。これは、限られたデータサンプルでMLモデルを評価するために使用されるリサンプリング手順です。主な目的はオーバーフィッティングを防ぐことであり、これはモデルが訓練データを非常によく学習するため、新しい未知のデータではパフォーマンスが悪くなることである。モデルが実世界でどのように動作するかをシミュレートすることで、クロスバリデーションはよりロバストで信頼性の高いモデル性能の推定を提供します。
クロスバリデーションの最も一般的な方法は、K-Foldクロスバリデーションである。このプロセスでは、1つのデータセットを複数の部分に分割する:
このアプローチでは、すべてのデータポイントが検証セットにちょうど1回、トレーニングセットにk-1回含まれるようになります。実装に関する詳細なガイドは、Ultralytics K-Fold Cross-Validationガイドに記載されています。
典型的なMLプロジェクトでは、データは訓練セット、検証セット、テストセットに分けられる。
単純な訓練と検証の分割は、検証セットが偶然、特に簡単または難しいサンプルを含んでいる場合、時には誤解を招くことがあります。クロスバリデーションは、データセットのすべての部分を訓練と検証の両方に使用することで、この問題を克服し、モデルの汎化能力のより信頼できる尺度を提供します。そのため、利用可能なデータ量が限られている場合に特に有効です。Scikit-learnのような一般的なフレームワークは、クロスバリデーション技術のロバストな実装を提供します。
クロスバリデーションは、様々な領域で信頼性の高いAIシステムを構築するために不可欠である:
その他の用途としては、画像セグメンテーションのモデル評価、感情分析のような自然言語処理(NLP)タスク、金融モデリングにおけるリスク評価などがあります。Ultralytics HUBのようなプラットフォームは、このような評価技術中に生成される実験や成果物の管理を支援し、開発ライフサイクルを合理化します。