AI信頼度スコアの定義モデルが予測の確実性を測定する方法、信頼性のしきい値を設定する方法、信頼性と精度を区別する方法を学ぶ。
人工知能(AI)や機械学習(ML)の文脈における信頼度は、モデルが予測に割り当てるスコアを表し、特定の出力についてモデルがどの程度確信しているかを示す。物体検出や 画像分類のようなタスクの場合、検出された物体や割り当てられたクラスラベルには、通常0~1(または0%~100%)の信頼度スコアが付きます。このスコアは、次のようなモデルが行う個々の予測の信頼性を測るのに役立ちます。 Ultralytics YOLO.スコアが高ければ高いほど、モデルはトレーニング中に学習したパターンに基づく予測についてより確実であることを示します。信頼性を理解することは、モデルの出力を解釈し、AI予測に基づいて情報に基づいた意思決定を行う上で、特に自動車ソリューションにおけるAIのようなセーフティ・クリティカルなアプリケーションでは極めて重要です。
信頼度スコアは通常、ニューラルネットワーク(NN)の出力層から導出される。分類タスクの場合、これはしばしばソフトマックスや シグモイドのような活性化関数を生の出力(logits)に適用して、各クラスの確率のような値を生成する。YOLOようなオブジェクト検出モデルでは、信頼スコアは、オブジェクトが提案されたバウンディングボックスに存在する確率(しばしば「オブジェクトネススコア」と呼ばれる)と、オブジェクトが存在することを条件として、そのオブジェクトが特定のクラスに属する確率を組み合わせることができる。これは、検出の妥当性を評価するために推論プロセス中に使用される重要な出力です。このスコアは、COCOのようなデータセットから学習されたモデルの重みに基づいて計算されます。
実際には、モデルからの予測がすべて同じように有用で信頼できるわけではない。信頼度スコアが非常に低い予測は、バックグラウンド・ノイズや不確実な分類であることが多い。これらをフィルタリングするために、通常「信頼度しきい値」が適用される。これはユーザー定義の値(例えば、0.5または50%)であり、この閾値以上の信頼スコアを持つ予測のみが有効な出力とみなされる。適切な閾値の設定は極めて重要であり、しばしば特定のアプリケーションに依存する:
信頼度しきい値は、多くの場合、非最大抑制(NMS)のような手法と連携して動作し、同じオブジェクトの重複するバウンディングボックスを削除することで、最終的な検出セットを洗練させます。コマンドラインインターフェース(CLI)またはPython APIを使用して、Ultralytics モデルを使用する際にこのしきい値を簡単に設定できます。最適な閾値を見つけるには、ハイパーパラメーターのチューニングが必要になる場合があります。
信頼性スコアは、AIモデルを責任を持って効果的に展開するための基本である:
個々の予測の信頼度スコアとモデル全体の評価指標を混同しないことが重要です。関連はありますが、これらはパフォーマンスの異なる側面を測定します:
要約すると、確信度は個々のAI予測の確実性を評価するための価値あるアウトプットであり、実世界のアプリケーションにおいてより良いフィルタリング、優先順位付け、意思決定を可能にする。これは、Ultralytics HUBで追跡されるようなモデルの全体的なパフォーマンスを評価するメトリクスを補完するが、それとは異なるものである。