機械学習におけるRecallとは何か、なぜそれが重要なのか、そしてAIモデルが重要な陽性インスタンスを効果的に捉えることをどのように保証するかを学びます。
リコールは、感度または真陽性率としても知られ、基本的な評価指標である。 評価指標である。 機械学習(ML)モデルの能力を測定するために使用される基本的な評価指標である。 データセット内のすべての関連するインスタンスを識別する能力を測定するために使用される基本的な評価指標である。本質的に、再現率は特定の質問に答える:「すべての この評価指標は、特にデータセットに焦点を当てます。この指標は、特に次のことに重点を置いている 偽陰性を最小化し、重要なイベントやオブジェクトが見落とされないようにします。一方 accuracyはパフォーマンスの一般的な概要を提供します、 リコールが成功の主な指標となるのは、ターゲットを見逃すと誤報よりも高いコストがかかるシナリオにおいてです。 アラーム
多くのコンピュータ・ビジョン(CV)やデータ解析タスクにおいて エラーのコストは一様ではない。ポジティブなケースをdetect できなかった場合(タイプIIエラー)は、時として 危険であったり高価であったりする。高いリコールは、システムができるだけ多くの真陽性を捕捉するために広い網をかけることを保証する。 可能である。これは推論中に信頼閾値を調整することで達成されることが多い。 しきい値を下げると一般的に しきい値を下げると、一般的に想起は上がるが、偽陽性が増える可能性がある。
エンジニアはしばしば 精度-再現曲線 を分析する。再現率100%のモデルは、すべての対象物を発見したことになる、 しかし、背景のノイズをターゲットとして誤ってラベル付けしている可能性もある。
リコールは、多くのセーフティ・クリティカルなAIの原動力となっている。 AIソリューションの原動力となっている。以下は、リコールが優先される2つの顕著な例である。 が優先される2つの顕著な例を挙げよう:
リコールと関連する測定基準の違いを理解することは、モデル評価の洞察を解釈する上で極めて重要である。 モデル評価の洞察を解釈するために重要である。
を使ってモデルを開発する場合 Ultralytics YOLO11アーキテクチャでモデルを開発する場合、リコールは が自動的に計算される。フレームワークは、各クラスのリコールと 平均平均精度(mAP)を計算し 開発者は、モデルがどの程度オブジェクトを見つけることができるかを評価することができます。
Python使えば、学習済みモデルを簡単に検証し、そのリコールメトリクスを見ることができる:
from ultralytics import YOLO
# Load a pretrained YOLO11 model
model = YOLO("yolo11n.pt")
# Validate the model on a standard dataset like COCO8
# The results will include Precision (P), Recall (R), and mAP
metrics = model.val(data="coco8.yaml")
# Access the mean recall score from the results
print(f"Mean Recall: {metrics.results_dict['metrics/recall(B)']}")
このコードスニペットは YOLO11 モデルをロードし、COCO8 データセットで検証を実行する。その 出力は、パフォーマンスの包括的な内訳を提供し、あなたのモデルが特定のアプリケーションに必要な想起要件を満たしているかどうかを評価することができます。 を満たしているかどうかを評価することができます。リコールが低すぎる場合は、次のようなテクニックを検討することができます。 データ増強または ハイパーパラメータのチューニングのようなテクニックを検討することができます。


