Yolo 深圳
深セン
今すぐ参加
用語集

再現率

機械学習におけるRecallとは何か、なぜそれが重要なのか、そしてAIモデルが重要な陽性インスタンスを効果的に捉えることをどのように保証するかを学びます。

リコールは、感度または真陽性率としても知られ、基本的な評価指標である。 評価指標である機械学習(ML)モデルの能力を測定するために使用される基本的な評価指標である。 データセット内のすべての関連するインスタンスを識別する能力を測定するために使用される基本的な評価指標である。本質的に、再現率は特定の質問に答える:「すべての この評価指標は、特にデータセットに焦点を当てます。この指標は、特に次のことに重点を置いている 偽陰性を最小化し、重要なイベントやオブジェクトが見落とされないようにします。一方 accuracyはパフォーマンスの一般的な概要を提供します、 リコールが成功の主な指標となるのは、ターゲットを見逃すと誤報よりも高いコストがかかるシナリオにおいてです。 アラーム

AIにおける想起の重要性

多くのコンピュータ・ビジョン(CV)やデータ解析タスクにおいて エラーのコストは一様ではない。ポジティブなケースをdetect できなかった場合(タイプIIエラー)は、時として 危険であったり高価であったりする。高いリコールは、システムができるだけ多くの真陽性を捕捉するために広い網をかけることを保証する。 可能である。これは推論中に信頼閾値を調整することで達成されることが多い。 しきい値を下げると一般的に しきい値を下げると、一般的に想起は上がるが、偽陽性が増える可能性がある。

エンジニアはしばしば 精度-再現曲線 を分析する。再現率100%のモデルは、すべての対象物を発見したことになる、 しかし、背景のノイズをターゲットとして誤ってラベル付けしている可能性もある。

実際のアプリケーション

リコールは、多くのセーフティ・クリティカルなAIの原動力となっている。 AIソリューションの原動力となっている。以下は、リコールが優先される2つの顕著な例である。 が優先される2つの顕著な例を挙げよう:

  • 医療診断スクリーニングなどの 医療画像解析の分野では X線やMRIを使った病気のスクリーニングなど、医療画像解析の分野では、高い再現性は譲れません。もし 腫瘍検出用AIモデル がスキャンを分析する場合、悪性腫瘍を完全に見逃す(偽陽性)よりも、良性であることが判明した疑わしい影にフラグを立てる(偽陽性)方が、システムにとってははるかに良い。 悪性腫瘍を完全に見逃す(偽陰性)よりも、良性であることが判明した疑わしい影にフラグを立てる(偽陽性)方が、システムにとってははるかに良い。医師はこのような AIはセーフティネットとして機能する、 潜在的な健康リスクが無視されないようにするためだ。
  • セキュリティと監視セキュリティー セキュリティ・アラーム・システムにとって、第一の目標は すべての侵入をdetect ことです。高リコールに最適化されたシステムでは、制限区域に人が侵入すると、アラームが作動します。 アラームが作動します。このため、動物や影による誤報が発生することもあるが、これは システムが実際の侵入者をdetect できないよりは望ましい。 このようなシナリオにおける物体検出モデルは 潜在的な脅威に対して最大限の感度を確保するように調整されています。

リコールと精度と比較

リコールと関連する測定基準の違いを理解することは、モデル評価の洞察を解釈する上で極めて重要である。 モデル評価の洞察を解釈するために重要である。

  • 再現率と精度:回収率は発見された真陽性の量を測定する、 精度は、それらの陽性予測の質または信頼性を測定する。 を測定する。精度は、「陽性とラベル付けされたすべての項目のうち、実際に陽性であったものはいくつあるか? を問う。しばしばトレードオフがあり、より低い信頼度の検出を受け入れることによって想起を増加させることは、通常、精度を低下させます。 は精度を下げる.F1スコアは、バランスのとれたビューを提供するために を組み合わせた指標である。
  • リコール対精度:精度は、全体的な予測の正答率(正負両方)を測定する。 を測定する。)しかし 不均衡なデータセット、例えば99%の部品が良品で1%だけが不良品である製造ラインでは、モデルは単純に毎回「良品」と予測し、99%の精度を達成することができます。 モデルは毎回 "良品 "を予測し、99%の精度を達成する一方で、欠陥の想起率は0%である。このような このような異常検出タスクでは、リコールは精度よりもはるかに正直な指標です。 精度よりもはるかに正直な指標です。

Ultralytics YOLOリコール測定

を使ってモデルを開発する場合 Ultralytics YOLO11アーキテクチャでモデルを開発する場合、リコールは が自動的に計算される。フレームワークは、各クラスのリコールと 平均平均精度(mAP)を計算し 開発者は、モデルがどの程度オブジェクトを見つけることができるかを評価することができます。

Python使えば、学習済みモデルを簡単に検証し、そのリコールメトリクスを見ることができる:

from ultralytics import YOLO

# Load a pretrained YOLO11 model
model = YOLO("yolo11n.pt")

# Validate the model on a standard dataset like COCO8
# The results will include Precision (P), Recall (R), and mAP
metrics = model.val(data="coco8.yaml")

# Access the mean recall score from the results
print(f"Mean Recall: {metrics.results_dict['metrics/recall(B)']}")

このコードスニペットは YOLO11 モデルをロードし、COCO8 データセットで検証を実行する。その 出力は、パフォーマンスの包括的な内訳を提供し、あなたのモデルが特定のアプリケーションに必要な想起要件を満たしているかどうかを評価することができます。 を満たしているかどうかを評価することができます。リコールが低すぎる場合は、次のようなテクニックを検討することができます。 データ増強または ハイパーパラメータのチューニングのようなテクニックを検討することができます。

Ultralytics コミュニティに参加する

AIの未来を共に切り開きましょう。グローバルなイノベーターと繋がり、協力し、成長を。

今すぐ参加