YOLO Vision Shenzhen
深セン
今すぐ参加
用語集

再現率

機械学習におけるリコールの重要性を探る。高い検出率を確保するために、Ultralytics YOLO26モデルの感度を測定し改善する方法を学ぶ。

感度または真陽性率とも呼ばれる再現率は、データセット内のすべての関連インスタンスをモデルが識別する能力を測定する、機械学習における基本的な性能指標です。物体検出や分類の文脈では、具体的に「すべての実際の陽性ケースのうち、モデルが正しく見つけられたのはいくつですか?」という問いに答えます。陽性インスタンスを見逃すこと(しばしば偽陰性と呼ばれる)が重大な結果を招くシナリオでは、高い再現率を達成することが不可欠です。不均衡なデータを扱う際に誤解を招く可能性のある精度とは異なり、再現率は、ターゲットクラスを「捕捉する」モデルの有効性に焦点を当てた視点を提供します。

高いリコールの重要性

多くの人工知能アプリケーションでは、オブジェクトをdetectできないコストは、誤報のコストよりもはるかに高くなります。リコールに最適化されたモデルは偽陰性を最小限に抑え、システムが潜在的な脅威、異常、または重要な状態を捕捉するのに十分な広さの網を張ることを保証します。これはしばしばトレードオフを伴い、リコールを増やすと精度スコアが低下し、モデルが関連性のない項目をより多く陽性とフラグ付けする可能性があります。このバランスを理解することが、堅牢な機械学習ソリューションを開発するための鍵となります。

実際のアプリケーション

リコールは多くの安全上重要なAIソリューションの主要指標である。感度が優先される代表的な事例を2つ挙げる:

  • 医療診断: 医療画像解析(疾患の早期兆候をスクリーニングするX線など)において、高い再現率は絶対条件である。医療システムで腫瘍detect にAIを使用する場合、悪性腫瘍を見逃すよりも、結果的に良性である疑わしい影を誤検知(偽陽性)としてフラグを立てる方がはるかに望ましい。 医師はこれらのツールを安全装置として依存し、潜在的な健康リスクを見逃さないことを保証している。
  • セキュリティと監視: セキュリティ警報システムの主な目的は、 detect 侵入試みをdetect ことです。 高再現率に最適化されたシステムは、 制限区域に人が侵入した場合に警報が作動することを保証します。 野生生物による誤作動が時折発生する可能性はありますが、 実際のdetect システムよりも この方式が望ましいのです。 こうしたシナリオにおける物体検知モデルは、 潜在的な脅威に対する感度を最大化するよう調整されています。

再現率と適合率

再現率をその対極である精度と区別することが不可欠です。再現率が関連するケースがどれだけ見つかったか(網羅性)を測定するのに対し、精度は陽性予測の品質(正確性)を測定します。

  • 再現率: 見逃し検出を避けることに焦点を当てます。「すべてのリンゴを見つけましたか?」
  • 適合率: 誤報を最小限に抑えることに焦点を当てます。「私たちがリンゴと呼んだものはすべて本当にリンゴなのか?」

これら2つの指標は、多くの場合、逆相関の関係にあり、適合率-再現率曲線(Precision-Recall curve)によって可視化されます。それらの全体的なバランスを評価するために、開発者は、両者の調和平均であるF1スコアをよく参照します。不均衡データセットでは、再現率を混同行列と合わせて見ることが、精度単独よりもはるかに明確なパフォーマンス像を提供します。

Ultralytics YOLOリコール測定

最先端のYOLO26のようなモデルをトレーニングする際、recallはvalidationフェーズ中に自動的に計算されます。フレームワークは各クラスのrecallとmean Average Precision (mAP)を計算し、開発者がモデルがオブジェクトをどれだけうまく見つけるかを評価するのに役立ちます。

Pythonを使用すれば、学習済みモデルの検証や再現率メトリクスの確認を簡単に行えます。以下のスニペットは、モデルを読み込み標準データセットでの性能を確認する方法を示しています:

from ultralytics import YOLO

# Load a pretrained YOLO26 model
model = YOLO("yolo26n.pt")

# Validate the model on the COCO8 dataset
# The results object contains metrics like Precision, Recall, and mAP
metrics = model.val(data="coco8.yaml")

# Access and print the mean recall score for box detection
print(f"Mean Recall: {metrics.results_dict['metrics/recall(B)']:.4f}")

このコードは、検証を実行するためにUltralytics APIを利用します。プロジェクトに必要なrecallが低い場合、より多様なトレーニング例を作成するためのデータ拡張や、モデルの感度を調整するためのハイパーパラメータチューニングなどの手法を検討することができます。Ultralytics Platformを使用することで、データセットの管理や複数のトレーニング実行におけるこれらのメトリクスの追跡プロセスも効率化できます。

モデルのリコール改善

モデルのリコールを向上させるため、データサイエンティストは推論中に使用される信頼度閾値を調整することがよくあります。閾値を下げることで、モデルはより「楽観的」になり、より多くの予測を陽性と受け入れるため、リコールは増加しますが、精度は低下する可能性があります。さらに、より多様な訓練データを収集することは、モデルが困難なネガティブサンプルや曖昧なインスタンスを認識するのに役立ちます。複雑なタスクの場合、Transformerブロックのような高度なアーキテクチャを採用したり、アンサンブル手法を検討したりすることも、より単純なモデルが見逃す可能性のある微妙な特徴をシステムがdetectする能力を向上させることができます。

共にAIの未来を築きましょう!

未来の機械学習で、新たな一歩を踏み出しましょう。