Узнайте, что такое Recall в машинном обучении, почему это важно и как это обеспечивает эффективный захват AI-моделями критически важных положительных экземпляров.
Отзыв, также известный как чувствительность или частота истинных положительных результатов, является фундаментальной метрика оценки, используемая для измерения способность модели машинного обучения (ML) выявлять все релевантные экземпляры в наборе данных. По сути, recall отвечает на конкретный вопрос: "Из всех из всех реальных положительных случаев, сколько из них модель успешно detect?". Эта метрика в первую очередь направлена на минимизации ложноотрицательных результатов, гарантируя, что критические события или объекты не будут упущены. Хотя точность дает общее представление о производительности, запоминание становится основным показателем успеха в сценариях, где пропуск цели обходится дороже, чем ложная тревоги.
Во многих задачах компьютерного зрения (КЗ) и анализа данных стоимость ошибок не одинакова. Невозможность detect положительный случай (ошибка II типа) иногда может быть опасным или дорогостоящим. Высокая запоминаемость гарантирует, что система забрасывает широкую сеть, чтобы поймать как можно больше истинных положительных результатов. сколько возможно. Этого часто добиваются, регулируя порога доверия во время вывода; снижение порога порога, как правило, увеличивает запоминание, но может привести к увеличению числа ложных срабатываний.
Инженеры часто анализируют кривую "точность-вызов чтобы понять компромиссы, присущие их моделям. Модель со 100-процентной повторяемостью обнаружила все целевые объекты, хотя, возможно, она также неверно определила некоторые фоновые шумы как цели.
Отзыв - это основной показатель, на котором основаны многие важные для безопасности ИИ. Вот два ярких примера, где отзыв имеет приоритет приоритет:
Понимание разницы между показателями recall и связанными с ними показателями имеет решающее значение для интерпретации результатов оценки модели.
При разработке моделей с помощью Ultralytics YOLO11 архитектура, отзыв автоматически вычисляется автоматически в процессе валидации. Фреймворк рассчитывает отзыв для каждого класса и среднее значение точности (mAP), что помогает разработчикам оценить, насколько хорошо модель находит объекты.
С помощью Python можно легко проверить обученную модель и просмотреть показатели ее запоминания:
from ultralytics import YOLO
# Load a pretrained YOLO11 model
model = YOLO("yolo11n.pt")
# Validate the model on a standard dataset like COCO8
# The results will include Precision (P), Recall (R), and mAP
metrics = model.val(data="coco8.yaml")
# Access the mean recall score from the results
print(f"Mean Recall: {metrics.results_dict['metrics/recall(B)']}")
Этот фрагмент кода загружает файл YOLO11 и запускает проверку на наборе данныхCOCO8 . Выходные данные На выходе вы получите исчерпывающую информацию о производительности, которая позволит вам оценить, соответствует ли ваша модель необходимым требованиям к отзыву для вашего конкретного приложения. Если показатели запоминания слишком низкие, можно рассмотреть такие методы, как увеличение объема данных или настройка гиперпараметров для повышения чувствительности.