Sintonize na YOLO Vision 2025!
25 de setembro de 2025
10:00 — 18:00 BST
Evento híbrido
Yolo Vision 2024
Glossário

Recall (Revocação)

Aprenda o que é Recall (Revocação) em machine learning, por que é importante e como garante que os modelos de IA capturem instâncias positivas críticas de forma eficaz.

O Recall, também conhecido como sensibilidade ou taxa de verdadeiros positivos, é uma métrica de avaliação fundamental em machine learning (ML) e estatística. Ele mede a capacidade de um modelo de identificar corretamente todas as instâncias relevantes dentro de um conjunto de dados. Em termos simples, o Recall responde à pergunta: "De todas as instâncias positivas reais, quantas o modelo previu corretamente como positivas?" Uma alta pontuação de Recall indica que o modelo é eficaz em encontrar o que se espera que ele encontre, minimizando o número de casos positivos perdidos (falsos negativos). Essa métrica é particularmente crítica em aplicações onde a falha na detecção de um caso positivo tem consequências significativas.

A Importância do Alto Recall

Em muitos cenários do mundo real, o custo de um falso negativo (perder uma detecção) é muito maior do que o custo de um falso positivo (um falso alarme). É aqui que priorizar um alto Recall se torna essencial. Por exemplo, em tarefas como análise de imagens médicas ou detecção de fraudes, um modelo de alto Recall garante que o máximo de casos verdadeiros possível seja capturado para análise posterior, mesmo que isso signifique que alguns não-casos sejam sinalizados incorretamente.

  • Diagnóstico Médico: Em um sistema alimentado por IA para detectar câncer a partir de exames médicos, um modelo de alto Recall é crucial. É muito melhor que o sistema sinalize um paciente saudável para revisão por um radiologista (um falso positivo) do que perder um tumor canceroso (um falso negativo), o que poderia atrasar o tratamento que salva vidas. Muitas soluções de IA na área da saúde são otimizadas para alta sensibilidade.
  • Segurança e Vigilância: Para um sistema de alarme de segurança projetado para detetar intrusos, um alto Recall é fundamental. O sistema deve identificar todas as ameaças potenciais, mesmo que ocasionalmente confunda um animal perdido com um intruso. Falhar na deteção de uma violação de segurança genuína tornaria o sistema ineficaz.

Recall em Modelos Ultralytics YOLO

No contexto da visão computacional (VC) e de modelos como o Ultralytics YOLO, o Recall é uma métrica chave usada juntamente com a Precisão e a Precisão Média (mAP) para avaliar o desempenho em tarefas como detecção de objetos e segmentação de instâncias. Alcançar um bom equilíbrio entre Recall e Precisão é frequentemente essencial para um desempenho robusto no mundo real. Por exemplo, ao comparar modelos como YOLOv8 vs YOLO11, o Recall ajuda a entender o quão bem cada modelo identifica todos os objetos alvo. Os usuários podem treinar modelos personalizados usando frameworks como PyTorch ou TensorFlow e rastrear o Recall usando ferramentas como Weights & Biases ou os recursos integrados no Ultralytics HUB. Compreender o Recall ajuda a otimizar modelos para casos de uso específicos, potencialmente envolvendo ajuste de hiperparâmetros ou explorando diferentes arquiteturas de modelo como YOLOv10 ou o mais recente YOLO11. Recursos como a documentação do Ultralytics oferecem guias abrangentes sobre treinamento e avaliação.

Recall vs. Outras Métricas

É importante diferenciar Recall de outras métricas de avaliação comuns.

  • Precisão: Enquanto o Recall se concentra em encontrar todas as amostras positivas, a Precisão mede a acurácia das predições positivas feitas. Responde: "De todas as instâncias que o modelo previu como positivas, quantas eram realmente positivas?" Existe frequentemente uma troca entre Precisão e Recall; aumentar um pode diminuir o outro. Este conceito é conhecido como o trade-off Precisão-Recall.
  • Acurácia: Mede a percentagem geral de previsões corretas (tanto positivas como negativas). A acurácia pode ser uma métrica enganosa para conjuntos de dados desequilibrados, onde uma classe supera largamente a outra. Por exemplo, num conjunto de dados com 99% de amostras negativas, um modelo que prevê tudo como negativo atinge 99% de acurácia, mas tem um Recall de zero para a classe positiva.
  • F1-Score: Esta é a média harmônica de Precisão e Recall. O F1-Score fornece um único número que equilibra ambas as métricas, tornando-o uma medida útil quando você precisa considerar falsos positivos e falsos negativos. É frequentemente usado quando há uma distribuição de classe desigual.
  • Área Sob a Curva (AUC): Especificamente para classificação binária, a curva Característica de Operação do Receptor (ROC) representa graficamente a taxa de verdadeiros positivos (Recall) contra a taxa de falsos positivos. A AUC fornece uma única pontuação que resume o desempenho do modelo em todos os limiares de classificação. A área sob a curva Precision-Recall (AUC-PR) é frequentemente mais informativa para tarefas de classificação desequilibradas.

Junte-se à comunidade Ultralytics

Junte-se ao futuro da IA. Conecte-se, colabore e cresça com inovadores globais

Junte-se agora
Link copiado para a área de transferência