머신 러닝에서 F1 점수가 갖는 중요성을 알아보세요! 최적의 모델 평가를 위해 정밀도와 재현율의 균형을 맞추는 방법을 배우십시오.
F1 점수는 머신러닝(ML)에서 중요한 성능 지표입니다. 머신 러닝(ML)의 중요한 성능 지표입니다. 분류 모델의 정확도를 평가하는 데 사용되는 중요한 성능 지표입니다. 올바른 예측의 비율을 계산하는 단순 정확도와 달리, F1 점수는 F1-Score는 다른 두 가지 중요한 메트릭인 정확도와 리콜을하나의 값으로 결합합니다. F1 점수는 다음과 같이 정의됩니다. 정확도와 회수율의 조화 평균으로 정의됩니다. 따라서 F1 점수는 특히 훈련된 모델을 평가하는 데 유용합니다. 한 클래스의 샘플 수가 다른 클래스보다 훨씬 많은 불균형 데이터 세트. 이러한 경우, 모델은 단순히 다수 클래스를 예측하는 것만으로 높은 정확도를 달성할 수 있지만, 종종 더 큰 관심사인 소수 클래스를 식별하지 못할 수 있습니다. 식별하지 못할 수 있습니다.
F1 점수를 이해하려면 구성 요소 간의 장력을 파악해야 합니다. 정확도는 양성 예측의 양성 예측의 품질(오탐 최소화)을 측정하는 반면, Recall은 식별된 진성 양성(오탐 최소화)의 양을 (오탐 최소화)의 양을 측정합니다. 이러한 지표 중 하나가 증가하면 다른 지표가 감소하는 경우가 종종 있습니다. 이 현상을 정밀도-리콜 트레이드오프. F1-Score는 극단적인 값에 불이익을 줌으로써 균형 잡힌 시각을 제공합니다. F1 점수는 1(완벽함)에서 최고 값에 도달하고( 정확도 및 회수율)에서 최고값에 도달하고 0에서 최악값에 도달합니다. 이 균형은 두 가지를 모두 놓치지 않는 강력한 강력한 예측 모델링 시스템을 개발하는 데 필수적입니다. 탐지 및 오경보 모두 상당한 비용을 수반하는 강력한 예측 모델링 시스템을 개발하는 데 필수적입니다.
F1 점수는 오류 비용이 높거나 데이터 분포가 왜곡된 시나리오에서 필수적인 요소입니다.
다음과 같은 컴퓨터 비전(CV) 작업의 경우 개체 감지와 같은 컴퓨터 비전(CV) 작업의 경우 F1 점수는 모델이 경계를 얼마나 모델이 경계를 얼마나 잘 정의하고 특정 신뢰 임계값에서 객체를 분류하는지를 결정하는 데 도움이 됩니다. 다음과 같은 모델을 훈련할 때 Ultralytics YOLO11와 같은 모델을 훈련할 때 검증 프로세스는 정확도, 회수율 및 F1 점수를 계산하여 엔지니어가 최상의 모델 가중치를 선택할 수 있도록 도와줍니다.
다음 Python 코드는 사전 학습된 YOLO11 모델의 유효성을 검사하고 성능 메트릭에 액세스하는 방법을 보여줍니다.
from ultralytics import YOLO
# Load a pretrained YOLO11 model
model = YOLO("yolo11n.pt")
# Run validation on a dataset like COCO8
# The .val() method computes metrics including Precision, Recall, and mAP
metrics = model.val(data="coco8.yaml")
# Print the mean results
# While F1 is computed internally for curves, mAP is the primary summary metric
print(f"Mean Average Precision (mAP50-95): {metrics.box.map}")
print(f"Precision: {metrics.box.mp}")
print(f"Recall: {metrics.box.mr}")
올바른 메트릭을 선택하는 것은 AI 프로젝트의 구체적인 목표에 따라 달라집니다.
F1 점수를 향상하려면 모델과 데이터에 대한 반복적인 개선이 수반되는 경우가 많습니다.