Đón xem YOLO Vision 2025!
25 tháng 9, 2025
10:00 — 18:00 BST
Sự kiện kết hợp
Yolo Vision 2024
Bảng chú giải thuật ngữ

Mất tiêu cự

Khám phá cách Focal Loss giải quyết vấn đề mất cân bằng lớp trong phát hiện đối tượng — tập trung đào tạo vào các ví dụ khó để cải thiện độ chính xác trên các tập dữ liệu mất cân bằng.

Focal Loss là một hàm mất mát chuyên biệt được thiết kế để giải quyết vấn đề mất cân bằng lớp trong quá trình huấn luyện các mô hình học máy . Vấn đề này đặc biệt phổ biến trong các tác vụ phát hiện đối tượng , trong đó số lượng ví dụ nền (lớp âm) có thể vượt xa số lượng đối tượng nền quan tâm (lớp dương). Bằng cách điều chỉnh trọng số của từng ví dụ một cách linh hoạt, Focal Loss khuyến khích mô hình tập trung nỗ lực học tập vào các ví dụ khó phân loại, thay vì bị choáng ngợp bởi số lượng lớn các ví dụ âm dễ phân loại. Phương pháp này cải thiện đáng kể độ chính xác và hiệu suất của các mô hình được huấn luyện trên các tập dữ liệu mất cân bằng.

Mất tiêu cự hoạt động như thế nào

Mất Tiêu Điểm (Focal Loss) là một cải tiến của Mất Tiêu Entropy Chéo (Cross-Entropy Loss) tiêu chuẩn, được sử dụng rộng rãi cho các tác vụ phân loại ảnh . Cải tiến quan trọng, được giới thiệu trong bài báo RetinaNet bởi các nhà nghiên cứu tại Meta AI (trước đây là Facebook AI Research), là một hệ số điều chế giúp giảm thiểu sự đóng góp của mất mát từ các ví dụ được phân loại tốt. Điều này cho phép các bản cập nhật lan truyền ngược của mô hình chủ yếu được điều khiển bởi các lỗi từ các ví dụ khó phân loại. Hàm này bao gồm một "tham số tập trung" kiểm soát tốc độ giảm trọng số mất mát đối với các ví dụ dễ. Bằng cách ưu tiên các ví dụ khó này, thuật toán tối ưu hóa có thể thực hiện các điều chỉnh có ý nghĩa hơn đối với các trọng số của mô hình , dẫn đến hiệu suất tổng thể tốt hơn, đặc biệt là đối với các bộ phát hiện đối tượng một giai đoạn như RetinaNet và một số phiên bản của YOLO. Bạn có thể khám phá cách triển khai Mất Tiêu Điểm một cách kỹ thuật trong tài liệu Ultralytics.

Các Ứng dụng Thực tế

Focus Loss đóng vai trò quan trọng trong việc đào tạo các mô hình mạnh mẽ cho nhiều tình huống thực tế khác nhau, trong đó mất cân bằng lớp là một thách thức đáng kể.

So sánh với các hàm mất mát khác

Điều quan trọng là phải phân biệt Focal Loss với các hàm mất mát liên quan khác được sử dụng trong thị giác máy tính.

  • Mất mát Cross-Entropy : Mất mát Tiêu điểm là một biến thể trực tiếp của Mất mát Cross-Entropy. Trong khi Mất mát Cross-Entropy xử lý tất cả các ví dụ như nhau, Mất mát Tiêu điểm đưa ra một thuật ngữ để giảm tác động của các ví dụ dễ, giúp nó phù hợp hơn với dữ liệu huấn luyện mất cân bằng. Để hiểu sâu hơn về Mất mát Cross-Entropy, các ghi chú CS231n của Stanford cung cấp một lời giải thích hữu ích.
  • Varifocal Loss : Đây là một hàm mất mát mới hơn, được xây dựng dựa trên các nguyên tắc của Focal Loss. Trong khi Focal Loss xử lý tất cả các ví dụ dương như nhau, Varifocal Loss sẽ cân nhắc chúng dựa trên điểm phân loại của chúng, ưu tiên các ví dụ dương chất lượng cao hơn. Bạn có thể tìm hiểu thêm về cách triển khai cụ thể của hàm này trong tài liệu tham khảo về hàm mất mát của Ultralytics .
  • Mất mát dựa trên IoU : Các hàm như Giao cắt Tổng quát trên Hợp (IoU) , DIoU và CIoU được sử dụng để đo độ chính xác định vị của một khung giới hạn dự đoán. Chúng liên quan đến vị trí của một đối tượng, trong khi Mất mát Tiêu điểm liên quan đến bản chất của đối tượng (phân loại của nó). Trong các bộ phát hiện hiện đại như Ultralytics YOLOv8 , mất mát phân loại (như Mất mát Tiêu điểm) và mất mát hồi quy (như mất mát dựa trên IoU) được sử dụng cùng nhau để huấn luyện mô hình.

Tham gia cộng đồng Ultralytics

Tham gia vào tương lai của AI. Kết nối, hợp tác và phát triển cùng với những nhà đổi mới toàn cầu

Tham gia ngay
Đã sao chép liên kết vào clipboard