Thuật ngữ

Học ít lần

Khám phá cách học ít lần cho phép AI thích ứng với dữ liệu tối thiểu, biến đổi các lĩnh vực như chẩn đoán y tế và bảo tồn động vật hoang dã.

Học ít lần (FSL) là một nhánh của học máy , tập trung vào việc xây dựng các mô hình có khả năng khái quát hóa thành các khái niệm mới chỉ từ một vài ví dụ. Các mô hình học sâu truyền thống, đặc biệt là trong thị giác máy tính , thường đòi hỏi một lượng lớn dữ liệu huấn luyện được gán nhãn để đạt hiệu suất cao. FSL giải quyết thách thức khan hiếm dữ liệu bằng cách tạo ra các mô hình có thể học hiệu quả trong các tình huống dữ liệu ít, mô phỏng khả năng học của con người trong việc học các đối tượng hoặc danh mục mới từ rất ít trường hợp. Điều này làm cho nó trở nên vô giá đối với các ứng dụng mà việc thu thập và gán nhãn dữ liệu tốn kém, mất thời gian, hoặc đơn giản là không thể.

Học theo phương pháp Few-Shot hoạt động như thế nào

Ý tưởng cốt lõi đằng sau FSL là tận dụng kiến thức sẵn có từ một tập dữ liệu lớn, đa dạng để nhanh chóng học các tác vụ mới liên quan. Thay vì học cách phân loại trực tiếp các danh mục cụ thể, mô hình học cách biểu diễn dữ liệu tổng quát hơn hoặc học cách so sánh các điểm dữ liệu. Các phương pháp phổ biến bao gồm:

  • Học dựa trên phép đo: Các phương pháp này học một hàm khoảng cách hoặc phép đo độ tương đồng để so sánh một vài ảnh "hỗ trợ" có nhãn với các ảnh "truy vấn" không có nhãn. Sau đó, ảnh truy vấn được gán lớp của ảnh hỗ trợ tương tự nhất. Các ví dụ phổ biến của phương pháp này bao gồm Mạng Siamese , học cách xác định xem hai ảnh có cùng lớp hay không, và Mạng Nguyên mẫu, học một biểu diễn nguyên mẫu cho mỗi lớp trong không gian phép đo.
  • Học tập dựa trên tối ưu hóa: Thường được liên kết với siêu học (hay "học cách học"), phương pháp này huấn luyện chính quá trình tối ưu hóa của mô hình. Mục tiêu là phát triển một mô hình có thể nhanh chóng điều chỉnh các tham số của nó cho một tác vụ mới chỉ với một vài bước giảm dần gradient. Một thuật toán có ảnh hưởng trong lĩnh vực này là Siêu học tập không phụ thuộc mô hình (MAML) .
  • Học tập dựa trên bộ nhớ: Các mô hình này sử dụng một thành phần bộ nhớ ngoài để lưu trữ thông tin từ một số ít ví dụ có sẵn. Khi một ví dụ mới được đưa ra, mô hình sẽ lấy thông tin liên quan từ bộ nhớ của nó để đưa ra dự đoán. Về mặt khái niệm, điều này tương tự như cách hoạt động của thuật toán k-Nearest Neighbors (k-NN) .

Học tập ít lần so với các khái niệm liên quan

Điều quan trọng là phải phân biệt FSL với các mô hình học tập khác xử lý dữ liệu hạn chế:

  • Học Zero-Shot (ZSL) : ZSL phức tạp hơn FSL, vì nó yêu cầu mô hình phải nhận dạng các lớp mà nó chưa từng thấy trong quá trình huấn luyện, chỉ sử dụng các mô tả ngữ nghĩa hoặc thuộc tính cấp cao. FSL yêu cầu ít nhất một ví dụ, trong khi ZSL không yêu cầu gì cả.
  • Học một lần (OSL) : OSL là một biến thể cụ thể của FSL, trong đó mô hình được cung cấp chính xác một ví dụ được gắn nhãn cho mỗi lớp mới. Đây là kịch bản đầy thách thức nhất trong khuôn khổ học ít lần.
  • Học chuyển giao : FSL là một dạng học chuyển giao, nhưng hai phương pháp này không giống nhau. Học chuyển giao truyền thống thường bao gồm việc sử dụng một mô hình đã được đào tạo trước trên một tập dữ liệu lớn như ImageNettinh chỉnh nó trên một tập dữ liệu mới nhỏ hơn. FSL được thiết kế đặc biệt cho các tình huống mà tập dữ liệu mới cực kỳ nhỏ (ví dụ: ít hơn 10 ví dụ trên mỗi lớp). Bạn có thể tìm hiểu cách các mô hình như Ultralytics YOLO11 sử dụng trọng số đã được đào tạo trước cho học chuyển giao trong tài liệu đào tạo mô hình của chúng tôi.

Ứng dụng trong thế giới thực

FSL đặc biệt hữu ích trong các lĩnh vực chuyên biệt nơi dữ liệu khan hiếm.

  1. Chẩn đoán bệnh hiếm gặp trong chẩn đoán hình ảnh y khoa: Đối với các bệnh hiếm gặp, việc thu thập hàng nghìn ảnh chụp bệnh nhân để huấn luyện mô hình thường không khả thi. Với FSL, một mô hình được huấn luyện trước trên một tập dữ liệu lớn các hình ảnh y khoa phổ biến có thể được điều chỉnh để xác định các dấu hiệu của một bệnh hiếm gặp chỉ bằng cách sử dụng một số ít trường hợp được xác nhận. Điều này giúp đẩy nhanh quá trình phát triển các công cụ chẩn đoán phân tích hình ảnh y khoa .
  2. Phát hiện Lỗi Công nghiệp: Trong sản xuất , một dòng sản phẩm mới có thể có những lỗi độc đáo và hiếm gặp. Thay vì tạm dừng sản xuất để thu thập hàng nghìn mẫu lỗi, một mô hình FSL để phát hiện đối tượng có thể được đào tạo nhanh chóng với một vài mẫu để tự động hóa kiểm soát chất lượng, cải thiện hiệu quả và giảm thiểu lãng phí. Các nền tảng như Ultralytics HUB có thể giúp quản lý các tập dữ liệu chuyên biệt này và đẩy nhanh quá trình triển khai mô hình .

Thách thức và hướng đi trong tương lai

Mặc dù có nhiều hứa hẹn, FSL vẫn phải đối mặt với những thách thức đáng kể. Rào cản chính là ngăn ngừa hiện tượng quá khớp , vì mô hình có thể dễ dàng ghi nhớ một vài ví dụ thay vì phải học cách khái quát hóa. Hiệu suất của mô hình cũng có thể rất nhạy cảm với chất lượng và tính đại diện của các ví dụ hỗ trợ được cung cấp.

Các nghiên cứu đang được tiến hành, được thúc đẩy bởi các tổ chức như Đại học Stanford , Google AIMeta AI , tập trung vào việc tạo ra các thuật toán siêu học mạnh mẽ hơn và tận dụng tốt hơn các kỹ thuật học không giám sát hoặc tự giám sát cho quá trình tiền huấn luyện. Việc kết hợp các phương pháp này nhằm mục đích xây dựng các hệ thống AI linh hoạt và hiệu quả hơn về dữ liệu, mở rộng giới hạn khả thi trong các môi trường hạn chế về dữ liệu. Các nền tảng tiên tiến như PyTorchTensorFlow cung cấp các công cụ cần thiết cho các nhà nghiên cứu khám phá các phương pháp tiên tiến này.

Tham gia cộng đồng Ultralytics

Tham gia vào tương lai của AI. Kết nối, cộng tác và phát triển với những nhà đổi mới toàn cầu

Tham gia ngay
Liên kết đã được sao chép vào clipboard