Yolo Tầm nhìn Thâm Quyến
Thâm Quyến
Tham gia ngay
Bảng chú giải thuật ngữ

Tinh chỉnh (Fine-tuning)

Tinh chỉnh các mô hình học máy như Ultralytics YOLO cho các nhiệm vụ cụ thể. Tìm hiểu các phương pháp, ứng dụng và thực hành tốt nhất tại đây!

Tinh chỉnh là một kỹ thuật học máy (ML) chiến lược được sử dụng để chuyên biệt hóa một mô hình đã được đào tạo trước cho một tác vụ hoặc tập dữ liệu cụ thể. Thay vì đào tạo từ đầu , vốn đòi hỏi một lượng lớn dữ liệu được gắn nhãn và sức mạnh tính toán, tinh chỉnh tận dụng kiến thức hiện có của một mô hình đã học được các mẫu từ một tập dữ liệu tổng quát rộng lớn. Quy trình này là một ứng dụng thực tế của học chuyển giao , cho phép các nhà phát triển đạt được hiệu suất cao trong các vấn đề chuyên biệt—chẳng hạn như phát hiện lỗi sản xuất hiếm gặp hoặc phân loại hình ảnh y tế—với nguồn lực được giảm đáng kể.

Fine-Tuning hoạt động như thế nào

Quá trình bắt đầu với một mô hình nền tảng , chẳng hạn như mô hình thị giác được đào tạo trên ImageNet hoặc mô hình ngôn ngữ được đào tạo trên kho ngữ liệu internet. Các mô hình này sở hữu khả năng hiểu biết sâu sắc về các đặc điểm cơ bản như cạnh, kết cấu và hình dạng trong hình ảnh, hoặc ngữ pháp và ngữ nghĩa trong văn bản. Trong quá trình tinh chỉnh, mô hình được tiếp xúc với một tập dữ liệu tùy chỉnh mới, nhỏ hơn, phù hợp với ứng dụng mục tiêu.

Quá trình đào tạo bao gồm việc điều chỉnh trọng số mô hình một chút để phù hợp với các sắc thái của dữ liệu mới. Thông thường, việc này được thực hiện bằng cách sử dụng tốc độ học thấp hơn để bảo toàn các tính năng có giá trị đã học được trong giai đoạn tiền đào tạo ban đầu, đồng thời vẫn cho phép mô hình thích ứng. Trong nhiều quy trình làm việc thị giác máy tính (CV) , các kỹ sư có thể đóng băng các lớp xương sống ban đầu — detect các tính năng cơ bản—và chỉ tinh chỉnh các lớp sâu hơn và đầu phát hiện chịu trách nhiệm đưa ra dự đoán cuối cùng.

Tinh chỉnh với Ultralytics YOLO

Việc áp dụng một mô hình tiên tiến như Ultralytics YOLO11 vào dữ liệu cụ thể của bạn rất đơn giản. Thư viện tự động xử lý các vấn đề phức tạp của việc tải trọng số đã được đào tạo trước và cấu hình vòng lặp đào tạo.

Ví dụ sau đây minh họa cách tải một chương trình được đào tạo trước YOLO11 mô hình hóa và tinh chỉnh nó trên một tập dữ liệu mẫu.

from ultralytics import YOLO

# Load a pre-trained YOLO11 model (uses COCO weights by default)
model = YOLO("yolo11n.pt")

# Fine-tune the model on a specific dataset configuration
# 'epochs' sets the training duration, and 'imgsz' defines input resolution
results = model.train(data="coco8.yaml", epochs=20, imgsz=640)

Các Ứng dụng Thực tế

Việc tinh chỉnh giúp thu hẹp khoảng cách giữa khả năng AI chung và các yêu cầu cụ thể của ngành.

  • AI trong Chăm sóc Sức khỏe : Các mô hình thị giác tổng quát có thể nhận dạng các vật thể hàng ngày như ô tô hoặc mèo. Tuy nhiên, bằng cách tinh chỉnh các mô hình này trên các tập dữ liệu phân tích hình ảnh y tế có chú thích, chẳng hạn như chụp X-quang hoặc chụp MRI, các bác sĩ có thể tạo ra các công cụ chuyên biệt để detect các tình trạng cụ thể như viêm phổi hoặc khối u não với độ chính xác cao.
  • Sản xuất Công nghiệp : Trong dây chuyền sản xuất, một mô hình tiêu chuẩn có thể không nhận diện được các linh kiện độc quyền hoặc các lỗi tinh vi. Bằng cách tinh chỉnh mô hình dựa trên hình ảnh của dây chuyền lắp ráp cụ thể, các nhà sản xuất có thể tự động hóa quy trình kiểm soát chất lượng để phát hiện các lỗi như vết nứt nhỏ hoặc sai lệch, từ đó cải thiện đáng kể hiệu quả.

Tinh chỉnh so với các khái niệm liên quan

Việc phân biệt phương pháp điều chỉnh tinh vi với các phương pháp thích ứng khác là rất quan trọng để lựa chọn phương pháp phù hợp:

  • Trích xuất đặc trưng : Trong phương pháp này, mô hình được đào tạo trước được coi như một bộ trích xuất đặc trưng cố định. Các trọng số được đóng băng hoàn toàn, và chỉ một bộ phân loại đơn giản (như mô hình Hồi quy tuyến tính ) được đào tạo dựa trên các kết quả đầu ra. Tinh chỉnh tiến thêm một bước nữa bằng cách cập nhật các tham số nội bộ của mô hình.
  • Tinh chỉnh Hiệu quả Tham số (PEFT) : Trong khi tinh chỉnh tiêu chuẩn cập nhật tất cả hoặc hầu hết các tham số mô hình, các phương pháp PEFT như LoRA (Thích ứng Hạng Thấp) chỉ cập nhật một tập hợp con nhỏ các tham số. Điều này giúp quá trình nhanh hơn nhiều và ít tốn bộ nhớ hơn, đặc biệt là đối với các Mô hình Ngôn ngữ Lớn (LLM) đồ sộ.
  • Kỹ thuật nhắc nhở : Điều này bao gồm việc tạo ra các đầu vào cụ thể (lời nhắc) để hướng dẫn đầu ra của mô hình đóng băng mà không thay đổi trọng số bên trong hoặc đào tạo nó trên dữ liệu mới.

Công Cụ và Framework

Để triển khai tinh chỉnh, các nhà phát triển dựa vào các nền tảng mạnh mẽ như PyTorchTensorFlow , cung cấp cơ sở hạ tầng cần thiết cho việc giảm dần độ dốc và lan truyền ngược. Các thư viện hiện đại hợp lý hóa hơn nữa; ví dụ: Ultralytics Hệ sinh thái này cho phép đào tạo và xác thực mô hình liền mạch. Khi chuẩn bị dữ liệu để tinh chỉnh, việc đảm bảo chú thích dữ liệu chất lượng cao là điều cần thiết để ngăn ngừa sai lệch dữ liệu , vốn có thể làm sai lệch hiệu suất của mô hình trong các tình huống thực tế.

Tham gia Ultralytics cộng đồng

Tham gia vào tương lai của AI. Kết nối, hợp tác và phát triển cùng với những nhà đổi mới toàn cầu

Tham gia ngay