Yolo Vision Thâm Quyến
Thâm Quyến
Tham gia ngay
Bảng chú giải thuật ngữ

Tinh chỉnh (Fine-tuning)

Tinh chỉnh các mô hình máy học như Ultralytics YOLO cho các tác vụ cụ thể. Tìm hiểu các phương pháp, ứng dụng và các phương pháp hay nhất tại đây!

Tinh chỉnh là một kỹ thuật cốt lõi trong học máy (ML), bao gồm việc lấy một mô hình đã được huấn luyện trước trên một tập dữ liệu lớn, tổng quát và huấn luyện thêm nó trên một tập dữ liệu nhỏ hơn, chuyên biệt hơn. Quá trình này, một hình thức của học chuyển giao, điều chỉnh kiến thức đã học của mô hình để vượt trội trong một tác vụ cụ thể mà không cần phải huấn luyện một mô hình từ đầu. Bằng cách bắt đầu với một mô hình nền tảng mạnh mẽ, các nhà phát triển có thể đạt được hiệu suất cao với ít dữ liệu và tài nguyên tính toán hơn đáng kể, một khái niệm được khám phá bởi các tổ chức như Stanford AI Lab.

Fine-Tuning hoạt động như thế nào

Quá trình bắt đầu với một mô hình có trọng số đã được tối ưu hóa trên một bộ dữ liệu rộng lớn như ImageNet cho thị giác hoặc một kho văn bản khổng lồ cho Mô hình ngôn ngữ lớn (LLM). Mô hình được huấn luyện trước này đã hiểu các đặc trưng chung—chẳng hạn như các cạnh và kết cấu trong hình ảnh hoặc ngữ pháp và ngữ nghĩa trong văn bản. Sau đó, tinh chỉnh tiếp tục quá trình huấn luyện, thường sử dụng tốc độ học thấp hơn, trên một bộ dữ liệu tùy chỉnh được điều chỉnh cho ứng dụng mục tiêu. Điều này điều chỉnh các tham số của mô hình để trở nên chuyên biệt cho các sắc thái cụ thể của tác vụ mới. Các framework như PyTorchTensorFlow cung cấp các công cụ mở rộng để triển khai các quy trình làm việc tinh chỉnh.

Các Ứng dụng Thực tế

Tinh chỉnh được sử dụng rộng rãi trong thị giác máy tính (CV)Xử lý ngôn ngữ tự nhiên (NLP).

  • Phân tích hình ảnh y tế: Một mô hình như Ultralytics YOLO11, được huấn luyện trước cho object detection tổng quát trên tập dữ liệu COCO, có thể được tinh chỉnh trên một bộ sưu tập chuyên biệt các ảnh chụp MRI để phát hiện chính xác các khối u. Tùy chỉnh này rất quan trọng để xây dựng các giải pháp AI trong lĩnh vực chăm sóc sức khỏe đáng tin cậy.
  • Chatbot tùy chỉnh: Một doanh nghiệp có thể tinh chỉnh một LLM mạnh mẽ như BERT trên tài liệu nội bộ và nhật ký hỗ trợ khách hàng của mình. Mô hình kết quả trở thành một chuyên gia về các sản phẩm của công ty, cho phép một chatbot có tính hiệu quả cao và nhận biết ngữ cảnh cho trang web của mình. Nhiều mô hình như vậy có sẵn trên các nền tảng như Hugging Face.

Tinh chỉnh so với các khái niệm liên quan

Điều quan trọng là phân biệt tinh chỉnh (fine-tuning) với các kỹ thuật điều chỉnh mô hình khác:

  • Huấn luyện từ đầu: Quá trình này bao gồm khởi tạo một mạng nơ-ron với các trọng số ngẫu nhiên và huấn luyện nó trên một tập dữ liệu. Nó đòi hỏi lượng dữ liệu lớn và sức mạnh tính toán cao (ví dụ: GPU) và thường kém hiệu quả hơn so với việc tinh chỉnh một mô hình đã được huấn luyện trước.
  • Tinh Chỉnh Hiệu Quả Tham Số (Parameter-Efficient Fine-Tuning - PEFT): PEFT là một tập hợp các phương pháp đại diện cho một sự phát triển hiệu quả tài nguyên hơn của tinh chỉnh (fine-tuning). Thay vì cập nhật tất cả các trọng số của mô hình, các kỹ thuật PEFT như LoRA đóng băng mô hình ban đầu và chỉ huấn luyện một số lượng nhỏ các tham số mới. Điều này làm giảm đáng kể yêu cầu về bộ nhớ và lưu trữ, giúp dễ dàng điều chỉnh các mô hình rất lớn từ các tổ chức như Meta AI hoặc Google.
  • Tinh chỉnh Prompt (Prompt Tuning): Một phương pháp PEFT cụ thể, trong đó tất cả các trọng số mô hình ban đầu đều bị đóng băng. Thay vì điều chỉnh bản thân mô hình, nó học các "prompt mềm" đặc biệt (các embedding có thể huấn luyện) được thêm vào đầu vào để hướng dẫn đầu ra của mô hình cho một tác vụ cụ thể.
  • Retrieval-Augmented Generation (RAG): Kỹ thuật này tăng cường đầu ra của mô hình bằng cách cung cấp kiến thức bên ngoài tại thời điểm suy luận, thay vì thay đổi trọng số của mô hình thông qua quá trình huấn luyện. RAG truy xuất thông tin liên quan từ cơ sở dữ liệu và thêm nó vào prompt để tạo ra các phản hồi chính xác và cập nhật hơn.

Tinh chỉnh với Ultralytics

Ultralytics đơn giản hóa quy trình tinh chỉnh (fine-tuning) các mô hình YOLO hiện đại của mình cho các ứng dụng tùy chỉnh. Người dùng có thể dễ dàng tải các trọng số (weights) đã được huấn luyện trước và bắt đầu huấn luyện trên bộ dữ liệu của riêng họ cho các tác vụ như phân loại ảnh (image classification), phát hiện hoặc phân vùng (segmentation). Nền tảng Ultralytics HUB tiếp tục hợp lý hóa quy trình làm việc này, cung cấp một giải pháp tích hợp để quản lý bộ dữ liệu, huấn luyện mô hình và triển khai (deployment) cuối cùng. Để có được hiệu suất tốt nhất, việc tinh chỉnh (fine-tuning) thường được kết hợp với điều chỉnh siêu tham số (hyperparameter tuning) cẩn thận.

Tham gia cộng đồng Ultralytics

Tham gia vào tương lai của AI. Kết nối, hợp tác và phát triển cùng với những nhà đổi mới toàn cầu

Tham gia ngay
Đã sao chép liên kết vào clipboard