Khám phá phương pháp tinh chỉnh tham số hiệu quả (PEFT) để tối ưu hóa các mô hình lớn như... Ultralytics YOLO26. Tìm hiểu cách giảm chi phí tính toán và đạt được kết quả tốt nhất hiện nay trên GPU.
Tối ưu hóa tham số hiệu quả (Parameter-Efficient Fine-Tuning - PEFT) là một chiến lược tối ưu hóa tinh vi trong học máy (ML) cho phép tùy chỉnh các mô hình lớn, được huấn luyện trước cho các tác vụ cụ thể trong khi giảm thiểu chi phí tính toán. Khi các mô hình nền tảng hiện đại phát triển để bao gồm hàng tỷ tham số, các phương pháp huấn luyện truyền thống cập nhật mọi trọng số trong mạng đã trở nên quá tốn kém về phần cứng và năng lượng. PEFT giải quyết thách thức này bằng cách đóng băng phần lớn các trọng số của mô hình được huấn luyện trước và chỉ cập nhật một tập hợp nhỏ các tham số hoặc thêm các lớp bộ điều hợp nhẹ. Cách tiếp cận này làm giảm rào cản gia nhập, cho phép các nhà phát triển đạt được kết quả tiên tiến nhất trên GPU cấp người tiêu dùng mà không cần đến các trung tâm dữ liệu quy mô công nghiệp.
Nguyên tắc cốt lõi của PEFT dựa trên học chuyển giao , trong đó mô hình tận dụng các biểu diễn đặc trưng được học từ các tập dữ liệu công khai khổng lồ như ImageNet để giải quyết các vấn đề mới. Trong quy trình làm việc tiêu chuẩn, việc điều chỉnh mô hình có thể bao gồm "tinh chỉnh toàn diện", trong đó thuật toán lan truyền ngược điều chỉnh mọi tham số trong mạng nơ-ron .
Các kỹ thuật PEFT, chẳng hạn như LoRA (Low-Rank Adaptation) , đi theo một hướng khác. Chúng giữ nguyên "xương sống" nặng nề của mô hình - bảo toàn kiến thức tổng quát của nó - và chèn các ma trận nhỏ, có thể huấn luyện được vào các lớp cụ thể. Điều này ngăn chặn hiện tượng quên thảm khốc , một hiện tượng mà mô hình mất đi khả năng ban đầu trong khi học thông tin mới. Bằng cách giảm số lượng tham số có thể huấn luyện được lên đến 99%, PEFT giảm đáng kể yêu cầu lưu trữ và cho phép nhiều bộ điều hợp dành riêng cho từng tác vụ được hoán đổi vào và ra khỏi một mô hình cơ sở duy nhất trong quá trình suy luận thời gian thực .
PEFT đặc biệt có giá trị trong các ngành công nghiệp mà điện toán biên và bảo mật dữ liệu là tối quan trọng.
Trong Ultralytics Trong hệ sinh thái, hiệu quả tham số thường đạt được bằng cách "đóng băng" các lớp ban đầu của mạng. Điều này đảm bảo các bộ trích xuất đặc trưng mạnh mẽ vẫn không thay đổi trong khi chỉ có lớp đầu hoặc các lớp sau thích ứng với các lớp mới. Đây là một cách triển khai thực tế các nguyên tắc PEFT cho việc phát hiện đối tượng .
Ví dụ sau đây minh họa cách huấn luyện mô hình YOLO26 đồng thời đóng băng 10 lớp đầu tiên của kiến trúc mạng để tiết kiệm tài nguyên tính toán:
from ultralytics import YOLO
# Load the YOLO26 model (latest stable version)
model = YOLO("yolo26n.pt")
# Train on a custom dataset with the 'freeze' argument
# freeze=10 keeps the first 10 layers static, updating only deeper layers
results = model.train(data="coco8.yaml", epochs=5, freeze=10)
Đối với các nhóm muốn mở rộng quy mô quy trình này, Nền tảng Ultralytics cung cấp giao diện thống nhất để quản lý tập dữ liệu, tự động hóa việc chú thích và giám sát các quá trình huấn luyện hiệu quả này từ đám mây.
Để lựa chọn chiến lược thích ứng mô hình phù hợp, việc phân biệt PEFT với các thuật ngữ tương tự là rất hữu ích:
Bằng cách dân chủ hóa quyền truy cập vào trí tuệ nhân tạo hiệu năng cao, PEFT cho phép các nhà phát triển xây dựng các công cụ chuyên dụng cho xe tự hành và sản xuất thông minh mà không cần đến cơ sở hạ tầng siêu máy tính.