Khám phá cách LoRA (Low-Rank Adaptation) cho phép tinh chỉnh mô hình một cách hiệu quả, ví dụ như... Ultralytics YOLO26. Học cách tùy chỉnh AI với bộ nhớ và phần cứng tối thiểu.
LoRA, hay Thích ứng hạng thấp, là một kỹ thuật đột phá trong lĩnh vực học máy (ML) được thiết kế để tinh chỉnh hiệu quả các mô hình được huấn luyện trước với số lượng lớn. Khi các mô hình nền tảng hiện đại phát triển để bao gồm hàng tỷ tham số, chi phí tính toán để huấn luyện lại chúng cho các tác vụ cụ thể đã trở nên quá lớn đối với nhiều nhà phát triển. LoRA giải quyết vấn đề này bằng cách đóng băng trọng số của mô hình gốc và đưa các ma trận phân rã hạng nhỏ hơn, có thể huấn luyện được vào kiến trúc. Phương pháp này giảm số lượng tham số có thể huấn luyện được lên đến 10.000 lần, giảm đáng kể yêu cầu bộ nhớ và cho phép các kỹ sư tùy chỉnh các mạng mạnh mẽ trên phần cứng tiêu chuẩn của người tiêu dùng, chẳng hạn như một GPU (Bộ xử lý đồ họa) duy nhất.
Điểm đột phá cốt lõi của LoRA nằm ở cách tiếp cận cập nhật mô hình. Trong phương pháp tinh chỉnh truyền thống, quá trình tối ưu hóa phải điều chỉnh mọi trọng số trong mạng nơ-ron trong quá trình lan truyền ngược . Việc tinh chỉnh toàn bộ tham số này đòi hỏi phải lưu trữ trạng thái của bộ tối ưu hóa cho toàn bộ mô hình, tiêu tốn một lượng lớn VRAM.
LoRA hoạt động dựa trên giả thuyết rằng những thay đổi về trọng số trong quá trình thích ứng có "hạng thấp", nghĩa là thông tin thiết yếu có thể được biểu diễn với số chiều ít hơn đáng kể. Bằng cách chèn các cặp ma trận nhỏ vào các lớp của mô hình—thường nằm trong cơ chế chú ý của kiến trúc Transformer —LoRA chỉ tối ưu hóa các bộ điều hợp được chèn vào này trong khi mô hình chính vẫn giữ nguyên. Tính mô đun này cho phép chuyển đổi nhanh chóng giữa các tác vụ khác nhau, chẳng hạn như thay đổi phong cách nghệ thuật hoặc ngôn ngữ, bằng cách đơn giản là hoán đổi các tệp bộ điều hợp nhỏ, một khái niệm đã được khám phá trong bài nghiên cứu gốc Microsoft .
Khả năng thích ứng các mô hình mạnh mẽ với nguồn lực tối thiểu đã thúc đẩy việc ứng dụng trí tuệ nhân tạo (AI) trong nhiều lĩnh vực khác nhau.
Mặc dù việc triển khai toán học liên quan đến đại số ma trận, các khung phần mềm hiện đại đã trừu tượng hóa những phức tạp này. Sau đây là các phần tiếp theo: Python Đoạn mã này minh họa quy trình đào tạo tiêu chuẩn sử dụng...
ultralytics Gói phần mềm. Các mô hình hiệu quả như YOLO26 sử dụng các chiến lược tối ưu hóa có chung nguyên tắc với khả năng thích ứng hiệu quả để học hỏi nhanh chóng từ dữ liệu mới.
from ultralytics import YOLO
# Load the YOLO26 model (highly efficient for edge deployment)
model = YOLO("yolo26n.pt")
# Train the model on a specific dataset
# Modern training pipelines optimize updates to converge quickly
results = model.train(data="coco8.yaml", epochs=5, imgsz=640)
Để lựa chọn quy trình làm việc phù hợp, điều cần thiết là phải phân biệt LoRA với các chiến lược thích ứng khác:
Bằng cách dân chủ hóa quyền truy cập vào việc tinh chỉnh mô hình hiệu năng cao, LoRA trao quyền cho các nhà phát triển xây dựng các giải pháp chuyên biệt—từ nhận thức của xe tự hành đến chatbot cá nhân hóa—mà không cần đến cơ sở hạ tầng khổng lồ của các tập đoàn công nghệ lớn. Đối với các nhóm muốn quản lý hiệu quả các tập dữ liệu và quá trình huấn luyện này, Nền tảng Ultralytics cung cấp một môi trường toàn diện để chú thích, huấn luyện và triển khai các mô hình được điều chỉnh này.