Yolo Tầm nhìn Thâm Quyến
Thâm Quyến
Tham gia ngay
Bảng chú giải thuật ngữ

LoRA (Điều chỉnh Hạng thấp)

Khám phá cách LoRA (Low-Rank Adaptation) cho phép tinh chỉnh mô hình một cách hiệu quả, ví dụ như... Ultralytics YOLO26. Học cách tùy chỉnh AI với bộ nhớ và phần cứng tối thiểu.

LoRA, hay Thích ứng hạng thấp, là một kỹ thuật đột phá trong lĩnh vực học máy (ML) được thiết kế để tinh chỉnh hiệu quả các mô hình được huấn luyện trước với số lượng lớn. Khi các mô hình nền tảng hiện đại phát triển để bao gồm hàng tỷ tham số, chi phí tính toán để huấn luyện lại chúng cho các tác vụ cụ thể đã trở nên quá lớn đối với nhiều nhà phát triển. LoRA giải quyết vấn đề này bằng cách đóng băng trọng số của mô hình gốc và đưa các ma trận phân rã hạng nhỏ hơn, có thể huấn luyện được vào kiến ​​trúc. Phương pháp này giảm số lượng tham số có thể huấn luyện được lên đến 10.000 lần, giảm đáng kể yêu cầu bộ nhớ và cho phép các kỹ sư tùy chỉnh các mạng mạnh mẽ trên phần cứng tiêu chuẩn của người tiêu dùng, chẳng hạn như một GPU (Bộ xử lý đồ họa) duy nhất.

Cơ chế thích ứng hiệu quả

Điểm đột phá cốt lõi của LoRA nằm ở cách tiếp cận cập nhật mô hình. Trong phương pháp tinh chỉnh truyền thống, quá trình tối ưu hóa phải điều chỉnh mọi trọng số trong mạng nơ-ron trong quá trình lan truyền ngược . Việc tinh chỉnh toàn bộ tham số này đòi hỏi phải lưu trữ trạng thái của bộ tối ưu hóa cho toàn bộ mô hình, tiêu tốn một lượng lớn VRAM.

LoRA hoạt động dựa trên giả thuyết rằng những thay đổi về trọng số trong quá trình thích ứng có "hạng thấp", nghĩa là thông tin thiết yếu có thể được biểu diễn với số chiều ít hơn đáng kể. Bằng cách chèn các cặp ma trận nhỏ vào các lớp của mô hình—thường nằm trong cơ chế chú ý của kiến ​​trúc Transformer —LoRA chỉ tối ưu hóa các bộ điều hợp được chèn vào này trong khi mô hình chính vẫn giữ nguyên. Tính mô đun này cho phép chuyển đổi nhanh chóng giữa các tác vụ khác nhau, chẳng hạn như thay đổi phong cách nghệ thuật hoặc ngôn ngữ, bằng cách đơn giản là hoán đổi các tệp bộ điều hợp nhỏ, một khái niệm đã được khám phá trong bài nghiên cứu gốc Microsoft .

Các Ứng dụng Thực tế

Khả năng thích ứng các mô hình mạnh mẽ với nguồn lực tối thiểu đã thúc đẩy việc ứng dụng trí tuệ nhân tạo (AI) trong nhiều lĩnh vực khác nhau.

  • Phát hiện đối tượng tùy chỉnh: Trong môi trường công nghiệp, các nhà phát triển sử dụng các kỹ thuật thích ứng hiệu quả để điều chỉnh các mô hình thị giác như YOLO26 cho các nhiệm vụ chuyên biệt. Ví dụ, một nhà máy có thể huấn luyện một mô hình trên một tập dữ liệu tùy chỉnh để... detect các khiếm khuyết cụ thể trong kiểm soát chất lượng sản xuất . Mô hình học cách xác định các bất thường hiếm gặp trong khi vẫn duy trì khả năng nhận dạng đối tượng tổng quát.
  • Trí tuệ nhân tạo tạo sinh và nghệ thuật: LoRA là một công cụ thiết yếu trong cộng đồng trí tuệ nhân tạo tạo sinh . Các nghệ sĩ kỹ thuật số sử dụng nó để dạy các mô hình tạo hình ảnh như Stable Diffusion những khái niệm mới, chẳng hạn như một nhân vật cụ thể hoặc phong cách vẽ tranh. Thay vì chia sẻ một tệp lưu trữ dung lượng nhiều gigabyte, người sáng tạo phân phối các tệp LoRA có dung lượng nhỏ, cho phép người khác tạo ra các tác phẩm nghệ thuật theo phong cách riêng một cách hiệu quả.
  • Mô hình ngôn ngữ lớn chuyên dụng: Các tổ chức pháp lý và y tế sử dụng LoRA để tinh chỉnh các Mô hình ngôn ngữ lớn (LLM) trên các tài liệu độc quyền. Điều này cho phép tạo ra các trợ lý chuyên biệt, an toàn, có khả năng soạn thảo hợp đồng hoặc tóm tắt báo cáo phân tích hình ảnh y tế mà không cần tốn chi phí đào tạo toàn diện.

Áp dụng các khái niệm thích ứng

Mặc dù việc triển khai toán học liên quan đến đại số ma trận, các khung phần mềm hiện đại đã trừu tượng hóa những phức tạp này. Sau đây là các phần tiếp theo: Python Đoạn mã này minh họa quy trình đào tạo tiêu chuẩn sử dụng... ultralytics Gói phần mềm. Các mô hình hiệu quả như YOLO26 sử dụng các chiến lược tối ưu hóa có chung nguyên tắc với khả năng thích ứng hiệu quả để học hỏi nhanh chóng từ dữ liệu mới.

from ultralytics import YOLO

# Load the YOLO26 model (highly efficient for edge deployment)
model = YOLO("yolo26n.pt")

# Train the model on a specific dataset
# Modern training pipelines optimize updates to converge quickly
results = model.train(data="coco8.yaml", epochs=5, imgsz=640)

LoRA so với các khái niệm liên quan

Để lựa chọn quy trình làm việc phù hợp, điều cần thiết là phải phân biệt LoRA với các chiến lược thích ứng khác:

  • Tinh chỉnh tham số hiệu quả (PEFT) : PEFT là thuật ngữ chung cho tất cả các phương pháp giảm chi phí tinh chỉnh. LoRA hiện là loại PEFT phổ biến và hiệu quả nhất, nhưng cũng có các loại khác, chẳng hạn như lớp bộ điều hợp hoặc tinh chỉnh tiền tố.
  • Học chuyển giao (Transfer Learning ): Đây là khái niệm lý thuyết rộng hơn về việc lấy kiến ​​thức từ một vấn đề (ví dụ: nhận dạng ô tô) và áp dụng nó vào một vấn đề liên quan (ví dụ: nhận dạng xe tải). LoRA là một công cụ cụ thể được sử dụng để triển khai học chuyển giao một cách hiệu quả. Bạn có thể tìm hiểu lý thuyết tổng quát trong hướng dẫn về học chuyển giao này.
  • Kỹ thuật xử lý thông tin đầu vào (Prompt Engineering ): Không giống như LoRA, vốn điều chỉnh quá trình xử lý toán học của mô hình thông qua các bộ chuyển đổi, kỹ thuật xử lý thông tin đầu vào liên quan đến việc tối ưu hóa đầu vào văn bản để hướng dẫn mô hình. Phương pháp này không yêu cầu huấn luyện nhưng nhìn chung kém hiệu quả hơn đối với các tác vụ phức tạp, đòi hỏi tính chuyên biệt cao.

Bằng cách dân chủ hóa quyền truy cập vào việc tinh chỉnh mô hình hiệu năng cao, LoRA trao quyền cho các nhà phát triển xây dựng các giải pháp chuyên biệt—từ nhận thức của xe tự hành đến chatbot cá nhân hóa—mà không cần đến cơ sở hạ tầng khổng lồ của các tập đoàn công nghệ lớn. Đối với các nhóm muốn quản lý hiệu quả các tập dữ liệu và quá trình huấn luyện này, Nền tảng Ultralytics cung cấp một môi trường toàn diện để chú thích, huấn luyện và triển khai các mô hình được điều chỉnh này.

Tham gia Ultralytics cộng đồng

Tham gia vào tương lai của AI. Kết nối, hợp tác và phát triển cùng với những nhà đổi mới toàn cầu

Tham gia ngay