Thuật ngữ

LoRA (Thích ứng bậc thấp)

Khám phá cách LoRA tinh chỉnh các mô hình AI lớn như YOLO một cách hiệu quả, giúp giảm chi phí và cho phép triển khai ở biên với nguồn lực tối thiểu.

LoRA, hay Low-Rank Adaptation (Thích ứng bậc thấp), là một kỹ thuật hiệu quả cao được sử dụng để điều chỉnh các mô hình học máy (ML) lớn đã được đào tạo trước cho các tác vụ cụ thể mà không cần phải đào tạo lại toàn bộ mô hình. Được mô tả chi tiết trong một bài báo của các nhà nghiên cứu Microsoft , LoRA đã trở thành nền tảng của Parameter-Efficient Fine-Tuning (PEFT) . Nó giảm đáng kể chi phí tính toán và yêu cầu lưu trữ liên quan đến việc tùy chỉnh các mô hình lớn, chẳng hạn như Mô hình Ngôn ngữ Lớn (LLM)các mô hình nền tảng khác.

LoRA hoạt động như thế nào

Thay vì cập nhật hàng tỷ trọng số mô hình trong một mô hình được đào tạo trước, LoRA đóng băng tất cả chúng. Sau đó, nó đưa một cặp ma trận nhỏ, có thể đào tạo được - được gọi là bộ điều hợp hạng thấp - vào các lớp cụ thể của mô hình, thường nằm trong cơ chế chú ý của kiến trúc Transformer . Trong quá trình đào tạo , chỉ các tham số của các ma trận mới, nhỏ hơn nhiều này được cập nhật. Ý tưởng cốt lõi là những thay đổi cần thiết để điều chỉnh mô hình cho một tác vụ mới có thể được biểu diễn bằng ít tham số hơn nhiều so với mô hình ban đầu chứa. Điều này tận dụng các nguyên tắc tương tự như giảm chiều để nắm bắt thông tin cần thiết cho việc điều chỉnh ở dạng nhỏ gọn. Sau khi đào tạo hoàn tất, bộ điều hợp nhỏ có thể được hợp nhất với các trọng số ban đầu hoặc được giữ riêng để chuyển đổi tác vụ theo mô-đun.

Ứng dụng trong thế giới thực

Hiệu quả của LoRA khiến nó trở nên lý tưởng cho nhiều ứng dụng khác nhau, đặc biệt là khi cần nhiều mô hình tùy chỉnh.

  • Tùy chỉnh Chatbot: Một doanh nghiệp có thể sử dụng một LLM đa năng, mạnh mẽ và sử dụng LoRA để đào tạo nó dựa trên nền tảng kiến thức nội bộ. Điều này tạo ra một chatbot dịch vụ khách hàng chuyên biệt, hiểu được thuật ngữ chuyên ngành của công ty mà không cần tốn kém chi phí tinh chỉnh toàn diện.
  • Chuyển giao Nghệ thuật và Phong cách AI: Nghệ sĩ và nhà thiết kế sử dụng LoRA để điều chỉnh các mô hình AI tạo sinh như Stable Diffusion theo một phong cách nghệ thuật cụ thể. Bằng cách đào tạo bộ điều hợp trên một tập hợp nhỏ hình ảnh của riêng họ, họ có thể tạo ra tác phẩm nghệ thuật mới mô phỏng tính thẩm mỹ độc đáo của riêng họ, một phương pháp phổ biến trên các nền tảng như Hugging Face .

LoRA so với các khái niệm liên quan

Sẽ rất hữu ích khi phân biệt LoRA với các kỹ thuật điều chỉnh mô hình khác:

  • Tinh chỉnh Toàn diện: Phương pháp này cập nhật tất cả các trọng số của một mô hình đã được huấn luyện trước trên một tập dữ liệu mới. Mặc dù thường hiệu quả, nhưng nó đòi hỏi tài nguyên tính toán ( GPU ) và dung lượng lưu trữ đáng kể cho mỗi mô hình đã được điều chỉnh. Ngược lại, LoRA đóng băng các trọng số ban đầu và chỉ huấn luyện các ma trận bộ điều hợp nhỏ được đưa vào. Tìm hiểu thêm chi tiết trong mục thuật ngữ tinh chỉnh của chúng tôi và tổng quan về tinh chỉnh của NVIDIA .
  • Prompt Tuning: Kỹ thuật này giữ trọng số mô hình hoàn toàn đóng băng và thay vào đó học "soft prompt" liên tục (các vector được thêm vào nhúng đầu vào) để điều khiển hành vi của mô hình cho các tác vụ cụ thể. Không giống như LoRA, nó không sửa đổi bất kỳ trọng số mô hình nào mà chỉ tập trung hoàn toàn vào việc điều chỉnh biểu diễn đầu vào. Đọc thêm về prompt tuningprompt engineering .
  • Các phương pháp PEFT khác: LoRA chỉ là một kỹ thuật trong lĩnh vực rộng hơn của Parameter-Efficient Fine-Tuning (PEFT) . Các phương pháp khác bao gồm Adapter Tuning (tương tự nhưng có cấu trúc adapter hơi khác nhau), Prefix Tuning và IA³, mỗi phương pháp đều có những đánh đổi khác nhau về hiệu suất và hiệu suất tham số . Các phương pháp này thường có sẵn trong các nền tảng như thư viện PEFT Hugging Face .

Tóm lại, LoRA cung cấp một phương pháp mạnh mẽ và tiết kiệm tài nguyên để tùy chỉnh các mô hình nền tảng lớn được đào tạo sẵn cho nhiều tác vụ cụ thể trong cả Xử lý Ngôn ngữ Tự nhiên (NLP)thị giác máy tính , giúp AI tiên tiến trở nên thiết thực và dễ tiếp cận hơn. Phương pháp này cho phép quản lý và triển khai dễ dàng nhiều mô hình chuyên biệt, một quy trình được các nền tảng như Ultralytics HUB đơn giản hóa để quản lý vòng đời mô hình.

Tham gia cộng đồng Ultralytics

Tham gia vào tương lai của AI. Kết nối, cộng tác và phát triển với những nhà đổi mới toàn cầu

Tham gia ngay
Liên kết đã được sao chép vào clipboard