Tìm hiểu cách học tập liên tục giúp trí tuệ nhân tạo (AI) tiếp thu kỹ năng mới mà không quên. Khám phá các chiến lược quan trọng và cập nhật kiến thức của bạn. Ultralytics YOLO26 mô hình cho AI biên.
Học tập liên tục (CL), thường được gọi là học tập suốt đời, mô tả khả năng của một mô hình trí tuệ nhân tạo học tuần tự các nhiệm vụ mới hoặc tiếp thu kiến thức mới theo thời gian mà không quên thông tin đã học trước đó. Không giống như các quy trình học máy truyền thống, nơi các mô hình được huấn luyện một lần trên một tập dữ liệu tĩnh và sau đó được triển khai, học tập liên tục mô phỏng khả năng của con người thích nghi với môi trường mới và học hỏi từ những kinh nghiệm mới một cách liên tục. Thách thức chính trong lĩnh vực này là khắc phục hiện tượng quên thảm khốc, một hiện tượng mà việc huấn luyện mạng nơ-ron trên dữ liệu mới khiến hiệu suất của nó giảm mạnh trên các nhiệm vụ cũ vì các trọng số được tối ưu hóa cho các nhiệm vụ cũ bị ghi đè.
Trong môi trường thực tế năng động, sự phân bố dữ liệu hiếm khi giữ nguyên. Ví dụ, hệ thống nhận thức thị giác trên xe tự lái phải thích ứng với sự thay đổi mùa, các quy định giao thông mới hoặc bố cục thành phố khác nhau mà không làm mất khả năng nhận biết các biển báo giao thông cơ bản đã học được trong quá trình huấn luyện ban đầu. Việc huấn luyện lại từ đầu trên một tập dữ liệu tích lũy thường tốn kém về mặt tính toán và không thực tế do hạn chế về dung lượng lưu trữ hoặc lo ngại về quyền riêng tư. Học liên tục giải quyết những vấn đề này bằng cách cho phép các mô hình cập nhật tăng dần, làm cho chúng hiệu quả hơn và có khả năng mở rộng cho các ứng dụng AI biên nơi tài nguyên bị hạn chế.
Để giảm thiểu hiện tượng quên thảm khốc, các nhà nghiên cứu sử dụng một số chiến lược. Phương pháp điều chỉnh (regularization ) thêm các ràng buộc vào hàm mất mát để ngăn chặn những thay đổi đáng kể đối với các trọng số quan trọng được xác định trong các nhiệm vụ trước đó. Phương pháp phát lại (replay ) lưu trữ một tập hợp con nhỏ của dữ liệu trước đó (hoặc tạo ra các mẫu tổng hợp bằng cách sử dụng trí tuệ nhân tạo tạo sinh ) và trộn chúng với dữ liệu mới trong quá trình huấn luyện. Cuối cùng, việc cô lập tham số (parameter isolation) dành riêng các tập hợp con cụ thể của các tham số của mô hình cho các nhiệm vụ khác nhau, đảm bảo rằng các cập nhật cho một nhiệm vụ mới không can thiệp vào các tham số đã được tối ưu hóa cho các nhiệm vụ trước đó. Những tiến bộ gần đây trong năm 2024 và 2025 đã tập trung vào việc sử dụng các mô hình ngôn ngữ thị giác để xác định tốt hơn các đặc điểm nào là chung và đặc điểm nào là đặc thù cho từng nhiệm vụ.
Điều quan trọng là phải phân biệt giữa học liên tục và học chuyển giao . Trong học chuyển giao, một mô hình đã được huấn luyện trước đóng vai trò là điểm khởi đầu để giải quyết một nhiệm vụ cụ thể mới , và hiệu suất trên nhiệm vụ ban đầu thường không liên quan. Mục tiêu là tối đa hóa hiệu suất trên miền mục tiêu. Ngược lại, mục tiêu của học liên tục là đạt hiệu suất tốt trên cả nhiệm vụ mới và tất cả các nhiệm vụ trước đó. Tương tự, trong khi học chủ động tập trung vào việc chọn các điểm dữ liệu có nhiều thông tin nhất để gắn nhãn cho việc huấn luyện, học liên tục tập trung vào quá trình cập nhật chính mô hình theo thời gian.
Mặc dù việc học hỏi liên tục thực sự đòi hỏi những điều chỉnh kiến trúc chuyên biệt, người dùng có thể mô phỏng quy trình làm việc này bằng cách tinh chỉnh các mô hình trên dữ liệu mới được trộn lẫn với một lượng dữ liệu cũ làm đệm. Nền tảng Ultralytics đơn giản hóa việc quản lý các tập dữ liệu này và việc quản lý phiên bản của các mô hình. Dưới đây là một ví dụ về cách tiếp cận việc cập nhật một mô hình bằng cách sử dụng... Python API:
from ultralytics import YOLO
# Load a model previously trained on 'dataset_v1.yaml'
model = YOLO("yolo26n-v1.pt")
# Train the model on a new dataset containing new and old samples
# This helps mitigate catastrophic forgetting by "replaying" old data
results = model.train(
data="dataset_v2_combined.yaml",
epochs=50,
imgsz=640,
lr0=0.001, # Lower learning rate for fine-tuning
)
Mặc dù đã có những tiến bộ, học tập liên tục vẫn là một lĩnh vực nghiên cứu tích cực. Việc xác định điểm cân bằng tối ưu giữa tính dẻo dai và tính ổn định — cân bằng khả năng học hỏi những điều mới (tính dẻo dai) với khả năng ghi nhớ những điều cũ (tính ổn định) — là rất khó khăn. Hơn nữa, việc đánh giá các hệ thống này đòi hỏi các chỉ số hiệu suất mạnh mẽ, có tính đến cả sự chuyển giao thuận (tốc độ học tập trên các nhiệm vụ mới) và sự chuyển giao ngược (tác động lên các nhiệm vụ cũ). Khi các mô hình nền tảng trở nên lớn hơn, các phương pháp thích ứng liên tục hiệu quả như Thích ứng hạng thấp (LoRA) đang trở nên rất quan trọng để tùy chỉnh các hệ thống quy mô lớn mà không cần đào tạo lại hoàn toàn.