Узнайте, как непрерывное обучение позволяет ИИ приобретать новые навыки, не забывая старые. Изучите ключевые стратегии и обновите свои модели Ultralytics для периферийного ИИ.
Непрерывное обучение (CL), часто называемое обучением на протяжении всей жизни, описывает способность модели искусственного интеллекта последовательно изучать новые задачи или приобретать новые знания с течением времени, не забывая ранее изученную информацию. В отличие от традиционных конвейеров машинного обучения, где модели обучаются один раз на статическом наборе данных, а затем развертываются, непрерывное обучение имитирует способность человека адаптироваться к новой среде и учиться на новом опыте непрерывно. Основной проблемой в этой области является преодоление катастрофического забывания, явления, при котором обучение нейронной сети на новых данных приводит к резкому ухудшению ее производительности при выполнении старых задач, поскольку веса, оптимизированные для старых задач, перезаписываются.
В динамичных реальных условиях распределение данных редко остается статичным. Например, система визуального восприятия на автономном транспортном средстве должна адаптироваться к смене сезонов, новым правилам дорожного движения или различной планировке городов, не теряя при этом способности распознавать основные дорожные знаки, изученные во время первоначального обучения. Традиционное переобучение с нуля на основе накопленного набора данных часто требует больших вычислительных затрат и нецелесообразно из-за ограничений по хранению данных или проблем конфиденциальности . Непрерывное обучение решает эти проблемы, позволяя моделям постепенно обновляться, что делает их более эффективными и масштабируемыми для передовых приложений искусственного интеллекта , где ресурсы ограничены.
Чтобы смягчить последствия катастрофического забывания, исследователи используют несколько стратегий. Методы регуляризации добавляют ограничения к функции потерь, чтобы предотвратить значительные изменения важных весов, определенных в предыдущих задачах. Методы повторного воспроизведения сохраняют небольшой поднабор предыдущих данных (или генерируют синтетические образцы с помощью генеративного ИИ) и смешивают их с новыми данными во время обучения. Наконец, изоляция параметров выделяет определенные подмножества параметров модели для разных задач, гарантируя, что обновления для новой задачи не влияют на параметры, оптимизированные для предыдущих задач. Последние достижения в 2024 и 2025 годах были сосредоточены на использовании языковых моделей зрения для лучшего определения, какие функции являются общими, а какие — специфическими для конкретной задачи.
Важно отличать непрерывное обучение от переноса обучения. При переносе обучения предварительно обученная модель выступает отправной точкой для решения новой конкретной задачи, а результаты выполнения исходной задачи обычно не имеют значения. Цель состоит в том, чтобы максимизировать производительность в целевой области. В отличие от этого, цель непрерывного обучения состоит в том, чтобы хорошо выполнять как новую задачу, так и все предыдущие задачи. Аналогично, в то время как активное обучение фокусируется на выборе наиболее информативных точек данных для маркировки для обучения, непрерывное обучение фокусируется на процессе обновления самой модели с течением времени.
Хотя для подлинного непрерывного обучения требуются специальные архитектурные настройки, пользователи могут имитировать этот рабочий процесс, точно настраивая модели на основе новых данных в сочетании с буфером старых данных. Ultralytics упрощает управление этими наборами данных и версиями моделей. Ниже приведен пример того, как можно подходить к обновлению модели с помощью Python :
from ultralytics import YOLO
# Load a model previously trained on 'dataset_v1.yaml'
model = YOLO("yolo26n-v1.pt")
# Train the model on a new dataset containing new and old samples
# This helps mitigate catastrophic forgetting by "replaying" old data
results = model.train(
data="dataset_v2_combined.yaml",
epochs=50,
imgsz=640,
lr0=0.001, # Lower learning rate for fine-tuning
)
Несмотря на достигнутый прогресс, непрерывное обучение остается активной областью исследований. Определение оптимального соотношения пластичности и стабильности— баланса между способностью учиться новому (пластичность) и способностью сохранять старое (стабильность) — является сложной задачей. Кроме того, для оценки этих систем требуются надежные показатели производительности, которые учитывают как прямой перенос (скорость обучения новым задачам), так и обратный перенос (влияние на старые задачи). По мере того, как базовые модели становятся все более масштабными, эффективные методы непрерывной адаптации, такие как Low-Rank Adaptation (LoRA), становятся крайне важными для настройки крупномасштабных систем без полного переобучения.