Sürekli öğrenmenin, AI'nın yeni becerileri unutmadan edinmesini nasıl sağladığını öğrenin. Önemli stratejileri keşfedin ve uç AI için Ultralytics modellerinizi güncelleyin.
Genellikle yaşam boyu öğrenme olarak adlandırılan sürekli öğrenme (CL), yapay zeka modelinin zaman içinde yeni görevleri sırayla öğrenme veya yeni bilgiler edinme yeteneğini, daha önce öğrenilen bilgileri unutmadan tanımlar. Modellerin statik bir veri seti üzerinde bir kez eğitilip daha sonra uygulandığı geleneksel makine öğrenimi süreçlerinden farklı olarak, sürekli öğrenme, insanın yeni ortamlara uyum sağlama ve yeni deneyimlerden sürekli olarak öğrenme yeteneğini taklit eder . Bu alandaki temel zorluk, felaketle sonuçlanan unutmayı aşmaktır. Bu fenomen, bir sinir ağının yeni verilerle eğitilmesinin, eski görevler için optimize edilmiş ağırlıkların üzerine yazılması nedeniyle eski görevlerdeki performansını önemli ölçüde düşürmesine neden olur.
Dinamik gerçek dünya ortamlarında, veri dağılımları nadiren sabit kalır. Örneğin, otonom bir araçtaki görsel algılama sistemi , ilk eğitim sırasında öğrenilen temel yol işaretlerini tanıma yeteneğini kaybetmeden, değişen mevsimlere, yeni trafik kurallarına veya farklı şehir düzenlerine uyum sağlamalıdır. Geleneksel sıfırdan yeniden eğitim , birikimli veri setinde genellikle hesaplama açısından pahalıdır ve depolama kısıtlamaları veya gizlilik endişeleri nedeniyle pratik değildir. Sürekli öğrenme, modellerin kademeli olarak güncellenmesine izin vererek bu sorunları çözer ve kaynakların sınırlı olduğu kenar AIuygulamaları için daha verimli ve ölçeklenebilir hale getirir .
Felaket düzeyinde unutmayı azaltmak için araştırmacılar çeşitli stratejiler kullanmaktadır. Düzenleme yöntemleri, önceki görevlerde belirlenen önemli ağırlıklarda önemli değişikliklerin olmasını önlemek için kayıp fonksiyonuna kısıtlamalar ekler. Tekrar yöntemleri, önceki verilerin küçük bir alt kümesini (veya üretken yapay zeka kullanarak sentetik örnekler oluşturur) saklar ve bunları eğitim sırasında yeni verilerle karıştırır. Son olarak, parametre izolasyonu, modelin parametrelerinin belirli alt kümelerini farklı görevlere ayırarak, yeni bir görev için yapılan güncellemelerin, önceki görevler için optimize edilmiş parametreleri etkilememesini sağlar. 2024 ve 2025 yıllarında yapılan son gelişmeler, hangi özelliklerin genel ve hangilerinin göreve özgü olduğunu daha iyi belirlemek için görsel dil modellerinin kullanılmasına odaklanmıştır.
Sürekli öğrenmeyi transfer öğrenmeden ayırmak önemlidir. Transfer öğrenmede, önceden eğitilmiş bir model yeni bir özel görevi çözmek için başlangıç noktası olarak işlev görür ve orijinal görevdeki performans genellikle önemsizdir. Amaç, hedef alanda performansı en üst düzeye çıkarmaktır. Buna karşılık, sürekli öğrenmenin amacı, hem yeni görevde hem de önceki tüm görevlerde iyi performans göstermektir. Benzer şekilde, aktif öğrenme, eğitim için etiketlenecek en bilgilendirici veri noktalarını seçmeye odaklanırken, sürekli öğrenme, zaman içinde modelin kendisini güncelleme sürecine odaklanır.
Gerçek sürekli öğrenme, özel mimari ayarlamalar gerektirirken, kullanıcılar eski verilerin tamponuyla karıştırılmış yeni veriler üzerinde modelleri ince ayarlayarak bu iş akışını simüle edebilirler. Ultralytics , bu veri kümelerini yönetmeyi ve modellerin sürümlerini basitleştirir. Aşağıda, Python kullanarak bir modeli güncellemeye nasıl yaklaşılabileceğine dair bir örnek verilmiştir:
from ultralytics import YOLO
# Load a model previously trained on 'dataset_v1.yaml'
model = YOLO("yolo26n-v1.pt")
# Train the model on a new dataset containing new and old samples
# This helps mitigate catastrophic forgetting by "replaying" old data
results = model.train(
data="dataset_v2_combined.yaml",
epochs=50,
imgsz=640,
lr0=0.001, # Lower learning rate for fine-tuning
)
İlerlemelere rağmen, sürekli öğrenme aktif bir araştırma alanı olmaya devam etmektedir. Optimum plastisite-istikrar ikileminibelirlemek, yani yeni şeyler öğrenme yeteneği (plastisite) ile eski bilgileri saklama yeteneği (istikrar) arasında denge kurmak zordur. Ayrıca, bu sistemleri değerlendirmek için hem ileriye dönük aktarım (yeni görevlerde öğrenme hızı) hem de geriye dönük aktarım (eski görevler üzerindeki etki) hesaba katılan sağlam performans ölçütleri gerekir. Temel modeller büyüdükçe, Low-Rank Adaptation (LoRA) gibi verimli sürekli uyum yöntemleri, tam yeniden eğitim olmadan büyük ölçekli sistemleri özelleştirmek için çok önemli hale gelmektedir.