تعرف على كيفية تمكين التعلم المستمر للذكاء الاصطناعي من اكتساب مهارات جديدة دون نسيان. استكشف الاستراتيجيات الرئيسية وقم بتحديث نماذج Ultralytics الخاصة بك من أجل الذكاء الاصطناعي المتطور.
التعلم المستمر (CL)، الذي يشار إليه غالبًا بالتعلم مدى الحياة، يصف قدرة نموذج الذكاء الاصطناعي على تعلم مهام جديدة أو اكتساب معرفة جديدة بشكل متسلسل بمرور الوقت دون نسيان المعلومات التي تم تعلمها سابقًا . على عكس خطوط أنابيب التعلم الآلي التقليدية، حيث يتم تدريب النماذج مرة واحدة على مجموعة بيانات ثابتة ثم يتم نشرها، فإن التعلم المستمر يحاكي قدرة الإنسان على التكيف مع البيئات الجديدة والتعلم من التجارب الجديدة بشكل مستمر. التحدي الرئيسي في هذا المجال هو التغلب على النسيان الكارثي، وهي ظاهرة حيث يؤدي تدريب الشبكة العصبية على بيانات جديدة إلى تدهور أدائها بشكل كبير في المهام القديمة لأن الأوزان المحسنة للمهام القديمة يتم استبدالها.
في البيئات الديناميكية الواقعية، نادراً ما تظل توزيعات البيانات ثابتة. على سبيل المثال، يجب أن يتكيف نظام الإدراك البصري في مركبة ذاتية القيادة مع تغير الفصول، أو لوائح المرور الجديدة، أو تخطيطات المدن المختلفة دون أن يفقد قدرته على التعرف على إشارات الطرق الأساسية التي تعلمها خلال تدريبه الأولي. غالباً ما تكون إعادة التدريبالتقليدية من الصفر على مجموعة بيانات تراكمية مكلفة من الناحية الحسابية وغير عملية بسبب قيود التخزين أو مخاوف الخصوصية . يعالج التعلم المستمر هذه المشكلات من خلال السماح للنماذج بالتحديث التدريجي، مما يجعلها أكثر كفاءة وقابلية للتطوير لتطبيقات الذكاء الاصطناعي المتطورة حيث الموارد محدودة.
للتخفيف من حدة النسيان الكارثي، يستخدم الباحثون عدة استراتيجيات. تضيف طرق التنظيم قيودًا على دالة الخسارة لمنع حدوث تغييرات كبيرة في الأوزان المهمة التي تم تحديدها في المهام السابقة. تخزن طرق إعادة التشغيل مجموعة فرعية صغيرة من البيانات السابقة (أو تولد عينات اصطناعية باستخدام الذكاء الاصطناعي التوليدي) وتخلطها مع البيانات الجديدة أثناء التدريب. أخيرًا، يعمل عزل المعلمات على تخصيص مجموعات فرعية محددة من معلمات النموذج لمهام مختلفة، مما يضمن عدم تداخل تحديثات المهمة الجديدة مع المعلمات التي تم تحسينها للمهام السابقة. ركزت التطورات الحديثة في عامي 2024 و 2025 على استخدام نماذج لغة الرؤية لتحديد الميزات العامة والميزات الخاصة بالمهام بشكل أفضل.
من المهم التمييز بين التعلم المستمر والتعلم التحويل. في التعلم التحويل، يعمل النموذج المدرب مسبقًا كنقطة انطلاق لحل مهمة جديدة محددة، وعادةً ما يكون الأداء في المهمة الأصلية غير ذي صلة. الهدف هو تعظيم الأداء في المجال المستهدف. في المقابل، الهدف من التعلم المستمر هو الأداء الجيد في كل من المهمة الجديدة وجميع المهام السابقة. وبالمثل، بينما يركز التعلم النشط على اختيار أكثر نقاط البيانات إفادةً لتصنيفها للتدريب، يركز التعلم المستمر على عملية تحديث النموذج نفسه بمرور الوقت.
في حين أن التعلم المستمر الحقيقي يتطلب تعديلات معمارية متخصصة، يمكن للمستخدمين محاكاة سير العمل هذا عن طريق ضبط النماذج على البيانات الجديدة الممزوجة بمخزن مؤقت للبيانات القديمة. تعمل Ultralytics على تبسيط إدارة مجموعات البيانات هذه ونماذج الإصدارات . فيما يلي مثال على كيفية التعامل مع تحديث نموذج باستخدام Python :
from ultralytics import YOLO
# Load a model previously trained on 'dataset_v1.yaml'
model = YOLO("yolo26n-v1.pt")
# Train the model on a new dataset containing new and old samples
# This helps mitigate catastrophic forgetting by "replaying" old data
results = model.train(
data="dataset_v2_combined.yaml",
epochs=50,
imgsz=640,
lr0=0.001, # Lower learning rate for fine-tuning
)
على الرغم من التقدم المحرز، لا يزال التعلم المستمر مجالًا نشطًا للبحث. من الصعب تحديد المعضلةالمثلى بين المرونة والاستقرار— أي تحقيق التوازن بين القدرة على تعلم أشياء جديدة (المرونة) والقدرة على الاحتفاظ بالقديمة (الاستقرار). علاوة على ذلك، يتطلب تقييم هذه الأنظمة مقاييس أداء قوية تأخذ في الاعتبار كل من النقل الأمامي (سرعة التعلم في المهام الجديدة) والنقل الخلفي (التأثير على المهام القديمة). مع تزايد حجم النماذج الأساسية، أصبحت طرق التكيف المستمر الفعالة مثل التكيف منخفض الرتبة (LoRA) ضرورية لتخصيص الأنظمة واسعة النطاق دون إعادة تدريب كاملة.