استكشف ضبط المعلمات الفعال (PEFT) لتحسين النماذج الكبيرة مثل Ultralytics . تعلم كيفية تقليل تكاليف الحوسبة وتحقيق نتائج SOTA على وحدات معالجة الرسومات (GPU).
الضبط الدقيق الفعال للمعلمات (PEFT) هو استراتيجية تحسين متطورة في التعلم الآلي (ML) تتيح تخصيص نماذج كبيرة ومدربة مسبقًا لمهام محددة مع تقليل تكاليف الحوسبة إلى الحد الأدنى. مع نمو النماذج الأساسية الحديثة لتشمل مليارات المعلمات، أصبحت طرق التدريب التقليدية التي تقوم بتحديث كل وزن في الشبكة باهظة التكلفة من حيث الأجهزة والطاقة. يعالج PEFT هذا التحدي عن طريق تجميد الغالبية العظمى من أوزان النماذج المدربة مسبقًا وتحديث مجموعة صغيرة فقط من المعلمات أو إضافة طبقات محول خفيفة الوزن. يقلل هذا النهج من حاجز الدخول، مما يسمح للمطورين بتحقيق نتائج متطورة على وحدات معالجة الرسومات (GPU) الاستهلاكية دون الحاجة إلى مراكز بيانات على نطاق صناعي.
يعتمد المبدأ الأساسي لـ PEFT على التعلم النقلي، حيث يستفيد النموذج من تمثيلات الميزات المكتسبة من مجموعات البيانات العامة الضخمة مثل ImageNet لحل مشاكل جديدة. في سير العمل القياسي، قد يتضمن تكييف النموذج "ضبطًا دقيقًا كاملًا"، حيث يقوم التراجع الخلفي بضبط كل معلمة في الشبكة العصبية.
تتخذ تقنيات PEFT، مثل LoRA (التكيف منخفض الرتبة)، مسارًا مختلفًا. فهي تحافظ على "العمود الفقري" الثقيل للنموذج ثابتًا — مع الحفاظ على معرفته العامة — وتضخ مصفوفات صغيرة قابلة للتدريب في طبقات محددة. وهذا يمنع النسيان الكارثي، وهي ظاهرة يفقد فيها النموذج قدراته الأصلية أثناء تعلم معلومات جديدة. من خلال تقليل عدد المعلمات القابلة للتدريب بنسبة تصل إلى 99٪، تقلل PEFT بشكل كبير من متطلبات التخزين وتسمح بتبديل محولات متعددة خاصة بالمهام داخل وخارج نموذج أساسي واحد أثناء الاستدلال في الوقت الفعلي.
تعد تقنية PEFT ذات قيمة خاصة في الصناعات التي تعتبر فيها الحوسبة الطرفية وخصوصية البيانات أمرًا بالغ الأهمية.
في Ultralytics غالبًا ما يتم تحقيق كفاءة المعلمات عن طريق "تجميد" الطبقات الأولية للشبكة . وهذا يضمن بقاء مستخرجات الميزات القوية دون تغيير، بينما تتكيف الطبقات العليا أو اللاحقة فقط مع الفئات الجديدة . وهذا هو تطبيق عملي لمبادئ PEFT في الكشف عن الكائنات.
يوضح المثال التالي كيفية تدريب نموذج YOLO26 مع تجميد الطبقات العشر الأولى من الهيكل الأساسي لتوفير موارد الحوسبة:
from ultralytics import YOLO
# Load the YOLO26 model (latest stable version)
model = YOLO("yolo26n.pt")
# Train on a custom dataset with the 'freeze' argument
# freeze=10 keeps the first 10 layers static, updating only deeper layers
results = model.train(data="coco8.yaml", epochs=5, freeze=10)
بالنسبة للفرق التي تسعى إلى توسيع نطاق هذه العملية، توفر Ultralytics واجهة موحدة لإدارة مجموعات البيانات وأتمتة التعليقات التوضيحية ومراقبة عمليات التدريب الفعالة هذه من السحابة.
لاختيار استراتيجية تكييف النموذج المناسبة، من المفيد التمييز بين PEFT والمصطلحات المماثلة:
من خلال إتاحة الوصول إلى الذكاء الاصطناعي عالي الأداء للجميع، تتيح PEFT للمطورين إنشاء أدوات متخصصة للمركبات ذاتية القيادة والتصنيع الذكي دون الحاجة إلى بنية تحتية للحاسوب الفائق.