اكتشف الضبط الدقيق الفعال للمعلمات (PEFT) لتكييف نماذج الذكاء الاصطناعي الكبيرة بأقل قدر من الموارد. وفّر التكاليف، وامنع التجاوز في التدريب، وحسّن النشر!
الضبط الدقيق الفعال للمعلمات (PEFT) هي استراتيجية متطورة في مجال التعلّم الآلي (ML) المصممة لتكييف النماذج الكبيرة الكبيرة المدربة مسبقًا لمهام نهائية محددة دون تحمل العبء الحسابي لإعادة تدريب الشبكة بأكملها. كما النماذج الأساسية في مجالات مثل اللغة الطبيعية والرؤية الحاسوبية (CV) في مجالات مثل اللغة الطبيعية إلى مليارات المعلمات، فإن التقليدية - التي تُحدِّث كل وزن في النموذج - قد أصبح مكلفًا للغاية بالنسبة للعديد من المستخدمين. يعالج PEFT هذا الأمر من خلال تجميد غالبية أوزان النموذج المدرب مسبقًا المدربة مسبقًا وتحديث مجموعة فرعية صغيرة فقط من المعلمات أو إضافة بعض الطبقات الجديدة القابلة للتدريب. هذا النهج يقلل بشكل كبير من عائق الأجهزة، مما يسمح للباحثين والمهندسين للباحثين والمهندسين بتخصيص أحدث النماذج باستخدام مع الحفاظ على الأداء يمكن مقارنته بالتدريب الكامل.
المفهوم الأساسي وراء PEFT هو نقل التعلم، حيث يستفيد النموذج من المعرفة المكتسبة من مجموعة بيانات ضخمة (مثل ImageNet أو Common Crawl) لحل مشاكل جديدة ببيانات محدودة. على عكس الضبط الدقيق الكامل، يقوم PEFT بتعديل بنية النموذج أو عملية التدريب ليكون "فعالاً من حيث المعلمات فعالة." هذا يخلق بصمة صغيرة للنموذج المُعدَّل، غالبًا ما تكون بضعة ميغابايتات فقط، مقارنةً ب الجيجابايت المطلوبة لنسخة كاملة من النموذج. هذه الكفاءة ضرورية لمنع النسيان الكارثي، وهي ظاهرة يفقد فيها النموذج يفقد النموذج قدراته العامة الأصلية أثناء تعلم معلومات جديدة.
تشمل التقنيات الشائعة داخل مظلة PEFT ما يلي:
تلعب PEFT دورًا أساسيًا في إضفاء الطابع الديمقراطي على الوصول إلى أدوات الذكاء الاصطناعي القوية في مختلف الصناعات.
في سياق نماذج Ultralytics غالبًا ما تتحقق كفاءة المعلمات من خلال "تجميد" للشبكة أثناء التدريب. وهذا يضمن بقاء طبقات استخراج الميزة دون تغيير، ولا يتم تحديث سوى الرأس (جزء النموذج المسؤول عن إجراء التنبؤات النهائية) فقط.
يوضح المثال التالي كيفية تنفيذ شكل بسيط من التدريب الفعال من حيث المعلمات باستخدام Ultralytics YOLO عن طريق تجميد أول 10 طبقات من النموذج.
from ultralytics import YOLO
# Load the YOLO11 model (latest stable version)
model = YOLO("yolo11n.pt")
# Train the model on a specific dataset
# The 'freeze=10' argument freezes the first 10 layers (the backbone)
# This reduces the number of trainable parameters significantly
results = model.train(data="coco8.yaml", epochs=5, freeze=10)
يعد فهم الفرق بين مصطلح PEFT والمصطلحات المماثلة أمرًا حيويًا لاختيار الاستراتيجية الصحيحة:
من خلال تقليل التكلفة الحسابية للتكيف إلى أدنى حد ممكن، يسمح نظام PEFT بإنشاء نماذج عالية التخصص ل لمهام تتراوح بين إدراك المركبات ذاتية القيادة إلى تحليل صور الأقمار الصناعية, مما يجعل الذكاء الاصطناعي المتقدم في متناول مجتمع أوسع من المطورين.