يولو فيجن شنتشن
شنتشن
انضم الآن
مسرد المصطلحات

الضبط الفعال للبارامترات (PEFT)

اكتشف الضبط الدقيق الفعال للمعلمات (PEFT) لتكييف نماذج الذكاء الاصطناعي الكبيرة بأقل قدر من الموارد. وفّر التكاليف، وامنع التجاوز في التدريب، وحسّن النشر!

الضبط الدقيق الفعال للمعلمات (PEFT) هو مجموعة من التقنيات المستخدمة في التعلم الآلي لتكييف النماذج الكبيرة المدربة مسبقًا مع مهام جديدة ومحددة دون الحاجة إلى إعادة تدريب النموذج بأكمله. نظرًا لأن النماذج الأساسية في مجالات مثل معالجة اللغة الطبيعية (NLP) و رؤية الحاسوب (CV) تنمو لتصل إلى مليارات المعلمات، فإن الضبط الدقيق الكامل يصبح مكلفًا من الناحية الحسابية ويتطلب تخزينًا كبيرًا للبيانات لكل مهمة جديدة. تعالج PEFT هذه المشكلة عن طريق تجميد الغالبية العظمى من أوزان النموذج المدرب مسبقًا وتدريب عدد صغير فقط من المعلمات الإضافية أو الموجودة. يقلل هذا النهج بشكل كبير من التكاليف الحسابية وتكاليف التخزين، ويقلل من خطر النسيان الكارثي (حيث ينسى النموذج قدراته الأصلية)، ويجعل من الممكن تخصيص نموذج كبير واحد للعديد من التطبيقات المختلفة.

كيف يعمل PEFT؟

يكمن المبدأ الأساسي وراء PEFT في إجراء تغييرات مستهدفة وبسيطة على نموذج مُدرَّب مسبقًا. بدلاً من تحديث كل معلمة، تقدم طرق PEFT مجموعة صغيرة من المعلمات القابلة للتدريب أو تحدد مجموعة فرعية صغيرة من المعلمات الموجودة لتحديثها أثناء التدريب. هذا شكل من أشكال التعلم بالنقل الذي يحسن الكفاءة. هناك العديد من طرق PEFT الشائعة، ولكل منها استراتيجية مختلفة:

  • LoRA (تكييف منخفض الرتبة) (Low-Rank Adaptation): تقوم هذه التقنية بحقن مصفوفات منخفضة الرتبة صغيرة وقابلة للتدريب في طبقات النموذج المدرب مسبقًا، غالبًا داخل آلية الانتباه (attention mechanism). هذه المصفوفات "المهايئة" أصغر بكثير من مصفوفات الوزن الأصلية، مما يجعل التدريب سريعًا وفعالًا. تقدم ورقة بحث LoRA الأصلية مزيدًا من التفاصيل التقنية.
  • ضبط الموجهات (Prompt Tuning): بدلاً من تعديل بنية النموذج، تحافظ هذه الطريقة على تجميد النموذج بالكامل وتتعلم مجموعة من "الموجهات اللينة" أو متجهات التضمين القابلة للتدريب. تضاف هذه المتجهات إلى تسلسل الإدخال لتوجيه إخراج النموذج لمهمة معينة، كما هو مفصل في ورقته التأسيسية.
  • ضبط المحول (Adapter Tuning): تتضمن هذه الطريقة إدخال وحدات شبكة عصبية صغيرة ومتصلة بالكامل، تُعرف باسم "المحولات (adapters)"، بين طبقات النموذج المدرب مسبقًا. يتم تدريب معلمات هذه المحولات الجديدة فقط.

تتوفر هذه الطرق وغيرها على نطاق واسع من خلال أطر عمل مثل مكتبة Hugging Face PEFT، مما يبسط تنفيذها.

PEFT مقابل المفاهيم ذات الصلة

من المهم التمييز بين PEFT واستراتيجيات تكييف النموذج الأخرى:

  • الضبط الدقيق الكامل: على عكس PEFT، يقوم الضبط الدقيق الكامل بتحديث جميع أوزان النموذج المدرب مسبقًا. هذا يتطلب موارد مكثفة، ويتطلب وحدة معالجة رسومات قوية وتخزينًا كبيرًا لكل إصدار نموذج تم ضبطه بدقة.
  • هندسة المطالبات (Prompt Engineering): تتضمن هذه التقنية تصميم مطالبات نصية فعالة يدويًا لتوجيه سلوك النموذج. لا يتضمن أي تدريب أو تحديثات للمعلمات؛ يتعلق الأمر فقط بصياغة المدخلات للحصول على الناتج المطلوب من نموذج مجمد.
  • تقطير المعرفة (Knowledge Distillation): يتضمن ذلك تدريب نموذج "طالب" أصغر لتقليد سلوك نموذج "معلم" أكبر ومدرب مسبقًا. في حين أنه ينشئ نموذجًا أصغر، إلا أن العملية نفسها لا تزال مكثفة حسابيًا.

تطبيقات واقعية

يمكّن PEFT التطبيق العملي للنماذج الكبيرة عبر مختلف المجالات:

باختصار، يعمل الضبط الدقيق الفعال للمعلمات على جعل نماذج الذكاء الاصطناعي الحديثة أكثر تنوعًا وفعالية من حيث التكلفة للتكيف، مما يضفي طابعًا ديمقراطيًا على الوصول إلى قدرات الذكاء الاصطناعي القوية لمجموعة واسعة من التطبيقات المحددة.

انضم إلى مجتمع Ultralytics

انضم إلى مستقبل الذكاء الاصطناعي. تواصل وتعاون وانمو مع المبتكرين العالميين

انضم الآن
تم نسخ الرابط إلى الحافظة