حسّن نماذج اللغة الكبيرة بكفاءة باستخدام ضبط الموجهات—قلل التكاليف، ووفر الموارد، وحقق القدرة على التكيف الخاصة بالمهمة دون عناء.
يعد ضبط المطالبات أسلوباً قوياً وفعالاً لتكييف النماذج الكبيرة المدربة مسبقاً، مثل النماذج اللغوية الكبيرة (LLMs)، مع مهام جديدة دون تغيير أوزان النموذج الأصلية. إنه شكل من أشكال الضبط الدقيق الفعال للمعلمات (PEFT) الذي يحافظ على تجميد مليارات المعلمات في النموذج الأساسي ويتعلم بدلاً من ذلك مجموعة صغيرة من "المطالبات اللينة" الخاصة بالمهمة. هذه المطالبات اللينة ليست نصاً قابلاً للقراءة البشرية ولكنها تضمينات قابلة للتعلم تسبق الإدخال، والتي توجه النموذج المجمد لإنتاج المخرجات المطلوبة لمهمة لاحقة محددة. يقلل هذا النهج بشكل كبير من التكلفة الحسابية والتخزين اللازمين للتكيف الخاص بالمهمة، كما هو موثق في ورقة بحث Google AI الأصلية.
الفكرة الأساسية هي تدريب بضعة آلاف أو ملايين من المعلمات الإضافية فقط (الموجه اللين) لكل مهمة، بدلاً من إعادة التدريب أو الضبط الدقيق للنموذج بأكمله، والذي يمكن أن يحتوي على مليارات المعلمات. هذا يجعل من الممكن إنشاء العديد من "وحدات المطالبات" المتخصصة لنموذج واحد مدرب مسبقًا، كل منها مصمم خصيصًا لمهمة مختلفة، دون إنشاء نسخ كاملة من النموذج. تساعد هذه الطريقة أيضًا في التخفيف من النسيان الكارثي، حيث ينسى النموذج المعلومات التي تعلمها سابقًا عند التدريب على مهمة جديدة.
يتيح ضبط المطالبات تخصيص نماذج الأساس القوية لمجموعة واسعة من التطبيقات المتخصصة.
من المهم التمييز بين ضبط الموجه (Prompt Tuning) والتقنيات المماثلة:
في حين أن ضبط الموجه يُطبق في الغالب على نماذج اللغات الكبيرة في معالجة اللغات الطبيعية (NLP)، إلا أن المبدأ الأساسي للتكيف الفعال ذو صلة عبر الذكاء الاصطناعي (AI). في رؤية الكمبيوتر (CV)، في حين أن الضبط الدقيق الكامل للنماذج مثل Ultralytics YOLO على مجموعات البيانات المخصصة أمر شائع لمهام مثل الكشف عن الكائنات، إلا أن طرق PEFT تكتسب زخماً، خاصة بالنسبة إلى النماذج متعددة الوسائط الكبيرة. تعمل منصات مثل Ultralytics HUB على تبسيط عملية تدريب ونشر نماذج الذكاء الاصطناعي المختلفة، وربما دمج مثل هذه التقنيات الفعالة في المستقبل.