Yolo فيجن شنتشن
شنتشن
انضم الآن
مسرد المصطلحات

LoRA (تكييف الرتبة المنخفضة)

اكتشف كيف تقوم LoRA بضبط نماذج الذكاء الاصطناعي الكبيرة مثل YOLO بكفاءة، مما يقلل من التكاليف ويتيح نشر الحافة بأقل قدر من الموارد.

LoRA، أو التكيف منخفض الرتبة، هي تقنية ثورية في مجال التعلُّم الآلي (ML) المصممة لضبط النماذج الكبيرة المدربة مسبقاً بكفاءة استثنائية. نظرًا لأن حجم النماذج التأسيسية الحديثة - غالبًا ما تحتوي على المليارات من المعلمات - أصبحت إعادة تدريبها لمهام محددة باهظة من الناحية الحسابية بالنسبة للعديد من الباحثين والمطورين. تعالج LoRA ذلك من خلال تجميد أوزان النموذج الأصلي أوزان النموذج الأصلي وحقن مصفوفات أصغر وقابلة للتدريب مصفوفات منخفضة الرتبة في البنية. يقلل هذا النهج بشكل كبير من عدد المعلمات القابلة للتدريب, وتقليل متطلبات الذاكرة وتمكين التكيف الفعال للنموذج على أجهزة من فئة المستهلك مثل وحدة معالجة الرسومات (GPU ) القياسية.

كيف يعمل LoRA؟

يكمن الابتكار الأساسي في نظام LoRA في قدرته على تجاوز الحاجة إلى إعادة تدريب النموذج بالكامل. في عملية التقليدية، يتم تحديث كل وزن في الشبكة العصبية أثناء الترحيل العكسي، الأمر الذي يتطلب تخزين حالات محسّنات ضخمة. ومع ذلك، يحافظ LoRA على النموذج المدرب مسبقًا مسبقًا. فهو يُدخل أزواجًا من مصفوفات تحليل الرتب في طبقات محددة، وعادةً ما تكون ضمن آلية الانتباه في معماريات المحولات.

أثناء عملية التدريب، يتم تحديث مصفوفات المحولات الصغيرة هذه فقط فقط. نظرًا لأن هذه المصفوفات "منخفضة الرتبة" - بمعنى أن لها أبعادًا أقل بكثير من من طبقات النموذج الكاملة، فإن النفقات الحسابية الزائدة تكون في حدها الأدنى. يستعير هذا المفهوم من مبادئ تقليل الأبعاد, بافتراض أن التكيف مع مهمة جديدة يعتمد على مساحة فرعية منخفضة الأبعاد لمعلمات النموذج. هذا يجعل حجر الزاوية في الضبط الدقيق الفعال للمعلمات (PEFT)، مما يسمح بإنشاء نماذج خاصة بالمهام التي لا تمثل سوى جزء بسيط من حجم نقطة التدقيق الأصلية.

يوضّح مقتطف Python التالي كيفية بدء تشغيل تدريب قياسي باستخدام مقتطف Python ultralytics الحزمة. بينما يقوم هذا الأمر بإجراء تدريب كامل بشكل افتراضي، يمكن للتكوينات المتقدمة الاستفادة من تقنيات PEFT مثل LoRA لتحسين العملية لعمليات محددة مجموعات بيانات مخصصة.

from ultralytics import YOLO

# Load a pre-trained YOLO11 model
model = YOLO("yolo11n.pt")

# Train the model on a specific dataset
# LoRA strategies can be applied to freeze the backbone and train adapters
results = model.train(data="coco8.yaml", epochs=5, imgsz=640)

تطبيقات واقعية

فتحت كفاءة LoRA إمكانيات جديدة في مختلف مجالات الذكاء الاصطناعي (AI).

  • نماذج اللغات الكبيرة المخصصة (LLMs): تستخدم المؤسسات نظام LoRA لتكييف نماذج اللغات الكبيرة للأغراض العامة النماذج اللغوية الكبيرة (LLMs) للأغراض العامة المتخصصة. على سبيل المثال، قد تقوم شركة قانونية بتدريب روبوت محادثة على ملفات القضايا الخاصة. أظهرت ورقة أظهرت ورقة Microsoft الأصلية LoRA أن هذه الطريقة تحافظ على على أداء مماثل للضبط الدقيق الكامل مع تقليل احتياجات التخزين بما يصل إلى 10,000 مرة.
  • فن الذكاء الاصطناعي التوليدي: في مجال الذكاء الاصطناعي التوليدي، يستخدم الفنانون نماذج توليد الصور نماذج توليد الصور مثل الانتشار المستقر أنماط أو شخصيات أو مفاهيم جديدة. من خلال التدريب على مجموعة صغيرة من الصور، ينشئون "ملفات LoRA" خفيفة الوزن " خفيفة الوزن (غالبًا ما تكون بضع ميغابايتات فقط) يمكن توصيلها بالنموذج الأساسي لتغيير نمط الإخراج الخاص به بشكل كبير.
  • رؤية حاسوبية فعالة: بالنسبة لمهام مثل اكتشاف الأجسام، يمكن للمهندسين تكييف نماذج رؤية قوية detect الأجسام النادرة أو العيوب المحددة في مراقبة جودة التصنيع. هذا أمر ضروري للنشر على الحافة حيث تكون ذاكرة الأجهزة محدودة. تهدف البنى المستقبلية، مثل YOLO26 القادمة، تهدف إلى زيادة دمج هذه الكفاءة من أجل التطبيقات في الوقت الحقيقي.

LoRA مقابل المفاهيم ذات الصلة

من المفيد لفهم استراتيجيات التأقلم مع تغير المناخ فهماً كاملاً تمييزها عن استراتيجيات التكيف الأخرى:

  • الضبط الكامل: تقوم هذه الطريقة التقليدية بتحديث جميع معلمات النموذج. في حين أنها تسمح بأقصى قدر من المرونة، إلا أنها كثيفة الاستخدام للموارد وعرضة "للنسيان الكارثي"، حيث يفقد النموذج المعرفة المكتسبة سابقاً المعرفة المكتسبة سابقًا. يمكنك استكشاف نصائح تدريب النموذج لإدارة هذه التحديات.
  • هندسة موجه: على عكس نظام LoRA، الذي يعدل أوزان النموذج (عبر المحولات)، تركز هندسة الموجهات على صياغة نص فعال لتوجيه سلوك النموذج المجمّد. لا يتطلب أي تدريب ولكنه قد يكون محدودًا في التعامل مع المهام المعقدة المعقدة الخاصة بالمجال مقارنةً بتكييف الأوزان.
  • نقل التعلم: هذا هو المفهوم الأوسع لأخذ المعرفة من مهمة ما وتطبيقها على مهمة أخرى. إن LoRA هو تطبيق محدد, تطبيق عالي الكفاءة لنقل التعلّم.
  • الضبط الفوري: تتعلم هذه التقنية "الموجهات الناعمة" (المتجهات) المضافة إلى تسلسل الإدخال. بينما تعمل أيضًا فعّالة من حيث البارامترات، إلا أنها تعمل على تضمينات المدخلات بدلاً من طبقات النموذج الداخلية، والتي يمكن أن الحد من قدرتها على التعبير مقارنةً بتضمين LoRA العميق.

من خلال إضفاء الطابع الديمقراطي على إمكانية الوصول إلى تخصيص النماذج، تمكّن LoRA المطورين من بناء أدوات متخصصة في تحليل الصور الطبية, والحفاظ على الحياة البرية، و والمركبات ذاتية القيادة دون الحاجة إلى البنية التحتية لعملاق التكنولوجيا. بينما تتحرك الصناعة نحو منصات متعددة الاستخدامات - مثل منصة Ultralytics القادمة المرتقبة - ستظل التقنيات التي تفصل بين حجم النموذج وتكلفة التدريب ضرورية لابتكارات الذكاء الاصطناعي القابلة للتطوير.

انضم إلى مجتمع Ultralytics

انضم إلى مستقبل الذكاء الاصطناعي. تواصل وتعاون وانمو مع المبتكرين العالميين

انضم الآن