يولو فيجن شنتشن
شنتشن
انضم الآن
مسرد المصطلحات

التدريب المدرك للتكميم (QAT)

قم بتحسين نماذج الذكاء الاصطناعي للأجهزة الطرفية باستخدام التدريب المدرك للتكميم (QAT)، مما يضمن دقة وكفاءة عالية في البيئات محدودة الموارد.

التدريب المدرك للقياس الكمي (QAT) هو أسلوب متقدم لتحسين النموذج يقوم بإعداد شبكة عصبية (NN) للنشر بدقة رقمية أقل. على عكس التدريب القياسي الذي يستخدم أرقام الفاصلة العائمة 32 بت (FP32)، تحاكي QAT تأثيرات حسابات الأعداد الصحيحة 8 بت (INT8) أثناء عملية التدريب أو الضبط الدقيق. من خلال جعل النموذج "مدركًا" لأخطاء القياس الكمي التي سيواجهها أثناء الاستدلال، تسمح QAT للنموذج بضبط الأوزان الخاصة به لتقليل الخسارة المحتملة في الدقة. ينتج عن هذا نموذج مضغوط وفعال يحافظ على أداء عالٍ، مما يجعله مثاليًا للنشر على الأجهزة ذات الموارد المحدودة.

كيف يعمل التدريب المراعي للقياس الكمي (Quantization-Aware Training)

تبدأ عملية التدريب على التقليل الكمي عادةً بنموذج FP32 مُدرَّب مسبقًا. يتم إدخال عُقد تقليل كمي "وهمية" في بنية النموذج، والتي تحاكي تأثير تحويل قيم الفاصلة العائمة إلى أعداد صحيحة ذات دقة أقل والعودة مرة أخرى. ثم يُعاد تدريب النموذج على مجموعة بيانات التدريب. خلال مرحلة إعادة التدريب هذه، يتعلم النموذج التكيف مع فقدان المعلومات المرتبط بالتقليل الكمي من خلال الانتشار الخلفي القياسي. يتيح ذلك للنموذج إيجاد مجموعة أكثر قوة من الأوزان تكون أقل حساسية للدقة المنخفضة. توفر أُطر التعلم العميق الرائدة مثل PyTorch و TensorFlow أدوات وواجهات برمجة تطبيقات قوية لتنفيذ مهام سير عمل التدريب على التقليل الكمي.

QAT مقابل القياس الكمي بعد التدريب

غالبًا ما تتم مقارنة QAT بالقياس الكمي بعد التدريب (PTQ)، وهي طريقة أخرى شائعة لتحديد كمية النموذج. يكمن الاختلاف الرئيسي في وقت تطبيق القياس الكمي.

  • تحديد الكم بعد التدريب (PTQ): يتم تطبيق هذه الطريقة بعد تدريب النموذج بالكامل. إنها عملية أبسط وأسرع لا تتطلب إعادة التدريب أو الوصول إلى بيانات التدريب الأصلية. ومع ذلك، يمكن أن يؤدي ذلك في بعض الأحيان إلى انخفاض كبير في دقة النموذج، خاصةً بالنسبة للنماذج الحساسة.
  • التدريب المدرك للتكميم (QAT): تدمج هذه الطريقة التكميم في حلقة التدريب. على الرغم من أنها أكثر كثافة من الناحية الحسابية وتتطلب الوصول إلى بيانات التدريب، إلا أن QAT يؤدي دائمًا تقريبًا إلى دقة أعلى للنموذج الكمي النهائي مقارنةً بـ PTQ. إنها الطريقة المفضلة عندما يكون تعظيم الأداء أمرًا بالغ الأهمية.

تطبيقات واقعية لـ QAT

يعد التدريب المدرك للتكميم أمرًا حيويًا لنشر نماذج الذكاء الاصطناعي المتطورة في البيئات محدودة الموارد حيث تكون الكفاءة هي المفتاح.

  1. الرؤية الحاسوبية على الجهاز: تشغيل نماذج الرؤية الحاسوبية المعقدة مثل Ultralytics YOLOv8 مباشرةً على الهواتف الذكية لتطبيقات مثل اكتشاف الكائنات في الوقت الفعلي في تطبيقات الواقع المعزز أو تصنيف الصور داخل أدوات إدارة الصور. تسمح QAT بتشغيل هذه النماذج بكفاءة دون استنزاف كبير للبطارية أو زمن انتقال.
  2. الذكاء الاصطناعي الطرفي في السيارات والروبوتات: نشر نماذج لمهام مثل اكتشاف المشاة أو المساعدة في الحفاظ على المسار في المركبات ذاتية القيادة أو لمعالجة الأشياء في الروبوتات. يمكّن QAT هذه النماذج من التشغيل على أجهزة متخصصة مثل Google Edge TPUs أو NVIDIA Jetson، مما يضمن زمن انتقال استدلال منخفض للقرارات الهامة في الوقت الفعلي. هذا أمر بالغ الأهمية لتطبيقات مثل أنظمة إنذار الأمان أو إدارة مواقف السيارات.

العلاقة بتقنيات التحسين الأخرى

QAT هي إحدى التقنيات العديدة لتحسين نشر النموذج وغالبًا ما تستخدم جنبًا إلى جنب مع غيرها لتحقيق أقصى قدر من الكفاءة.

  • Model Pruning: يتضمن إزالة الاتصالات الزائدة أو غير المهمة من الشبكة. يمكن تقليم النموذج أولاً ثم إخضاعه لـ QAT لتحقيق ضغط أكبر.
  • تقطير المعرفة (Knowledge Distillation): يدرب نموذج "طالب" أصغر لتقليد نموذج "معلم" أكبر. يمكن بعد ذلك تحسين نموذج الطالب الناتج بشكل أكبر باستخدام QAT.

تدعم Ultralytics تصدير النماذج إلى تنسيقات مختلفة مثل ONNX و TensorRT و TFLite، المتوافقة مع سير عمل QAT، مما يتيح النشر الفعال عبر أجهزة متنوعة من شركات مثل Intel و NVIDIA. يمكنك إدارة ونشر النماذج المحسّنة QAT باستخدام منصات مثل Ultralytics HUB. يعد تقييم أداء النموذج باستخدام مقاييس ذات صلة بعد QAT أمرًا ضروريًا لضمان تلبية متطلبات الدقة.

انضم إلى مجتمع Ultralytics

انضم إلى مستقبل الذكاء الاصطناعي. تواصل وتعاون وانمو مع المبتكرين العالميين

انضم الآن
تم نسخ الرابط إلى الحافظة