قم بتحسين نماذج الذكاء الاصطناعي للأجهزة الطرفية باستخدام التدريب المدرك للتكميم (QAT)، مما يضمن دقة وكفاءة عالية في البيئات محدودة الموارد.
التدريب المدرك للقياس الكمي (QAT) هو أسلوب متقدم لتحسين النموذج يقوم بإعداد شبكة عصبية (NN) للنشر بدقة رقمية أقل. على عكس التدريب القياسي الذي يستخدم أرقام الفاصلة العائمة 32 بت (FP32)، تحاكي QAT تأثيرات حسابات الأعداد الصحيحة 8 بت (INT8) أثناء عملية التدريب أو الضبط الدقيق. من خلال جعل النموذج "مدركًا" لأخطاء القياس الكمي التي سيواجهها أثناء الاستدلال، تسمح QAT للنموذج بضبط الأوزان الخاصة به لتقليل الخسارة المحتملة في الدقة. ينتج عن هذا نموذج مضغوط وفعال يحافظ على أداء عالٍ، مما يجعله مثاليًا للنشر على الأجهزة ذات الموارد المحدودة.
تبدأ عملية التدريب على التقليل الكمي عادةً بنموذج FP32 مُدرَّب مسبقًا. يتم إدخال عُقد تقليل كمي "وهمية" في بنية النموذج، والتي تحاكي تأثير تحويل قيم الفاصلة العائمة إلى أعداد صحيحة ذات دقة أقل والعودة مرة أخرى. ثم يُعاد تدريب النموذج على مجموعة بيانات التدريب. خلال مرحلة إعادة التدريب هذه، يتعلم النموذج التكيف مع فقدان المعلومات المرتبط بالتقليل الكمي من خلال الانتشار الخلفي القياسي. يتيح ذلك للنموذج إيجاد مجموعة أكثر قوة من الأوزان تكون أقل حساسية للدقة المنخفضة. توفر أُطر التعلم العميق الرائدة مثل PyTorch و TensorFlow أدوات وواجهات برمجة تطبيقات قوية لتنفيذ مهام سير عمل التدريب على التقليل الكمي.
غالبًا ما تتم مقارنة QAT بالقياس الكمي بعد التدريب (PTQ)، وهي طريقة أخرى شائعة لتحديد كمية النموذج. يكمن الاختلاف الرئيسي في وقت تطبيق القياس الكمي.
يعد التدريب المدرك للتكميم أمرًا حيويًا لنشر نماذج الذكاء الاصطناعي المتطورة في البيئات محدودة الموارد حيث تكون الكفاءة هي المفتاح.
QAT هي إحدى التقنيات العديدة لتحسين نشر النموذج وغالبًا ما تستخدم جنبًا إلى جنب مع غيرها لتحقيق أقصى قدر من الكفاءة.
تدعم Ultralytics تصدير النماذج إلى تنسيقات مختلفة مثل ONNX و TensorRT و TFLite، المتوافقة مع سير عمل QAT، مما يتيح النشر الفعال عبر أجهزة متنوعة من شركات مثل Intel و NVIDIA. يمكنك إدارة ونشر النماذج المحسّنة QAT باستخدام منصات مثل Ultralytics HUB. يعد تقييم أداء النموذج باستخدام مقاييس ذات صلة بعد QAT أمرًا ضروريًا لضمان تلبية متطلبات الدقة.