قم بتحسين نماذج الذكاء الاصطناعي للأجهزة المتطورة باستخدام التدريب الواعي بالتقدير الكمي (QAT)، مما يضمن دقة وكفاءة عالية في البيئات محدودة الموارد.
يعد التدريب الواعي بالتقدير الكمي (QAT) تقنية قوية تُستخدم لتحسين نماذج التعلم العميق (DL) ، مثل Ultralytics YOLO للنشر على الأجهزة ذات الموارد الحاسوبية المحدودة، مثل الهواتف المحمولة أو الأنظمة المدمجة. وغالباً ما تستخدم النماذج القياسية أرقاماً عالية الدقة (مثل الفاصلة العائمة 32 بت أو FP32) لإجراء العمليات الحسابية، والتي تتطلب قوة معالجة وذاكرة كبيرة. تهدف QAT إلى تقليل هذا الطلب من خلال إعداد النموذج أثناء مرحلة التدريب لتحقيق أداء جيد حتى عند استخدام أرقام ذات دقة أقل (مثل الأعداد الصحيحة 8 بت أو INT8)، وبالتالي سد الفجوة بين الدقة العالية والأداء الفعال على الأجهزة المتطورة. يعد هذا التحسين أمراً بالغ الأهمية لتمكين مهام الذكاء الاصطناعي المعقدة مباشرةً على الأجهزة مثل الهواتف الذكية أو مستشعرات إنترنت الأشياء.
على عكس الأساليب التي تقوم بتكميم النموذج بعد تدريبه بالكامل، تدمج QAT محاكاة تأثيرات التكميم مباشرةً في عملية التدريب. فهو يقدم عمليات تسمى عقد "التكميم الكمي المزيف" داخل بنية النموذج أثناء التدريب. تحاكي هذه العقد تأثير الدقة المنخفضة (على سبيل المثال، دقة INT8) على أوزان النموذج وعمليات التنشيط أثناء التمرير الأمامي، وتقريب القيم كما ستكون في نموذج كمي حقيقي. ومع ذلك، أثناء التمرير العكسي (حيث يتعلم النموذج عن طريق الترحيل العكسي)، عادةً ما يتم حساب التدرجات وتطبيق التحديثات باستخدام أرقام الفاصلة العائمة القياسية عالية الدقة. يسمح هذا لمعلمات النموذج بالتكيف والتعلم لتكون قوية في مواجهة فقدان الدقة الذي سيحدث أثناء الاستدلال الكمي الفعلي. من خلال "رؤية" تأثيرات التكميم أثناء التدريب، يقلل النموذج من انخفاض الدقة المرتبط غالبًا بنشر النماذج بتنسيقات منخفضة الدقة، وهو جانب رئيسي تمت مناقشته في استراتيجيات تحسين النموذج. أطر عمل مثل TensorFlow Lite و PyTorch أدوات لتنفيذ QAT.
يكمن الاختلاف الأساسي في وقت تطبيق التكميم الكمي. يقوم التكميم الكمي، الذي يشير غالبًا إلى التكميم بعد التدريب (PTQ)، بتحويل نموذج كامل الدقة مدرب مسبقًا إلى تنسيق أقل دقة بعد اكتمال التدريب. عادةً ما يكون التكييف الكمي أسهل في التنفيذ لأنه لا يتطلب إعادة التدريب أو الوصول إلى مجموعة بيانات التدريب الأصلية. ومع ذلك، يمكن أن يؤدي في بعض الأحيان إلى انخفاض ملحوظ في دقة النموذج، خاصةً بالنسبة للنماذج المعقدة التي تؤدي مهام مثل اكتشاف الأجسام أو تجزئة الصور. على النقيض من ذلك، تحاكي QAT التكميم أثناء التدريب، مما يجعل النموذج بطبيعته أكثر قوة في تقليل الدقة. غالبًا ما يؤدي ذلك إلى دقة أعلى للنموذج النهائي المكمّم مقارنةً بنموذج PTQ، على الرغم من أنه يتطلب المزيد من الموارد الحاسوبية والوصول إلى بيانات التدريب. بالنسبة لنماذج مثل YOLO التي تتضمن كتلًا سهلة التكميم، يمكن أن يحقق نموذج محاكاة القياس الكمي فوائد كبيرة في الأداء مع الحد الأدنى من فقدان الدقة.
بينما تتضمن كلتا التقنيتين دقة عددية، إلا أن أهدافهما تختلف. يهدف التدريب ذو الدقة المختلطة في المقام الأول إلى تسريع عملية التدريب نفسها وتقليل استخدام الذاكرة أثناء التدريب باستخدام مزيج من التنسيقات ذات الدقة المنخفضة (مثل عوامة 16 بت أو FP16) والتنسيقات ذات الدقة القياسية (عوامة 32 بت) للعمليات الحسابية والتخزين. يركز QAT على وجه التحديد على تحسين النموذج للاستدلال الفعال باستخدام تنسيقات الأعداد الصحيحة منخفضة الدقة (مثل INT8) بعد نشر النموذج. في حين أن الدقة المختلطة تساعد أثناء التدريب، فإن QAT يضمن أداء النموذج النهائي بشكل جيد في ظل قيود أجهزة الاستدلال الكمية، مثل وحدات المعالجة العصبية ( NPU ) أو وحدات المعالجة العصبية ( TPU).
يعد التدريب الواعي بالتقدير الكمي أمرًا حيويًا لنشر نماذج الذكاء الاصطناعي المتطورة في البيئات محدودة الموارد حيث تكون الكفاءة هي المفتاح.
يدعم Ultralytics تصدير النماذج إلى تنسيقات مختلفة مثل ONNX, TensorRTو TFLite، والتي تتوافق مع عمليات سير عمل QAT، مما يتيح النشر الفعال عبر أجهزة متنوعة. يمكنك إدارة ونشر نماذجك المحسّنة في QAT باستخدام منصات مثل Ultralytics HUB. من الضروري تقييم أداء النموذج باستخدام المقاييس ذات الصلة بعد إجراء QAT لضمان تلبية متطلبات الدقة.