قم بتحسين نماذج الذكاء الاصطناعي للأجهزة المتطورة باستخدام التدريب الواعي بالتقدير الكمي (QAT)، مما يضمن دقة وكفاءة عالية في البيئات محدودة الموارد.
التدريب الواعي بالتكيف الكمي (QAT) هو تقنية متقدمة لتحسين النموذج تقوم بإعداد شبكة عصبية (NN) للنشر بدقة عددية أقل. على عكس التدريب القياسي الذي يستخدم أرقام الفاصلة العائمة ذات 32 بت (FP32)، يحاكي QAT تأثيرات حسابات الأعداد الصحيحة ذات 8 بت (INT8) أثناء عملية التدريب أو الضبط الدقيق. من خلال جعل النموذج "مدركًا" لأخطاء التكميم التي سيواجهها أثناء عملية الاستدلال، يسمح QAT للنموذج بتعديل أوزانه لتقليل الخسارة المحتملة في الدقة. وينتج عن ذلك نموذج مدمج وفعال يحافظ على الأداء العالي، مما يجعله مثاليًا للنشر على أجهزة محدودة الموارد.
تبدأ عملية القياس الكمي عادةً بنموذج FP32 مدرب مسبقًا. يتم إدراج عقد تكميم "وهمية" في بنية النموذج، والتي تحاكي تأثير تحويل قيم الفاصلة العائمة إلى أعداد صحيحة ذات دقة أقل ثم العودة. ثم يُعاد تدريب النموذج على مجموعة بيانات تدريبية. خلال مرحلة إعادة التدريب هذه، يتعلم النموذج التكيف مع فقدان المعلومات المرتبط بالتحويل الكمي من خلال التكاثر العكسي القياسي. يسمح ذلك للنموذج بالعثور على مجموعة أكثر قوة من الأوزان الأقل حساسية للدقة المنخفضة. تقدم أطر عمل التعلم العميق الرائدة مثل PyTorch و TensorFlow أدوات وواجهات برمجة تطبيقات قوية لتنفيذ سير عمل QAT.
غالبًا ما تتم مقارنة QAT بالتكييف الكمي بعد التدريب (PTQ)، وهي طريقة أخرى شائعة لتكميم النموذج. يكمن الاختلاف الرئيسي في وقت تطبيق التكميم الكمي.
يعد التدريب الواعي بالتقدير الكمي أمرًا حيويًا لنشر نماذج الذكاء الاصطناعي المتطورة في البيئات محدودة الموارد حيث تكون الكفاءة هي المفتاح.
QAT هي واحدة من عدة تقنيات لتحسين نشر النماذج، وغالبًا ما تُستخدم إلى جانب تقنيات أخرى لتحقيق أقصى قدر من الكفاءة.
يدعم برنامج Ultralytics تصدير النماذج إلى تنسيقات مختلفة مثل ONNX وTensorRT وTFLite، والتي تتوافق مع عمليات سير عمل QAT، مما يتيح النشر الفعال عبر أجهزة متنوعة من شركات مثل Intel وNVIDIA. يمكنك إدارة ونشر نماذج QAT المحسّنة باستخدام منصات مثل Ultralytics HUB. من الضروري تقييم أداء النموذج باستخدام المقاييس ذات الصلة بعد إجراء QAT لضمان تلبية متطلبات الدقة.