Yolo فيجن شنتشن
شنتشن
انضم الآن
مسرد المصطلحات

الدقة المختلطة

تعرف على كيفية تسريع الدقة المختلطة للتدريب وتقليل الذاكرة لنماذج مثل Ultralytics . اكتشف مزايا FP16 و FP32 للحصول على رؤى أسرع في مجال الذكاء الاصطناعي.

الدقة المختلطة هي تقنية محورية في تحسين النماذج تستخدم لتسريع تدريب نماذج التعلم العميق مع تقليل استهلاك الذاكرة. من خلال الجمع الاستراتيجي بين تنسيقات رقمية مختلفة — عادةً أنواع 16 بت و 32 بت ذات نقطة عائمة — تسمح هذه الطريقة لخوارزميات التعلم الآلي بإجراء الحسابات بشكل أسرع دون التضحية بدقة النموذج النهائية. وقد أصبحت ممارسة قياسية في تطوير الذكاء الاصطناعي الحديث ، خاصةً للمهام التي تتطلب موارد كثيرة مثل تدريب بنية YOLO26 على مجموعات بيانات ضخمة.

كيفية عمل الدقة المختلطة

في سير عمل التعلم العميق التقليدي، عادةً ما تقوم النماذج بإجراء الحسابات باستخدام تنسيق النقطة العائمة أحادية الدقة (FP32). يتطلب كل رقم في FP32 32 بت من الذاكرة. على الرغم من دقة هذا التنسيق العالية، إلا أنه قد يكون مكلفًا من الناحية الحسابية ويستهلك الكثير من الذاكرة.

تقدم الدقة المختلطة استخدام نصف الدقة (FP16)، التي تستخدم 16 بت فقط. ومع ذلك، فإن استخدام FP16 فقط يمكن أن يؤدي إلى عدم استقرار رقمي بسبب نطاق ديناميكي أصغر. لحل هذه المشكلة، تحتفظ طرق الدقة المختلطة بـ "نسخة أصلية" من أوزان النموذج في FP32 من أجل الاستقرار أثناء استخدام FP16 للعمليات الحسابية الثقيلة، مثل التلافيف وضرب المصفوفات.

تتضمن العملية عمومًا ثلاث خطوات رئيسية:

  1. الصب: تحويل مدخلات النموذج وتنشيطاته إلى FP16 لتسريع التنفيذ على الأجهزة المتوافقة ، مثل NVIDIA Tensor .
  2. تحجيم الخسارة: تضخيم قيم دالة الخسارة لمنع "التدفق السفلي"، حيث تصبح تحديثات التدرج الصغيرة صفرية في FP16.
  3. التراكم: إجراء العمليات الحسابية في FP16 مع تراكم النتائج في FP32 للحفاظ على المعلومات الضرورية قبل تحديث الأوزان الرئيسية.

فوائد التدريب على الذكاء الاصطناعي

يوفر اعتماد الدقة المختلطة مزايا كبيرة للمطورين والباحثين الذين يستخدمون الموارد الحاسوبية بشكل فعال:

  • سرعة تدريب أسرع: تتطلب العمليات في FP16 نطاقًا تردديًا أقل للذاكرة ويتم معالجتها بشكل أسرع بواسطة وحدات معالجة الرسومات الحديثة. وهذا يمكن أن يقلل الوقت المطلوب لعصر بمعدلات كبيرة.
  • تقليل استخدام الذاكرة: نظرًا لأن متجهات FP16 تشغل نصف ذاكرة FP32، يمكن للمطورين مضاعفة حجم الدُفعات بشكل أساسي. غالبًا ما تؤدي الدُفعات الأكبر حجمًا إلى تقديرات تدرج أكثر استقرارًا وتقاربًا أسرع.
  • كفاءة الطاقة: يؤدي انخفاض الحمل الحسابي إلى انخفاض استهلاك الطاقة، وهو أمر ضروري لعمليات التدريب السحابية على نطاق واسع.

تطبيقات واقعية

يتم استخدام الدقة المختلطة في مختلف الصناعات للتعامل مع النماذج المعقدة ومجموعات البيانات الكبيرة بكفاءة.

القيادة الذاتية

فيتطوير المركبات ذاتية القيادة، يجب على المهندسين تدريب نماذج الكشف عن الأجسام على ملايين الإطارات الفيديوية عالية الدقة. ويتيح استخدام الدقة المختلطة تدريب نماذج متطورة مثل YOLO26 بكفاءة. ويتيح انخفاض حجم الذاكرة معالجة مدخلات عالية الدقة، وهو أمر بالغ الأهمية للكشف عن الأجسام الصغيرة مثل إشارات المرور أو المشاة من مسافة بعيدة.

تحليل الصور الطبية

غالبًا ما يتضمن تحليل الصور الطبية بيانات حجمية ثلاثية الأبعاد من التصوير بالرنين المغناطيسي أو الأشعة المقطعية، والتي تستهلك قدرًا كبيرًا من الذاكرة. غالبًا ما يؤدي تدريب نماذج التجزئة على هذه البيانات بدقة FP32 كاملة إلى حدوث أخطاء "نفاد الذاكرة" (OOM). تتيح الدقة المختلطة للباحثين ملاءمة هذه النماذج الثقيلة في GPU مما يسهل تطوير الذكاء الاصطناعي الذي يمكن أن يساعد الأطباء في تشخيص الأمراض في وقت مبكر.

تطبيق الدقة المختلطة مع Ultralytics

الأطر الحديثة مثل PyTorch عادةً ما تتعامل مع تعقيدات الدقة المختلطة تلقائيًا عبر ميزة تسمى الدقة المختلطة التلقائية (AMP). ultralytics تقوم الحزمة بتمكين AMP بشكل افتراضي أثناء التدريب لضمان الأداء الأمثل.

فيما يلي مثال موجز عن كيفية بدء التدريب باستخدام YOLO26، حيث يتم تنشيط الدقة المختلطة بشكل افتراضي (يمكن التحكم فيها عبر amp الحجة):

from ultralytics import YOLO

# Load the latest YOLO26 model
model = YOLO("yolo26n.pt")

# Train the model on the COCO8 dataset
# amp=True is the default setting for mixed precision training
results = model.train(data="coco8.yaml", epochs=5, imgsz=640, amp=True)

الدقة المختلطة مقابل المفاهيم ذات الصلة

من المفيد التمييز بين الدقة المختلطة والمصطلحات المماثلة في المسرد لتجنب الالتباس:

  • تكمية النموذج: بينما تستخدم الدقة المختلطة أرقامًا عائمة ذات دقة أقل (FP16) أثناء التدريب، فإن التكمية عادةً ما تحول الأوزان إلى أعداد صحيحة (مثل INT8) بعد التدريب من أجل النشر. تركز التكمية في المقام الأول على زمن الاستدلال على الأجهزة الطرفية، بينما تركز الدقة المختلطة على سرعة التدريب والاستقرار.
  • نصف الدقة: يشير هذا بشكل خاص إلى تنسيق البيانات FP16 نفسه. الدقة المختلطة هي تقنية استخدام كل من FP16 و FP32 معًا. غالبًا ما يؤدي استخدام نصف الدقة الخالصة بدون النسخة الرئيسية "المختلطة" FP32 إلى فشل النماذج في التلاقي بسبب الأخطاء العددية.

الخلاصة

أحدثت الدقة المختلطة ثورة في طريقة تدريب الشبكات العصبية ، حيث كانت بمثابة عامل تمكين حاسم لنماذج الأساس الضخمة وأنظمة الرؤية التي نراها اليوم. من خلال تحقيق التوازن بين الحاجة إلى الدقة الرياضية وقيود سرعة الأجهزة والذاكرة، تتيح هذه التقنية للمطورين التكرار بشكل أسرع وبناء حلول ذكاء اصطناعي أكثر قدرة.

لأولئك الذين يسعون إلى إدارة مجموعات البيانات وتدريب النماذج المُحسّنة بسلاسة، توفر Ultralytics بيئة شاملة تستفيد من تقنيات التحسين الحديثة هذه تلقائيًا.

انضم إلى مجتمع Ultralytics

انضم إلى مستقبل الذكاء الاصطناعي. تواصل وتعاون وانمو مع المبتكرين العالميين

انضم الآن