تعرف على كيفية تسريع الدقة المختلطة للتدريب وتقليل الذاكرة لنماذج مثل Ultralytics . اكتشف مزايا FP16 و FP32 للحصول على رؤى أسرع في مجال الذكاء الاصطناعي.
الدقة المختلطة هي تقنية محورية في تحسين النماذج تستخدم لتسريع تدريب نماذج التعلم العميق مع تقليل استهلاك الذاكرة. من خلال الجمع الاستراتيجي بين تنسيقات رقمية مختلفة — عادةً أنواع 16 بت و 32 بت ذات نقطة عائمة — تسمح هذه الطريقة لخوارزميات التعلم الآلي بإجراء الحسابات بشكل أسرع دون التضحية بدقة النموذج النهائية. وقد أصبحت ممارسة قياسية في تطوير الذكاء الاصطناعي الحديث ، خاصةً للمهام التي تتطلب موارد كثيرة مثل تدريب بنية YOLO26 على مجموعات بيانات ضخمة.
في سير عمل التعلم العميق التقليدي، عادةً ما تقوم النماذج بإجراء الحسابات باستخدام تنسيق النقطة العائمة أحادية الدقة (FP32). يتطلب كل رقم في FP32 32 بت من الذاكرة. على الرغم من دقة هذا التنسيق العالية، إلا أنه قد يكون مكلفًا من الناحية الحسابية ويستهلك الكثير من الذاكرة.
تقدم الدقة المختلطة استخدام نصف الدقة (FP16)، التي تستخدم 16 بت فقط. ومع ذلك، فإن استخدام FP16 فقط يمكن أن يؤدي إلى عدم استقرار رقمي بسبب نطاق ديناميكي أصغر. لحل هذه المشكلة، تحتفظ طرق الدقة المختلطة بـ "نسخة أصلية" من أوزان النموذج في FP32 من أجل الاستقرار أثناء استخدام FP16 للعمليات الحسابية الثقيلة، مثل التلافيف وضرب المصفوفات.
تتضمن العملية عمومًا ثلاث خطوات رئيسية:
يوفر اعتماد الدقة المختلطة مزايا كبيرة للمطورين والباحثين الذين يستخدمون الموارد الحاسوبية بشكل فعال:
يتم استخدام الدقة المختلطة في مختلف الصناعات للتعامل مع النماذج المعقدة ومجموعات البيانات الكبيرة بكفاءة.
فيتطوير المركبات ذاتية القيادة، يجب على المهندسين تدريب نماذج الكشف عن الأجسام على ملايين الإطارات الفيديوية عالية الدقة. ويتيح استخدام الدقة المختلطة تدريب نماذج متطورة مثل YOLO26 بكفاءة. ويتيح انخفاض حجم الذاكرة معالجة مدخلات عالية الدقة، وهو أمر بالغ الأهمية للكشف عن الأجسام الصغيرة مثل إشارات المرور أو المشاة من مسافة بعيدة.
غالبًا ما يتضمن تحليل الصور الطبية بيانات حجمية ثلاثية الأبعاد من التصوير بالرنين المغناطيسي أو الأشعة المقطعية، والتي تستهلك قدرًا كبيرًا من الذاكرة. غالبًا ما يؤدي تدريب نماذج التجزئة على هذه البيانات بدقة FP32 كاملة إلى حدوث أخطاء "نفاد الذاكرة" (OOM). تتيح الدقة المختلطة للباحثين ملاءمة هذه النماذج الثقيلة في GPU مما يسهل تطوير الذكاء الاصطناعي الذي يمكن أن يساعد الأطباء في تشخيص الأمراض في وقت مبكر.
الأطر الحديثة مثل PyTorch عادةً ما تتعامل مع
تعقيدات الدقة المختلطة تلقائيًا عبر ميزة تسمى الدقة المختلطة التلقائية (AMP).
ultralytics تقوم الحزمة بتمكين AMP بشكل افتراضي أثناء التدريب لضمان الأداء الأمثل.
فيما يلي مثال موجز عن كيفية بدء التدريب باستخدام YOLO26، حيث يتم تنشيط الدقة المختلطة بشكل افتراضي
(يمكن التحكم فيها عبر amp الحجة):
from ultralytics import YOLO
# Load the latest YOLO26 model
model = YOLO("yolo26n.pt")
# Train the model on the COCO8 dataset
# amp=True is the default setting for mixed precision training
results = model.train(data="coco8.yaml", epochs=5, imgsz=640, amp=True)
من المفيد التمييز بين الدقة المختلطة والمصطلحات المماثلة في المسرد لتجنب الالتباس:
أحدثت الدقة المختلطة ثورة في طريقة تدريب الشبكات العصبية ، حيث كانت بمثابة عامل تمكين حاسم لنماذج الأساس الضخمة وأنظمة الرؤية التي نراها اليوم. من خلال تحقيق التوازن بين الحاجة إلى الدقة الرياضية وقيود سرعة الأجهزة والذاكرة، تتيح هذه التقنية للمطورين التكرار بشكل أسرع وبناء حلول ذكاء اصطناعي أكثر قدرة.
لأولئك الذين يسعون إلى إدارة مجموعات البيانات وتدريب النماذج المُحسّنة بسلاسة، توفر Ultralytics بيئة شاملة تستفيد من تقنيات التحسين الحديثة هذه تلقائيًا.