يولو فيجن شنتشن
شنتشن
انضم الآن
مسرد المصطلحات

الانتشار العكسي

تعرف على كيفية تدريب الانتشار العكسي للشبكات العصبية وتقليل معدلات الخطأ وتشغيل تطبيقات الذكاء الاصطناعي مثل التعرف على الصور ومعالجة اللغة الطبيعية بكفاءة.

الانتشار الخلفي، وهو اختصار لـ "الانتشار الخلفي للأخطاء"، هو الخوارزمية الأساسية المستخدمة لتدريب الشبكات العصبية الاصطناعية. وهو يعمل عن طريق حساب تدرج دالة الخسارة فيما يتعلق بكل وزن في الشبكة، مما يسمح للنموذج بالتعلم من أخطائه. هذه العملية هي حجر الزاوية في التعلم العميق الحديث، مما يمكّن النماذج من معالجة المهام المعقدة عن طريق تعديل معاييرها الداخلية بشكل متكرر لتحسين الأداء. كان تطوير الانتشار الخلفي لحظة محورية في تاريخ الذكاء الاصطناعي، حيث حول الشبكات العصبية من مفهوم نظري إلى أدوات قوية وعملية.

كيف يعمل الانتشار الخلفي؟

تعتبر عملية الانتشار العكسي أساسية لحلقة تدريب النموذج ويمكن فهمها على أنها دورة ذات مرحلتين تتكرر لكل دفعة من البيانات:

  1. التمرير الأمامي: يتم تغذية بيانات التدريب في الشبكة. تتلقى كل خلية عصبية مدخلات، وتعالجها باستخدام أوزان النموذج و دالة التنشيط، وتمرر الإخراج إلى الطبقة التالية. يستمر هذا حتى تنتج الطبقة النهائية تنبؤًا. تتم مقارنة تنبؤ النموذج بعد ذلك بالحقيقة الأساسية (التصنيفات الصحيحة) باستخدام دالة الخسارة، التي تحسب درجة خطأ تحدد مقدار الخطأ في التنبؤ.

  2. التمرير العكسي: هذا هو المكان الذي يبدأ فيه الانتشار العكسي. يبدأ في الطبقة الأخيرة وينشر الخطأ للخلف عبر الشبكة، طبقة تلو الأخرى. في كل عصبون، فإنه يستخدم حساب التفاضل والتكامل (على وجه التحديد، قاعدة السلسلة) لحساب مقدار مساهمة أوزان وانحيازات هذا العصبون في الخطأ الكلي. تُعرف هذه المساهمة بالتدرج. تخبر التدرجات النموذج بشكل فعال بكيفية تعديل كل وزن لتقليل الخطأ. ثم تستخدم خوارزمية التحسين هذه التدرجات لتحديث الأوزان.

تتكرر هذه الدورة من التمريرات الأمامية والخلفية لعدة حقبات، مما يسمح للنموذج بتقليل خطأه تدريجيًا وتحسين دقته. تحتوي أطر العمل مثل PyTorch و TensorFlow على محركات تمايز تلقائي محسّنة للغاية تتعامل مع حساب التفاضل والتكامل المعقد للتكاثر الخلفي خلف الكواليس.

الانتشار الخلفي مقابل المفاهيم ذات الصلة

من المهم التمييز بين الانتشار الخلفي (backpropagation) والمفاهيم الأخرى ذات الصلة في تعلم الآلة:

  • خوارزمية التحسين: الانتشار الخلفي هو طريقة لحساب تدرجات الخسارة فيما يتعلق بمعاملات النموذج. خوارزمية التحسين، مثل تدرج تنازلي تصادمي (SGD) أو محسِّن Adam، هي الآلية التي تستخدم هذه التدرجات لتحديث أوزان النموذج. فكر في الانتشار الخلفي على أنه يوفر الخريطة، والمُحسِّن يقود السيارة.
  • دالة الخسارة: تقيس دالة الخسارة الخطأ بين تنبؤات النموذج والقيم الحقيقية. يستخدم الانتشار العكسي درجة الخطأ هذه كنقطة بداية لحساب التدرجات. يعد اختيار دالة الخسارة أمرًا بالغ الأهمية، ولكنه مكون منفصل عن خوارزمية الانتشار العكسي نفسها.
  • تلاشي التدرجات وانفجارها: هذه مشاكل يمكن أن تحدث أثناء الانتشار الخلفي في الشبكات العميقة. يحدث تلاشي التدرج عندما تصبح التدرجات صغيرة للغاية، مما يمنع الطبقات المبكرة من التعلم. على العكس من ذلك، يحدث انفجار التدرج عندما تصبح التدرجات كبيرة بشكل مفرط، مما يؤدي إلى تدريب غير مستقر. تُستخدم تقنيات مثل التهيئة الدقيقة للأوزان، و التطبيع، واستخدام وظائف التنشيط مثل ReLU للتخفيف من هذه المشكلات.

تطبيقات واقعية

يستخدم الانتشار الخلفي ضمنيًا كلما خضع نموذج تعلم عميق للتدريب. إليك مثالان محددان:

  1. اكتشاف الكائنات باستخدام Ultralytics YOLO: عند تدريب نموذج Ultralytics YOLO (مثل YOLOv8) لـ اكتشاف الكائنات على مجموعة بيانات مثل COCO، يتم استخدام الانتشار العكسي في كل تكرار تدريب. بعد أن يتوقع النموذج مربعات الإحاطة والفئات، يتم حساب الخسارة. يحسب الانتشار العكسي التدرجات لجميع الأوزان في جميع أنحاء العمود الفقري للنموذج و رأس الاكتشاف. ثم تستخدم أداة التحسين هذه التدرجات لضبط الأوزان، مما يحسن قدرة النموذج على تحديد مواقع الكائنات وتصنيفها بدقة. يمكن للمستخدمين الاستفادة من منصات مثل Ultralytics HUB لإدارة عملية التدريب هذه، والاستفادة من تطبيقات الانتشار العكسي الفعالة. هذا أمر بالغ الأهمية للتطبيقات التي تتراوح من المركبات ذاتية القيادة إلى أنظمة الأمان.
  2. نماذج معالجة اللغة الطبيعية: يتم تدريب نماذج اللغة الكبيرة (LLMs) مثل BERT و نماذج GPT باستخدام الانتشار العكسي. على سبيل المثال، في مهمة تحليل المشاعر، يتوقع النموذج شعور نص معين. يؤدي الفرق بين الشعور المتوقع والتسمية الفعلية إلى قيمة خطأ. يحسب الانتشار العكسي مقدار مساهمة كل معلمة في الشبكة الواسعة في هذا الخطأ. ثم تقوم خوارزميات التحسين بتحديث هذه المعلمات، مما يمكّن النموذج من فهم الفروق اللغوية الدقيقة والسياق والشعور بشكل أفضل على مدار التدريب. تستكشف مجموعات البحث الأكاديمي مثل مجموعة ستانفورد لمعالجة اللغة الطبيعية هذه التقنيات باستمرار وتعمل على تحسينها.

انضم إلى مجتمع Ultralytics

انضم إلى مستقبل الذكاء الاصطناعي. تواصل وتعاون وانمو مع المبتكرين العالميين

انضم الآن
تم نسخ الرابط إلى الحافظة