مسرد المصطلحات

الانتشار العكسي

تعرّف على كيفية تدريب الشبكات العصبية بالترحيل العكسي وتقليل معدلات الخطأ وتشغيل تطبيقات الذكاء الاصطناعي مثل التعرف على الصور والبرمجة اللغوية العصبية بكفاءة.

التكاثر العكسي، وهو اختصار لعبارة "الانتشار العكسي للأخطاء"، هو الخوارزمية الأساسية المستخدمة لتدريب الشبكات العصبية الاصطناعية. وهي تعمل عن طريق حساب تدرج دالة الخسارة بالنسبة لكل وزن في الشبكة، مما يسمح للنموذج بالتعلم من أخطائه. هذه العملية هي حجر الزاوية في التعلّم العميق الحديث، مما يمكّن النماذج من التعامل مع المهام المعقدة من خلال تعديل متغيراتها الداخلية بشكل متكرر لتحسين الأداء. لقد كان تطوير الانتثار العكسي لحظة محورية في تاريخ الذكاء الاصطناعي، حيث حوّل الشبكات العصبية من مفهوم نظري إلى أدوات عملية قوية.

كيف يعمل الانتشار العكسي

تُعدّ عملية التكاثر العكسي أساسية في حلقة تدريب النموذج ويمكن فهمها على أنها دورة من مرحلتين تتكرر لكل دفعة من البيانات:

  1. تمرير إلى الأمام: يتم إدخال بيانات التدريب إلى الشبكة. تستقبل كل خلية عصبية المدخلات وتعالجها باستخدام أوزان نموذجها ودالة تنشيط، ثم تمرر المخرجات إلى الطبقة التالية. يستمر هذا حتى تنتج الطبقة الأخيرة تنبؤًا. بعد ذلك تتم مقارنة تنبؤ النموذج بالحقيقة الأساسية (التسميات الصحيحة) باستخدام دالة الخسارة، والتي تحسب درجة الخطأ التي تحدد مدى خطأ التنبؤ.

  2. التمرير العكسي: هذا هو المكان الذي يبدأ فيه التكاثر العكسي. يبدأ من الطبقة الأخيرة وينشر الخطأ إلى الوراء عبر الشبكة، طبقة تلو الأخرى. عند كل خلية عصبية، يستخدم حساب التفاضل والتكامل (وتحديداً قاعدة السلسلة) لحساب مقدار مساهمة أوزان تلك الخلية العصبية وانحيازاتها في الخطأ الكلي. تُعرف هذه المساهمة باسم التدرج. تخبر التدرجات بشكل فعال النموذج بكيفية ضبط كل وزن لتقليل الخطأ. ثم تستخدم خوارزمية التحسين هذه التدرجات لتحديث الأوزان.

تتكرر هذه الدورة من التمريرات الأمامية والخلفية للعديد من الحقب، مما يسمح للنموذج بتقليل خطئه تدريجيًا وتحسين دقته. تحتوي أطر عمل مثل PyTorch و TensorFlow على محركات تفاضل تلقائية محسّنة للغاية تتعامل مع العمليات الحسابية المعقدة للتكاثر العكسي خلف الكواليس.

التكاثر العكسي مقابل المفاهيم ذات الصلة

من المهم التمييز بين التكاثر العكسي والمفاهيم الأخرى ذات الصلة في التعلم الآلي:

  • خوارزمية التحسين: الانتشار الخلفي هو طريقة لحساب تدرجات الخسارة فيما يتعلق بمعلمات النموذج. خوارزمية التحسين، مثل خوارزمية التدرج العشوائي (Stochastic Gradient Descent Descent (SGD)) أو مُحسِّن آدم، هي الآلية التي تستخدم هذه التدرجات لتحديث أوزان النموذج. فكّر في الترحيل العكسي على أنه توفير الخريطة، والمحسِّن على أنه قيادة السيارة.
  • دالة الخسارة: تقيس دالة الخسارة الخطأ بين تنبؤات النموذج والقيم الحقيقية. يستخدم الترحيل العكسي درجة الخطأ هذه كنقطة بداية لحساب التدرجات. يعدّ اختيار دالة الخسارة أمرًا بالغ الأهمية، لكنه مكوّن منفصل عن خوارزمية الترحيل العكسي نفسها.
  • التلاشي وانفجار التدرجات: هذه هي المشاكل التي يمكن أن تحدث أثناء الترحيل العكسي في الشبكات العميقة. يحدث التدرج المت لاشي عندما تصبح التدرجات صغيرة للغاية، مما يمنع الطبقات المبكرة من التعلم. وعلى العكس من ذلك، يحدث التدرج المنفجر عندما تصبح التدرجات كبيرة للغاية، مما يؤدي إلى تدريب غير مستقر. تُستخدم تقنيات مثل التهيئة الدقيقة للوزن والتطبيع واستخدام وظائف التنشيط مثل ReLU للتخفيف من هذه المشكلات.

التطبيقات الواقعية

يُستخدم الانتثار الخلفي ضمنيًا كلما خضع نموذج التعلم العميق للتدريب. فيما يلي مثالان ملموسان:

  1. الكشف عن الكائنات باستخدام Ultralytics YOLO : عند تدريب نموذج Ultralytics YOLO (مثل YOLO11) للكشف عن الكائنات على مجموعة بيانات مثل COCO، يتم استخدام التكاثر العكسي في كل تكرار تدريب. بعد أن يتنبأ النموذج بالمربعات والفئات المحددة، يتم حساب الخسارة. يحسب الترحيل العكسي التدرجات لجميع الأوزان في جميع أنحاء العمود الفقري للنموذج ورأس الكشف. يستخدم المُحسِّن بعد ذلك هذه التدرجات لضبط الأوزان، مما يحسّن قدرة النموذج على تحديد موقع الأجسام وتصنيفها بدقة. يمكن للمستخدمين الاستفادة من من منصات مثل Ultralytics HUB لإدارة عملية التدريب هذه، والاستفادة من تطبيقات الترحيل العكسي الفعالة. وهذا أمر بالغ الأهمية للتطبيقات التي تتراوح بين المركبات ذاتية القيادة وأنظمة الأمن.
  2. نماذج معالجة اللغات الطبيعية: يتم تدريب النماذج اللغوية الكبيرة (LLMs) مثل نماذج BERT و GPT باستخدام الترحيل العكسي. على سبيل المثال، في مهمة تحليل المشاعر، يتنبأ النموذج بمشاعر نص معين. ينتج عن الفرق بين المشاعر المتوقعة والتسمية الفعلية قيمة خطأ. يحسب الانتشار الخلفي مقدار مساهمة كل معلمة في الشبكة الواسعة في هذا الخطأ. ثم تقوم خوارزميات التحسين بتحديث هذه المعلمات، مما يمكّن النموذج من فهم الفروق اللغوية والسياق والمشاعر بشكل أفضل على مدار التدريب. وتستكشف مجموعات البحث الأكاديمي مثل مجموعة ستانفورد للبرمجة اللغوية العصبية هذه التقنيات وتصقلها باستمرار.

انضم إلى مجتمع Ultralytics

انضم إلى مستقبل الذكاء الاصطناعي. تواصل وتعاون ونمو مع المبتكرين العالميين

انضم الآن
تم نسخ الرابط إلى الحافظة