اكتشف كيف تعمل خوارزميات التحسين على تحسين أداء الذكاء الاصطناعي والتعلم الآلي، بدءًا من تدريب الشبكات العصبية وحتى التطبيقات الواقعية في الرعاية الصحية والزراعة.
خوارزمية التحسين هي المحرك الأساسي الذي يقود عملية التدريب في التعلم الآلي (ML) و والتعلم العميق (DL). وظيفتها الأساسية هي تعديل المعلمات الداخلية للنموذج بشكل تكراري - وتحديداً أوزان النموذج وانحيازاته أوزان النموذج والتحيزات لتقليل الخطأ الناتج أثناء التنبؤات. يمكنك تخيل هذه العملية كمتنزه يحاول العثور على أدنى نقطة في منطقة ضبابية, ضبابية وجبلية. ترشد خوارزمية التحسين المتنزه إلى أسفل المنحدر، خطوة بخطوة، حتى يصل إلى قاع الوادي، وهو ما يمثل الحالة التي يتم فيها تقليل دالة الخسارة في النموذج دالة الخسارة للنموذج ودقته إلى أقصى حد.
ينطوي تدريب الشبكة العصبية على دورة مستمرة من التنبؤ وحساب الخطأ وتحديثات المعلمات. تتحكم خوارزمية التحسين في مرحلة "التحديث" من هذه الدورة. بعد أن يعالج النموذج دفعة من من بيانات التدريب، يقوم النظام بحساب الفرق بين المخرجات المتوقعة والهدف الفعلي، وهي قيمة تحددها دالة الخسارة.
باستخدام تقنية تسمى الترحيل العكسي، تقوم خوارزمية تحسب الخوارزمية التدرّج - وهو متجه يشير إلى اتجاه الزيادة الحادة في الخطأ. لتقليل الخطأ الخطأ، يقوم المُحسِّن بتحديث الأوزان في الاتجاه المعاكس لهذا التدرج. يتم تحديد حجم الخطوة المتخذة في هذا الاتجاه يتم تحديده من خلال تكوين حاسم يُعرف باسم معدل التعلم. إيجاد التوازن الصحيح هو المفتاح؛ فالخطوة الخطوة الكبيرة جدًا قد تتجاوز الحد الأدنى، في حين أن الخطوة الصغيرة جدًا قد تؤدي إلى تدريب بطيء بطيئة تستغرق العديد من الحقب الزمنية للتقارب. موارد شاملة شاملة مثل ملاحظات التحسين CS231n من جامعة ستانفورد توفر رؤى تقنية أعمق في هذه الديناميكيات.
لا يوجد مُحسِّن "واحد يناسب الجميع"، وتوفر الخوارزميات المختلفة مزايا مميزة اعتمادًا على البنية والبيانات.
تُعد خوارزميات التحسين هي خوارزميات العمل الصامتة وراء العديد من حلول الذكاء الاصطناعي المتطورة.
من المفيد التفريق بين خوارزميات التحسين والمصطلحات الأخرى المشابهة الموجودة في سير عمل التعلم الآلي.
When using high-level frameworks, selecting an optimization algorithm is often a single argument. The following
example demonstrates how to specify the AdamW المُحسِّن عند تدريب
YOLO11 باستخدام نموذج ultralytics الحزمة.
from ultralytics import YOLO
# Load the recommended YOLO11 model
model = YOLO("yolo11n.pt")
# Train the model on the COCO8 dataset using the AdamW optimization algorithm
# The 'optimizer' argument allows easy switching between SGD, Adam, AdamW, etc.
results = model.train(data="coco8.yaml", epochs=5, optimizer="AdamW")
بالنسبة للباحثين والمطورين الذين يتطلعون إلى تنفيذ حلقات مخصصة، فإن مكتبات مثل PyTorch و TensorFlow مجموعات واسعة النطاق من خوارزميات التحسين المبنية مسبقًا والتي يمكن دمجها بسهولة في أي بنية نموذجية.