الخوارزميات التطورية
اكتشف كيف تعمل الخوارزميات التطورية على تحسين حلول الذكاء الاصطناعي والتعلم الآلي، بدءًا من ضبط المعلمات الفائقة وحتى الروبوتات، باستخدام استراتيجيات مستوحاة من الطبيعة.
تمثّل الخوارزميات التطورية (EAs) فئة قوية من فئات
الذكاء الاصطناعي (AI) القوية
مستوحاة من المبادئ البيولوجية للانتقاء الطبيعي وعلم الوراثة. على عكس الطرق الرياضية التقليدية
التقليدية التي تعتمد على العمليات الحسابية المشتقة، تحاكي هذه الخوارزميات عملية التطور لحل
مشاكل التحسين المعقدة. من خلال الحفاظ على
بمجموعة من الحلول المحتملة التي تتنافس وتتكاثر وتتحور، يمكن للخوارزميات الخوارزميات أن تتنقل في مساحات بحث واسعة ووعرة
حيث تكون الإجابة "الأفضل" غير معروفة أو يستحيل اشتقاقها تحليلياً. وهذا يجعلها ذات
قيمة في التعلم الآلي (ML) للمهام
بدءًا من تصميم النماذج الآلية إلى الجدولة المعقدة.
الآليات الأساسية للتطور
إن وظيفة الخوارزمية التطورية تعكس مفهوم
البقاء للأصلح. تقوم العملية
بشكل تكراري مجموعة من الحلول المرشحة من خلال دورة من العوامل البيولوجية:
-
التهيئة: يولد النظام مجموعة عشوائية من الحلول المحتملة للمشكلة.
-
تقييم اللياقة البدنية: يتم اختبار كل مرشح مقابل
محددة. في
الرؤية الحاسوبية (CV)، غالباً ما تقيس هذه الدالة
تقيس دقة النموذج أو متوسط دقة النموذج أو متوسط الدقة
mAP).
-
الاختيار: يتم اختيار المرشحين الحاصلين على أعلى درجات اللياقة البدنية ليكونوا آباءً للجيل القادم.
الجيل التالي.
-
التكاثر والتنوع: يتم إنشاء حلول جديدة باستخدام
التهجين (الجمع بين صفات من أبوين
الأبوين) والطفرة (إدخال تغييرات عشوائية
عشوائية). تعتبر الطفرة أمرًا بالغ الأهمية لأنها تقدم التنوع الجيني، مما يمنع الخوارزمية من الوقوع في
المحلية المثلى بدلاً من إيجاد الحلول المثلى العالمية.
تطبيقات العالم الحقيقي في الذكاء الاصطناعي
الخوارزميات التطورية هي أدوات متعددة الاستخدامات تُستخدم في مختلف المجالات عالية التأثير لتحسين أداء النظام:
-
ضبط البارامتر الفائق: أحد
من أكثر التطبيقات شيوعًا في
التعلم العميق (DL) هو تحسين تكوينات التدريب
التكوينات. بدلاً من التخمين اليدوي لقيم
معدل التعلم، أو الزخم، أو تضاؤل الوزن، يمكن لخبرة المستشار الخبير
تطوير مجموعة من المعلمات الفائقة التي تزيد من أداء النموذج إلى أقصى حد. إن
Ultralytics YOLO11 خط أنابيب التدريب يتضمن موالفًا
قائم على الخوارزمية الجينية لأتمتة هذه العملية.
-
بحث البنية العصبية (NAS): تقوم EAs بأتمتة تصميم
الشبكات العصبية. من خلال التعامل مع بنية الشبكة
(الطبقات والوصلات) على أنها شفرة وراثية، يمكن للخوارزمية أن تطور بنيات عالية الكفاءة مناسبة
لأجهزة الذكاء الاصطناعي المتطورة حيث تكون الموارد الحاسوبية
محدودة.
-
الروبوتات والتحكم: في
الذكاء الاصطناعي في الروبوتات، تطوّر الروبوتات سياسات التحكم و
والحركة. يتيح ذلك للروبوتات المستقلة تعلم كيفية التنقل في البيئات الديناميكية من خلال محاكاة
أجيال من استراتيجيات الحركة.
-
التحسين البيئي: في قطاعات مثل
الذكاء الاصطناعي في الزراعة، تساعد وكالات تحسين البيئة في تحسين تخصيص الموارد
مثل جداول الري أو وضع المحاصيل لزيادة المحصول إلى أقصى حد مع تقليل الهدر.
أتمتة التحسين الآلي باستخدام Python
يمكن للممارسين الاستفادة من الخوارزميات التطورية مباشرةً في ultralytics للعثور على
التكوين التدريبي الأمثل ل
اكتشاف الأجسام النماذج. ال
tune تستخدم طريقة تستخدم خوارزمية جينية لتبديل المعلمات الفائقة على مدى عدة أجيال.
from ultralytics import YOLO
# Load a standard YOLO11 model
model = YOLO("yolo11n.pt")
# Run hyperparameter tuning using a genetic algorithm approach
# The tuner evolves parameters like lr0, momentum, and weight_decay
# 'iterations' defines how many evolutionary generations to run
model.tune(data="coco8.yaml", epochs=10, iterations=30, optimizer="AdamW", plots=False)
التمييز بين المفاهيم ذات الصلة
ولتطبيق هذه التقنيات بفعالية، من المفيد التفريق بين الخوارزميات التطورية وغيرها من استراتيجيات التحسين
واستراتيجيات التعلم الأخرى:
-
مقابل. نزول التدرج العشوائي (SGD): طرق التدريب القياسية مثل
نزول التدرج العشوائي (SGD)
تعتمد على حساب مشتق دالة الخسارة
دالة خسارة لتحديث الأوزان. أما EAs فهي
خالية من التدرج، مما يعني أنه يمكنها تحسين المشاكل غير القابلة للاشتقاق أو المنفصلة حيث التدرجات
غير متوفرة.
-
ضد. ذكاء السرب: في حين أن كلاهما مستوحى من الذكاء الحيوي,
ذكاء السرب (على سبيل المثال، مستعمرة النمل
Optimization) يركز على السلوك الجماعي للوكلاء اللامركزيين الذين يتفاعلون ضمن عمر واحد. في
على النقيض من ذلك، يعتمد ذكاء مستعمرة النمل على الاستبدال الجيلي للحلول، حيث يتم
يتم التخلص من المرشحين الأضعف لصالح نسل الآباء الأقوى.
-
مقابل. التعلم المعزز:
التعلّم المعزز (RL) يتضمن
تعلم الوكيل من خلال تفاعلات التجربة والخطأ مع البيئة لتعظيم إشارة المكافأة. بينما يمكن للوكلاء المعززين
أيضًا تحسين السياسات، إلا أنها تفعل ذلك من خلال تطوير مجموعة من معلمات السياسة بدلاً من التعلم من خلال
دورات التفاعل المستمر بين الوكيل والبيئة.
لمزيد من الأفكار حول تحسين أداء النموذج، استكشف أدلةنا حول
نصائح تدريب النماذج ومنع
الإفراط في تركيب النماذج.