اكتشف بساطة وقوة مصنفات Naive Bayes لتصنيف النصوص ومعالجة اللغات الطبيعية (NLP) واكتشاف الرسائل غير المرغوب فيها وتحليل المشاعر في الذكاء الاصطناعي والتعلم الآلي.
بايز الساذج هو مصنف احتمالي عالي الكفاءة يستخدم في في التعلم الآلي (ML) الذي يطبق مبادئ نظرية بايز مع افتراض قوي استقلالية قوية بين الميزات. وعلى الرغم من بساطة هذه الخوارزمية إلا أنها غالباً ما تتنافس مع تقنيات أكثر تطوراً، خاصةً في التطبيقات النصية. تنتمي هذه الخوارزمية إلى عائلة خوارزميات التعلّم تحت الإشراف وهي مشهورة لسرعتها خلال كل من مرحلة التدريب وعند توليد التنبؤات عبر محرك الاستدلال. لأنه يتطلب كمية صغيرة نسبيًا من كمية صغيرة نسبيًا من بيانات التدريب لتقدير اللازمة، تظل طريقة أساسية شائعة لمشاكل التصنيف.
ينبع مصطلح "ساذج" من الفرضية الأساسية للخوارزمية: فهي تفترض أن وجود ميزة معينة في فئة ما لا علاقة له بوجود أي ميزة أخرى. على سبيل المثال، يمكن اعتبار الفاكهة تفاحة إذا كانت حمراء ومستديرة وقطرها حوالي 3 بوصات. يعتبر مصنف "باييف بايز" الساذج كل سمة من هذه السمات للمساهمة بشكل مستقل في احتمالية أن تكون الفاكهة تفاحة، بغض النظر عن أي ارتباطات محتملة بين اللون والاستدارة والحجم.
في بيانات العالم الحقيقي، نادرًا ما تكون السمات مستقلة تمامًا. ومع ذلك، يسمح هذا التبسيط للنموذج تقليل التعقيد الحسابي بشكل كبير وتجنب مشاكل مثل الإفراط في تركيب مجموعات البيانات عالية الأبعاد. هذا يجعله مختلفاً عن شبكة بايزيان، والتي تقوم بشكل صريح صراحةً التبعيات المعقدة والعلاقات السببية بين المتغيرات باستخدام رسم بياني دوري موجه. في حين أن تقدم شبكات بايزي تمثيلاً أكثر دقة للأنظمة المعتمدة بشكل صارم، فإن باييز الساذج يعطي الأولوية الكفاءة الحسابية.
تتفوق باييز الساذجة في السيناريوهات التي تتضمن بيانات عالية الأبعاد، خاصة في معالجة اللغات الطبيعية (NLP).
على الرغم من أن نظرية باييف بايز الساذجة قوية في التعامل مع النصوص، إلا أنها غالبًا ما تقصر في المهام الإدراكية المعقدة مثل الرؤية الحاسوبية (CV). في بيانات الصور، تكون قيم البكسل تكون قيم البيكسلات مترابطة بشكل كبير؛ حيث ينهار الافتراض "الساذج" عند محاولة تحديد الأجسام بناءً على بكسلات مستقلة. بالنسبة لمهام مثل تصنيف الصور أو اكتشاف الأجسام في الوقت الحقيقي في الوقت الحقيقي، فإن نماذج التعلّم العميق المتطورة (DL) المتطورة.
البنى الحديثة مثل YOLO11 تستخدم الطبقات لالتقاط التسلسلات الهرمية المعقدة للميزات والعلاقات المكانية التي يتجاهلها نظام باي الساذج. ومع ذلك، يبقى معيار باييز الساذج يبقى معيارًا مفيدًا لتحديد خط الأساس قبل تدريب نماذج أكثر كثافة من حيث الموارد.
في حين أن ultralytics تركز الحزمة على التعلُّم العميق، وعادةً ما تُنفَّذ باييز الساذج باستخدام
القياسية scikit-learn المكتبة. يوضّح المثال التالي كيفيّة تدريب نموذج غاوسي ساذج ساذج
وهو مفيد للبيانات المستمرة.
import numpy as np
from sklearn.naive_bayes import GaussianNB
# Sample training data: [height, weight] and class labels (0 or 1)
X = np.array([[5.9, 175], [5.8, 170], [6.1, 190], [5.2, 120], [5.1, 115]])
y = np.array([0, 0, 0, 1, 1])
# Initialize and train the classifier
model = GaussianNB()
model.fit(X, y)
# Predict class for a new individual
prediction = model.predict([[6.0, 180]])
print(f"Predicted Class: {prediction[0]}")
تتمثل الميزة الأساسية لبايز الساذج في انخفاض معدل الاستدلال المنخفض للغاية وقابلية التوسع. يمكنه التعامل مع مجموعات البيانات الضخمة التي قد تبطئ الخوارزميات الأخرى مثل آلات دعم المتجهات (SVM). علاوة على ذلك، فإن أداءها جيد بشكل مدهش حتى عند انتهاك افتراض الاستقلالية.
ومع ذلك، فإن اعتماده على السمات المستقلة يعني أنه لا يمكنه التقاط التفاعلات بين السمات. إذا كان التنبؤ يعتمد على مزيج من الكلمات (على سبيل المثال، "ليس جيدًا")، فقد يواجه ساذج بايز صعوبة مقارنة بالنماذج التي تستخدم آليات الانتباه أو المحولات. بالإضافة إلى ذلك، إذا كانت إحدى الفئات في الاختبار لم تكن موجودة في مجموعة التدريب، فإن النموذج يعيّن لها احتمالاً صفرياً، وهي مشكلة غالباً ما يتم حلها باستخدام تجانس لابلاس.