استكشف Naive Bayes، وهو خوارزمية تعلم آلي أساسية للتصنيف. تعرف على افتراض استقلاليته، وتطبيقاته في معالجة اللغة الطبيعية (NLP)، وكيف يقارن بـ Ultralytics .
Naive Bayes هي مجموعة من الخوارزميات الاحتمالية المستخدمة على نطاق واسع في التعلم الآلي لمهام التصنيف. تستند إلى مبادئ إحصائية، وتطبق نظرية بايز مع افتراض استقلالية قوي (أو "ساذج") بين السمات. على الرغم من بساطتها، فإن هذه الطريقة فعالة للغاية في تصنيف البيانات، لا سيما في السيناريوهات التي تتضمن مجموعات بيانات عالية الأبعاد مثل النصوص. وهي بمثابة لبنة أساسية في مجال التعلم الخاضع للإشراف، حيث توفر توازنًا بين الكفاءة الحسابية والأداء التنبئي.
تتنبأ الخوارزمية باحتمالية انتماء نقطة بيانات معينة إلى فئة معينة. ينبع الجانب "الساذج" من الافتراض بأن وجود سمة معينة في فئة ما لا علاقة له بوجود أي سمة أخرى. على سبيل المثال، يمكن اعتبار الفاكهة تفاحة إذا كانت حمراء اللون ومستديرة وقطرها حوالي 3 بوصات . يعتبر مصنف Naive Bayes كل من هذه استخراج السمات بشكل مستقل لحساب احتمالية أن تكون الفاكهة تفاحة، بغض النظر عن أي ارتباطات محتملة بين اللون والاستدارة والحجم.
يقلل هذا التبسيط بشكل كبير من القوة الحسابية المطلوبة لتدريب النموذج تدريب النموذج، مما يجعل الخوارزمية سريعة للغاية. ومع ذلك، نظرًا لأن البيانات الواقعية غالبًا ما تحتوي على متغيرات تابعة وعلاقات معقدة، فإن هذا الافتراض قد يحد أحيانًا من أداء النموذج مقارنةً بالبنى الأكثر تعقيدًا .
تتألق خوارزمية نايف بايز في التطبيقات التي تكون فيها السرعة عاملاً حاسماً ويفترض فيها الاستقلالية بشكل معقول.
في حين أن Naive Bayes قوي في التعامل مع النصوص، إلا أنه غالبًا ما يواجه صعوبات في المهام الحسية مثل الرؤية الحاسوبية (CV). في الصورة، عادة ما تعتمد قيمة البكسل الواحد بشكل كبير على البكسلات المجاورة له (على سبيل المثال، مجموعة من البكسلات التي تشكل حافة أو نسيجًا). هنا ينهار افتراض الاستقلالية.
للمهام البصرية المعقدة مثل الكشف عن الأشياء، فإن نماذج التعلم العميق (DL) . تُفضل بنى مثل YOLO26 تستخدم طبقات تلافيفية لالتقاط التسلسلات الهرمية المكانية وتفاعلات الميزات التي يتجاهلها Naive Bayes. بينما يوفر Naive Bayes أساسًا احتماليًا، فإن نماذج مثل YOLO26 توفر دقة عالية الدقة المطلوبة للقيادة الذاتية أو التشخيص الطبي. لإدارة مجموعات البيانات المطلوبة لهذه النماذج البصرية المعقدة، توفر أدوات مثل Ultralytics تقدم تعليقات توضيحية مبسطة و عمليات تدريب تتجاوز بكثير المعالجة البسيطة للبيانات الجدولية.
من المفيد التمييز بين Naive Bayes والمفهوم الأوسع لـ شبكة بايزية.
في حين أن ultralytics تركز الحزمة على التعلُّم العميق، وعادةً ما تُنفَّذ باييز الساذج باستخدام
القياسية مكتبة scikit-learn. يوضح المثال التالي كيفية تدريب نموذج Gaussian Naive Bayes، وهو نموذج مفيد للبيانات المستمرة.
import numpy as np
from sklearn.naive_bayes import GaussianNB
# Sample training data: [height (cm), weight (kg)] and Labels (0: Cat A, 1: Cat B)
X = np.array([[175, 70], [180, 80], [160, 50], [155, 45]])
y = np.array([0, 0, 1, 1])
# Initialize and train the classifier
model = GaussianNB()
model.fit(X, y)
# Predict class for a new individual [172 cm, 75 kg]
# Returns the predicted class label (0 or 1)
print(f"Predicted Class: {model.predict([[172, 75]])[0]}")
الميزة الرئيسية لخوارزمية Naive Bayes هي زمن الاستدلال المنخفض للغاية زمن الاستدلال المنخفض للغاية ومتطلبات الأجهزة البسيطة . يمكنه تفسير مجموعات البيانات الضخمة التي قد تبطئ الخوارزميات الأخرى مثل آلات الدعم المتجهية (SVM). علاوة على ذلك، فإنه يعمل بشكل جيد بشكل مدهش حتى عندما يتم انتهاك افتراض الاستقلالية.
ومع ذلك، فإن اعتماده على ميزات مستقلة يعني أنه لا يمكنه التقاط التفاعلات بين السمات. إذا كان التنبؤ يعتمد على مجموعة من الكلمات (على سبيل المثال، "ليس جيدًا")، فقد يواجه Naive Bayes صعوبة مقارنة بالنماذج التي تستخدم آليات الانتباه أو المحولات. بالإضافة إلى ذلك، إذا كانت إحدى الفئات في بيانات الاختبار لم تكن موجودة في مجموعة التدريب، فإن النموذج يعين لها احتمالية صفرية، وهي مشكلة غالبًا ما يتم حلها باستخدام تسوية لابلاس.