اكتشف كيف يستفيد التعلم الذاتي الإشراف من البيانات غير المسماة للتدريب الفعال، مما يغير الذكاء الاصطناعي في رؤية الكمبيوتر ومعالجة اللغة الطبيعية والمزيد.
التعلُّم الخاضع للإشراف الذاتي (SSL) هو نهج تحويلي في مجال الذكاء الاصطناعي (AI) يُمكِّن الأنظمة من التعلم من البيانات غير المُسمَّاة دون الحاجة إلى شرح بشري صريح. على عكس النهج التقليدي التعلم الخاضع للإشرافالذي يعتمد بشكل كبير على مجموعات البيانات الضخمة من الأمثلة المصنفة يدوياً، فإن SSL يستمد إشاراته الإشرافية الخاصة به مباشرةً من البيانات نفسها. من خلال إنشاء وحل "مهام الذريعة" - مثل ملء الكلمات المفقودة في جملة ما أو التنبؤ بدوران صورة ما - يتعلم النموذج فهم البنية الأساسية والسياق و وميزات المدخلات. تعد هذه القدرة ضرورية لتطوير نموذج قوي نماذج تأسيسية قوية التي يمكن تكييفها مع مجموعة واسعة من المهام النهائية بأقل قدر من التدريب الإضافي.
تتضمن الآلية الأساسية لـ SSL إزالة جزء من البيانات المتاحة وتكليف الشبكة العصبية (NN) ب بإعادة بنائها. تجبر هذه العملية النموذج على تعلم تمثيلات عالية الجودة، أو التضميناتالتي تلتقط المعنى الدلالي. هناك فئتان أساسيتان من مهام الذرائع المستخدمة في البحث والصناعة:
لقد أحدث التعلُّم الخاضع للإشراف الذاتي ثورة في الصناعات من خلال إطلاق العنان لقيمة مجموعات البيانات الضخمة غير المنسقة. فيما يلي مثالان ملموسان على تأثيره:
لفهم SSL بشكل كامل، من المفيد التفريق بينه وبين نماذج التعلم المماثلة:
في الممارسة العملية، يستخدم معظم المطورين SSL عن طريق الاستفادة من أوزان النموذج التي تم تم تدريبها مسبقًا على مجموعات بيانات ضخمة. على سبيل المثال، فإن Ultralytics YOLO11 تستفيد البنية من قدرات استخراج الميزات العميقة التي تم صقلها من خلال التدريب المكثف. بينما يتم الإشراف على YOLO فإن مفهوم نقل التعلم - أخذ نموذج يفهم الميزات المرئية وتطبيقه على مهمة جديدة - هو الفائدة الأساسية الفائدة الأساسية لأبحاث SSL.
يوضّح مثال Python التالي كيفية تحميل نموذج مُدرَّب مسبقًا وضبطه على مجموعة بيانات محدّدة. يعتمد هذا يعتمد سير العمل هذا على تمثيلات الميزات المستفادة خلال مرحلة التدريب الأولي المسبق.
from ultralytics import YOLO
# Load a pre-trained YOLO11 model (weights act as the learned representation)
model = YOLO("yolo11n.pt")
# Fine-tune the model on a specific task, leveraging its existing visual knowledge
# This transfer learning process is highly efficient due to robust pre-training
results = model.train(data="coco8.yaml", epochs=5, imgsz=640)
# Perform inference to verify the model detects objects correctly
model.predict("https://ultralytics.com/images/bus.jpg", save=True)
بينما يسعى الباحثون إلى إيجاد نماذج تتعلم مثل البشر - من خلال الملاحظة بدلاً من الحفظ عن ظهر قلب - تظل لغة الإشارة في طليعة الابتكار. مختبرات الأبحاث الرئيسية، بما في ذلك Google ديب مايند و Meta AIيواصلان نشر الإنجازات التي تقلل من الاعتماد على البيانات المصنفة. في Ultralytics نقوم بدمج هذه التطورات في البحث والتطوير لدينا من أجل YOLO26بهدف تقديم نماذج أسرع وأصغر حجمًا وأكثر دقة يمكنها التعميم بفعالية عبر مختلف الرؤية الحاسوبية المتنوعة المتنوعة. أدوات مثل PyTorch ومنصة Ultralytics القادمة التي تجعل نشر هذه القدرات المتقدمة في بيئات الإنتاج في العالم الحقيقي أسهل من أي وقت مضى.