Yolo فيجن شنتشن
شنتشن
انضم الآن
مسرد المصطلحات

التعلم بالإشراف الذاتي (Self-Supervised Learning)

اكتشف كيف يستفيد التعلم الذاتي الإشراف من البيانات غير المسماة للتدريب الفعال، مما يغير الذكاء الاصطناعي في رؤية الكمبيوتر ومعالجة اللغة الطبيعية والمزيد.

التعلُّم الخاضع للإشراف الذاتي (SSL) هو نهج تحويلي في مجال الذكاء الاصطناعي (AI) يُمكِّن الأنظمة من التعلم من البيانات غير المُسمَّاة دون الحاجة إلى شرح بشري صريح. على عكس النهج التقليدي التعلم الخاضع للإشرافالذي يعتمد بشكل كبير على مجموعات البيانات الضخمة من الأمثلة المصنفة يدوياً، فإن SSL يستمد إشاراته الإشرافية الخاصة به مباشرةً من البيانات نفسها. من خلال إنشاء وحل "مهام الذريعة" - مثل ملء الكلمات المفقودة في جملة ما أو التنبؤ بدوران صورة ما - يتعلم النموذج فهم البنية الأساسية والسياق و وميزات المدخلات. تعد هذه القدرة ضرورية لتطوير نموذج قوي نماذج تأسيسية قوية التي يمكن تكييفها مع مجموعة واسعة من المهام النهائية بأقل قدر من التدريب الإضافي.

كيف يعمل التعلم بالإشراف الذاتي (Self-Supervised Learning)

تتضمن الآلية الأساسية لـ SSL إزالة جزء من البيانات المتاحة وتكليف الشبكة العصبية (NN) ب بإعادة بنائها. تجبر هذه العملية النموذج على تعلم تمثيلات عالية الجودة، أو التضميناتالتي تلتقط المعنى الدلالي. هناك فئتان أساسيتان من مهام الذرائع المستخدمة في البحث والصناعة:

  • الطرق التوليدية: يقوم النموذج بإصلاح البيانات الفاسدة أو المقنعة. على سبيل المثال، في معالجة اللغات الطبيعية (NLP)، نماذج مثل BERT تخفي كلمات محددة وتحاول التنبؤ بها بناءً على السياق المحيط. في الرؤية تقنيات مثل الترميز التلقائي المقنع (MAE) إزالة البقع من الصورة وتعيد بناء وحدات البكسل المفقودة.
  • التعلّم المتباين: يُعلّم هذا النهج النموذج التمييز بين نقاط البيانات المتشابهة وغير المتشابهة بين نقاط البيانات المتشابهة وغير المتشابهة. خوارزميات مثل SimCLR تطبيق زيادة البيانات (اقتصاص ارتعاش الألوان) على صورة ما وتدريب الشبكة على التعرف على أن هذه النسخ المعدلة تمثل نفس نفسها، مع إبعاد تمثيلات الصور المختلفة.

تطبيقات واقعية

لقد أحدث التعلُّم الخاضع للإشراف الذاتي ثورة في الصناعات من خلال إطلاق العنان لقيمة مجموعات البيانات الضخمة غير المنسقة. فيما يلي مثالان ملموسان على تأثيره:

  1. تحليل الصور الطبية: الحصول على البيانات الطبية الموسومة مكلف ويتطلب خبراء أشعة خبراء. يسمح SSL للنماذج بالتدريب المسبق على الآلاف من صور الأشعة السينية أو فحوصات التصوير بالرنين المغناطيسي غير الموسومة لتعلم السمات التشريحية العامة. يعزز هذا التدريب المسبق بشكل كبير يعزز الأداء بشكل كبير عندما يتم ضبط النموذج لاحقًا على مجموعة بيانات صغيرة موسومة لمهام محددة مثل اكتشاف الورموتحسين دقة التشخيص بإشراف محدود.
  2. السيارات ذاتية القيادة: تولد السيارات ذاتية القيادة تيرابايت من بيانات الفيديو يومياً. تصنيف كل إطار أمر مستحيل. يُمكِّن SSL هذه هذه الأنظمة من تعلم الديناميكيات الزمنية و وتقدير العمق من الفيديو الخام الخام من خلال التنبؤ بالإطارات المستقبلية أو تقييم اتساق الكائنات مع مرور الوقت. يساعد ذلك في تحسين تتبع الكائن و والفهم البيئي دون الحاجة إلى مدخلات بشرية مستمرة.

التمييز بين SSL والمفاهيم ذات الصلة

لفهم SSL بشكل كامل، من المفيد التفريق بينه وبين نماذج التعلم المماثلة:

  • مقابل. التعلّم غير الخاضع للإشراف: بينما يستخدم كلاهما بيانات غير مصنفة, التعلم غير الخاضع للإشراف يركز عادةً على إيجاد أنماط مخفية، مثل تجميع العملاء أو تقليل الأبعاد. التعلّم غير الخاضع للإشراف على وجه التحديد إلى تعلم التمثيلات القابلة للنقل إلى مهام أخرى، حيث يتصرف بشكل فعال مثل التعلم تحت الإشراف ولكن مع تسميات ذاتية الإنشاء.
  • مقابل. التعلم شبه الخاضع للإشراف: التعلم شبه الخاضع للإشراف يجمع بين كمية صغيرة من البيانات المصنفة وكمية كبيرة من البيانات غير المصنفة خلال نفس مرحلة التدريب. في في المقابل، غالبًا ما يُستخدم التعلّم شبه الخاضع للإشراف كخطوة "تدريب مسبق" على بيانات غير موسّمة فقط، متبوعةً الضبط الدقيق على البيانات المسمّاة.

الاستفادة من النماذج المدربة مسبقاً

في الممارسة العملية، يستخدم معظم المطورين SSL عن طريق الاستفادة من أوزان النموذج التي تم تم تدريبها مسبقًا على مجموعات بيانات ضخمة. على سبيل المثال، فإن Ultralytics YOLO11 تستفيد البنية من قدرات استخراج الميزات العميقة التي تم صقلها من خلال التدريب المكثف. بينما يتم الإشراف على YOLO فإن مفهوم نقل التعلم - أخذ نموذج يفهم الميزات المرئية وتطبيقه على مهمة جديدة - هو الفائدة الأساسية الفائدة الأساسية لأبحاث SSL.

يوضّح مثال Python التالي كيفية تحميل نموذج مُدرَّب مسبقًا وضبطه على مجموعة بيانات محدّدة. يعتمد هذا يعتمد سير العمل هذا على تمثيلات الميزات المستفادة خلال مرحلة التدريب الأولي المسبق.

from ultralytics import YOLO

# Load a pre-trained YOLO11 model (weights act as the learned representation)
model = YOLO("yolo11n.pt")

# Fine-tune the model on a specific task, leveraging its existing visual knowledge
# This transfer learning process is highly efficient due to robust pre-training
results = model.train(data="coco8.yaml", epochs=5, imgsz=640)

# Perform inference to verify the model detects objects correctly
model.predict("https://ultralytics.com/images/bus.jpg", save=True)

مستقبل التعلم الذاتي الخاضع للإشراف الذاتي

بينما يسعى الباحثون إلى إيجاد نماذج تتعلم مثل البشر - من خلال الملاحظة بدلاً من الحفظ عن ظهر قلب - تظل لغة الإشارة في طليعة الابتكار. مختبرات الأبحاث الرئيسية، بما في ذلك Google ديب مايند و Meta AIيواصلان نشر الإنجازات التي تقلل من الاعتماد على البيانات المصنفة. في Ultralytics نقوم بدمج هذه التطورات في البحث والتطوير لدينا من أجل YOLO26بهدف تقديم نماذج أسرع وأصغر حجمًا وأكثر دقة يمكنها التعميم بفعالية عبر مختلف الرؤية الحاسوبية المتنوعة المتنوعة. أدوات مثل PyTorch ومنصة Ultralytics القادمة التي تجعل نشر هذه القدرات المتقدمة في بيئات الإنتاج في العالم الحقيقي أسهل من أي وقت مضى.

انضم إلى مجتمع Ultralytics

انضم إلى مستقبل الذكاء الاصطناعي. تواصل وتعاون وانمو مع المبتكرين العالميين

انضم الآن