مسرد المصطلحات

التعلّم المتباين

اكتشف قوة التعلّم المتباين، وهي تقنية ذاتية الإشراف لتمثيل البيانات القوية مع الحد الأدنى من البيانات المصنفة.

تدريب YOLO النماذج
ببساطة مع Ultralytics HUB

التعرف على المزيد

يُعد التعلم التبايني أسلوبًا قويًا في التعلم الآلي (ML)، وهو بارز بشكل خاص في التعلم الخاضع للإشراف الذاتي (SSL). فبدلاً من الاعتماد بشكل كبير على البيانات المصنفة بدقة، فإنه يتعلم تمثيلات ذات مغزى من خلال تعليم نموذج للتمييز بين نقاط البيانات المتشابهة وغير المتشابهة. والفكرة الأساسية بسيطة: تقريب تمثيلات الأمثلة "المتشابهة" من بعضها البعض في مساحة التضمين، مع دفع تمثيلات الأمثلة "غير المتشابهة" بعيدًا عن بعضها البعض. يسمح هذا النهج للنماذج بتعلّم ميزات غنية من كميات هائلة من البيانات غير الموسومة، والتي يمكن بعد ذلك تكييفها لمختلف المهام النهائية من خلال الضبط الدقيق.

كيف يعمل التعلّم المتباين

تتضمن العملية عادةً الخطوات التالية

  1. تعزيز البيانات: ابدأ بنقطة بيانات غير موسومة (مثل صورة). قم بإنشاء نسختين معززتين أو أكثر من نقطة البيانات هذه. تشكل هذه النسخ المعززة "زوجًا موجبًا" لأنها تنشأ من نفس المصدر ويجب اعتبارها متشابهة. تتضمن تقنيات زيادة البيانات الشائعة الاقتصاص العشوائي، أو الارتعاش اللوني، أو التدوير، أو إضافة ضوضاء.
  2. أخذ العينات السلبية: حدد نقاط بيانات أخرى من مجموعة البيانات (أو الدفعة الحالية) تختلف عن نقطة البيانات الأصلية. تشكّل هذه "أزواجًا سالبة" مع زيادات نقطة البيانات الأصلية.
  3. الترميز: تمرير كل من العينات الإيجابية والسلبية من خلال شبكة عصبية مشفرة (NN)، وغالبًا ما تكون شبكة عصبية تلافيفية (CNN) للصور أو محول للنصوص أو الصور(محول الرؤية (ViT)). تقوم هذه الشبكة بتحويل البيانات المدخلة إلى تمثيلات منخفضة الأبعاد، تُعرف باسم التضمينات.
  4. حساب الخسارة: قم بتطبيق دالة خسارة متباينة، مثل InfoNCE (تقدير التباين الضوضائي) أو الخسارة الثلاثية. تحسب هذه الدالة درجة بناءً على المسافات بين التضمينات. وهي تشجع على أن تكون تضمينات الأزواج الموجبة متقاربة (مسافة منخفضة/تشابه عالٍ) وتضمينات الأزواج السالبة متباعدة (مسافة عالية/تشابه منخفض).
  5. التحسين: استخدام خوارزميات التحسين مثل Stochastic Gradient Descent Descent (SGD) أو Adam لتحديث أوزان المُشَفِّر بناءً على الخسارة المحسوبة، وتحسين جودة التمثيلات المكتسبة بشكل متكرر من خلال الترحيل العكسي.

التعلم المتباين مقابل المصطلحات ذات الصلة

يختلف التعلم التبايني عن نماذج التعلم الآلي الأخرى:

  • التعلّم تحت الإشراف: يتطلب تسميات واضحة لكل نقطة بيانات (مثل "قطة"، "كلب"). يستخدم التعلّم المتباين في المقام الأول بيانات غير مُسمّاة، ويولّد إشارته الإشرافية الخاصة به من خلال الاقتران الإيجابي/السلبي.
  • التعلم غير الخاضع للإشراف (التجميع): تقوم طرق مثل K-Means بتجميع البيانات بناءً على البنى المتأصلة. يقوم التعلم المتباين صراحةً بتدريب نموذج لإنشاء مساحة تمثيل حيث يتم تحديد التشابه من خلال الأزواج الموجبة/السالبة، مع التركيز على تعلم السمات التمييزية.
  • النماذج التوليدية: نماذج مثل نماذج GANs أو نماذج الانتشار تتعلم توليد بيانات جديدة تشبه بيانات التدريب. يركز التعلم التبايني على تعلم التمثيلات التمييزية بدلاً من توليد البيانات.

التطبيقات الواقعية

يتفوق التعلم التبايني في تعلم التمثيلات التي تنتقل بشكل جيد إلى مهام أخرى:

  • التدريب المسبق على الرؤية الحاسوبية: يتم تدريب نماذج مثل SimCLR و MoCo مسبقًا على مجموعات كبيرة من بيانات الصور غير المسماة (مثل ImageNet). تعمل الميزات المكتسبة على تعزيز الأداء بشكل كبير عند ضبط النموذج لمهام مثل تصنيف الصور، واكتشاف الأجسام باستخدام نماذج مثل Ultralytics YOLO11أو التجزئة الدلالية. على سبيل المثال، يمكن ضبط النموذج الذي تم تدريبه مسبقًا باستخدام التعلم المتباين على الصور العامة بشكل فعال للمهام المتخصصة مثل تحليل الصور الطبية أو تحليل صور الأقمار الصناعية مع بيانات أقل تصنيفًا.
  • معالجة اللغة الطبيعية (NLP): تُستخدم لتعلم تضمينات الجمل أو المستندات عالية الجودة. على سبيل المثال، يمكن تدريب النماذج على التعرف على أن جملتين مختلفتين في الصياغة تصفان نفس المفهوم (زوج إيجابي) يجب أن يكون لهما تضمينات متشابهة، بينما يجب أن يكون للجمل ذات المعاني غير المترابطة (زوج سلبي) تضمينات غير متشابهة. وهذا مفيد للبحث الدلالي والإجابة عن الأسئلة وتجميع النصوص. يستخدم نموذج CLIP بشكل خاص التعلم المتباين لربط تمثيلات النصوص والصور.
  • أنظمة التوصية: تعلم التضمينات للمستخدمين والعناصر بناءً على أنماط التفاعل.
  • اكتشاف الشذوذ: تحديد نقاط البيانات غير الاعتيادية من خلال تعلم التمثيلات التي تتجمع فيها البيانات العادية بإحكام، مما يسهل اكتشاف القيم المتطرفة.

الفوائد والتحديات

الفوائد:

  • تقليل الاعتماد على التسمية: الاستفادة من الكميات الهائلة من البيانات غير المُسمّاة، مما يقلل من الحاجة إلى وضع العلامات على البيانات المكلفة والمستهلكة للوقت.
  • تمثيلات قوية: غالبًا ما يتعلم ميزات أكثر ثباتًا في مواجهة التغيرات المزعجة مقارنةً بالطرق الخاضعة للإشراف البحت.
  • التدريب المسبق الفعال: يوفر نقاط بداية ممتازة لضبط المهام النهائية المحددة، وغالبًا ما يؤدي إلى أداء أفضل، خاصةً مع البيانات المحدودة المصنفة(التعلم في لقطات قليلة).

التحديات:

  • اختيار العينة السلبية: يمكن أن يكون الأداء حساسًا لعدد العينات السلبية وجودتها. يعد اختيار عينات سلبية غنية بالمعلومات أمرًا بالغ الأهمية ولكنه صعب.
  • استراتيجية التعزيز: يؤثر اختيار تقنيات زيادة البيانات بشكل كبير على الثوابت التي يتعلمها النموذج.
  • التكلفة الحسابية: غالبًا ما تتطلب أحجام دفعات كبيرة وموارد حاسوبية كبيرة(وحدات معالجة الرسوميات) للتدريب الفعال، على الرغم من أن الأبحاث جارية للتخفيف من ذلك. يمكن لمنصات مثل Ultralytics HUB تسهيل إدارة هذه النماذج وتدريبها. أطر عمل مثل PyTorch(الموقع الرسمي) و TensorFlow(الموقع الرسمي) أدوات لتنفيذ أساليب التعلم المتباين.
قراءة الكل