يولو فيجن شنتشن
شنتشن
انضم الآن
مسرد المصطلحات

CLIP (التدريب المسبق المغاير للغة-الصورة)

اكتشف كيف أحدث CLIP من OpenAI ثورة في الذكاء الاصطناعي من خلال التعلم الصفري، ومواءمة الصور والنصوص، والتطبيقات الواقعية في رؤية الكمبيوتر.

يُعد CLIP (التدريب المسبق المغاير للغة والصورة) نموذجًا متعدد الوسائط (multi-modal model) رائدًا طورته OpenAI يربط النص والصور داخل مساحة مشتركة من الفهم. على عكس النماذج التقليدية المدربة لمهمة واحدة مثل تصنيف الصور (image classification)، يتعلم CLIP المفاهيم المرئية مباشرةً من أوصاف اللغة الطبيعية. يتم تدريبه على مجموعة بيانات ضخمة من أزواج الصور والنصوص من الإنترنت، مما يمكنه من أداء مجموعة واسعة من المهام دون الحاجة إلى تدريب محدد لكل مهمة - وهي قدرة تُعرف باسم التعلم الصفري (zero-shot learning). هذا النهج يجعله نموذجًا تأسيسيًا (foundation model) قويًا لجيل جديد من تطبيقات الذكاء الاصطناعي (AI applications).

كيف يعمل

الفكرة الأساسية وراء CLIP هي تعلم مساحة تضمين مشتركة حيث يمكن تمثيل كل من الصور والنصوص كمتجهات. يستخدم ترميزين منفصلين: محول رؤية (ViT) أو بنية مماثلة للصور و محول نصي للنص. أثناء التدريب، يتم تزويد النموذج بدفعة من أزواج الصور والنصوص ويتعلم التنبؤ بالتسمية التوضيحية النصية التي تتوافق مع الصورة. يتم تحقيق ذلك من خلال التعلم التبايني، حيث يكون هدف النموذج هو زيادة تشابه التضمينات للأزواج الصحيحة مع تقليله للأزواج غير الصحيحة. والنتيجة، المفصلة في ورقة البحث الأصلية، هي فهم قوي للمفاهيم التي تربط البيانات المرئية بالسياق اللغوي. التنفيذ مفتوح المصدر، OpenCLIP، الذي تم تدريبه على مجموعات بيانات مثل LAION-5B، جعل هذه التكنولوجيا متاحة على نطاق واسع.

تطبيقات واقعية

تؤدي قدرات CLIP الفريدة إلى العديد من الاستخدامات العملية:

  • البحث الدلالي عن الصور: تعمل CLIP على تشغيل أنظمة بحث متقدمة حيث يمكن للمستخدمين العثور على الصور باستخدام استعلامات اللغة الطبيعية بدلاً من علامات الكلمات الرئيسية. على سبيل المثال، يمكن للمستخدم البحث في كتالوج التجارة الإلكترونية عن "قميص مخطط باللون الأزرق للرجال" والحصول على نتائج ذات صلة حتى إذا لم يتم وضع علامات صريحة على المنتجات بهذه الكلمات بالضبط. تقدم Ultralytics حلاً للبحث الدلالي عن الصور يستخدم CLIP و FAISS (بحث التشابه بالذكاء الاصطناعي من فيسبوك) للاسترجاع السريع والدقيق في مكتبات الصور الكبيرة.
  • الإشراف على المحتوى: يمكن لمنصات التواصل الاجتماعي استخدام CLIP للإشارة تلقائيًا إلى الصور التي تصور محتوى موصوف في سياساتها، مثل رموز الكراهية أو العنف الرسومي. هذا أكثر مرونة من الطرق التقليدية لأنه يمكنه تحديد الانتهاكات بناءً على وصف نصي، دون الحاجة إلى مجموعة بيانات مُصنَّفة مسبقًا لكل نوع ممكن من المحتوى المحظور.
  • توجيه الذكاء الاصطناعي التوليدي: تعتبر مشفرات CLIP ضرورية لتوجيه نماذج الذكاء الاصطناعي التوليدي مثل DALL-E أو Stable Diffusion. عندما يقدم المستخدم مطالبة نصية، يقوم CLIP بتقييم الصورة التي تم إنشاؤها لمعرفة مدى تطابقها مع معنى المطالبة، وتوجيه النموذج لإنتاج صور مرئية أكثر دقة وملاءمة.
  • تحسين إمكانية الوصول: يمكن للنموذج إنشاء تسميات توضيحية وصفية غنية للصور تلقائيًا، والتي يمكن استخدامها بواسطة برامج قراءة الشاشة لوصف المحتوى المرئي للمستخدمين ضعاف البصر، مما يحسن بشكل كبير من إمكانية الوصول إلى الويب.

CLIP مقابل YOLO

من المهم التمييز بين CLIP ونماذج رؤية الحاسوب (CV) المتخصصة مثل Ultralytics YOLO.

  • CLIP يتفوق في الفهم الدلالي. إنه يعرف ماذا تحتوي الصورة بمعنى واسع ومفاهيمي (على سبيل المثال، يفهم مفهوم "حفل عيد ميلاد"). تكمن قوته في ربط اللغة بالمرئيات لمهام مثل التصنيف والبحث، مما يجعله نموذج لغة بصرية قويًا.
  • تتفوق نماذج YOLO في التوطين. وهي مصممة لاكتشاف الكائنات وتقسيمها، وتحديد الموقع الدقيق لحدود الكائنات داخل الصورة (على سبيل المثال، تحديد موقع كل شخص والكعكة والبالونات في حفلة عيد ميلاد).

في حين أنها متميزة، إلا أن هذه النماذج متكاملة. قد يتضمن مستقبل الرؤية الحاسوبية (CV) الجمع بين السياق الدلالي من نماذج مثل CLIP ودقة تحديد الموقع من أدوات الكشف مثل YOLO11 لبناء أنظمة ذكاء اصطناعي أكثر تطوراً.

القيود والاتجاهات المستقبلية

على الرغم من قوته، فإن CLIP لديه قيود. نظرًا لأنه مدرب على بيانات واسعة وغير منسقة من الإنترنت، فإنه يمكنه استيعاب وتكرار التحيزات المجتمعية الموجودة في تلك البيانات، مما يؤدي إلى مخاوف بشأن الإنصاف في الذكاء الاصطناعي و التحيز الخوارزمي المحتمل. كما أنه يواجه صعوبات في بعض المهام التي تتطلب تفاصيل دقيقة أو تفكيرًا مكانيًا، مثل العد الدقيق للكائنات. يركز البحث المستمر، بما في ذلك العمل في مؤسسات مثل مركز ستانفورد لأبحاث النماذج التأسيسية (CRFM)، على التخفيف من هذه التحيزات وتحسين قدراته. يمكن إدارة دمج معرفة CLIP في مهام سير عمل مختلفة باستخدام منصات مثل Ultralytics HUB، والتي تبسط إدارة النماذج و مجموعات البيانات.

انضم إلى مجتمع Ultralytics

انضم إلى مستقبل الذكاء الاصطناعي. تواصل وتعاون وانمو مع المبتكرين العالميين

انضم الآن
تم نسخ الرابط إلى الحافظة