Yolo فيجن شنتشن
شنتشن
انضم الآن
مسرد المصطلحات

تقليل الأبعاد

تعرف على كيفية تحسين سير عمل التعلم الآلي من خلال تقليل الأبعاد. استكشف تقنيات مثل PCA و t-SNE لتحسين أداء Ultralytics وتصور البيانات.

تقليل الأبعاد هو تقنية تحويلية في التعلم الآلي (ML) وعلم البيانات تُستخدم لتقليل عدد متغيرات الإدخال — التي يُشار إليها غالبًا باسم السمات أو الأبعاد — في مجموعة البيانات مع الاحتفاظ بأهم المعلومات. في عصر البيانات الضخمة، غالبًا ما تحتوي مجموعات البيانات على آلاف المتغيرات، مما يؤدي إلى ظاهرة تُعرف باسم لعنة الأبعاد. يمكن أن تتسبب هذه الظاهرة في ارتفاع تكلفة تدريب النموذج من الناحية الحسابية، وعرضته للتكيف المفرط، وصعوبة تفسيره. من خلال إسقاط البيانات عالية الأبعاد في فضاء أقل أبعادًا، يمكن للممارسين تحسين الكفاءة والتصور والأداء التنبئي.

المزايا الأساسية في تطوير الذكاء الاصطناعي

يعد تقليل تعقيد البيانات خطوة أساسية في عمليات معالجة البيانات المسبقة. وهو يوفر العديد من المزايا الملموسة لبناء أنظمة ذكاء اصطناعي (AI) قوية :

  • كفاءة حسابية محسّنة: عدد أقل من الميزات يعني بيانات أقل للمعالجة. وهذا يسرع أوقات التدريب لخوارزميات مثل YOLO26، مما يجعلها أكثر ملاءمة للاستدلال في الوقت الفعلي و النشر على أجهزة الذكاء الاصطناعي المتطورة ذات الموارد المحدودة.
  • تحسين عرض البيانات: يجد الإنسان صعوبة في فهم البيانات التي تتجاوز الأبعاد الثلاثة. يقلل تقليل الأبعاد من حجم مجموعات البيانات المعقدة إلى مساحات ثنائية أو ثلاثية الأبعاد، مما يتيح عرض البيانات بشكل فعال للحصول على مجموعات وأنماط وقيم متطرفة باستخدام أدوات مثل TensorFlow Projector.
  • تقليل الضوضاء: من خلال التركيز على التباين الأكثر صلة في البيانات، تقوم هذه التقنية بتصفية الضوضاء والميزات الزائدة. وينتج عن ذلك بيانات تدريب أنظف، مما يساعد النماذج على التعميم بشكل أفضل على الأمثلة غير المرئية.
  • تحسين التخزين: قد يكون تخزين مجموعات البيانات الضخمة على السحابة، مثل تلك التي تدار عبر Ultralytics مكلفًا. يؤدي ضغط مساحة الميزات إلى خفض متطلبات التخزين بشكل كبير دون التضحية بسلامة البيانات الأساسية.

التقنيات الرئيسية: الخطية مقابل غير الخطية

يتم تصنيف طرق تقليل الأبعاد بشكل عام بناءً على ما إذا كانت تحافظ على الهيكل الخطي الشامل أو المنظومة غير الخطية المحلية للبيانات.

الطرق الخطية

أكثر التقنيات الخطية شيوعًا هي تحليل المكونات الرئيسية (PCA). يعمل تحليل المكونات الرئيسية عن طريق تحديد "المكونات الرئيسية" — المحاور المتعامدة التي تلتقط أقصى تباين في البيانات. ويقوم بإسقاط البيانات الأصلية على هذه المحاور الجديدة، متجاهلًا بشكل فعال الأبعاد التي تساهم بمعلومات قليلة . وهذا أمر أساسي في عمليات التعلم غير الخاضعة للإشراف.

الأساليب غير الخطية

بالنسبة للهياكل المعقدة للبيانات، مثل الصور أو النصوص المضمنة، غالبًا ما تكون الطرق غير الخطية مطلوبة. تتفوق تقنيات مثل t-Distributed Stochastic Neighbor Embedding (t-SNE) و UMAP (Uniform Manifold Approximation and Projection) في الحفاظ على الجوار المحلي، مما يجعلها مثالية لتصور المجموعات عالية الأبعاد. بالإضافة إلى ذلك، المشفرات التلقائية هي شبكات عصبية مدربة على ضغط المدخلات في تمثيل الفضاء الكامن وإعادة بنائها، مما يؤدي إلى تعلم ترميز مدمج للبيانات بشكل فعال.

تطبيقات واقعية

يعد تقليل الأبعاد أمرًا بالغ الأهمية في مختلف مجالات التعلم العميق (DL):

  1. الرؤية الحاسوبية: تعالج أجهزة الكشف الحديثة عن الأشياء مثل YOLO26 الصور التي تحتوي على آلاف البكسلات. تستخدم الطبقات الداخلية تقنيات مثل التجميع والتلافيف المتدرجة لتقليل الأبعاد المكانية لخرائط الميزات تدريجياً، وتحويل البكسلات الخام إلى مفاهيم دلالية عالية المستوى (مثل "الحافة" و"العين" و"السيارة").
  2. علم الجينوم والرعاية الصحية: في تحليل الصور الطبية والمعلوماتية الحيوية، يقوم الباحثون بتحليل بيانات التعبير الجيني باستخدام عشرات الآلاف من المتغيرات. يساعد تقليل الأبعاد في تحديد المؤشرات الحيوية الرئيسية لتصنيف الأمراض، كما هو موضح في الدراسات المتعلقة بعلم الجينوم السرطاني.
  3. أنظمة التوصية: تستخدم منصات مثل Netflix أو Spotify تحليل المصفوفات (تقنية اختزال) لتوقع تفضيلات المستخدمين. من خلال اختزال المصفوفة المتفرقة لتفاعلات المستخدمين مع العناصر، يمكنها تقديم توصيات فعالة للمحتوى بناءً على السمات الكامنة.

تقليل البُعدية مقابل اختيار الميزات

من المهم التمييز بين هذا المفهوم و اختيار الميزات، حيث إنهما يحققان أهدافًا متشابهة من خلال آليات مختلفة:

  • يتضمن اختيار الميزات اختيار مجموعة فرعية من الميزات الأصلية (على سبيل المثال، الاحتفاظ بـ "العمر" وحذف "الاسم"). ولا يغير ذلك قيم الميزات المختارة.
  • يؤدي تقليل الأبعاد (وبالتحديد استخراج الميزات) إلى إنشاء ميزات جديدة تمثل مزيجًا من الميزات الأصلية. على سبيل المثال، قد يجمع تحليل المكونات الرئيسية (PCA) بين "الطول" و"الوزن" في مكون جديد واحد يمثل "حجم الجسم".

Python : تقليل تضمينات الصور

يوضح المثال التالي كيفية أخذ مخرجات عالية الأبعاد (تحاكي متجه تضمين الصورة) و تقليلها باستخدام PCA. هذا هو سير العمل الشائع عند تصور كيفية قيام نموذج مثل YOLO26 بتجميع الفئات المتشابهة.

import numpy as np
from sklearn.decomposition import PCA

# Simulate high-dimensional embeddings (e.g., 10 images, 512 features each)
# In a real workflow, these would come from a model like YOLO26n
embeddings = np.random.rand(10, 512)

# Initialize PCA to reduce from 512 dimensions to 2
pca = PCA(n_components=2)
reduced_data = pca.fit_transform(embeddings)

# Output shape is now (10, 2), ready for 2D plotting
print(f"Original shape: {embeddings.shape}")  # (10, 512)
print(f"Reduced shape: {reduced_data.shape}")  # (10, 2)

انضم إلى مجتمع Ultralytics

انضم إلى مستقبل الذكاء الاصطناعي. تواصل وتعاون وانمو مع المبتكرين العالميين

انضم الآن