قم بتبسيط البيانات عالية الأبعاد باستخدام تحليل المكونات الرئيسية (PCA). عزز كفاءة الذكاء الاصطناعي ونماذج تعلم الآلة وتصور البيانات اليوم!
تحليل المكوّنات الرئيسية (PCA) هي تقنية خطية تأسيسية خطي تأسيسي لتقليل الأبعاد على نطاق واسع تستخدم على نطاق واسع في الإحصاء، وعلوم البيانات، و والتعلم الآلي (ML). هدفها الأساسي هو تبسيط مجموعات البيانات المعقدة عالية الأبعاد مع الاحتفاظ بالمعلومات الأكثر أهمية. من خلال تحويل المجموعة الأصلية من المتغيّرات المترابطة إلى مجموعة أصغر من المتغيّرات غير المترابطة المعروفة باسم "المكونات الرئيسية"، يُمكّن PCA علماء البيانات من تقليل الضوضاء وتحسين الكفاءة الحسابية و وتسهيل تصور أسهل للبيانات دون التضحية بالأنماط المهمة الموجودة في البيانات.
تعتمد آلية تحليل PCA على مفاهيم من من الجبر الخطي لتحديد الاتجاهات (المكونات الرئيسية ) التي تتباين فيها البيانات أكثر من غيرها. يلتقط المكوّن الرئيسي الأول الحد الأقصى للتباين في مجموعة البيانات في مجموعة البيانات، وهو ما يمثّل بشكل فعّال الاتجاه الأكثر هيمنة. كل مكوّن لاحق يلتقط التباين المتبقي بترتيب تنازلي، مع مراعاة شرط أن يكون متعامدًا (غير مرتبط) مع المكونات السابقة. هذا التحويل التحويل هذا غالبًا باستخدام مصفوفة التباين مصفوفة التباين وما يقابلها من المتجهات الأصلية والقيم الأصلية المقابلة لها.
من خلال الاحتفاظ فقط بالمكونات القليلة الأعلى، يمكن للممارسين إسقاط البيانات عالية الأبعاد في فضاءٍ منخفض الأبعاد أقل بعدًا - عادةً ثنائي الأبعاد أو ثلاثي الأبعاد. هذه العملية هي خطوة حاسمة في المعالجة المسبقة للبيانات للتخفيف من لعنة الأبعاد، حيث تكافح النماذج من أجل التعميم بسبب ندرة البيانات في الفضاءات عالية الأبعاد. يساعد هذا الاختزال على منع الإفراط في التركيب وتسريع تدريب النموذج.
يتم استخدام تحليل PCA عبر طيف واسع من مجالات الذكاء الاصطناعي من أجل لتحسين الأداء وقابلية التفسير.
في حين أن بنيات التعلم العميق الحديثة مثل الشبكات العصبية التلافيفية (CNNs) تقوم باستخراج السمات الداخلية، يظل تحليل PCA وثيق الصلة بتحليل التمثيلات المكتسبة. على سبيل المثال، يقوم المستخدمون الذين يعملون مع YOLO11 قد يستخرجون الميزة التضمينات من العمود الفقري للنموذج لفهم مدى يفصل النموذج بين الفئات المختلفة.
يوضح المثال التالي كيفية تطبيق PCA لتقليل متجهات السمات عالية الأبعاد باستخدام مكتبة الشهيرة، وهي خطوة وهي خطوة شائعة قبل تصور التضمينات.
import numpy as np
from sklearn.decomposition import PCA
# Simulate high-dimensional features (e.g., embeddings from a YOLO11 model)
# Shape: (100 samples, 512 features)
features = np.random.rand(100, 512)
# Initialize PCA to reduce data to 2 dimensions for visualization
pca = PCA(n_components=2)
# Fit the model and transform the features
reduced_features = pca.fit_transform(features)
# The data is now (100, 2), ready for plotting
print(f"Original shape: {features.shape}")
print(f"Reduced shape: {reduced_features.shape}")
من المفيد تمييز PCA عن طرق تقليل الأبعاد الأخرى وطرق تعلم السمات الموجودة في التعلم غير الخاضع للإشراف: