يولو فيجن شنتشن
شنتشن
انضم الآن
مسرد المصطلحات

وحدة المعالجة المركزية (CPU)

اكتشف الدور الحيوي لوحدة المعالجة المركزية (CPU) في الذكاء الاصطناعي وتعلم الآلة. تعرف على استخدامه في إعداد البيانات والاستدلال وكيف يقارن بوحدات معالجة الرسومات (GPUs) ووحدات معالجة Tensor (TPUs).

وحدة المعالجة المركزية (CPU) هي المكون الأساسي للكمبيوتر الذي ينفذ التعليمات وينفذ معظم المعالجة داخل جهاز الحوسبة. غالبًا ما يطلق عليه "دماغ" الكمبيوتر، ودوره الرئيسي هو تنفيذ تسلسلات التعليمات التي تشكل برنامج الكمبيوتر. في سياق التعلم الآلي (ML) و الذكاء الاصطناعي (AI)، تعد وحدة المعالجة المركزية عنصرًا أساسيًا يدير النظام بأكمله، ويتعامل مع إعداد البيانات، وينفذ المهام غير المناسبة للأجهزة المتخصصة. على الرغم من أنها قد لا تجري الجزء الأكبر من العمليات الحسابية الثقيلة أثناء تدريب النموذج، إلا أن دورها لا غنى عنه لسير عمل الذكاء الاصطناعي الكامل.

وحدة المعالجة المركزية (CPU) مقابل وحدة معالجة الرسوميات (GPU) ووحدة معالجة Tensor (TPU)

يكمن الاختلاف الأساسي بين وحدات المعالجة المركزية (CPUs) و وحدات معالجة الرسومات (GPUs) و وحدات معالجة Tensor (TPUs) في بنيتها والغرض المقصود منها:

  • وحدة المعالجة المركزية (CPU): معالج للأغراض العامة مُحسَّن لتنفيذ المهام المتسلسلة بزمن انتقال منخفض. يحتوي على عدد قليل من النوى القوية، مما يجعله مثاليًا لإدارة نظام التشغيل وتدفق التحكم ومجموعة واسعة من العمليات الحسابية. تشمل الشركات المصنعة الرائدة Intel و AMD.
  • وحدة معالجة الرسومات: تم تصميم وحدات معالجة الرسومات في الأصل للرسومات، وهي تستخدم الآن على نطاق واسع للذكاء الاصطناعي نظرًا لبنيتها. إنها تتميز بآلاف النوى الأصغر المحسّنة للمعالجة المتوازية لكتل البيانات الكبيرة، مثل المصفوفات المستخدمة في التعلم العميق. تعمل هذه الموازاة على تسريع التدريب بشكل كبير للنماذج مثل Ultralytics YOLO11.
  • وحدة معالجة الموتر (TPU): أجهزة Google المخصصة، وهي دائرة متكاملة مخصصة للتطبيقات (ASIC)، مصممة خصيصًا لتسريع حسابات الموتر المستخدمة في الشبكات العصبية. وهي مُحسَّنة للغاية لأطر عمل مثل TensorFlow و PyTorch على المنصات السحابية.

حتى في الأنظمة التي تعتمد بشكل كبير على وحدات معالجة الرسوميات (GPUs) أو وحدات معالجة Tensor (TPUs) لـ نماذج التدريب، يدير وحدة المعالجة المركزية (CPU) النظام بأكمله، ويعد البيانات للمسرع، ويتعامل مع أجزاء من سير العمل غير المحسّنة للحساب المتوازي. يعد فهم هذه المقايضات أمرًا بالغ الأهمية لـ نشر النموذج بكفاءة.

أمثلة واقعية للذكاء الاصطناعي/تعلم الآلة باستخدام وحدة المعالجة المركزية

في حين أن الأجهزة المتخصصة تتفوق في التدريب واسع النطاق، تظل وحدات المعالجة المركزية (CPUs) حيوية للعديد من مهام الذكاء الاصطناعي، خاصة في البيئات ذات القيود المحددة.

  1. المعالجة المسبقة للغة الطبيعية (NLP): قبل إدخال البيانات النصية إلى نموذج للتدريب أو الاستدلال، يجب معالجتها مسبقًا. تعتبر المهام مثل الترميز (tokenization)، حيث يتم تقسيم النص إلى وحدات أصغر، أساسية في معالجة اللغة الطبيعية (NLP). غالبًا ما تنفذ المكتبات مثل Tokenizers من Hugging Face هذه العمليات المتسلسلة بكفاءة على وحدة المعالجة المركزية (CPU) قبل إرسال البيانات المعالجة إلى وحدة معالجة الرسومات (GPU).
  2. الاستدلال على الجهاز الطرفي: تنشر العديد من تطبيقات الذكاء الاصطناعي الطرفي (Edge AI) نماذج تعلم الآلة (ML) على أجهزة ذات طاقة محدودة وموارد حسابية محدودة، مثل Raspberry Pi أو الأجهزة المستندة إلى بنية ARM. في هذه السيناريوهات، غالبًا ما يتم تشغيل الاستدلال مباشرةً على وحدة المعالجة المركزية (CPU) الخاصة بالجهاز. يتم استخدام مكتبات محسّنة مثل TensorFlow Lite أو OpenVINO toolkit لتحقيق أداء مقبول لمهام مثل الكشف عن الكائنات الأساسي أو اكتشاف الكلمات الرئيسية. يمكن تبسيط إدارة عمليات النشر هذه من خلال منصات مثل Ultralytics HUB وأدوات الحاويات مثل Docker.

يُعد فهم قدرات ووظائف وحدة المعالجة المركزية (CPU) أمرًا بالغ الأهمية لتصميم وتحسين أنظمة الذكاء الاصطناعي الشاملة، بدءًا من التعامل مع جمع البيانات وحتى تحقيق النشر الفعال عبر منصات الأجهزة المتنوعة. هذا جانب رئيسي من جوانب استراتيجية MLOps الناجحة.

انضم إلى مجتمع Ultralytics

انضم إلى مستقبل الذكاء الاصطناعي. تواصل وتعاون وانمو مع المبتكرين العالميين

انضم الآن
تم نسخ الرابط إلى الحافظة