مسرد المصطلحات

CPU

استكشف الدور الحيوي CPU في الذكاء الاصطناعي والتعلم الآلي. تعرّف على استخدامه في إعداد البيانات والاستدلال وكيفية مقارنته بوحدات معالجة الرسومات/وحدات المعالجة المركزية.

تدريب YOLO النماذج
ببساطة مع Ultralytics HUB

التعرف على المزيد

وحدة المعالجة المركزيةCPU)، والتي غالباً ما يشار إليها ببساطة باسم المعالج، هي المكون الأساسي للكمبيوتر الذي ينفذ التعليمات ويقوم بإجراء العمليات الحسابية الأساسية اللازمة لتشغيل النظام. وهو يتعامل مع العمليات الحسابية الأساسية والمنطقية والتحكم وعمليات الإدخال/الإخراج (I/O) المحددة بواسطة تعليمات البرامج. في مجالات الذكاء الاصطناعي (AI) والتعلم الآلي (ML)، بينما تتفوق الأجهزة المتخصصة مثل وحدات معالجة الرسومات ووحدات المعالجة الرسومية (GPU ) ووحدات المعالجة الحرارية (TPU) في المعالجة المتوازية لمهام مثل تدريب نماذج التعلم العميق، تظل CPU مكونًا أساسيًا ومتعدد الاستخدامات لتنسيق سير العمل بشكل عام.

الدور في الذكاء الاصطناعي والتعلم الآلي

صُممت وحدات المعالجة المركزية لتكون معالجات للأغراض العامة، حيث تتفوق في تنفيذ تسلسل التعليمات بسرعة والتعامل مع مهام حسابية متنوعة. وتتضمن الخصائص الرئيسية التي تؤثر على الأداء سرعة الساعة (عدد العمليات في الثانية) وعدد النوى (مما يسمح بتنفيذ المهام بشكل متوازٍ). بينما وحدات المعالجة المركزية الحديثة من الشركات المصنعة مثل IntelوAMD، إلا أنها لا تمتلك البنية المتوازية الضخمة لوحدات معالجة الرسومات (GPU)، مما يجعلها أقل ملاءمة لعمليات مضاعفة المصفوفات واسعة النطاق الشائعة في تدريب التعلُّم العميق.

ومع ذلك، لا يمكن الاستغناء عن وحدات المعالجة المركزية في خطوط أنابيب الذكاء الاصطناعي/التعلم الآلي للعديد من الوظائف المهمة:

  • إعداد البيانات: غالبًا ما تعمل مهام مثل تحميل مجموعات البيانات وتنظيف البيانات وتحويلها وزيادة البيانات بكفاءة على وحدات المعالجة المركزية. تعتمد مكتبات مثل Pandas وأجزاء من Scikit-learn بشكل كبير على معالجة CPU . يعد إعداد البيانات لمشاريع الرؤية الحاسوبية خطوة شائعة CPU.
  • تنسيق سير العمل: تقوم وحدات المعالجة المركزية بإدارة تدفق التنفيذ الكلي لخطوط أنابيب التعلم الآلي، وتنسيق المهام بين مكونات الأجهزة المختلفة (مثل وحدات معالجة الرسومات) ووحدات البرامج.
  • نماذج التعلم الآلي التقليدية: غالبًا ما يتم تدريب العديد من خوارزميات تعلّم الآلة الكلاسيكية، مثل آلات دعم المتجهات (SVM) والغابات العشوائية، وتشغيلها بفعالية على وحدات المعالجة المركزية.
  • الاستدلال: في حين أن وحدات معالجة الرسومات توفر إنتاجية عالية للاستدلال، إلا أن وحدات المعالجة المركزية تُستخدم بشكل متكرر للاستدلال في الوقت الفعلي، خاصةً في البيئات ذات الموارد المحدودة(الذكاء الاصطناعي الحديدي) أو عندما تكون الأولوية في زمن الاستجابة للتنبؤات الفردية على إنتاجية الدُفعات. توفر أطر عمل مثل ONNX Runtime ومجموعة أدوات OpenVINO منIntel إمكانات استدلال محسّنة على وحدات المعالجة المركزية. يمكن تصدير نماذج Ultralytics إلى تنسيقات مثل ONNX لنشرها على CPU ية، كما هو مفصل في وثائق تصدير النماذج.
  • عمليات الإدخال/الإخراج (I/O): تتعامل وحدات المعالجة المركزية مع قراءة وكتابة البيانات من التخزين والاتصال بالشبكة، وهي ضرورية لتحميل النماذج والبيانات.

CPU مقابل GPU TPU)

يكمن الاختلاف الأساسي بين وحدات المعالجة المركزية ووحدات معالجة الرسومات ووحدات معالجة الرسومات ووحدات معالجة الرسومات، في بنيتها والغرض المقصود منها:

  • CPU: معالج للأغراض العامة مُحسَّن لتنفيذ المهام المتسلسلة بوقت استجابة منخفض. يحتوي على عدد قليل من النوى القوية. مثالية لتدفق التحكم ووظائف نظام التشغيل والحسابات المتنوعة.
  • GPU: تستخدم في الأصل للرسومات، وتستخدم الآن على نطاق واسع في الذكاء الاصطناعي. تتميز بآلاف النوى الصغيرة المحسنة للمعالجة المتوازية لكتل البيانات الكبيرة (مثل المصفوفات في التعلم العميق). راجع وحدات معالجة الرسوماتNVIDIA للحصول على أمثلة. تسرع بشكل كبير من تدريب نماذج مثل Ultralytics YOLO.
  • TPU: أجهزة مخصصة منGoogle مصممة خصيصًا لتسريع عمليات حساب tensor المستخدمة في الشبكات العصبية، خاصةً داخل TensorFlow إطار عمل TensorFlow. مُحسَّنة لتحقيق إنتاجية عالية وكفاءة في أعباء عمل محددة في مجال التعلم الآلي.

حتى في الأنظمة التي تعتمد اعتمادًا كبيرًا على وحدات معالجة الرسومات أو وحدات المعالجة الرسومية لتدريب النماذج المعقدة مثل YOLOv10 أو YOLO11فإن CPU تدير النظام ككل، وتجهز البيانات، وتتعامل مع أجزاء من سير العمل غير المناسبة للمسرعات. ينطوي اختيار الأجهزة المناسبة على فهم هذه المفاضلات لنشر النماذج بكفاءة.

أمثلة واقعية للذكاء الاصطناعي/التعلم الآلي باستخدام CPU

  1. المعالجة المسبقة للغة الطبيعية (NLP): تُعد مهام مثل الترميز، حيث يتم تقسيم النص إلى وحدات أصغر (كلمات أو كلمات فرعية)، أساسية في معالجة اللغات الطبيعية. وغالبًا ما تقوم مكتبات مثل Hugging Face's Tokenizers بتنفيذ هذه العمليات بكفاءة على CPU قبل تمرير البيانات إلى GPU لاستنتاج النموذج أو التدريب.
  2. استدلال جهاز الحافة: تنشر العديد من تطبيقات الذكاء الاصطناعي الحافة نماذج التعلم الآلي على أجهزة ذات طاقة وموارد حاسوبية محدودة، مثل Raspberry Pi أو الأجهزة القائمة على بنية ARM. في هذه السيناريوهات، غالبًا ما يتم تشغيل الاستدلال مباشرةً على CPU للجهاز، وربما باستخدام مكتبات محسّنة مثل TensorFlow Lite أو OpenVINO لتحقيق أداء مقبول لمهام مثل اكتشاف الكائنات الأساسية أو اكتشاف الكلمات الرئيسية. يمكن تسهيل إدارة عمليات النشر هذه من خلال منصات مثل Ultralytics HUB.

يعد فهم إمكانيات CPU وحدودها أمرًا بالغ الأهمية لتصميم أنظمة الذكاء الاصطناعي المتكاملة وتحسينها، بدءًا من معالجة البيانات(انظر دليل جمع البيانات) إلى النشر الفعال عبر منصات الأجهزة المتنوعة.

قراءة الكل