Yolo فيجن شنتشن
شنتشن
انضم الآن

جلبYOLO11 Ultralytics YOLO11 إلى أجهزة Apple عبر CoreML

أبيرامي فينا

4 دقائق قراءة

30 يوليو، 2025

تعرف على مدى سهولة إحضار Ultralytics YOLO11 إلى أجهزة Apple باستخدام CoreML وتمكين مهام رؤية الكمبيوتر السريعة دون اتصال بالإنترنت لتطبيقات iOS في الوقت الفعلي.

مع تقديم Apple لميزات مثل Apple Intelligence، من الواضح أن الذكاء الاصطناعي على الجهاز أصبح جزءاً أساسياً من كيفية استخدامنا لهواتفنا. بالنسبة للمطورين، يعني هذا التحول أن المستخدمين يتبنون تطبيقات iOS التي تستخدم إمكانيات مثل الرؤية الحاسوبية لتقديم تجارب أكثر ذكاءً واستجابة.

الرؤية الحاسوبية هي نوع من الذكاء الاصطناعي (AI) الذي يمكّن أجهزة الكمبيوتر من فهم المعلومات المرئية وتحليلها، مثل الصور أو مقاطع الفيديو. على الأجهزة المحمولة، يمكن استخدامه في الوقت الفعلي detect الأشياء classify والتفاعل معها من خلال كاميرا الهاتف. نماذج الذكاء الاصطناعي البصري مثل Ultralytics YOLO11 يمكن تدريبها بشكل مخصص للتعرّف على كائنات معيّنة، وفقاً لاحتياجات تطبيقك. 

ومع ذلك، لم يتم إعداد YOLO11 للتشغيل على iOS مباشرةً من خارج الصندوق. لنشر YOLO11 على أجهزة iPhone أو أجهزة Apple الأخرى، خاصةً للاستخدام دون اتصال بالإنترنت، يجب تحويله إلى تنسيق محسّن لنظام Apple البيئي. 

هذا هو بالضبط نوع المشكلة التي تم تصميم CoreML لحلها. CoreML هو إطار عمل التعلم الآلي الخاص بشركة Apple، والذي تم تصميمه لتشغيل النماذج محليًا ودمجها بسلاسة في تطبيقات iOS و macOS. إن تكامل CoreML المدعوم من Ultralytics يجعل من السهل تصدير نموذجك للنشر المحلي على أجهزة iPhone.

في هذه المقالة، سنلقي نظرة فاحصة على كيفية تصدير نموذج YOLO11 الخاص بك إلى تنسيق CoreML . سنستكشف أيضًا حالات الاستخدام في الوقت الحقيقي التي تُظهر مزايا تشغيل نماذج الرؤية الحاسوبية مباشرةً على أجهزة iOS . لنبدأ!

ما هو CoreML

CoreML هو إطار عمل للتعلّم الآلي (ML) تم تطويره من قِبل شركة Apple، وهو يتيح للمطورين دمج نماذج التعلّم الآلي المدرّبة مباشرةً في تطبيقات Apple عبر نظام Apple البيئي، بما في ذلك iOS (iPhone وiPad)، وMacOS (Mac)، و watchOS (Apple Watch)، و tvOS (Apple TV). وهي مصممة لجعل التعلم الآلي متاحاً وفعالاً على أجهزة Apple من خلال تمكين النماذج من العمل مباشرةً على الجهاز، دون الحاجة إلى الاتصال بالإنترنت.

يوجد في جوهر CoreML تنسيق موحد للنماذج يدعم مجموعة كبيرة من مهام الذكاء الاصطناعي مثل تصنيف الصور، واكتشاف الأشياء، والتعرف على الكلام، ومعالجة اللغة الطبيعية. تم تحسين إطار العمل لتحقيق أقصى استفادة من أجهزة Apple، باستخدام وحدة CPU المركزية (وحدة المعالجة المركزية)، GPU معالجة الرسومات (وحدة معالجة الرسومات)، ومحرك Apple العصبي (ANE) لتنفيذ النماذج بسرعة وكفاءة.

يدعم CoreML مجموعة متنوعة من أنواع النماذج، وهو متوافق مع مكتبات التعلم الآلي الشائعة، بما في ذلك TensorFlow PyTorch وscikit-learn وXGBoost وLibSVM. وهذا يسهل على المطورين توفير قدرات التعلم الآلي المتقدمة للتطبيقات اليومية مع ضمان تشغيلها بسلاسة عبر أجهزة Apple.

الشكل 1. يدعم CoreML نماذج من أطر الذكاء الاصطناعي الشائعة الأخرى(المصدر).

الميزات الرئيسية ل CoreML

إليك بعض الميزات الرئيسية التي تجعل من CoreML أداة موثوقة لدمج الذكاء الاصطناعي في تطبيقات Apple:

  • تحسين النموذج: يدعمCoreML تقنيات الضغط مثل التكميم والتشذيب لتقليل حجم النموذج وتحسين كفاءة وقت التشغيل.
  • تخصيص على الجهاز: يدعم إطار عمل تعلم الآلة من Apple التخصيص على الجهاز، مما يمكّن النماذج من التدريب والتحديث محليًا بناءً على تفاعلات المستخدم.
  • توقعات غير متزامنة: يتيح هذا الإطار لتطبيقك تشغيل التوقعات في الخلفية، مما يحافظ على سلاسة واجهة المستخدم واستجابتها أثناء التعامل مع مهام الذكاء الاصطناعي.
  • التعلم متعدد المهام: يدعم CoreML النماذج التي يمكنها أداء مهام متعددة في وقت واحد، مثل اكتشاف الأجسام والتعرف على النص في نفس الصورة.

كيفية تصدير YOLO11 إلى تنسيق CoreML

والآن بعد أن أصبح لدينا فهم أفضل لإطار عمل CoreML دعنا نتعرف على كيفية استخدام تكامل CoreML المدعوم من قبل Ultralytics لتصدير نموذج YOLO11 إلى تنسيق CoreML .

الخطوة 1: إعداد بيئة العمل الخاصة بك

للوصول إلى ميزات التكامل التي توفرها Ultralytics ابدأ بتثبيت حزمةUltralytics Python . إنها مكتبة خفيفة الوزن وسهلة الاستخدام تعمل على تبسيط المهام مثل التدريب والتقييم والتنبؤ وتصدير نماذج Ultralytics YOLO .

يمكنك تثبيت حزمة Ultralytics Python عن طريق تشغيل "pip install ultralytics" في طرفية الأوامر. إذا كنت تستخدم بيئة مثل Jupyter Notebook أو Google Colab، قم بتضمين علامة تعجب (!) قبل الأمر: "!pip install ultralytics".

إذا واجهتك أي مشكلات أثناء التثبيت أو أثناء التصدير إلى CoreML راجع وثائق Ultralytics الرسمية أو دليل المشكلات الشائعة للحصول على المساعدة.

الخطوة 2: تصدير YOLO11 إلى CoreML

بمجرد تثبيت الحزمة بنجاح، تصبح جاهزًا لتحميل نموذج YOLO11 وتحويله إلى تنسيق CoreML .

إذا لم تكن متأكدًا من نموذج YOLO11 المدرب مسبقًا الذي تريد استخدامه، يمكنك استكشاف مجموعة النماذج التي تدعمها Ultralytics. يقدم كل نموذج توازنًا مختلفًا بين السرعة والحجم والدقة، ويمكنك اختيار الأنسب لمشروعك. يمكنك أيضًا استخدام نموذج YOLO11 المدرب خصيصًا إذا كنت قد دربت نموذجًا على مجموعة البيانات الخاصة بك.

في مقتطف الشيفرة أدناه، يتم استخدام ملف نموذج YOLO11 المدرب مسبقًا باسم "yolo11n.pt". أثناء عملية التصدير، يتم تحويله إلى حزمة CoreML تسمى "yolo11n.mlpackage".

نموذج "yolo11n" هو الإصدار النانوي، وهو مُحسَّن للسرعة والاستخدام المنخفض للموارد. اعتمادًا على احتياجات مشروعك، يمكنك أيضًا اختيار أحجام نماذج أخرى مثل "s" للصغير، أو "m" للمتوسط، أو "l" للكبير، أو "x" للكبير جدًا. يقدم كل إصدار توازنًا مختلفًا بين الأداء والدقة.

from ultralytics import YOLO

model = YOLO("yolo11n.pt")

model.export(format="coreml")

الخطوة 3: تشغيل الاستدلال باستخدام نموذج CoreML المُصدَّر

بعد التصدير إلى تنسيق CoreML يمكن دمج YOLO11 بسهولة في تطبيقات iOS مما يتيح مهام الرؤية الحاسوبية في الوقت الفعلي مثل اكتشاف الأجسام على أجهزة مثل أجهزة iPhone وiPad وMac.

على سبيل المثال، يوضّح مقتطف الشيفرة أدناه كيفية تحميل نموذج CoreML المُصدَّر وإجراء الاستدلال. الاستدلال هو عملية استخدام نموذج مدرّب لإجراء تنبؤات على بيانات جديدة. في هذه الحالة، يقوم النموذج بتحليل صورة لعائلة تلعب بالكرة.

coreml_model = YOLO("yolo11n.mlpackage")

results = coreml_model("https://images.pexels.com/photos/4933841/pexels-photo-4933841.jpeg", save=True)

بعد تشغيل الشيفرة، ستُحفظ صورة الإخراج في مجلد "detect".

الشكل 2. استخدام نموذج YOLO11 المصدّر بتنسيق CoreML detect الأجسام. الصورة للمؤلف.

أين يمكن استخدام نماذج CoreML المصدرة؟

يجلب تصدير YOLO11 إلى CoreML المرونة اللازمة لإنشاء تطبيقات رؤية حاسوبية متنوعة يمكن تشغيلها بكفاءة على أجهزة iPhone وiPad وMac. بعد ذلك، دعونا نلقي نظرة على بعض السيناريوهات الواقعية حيث يمكن أن يكون هذا التكامل مفيدًا بشكل خاص.

تطبيقات الواقع المعزز والألعاب التي تعتمد على نماذج CoreML

الواقع المعزز (AR) يمزج المحتوى الرقمي مع العالم الحقيقي عن طريق تراكب العناصر الافتراضية على طرق عرض الكاميرا الحية. إنه يصبح جزءًا رئيسيًا من ألعاب الهاتف المحمول، مما يخلق تجارب أكثر تفاعلية وغامرة.

باستخدام YOLO11 الذي تم تصديره إلى تنسيق CoreML يمكن لمطوري iOS إنشاء ألعاب الواقع المعزز التي تتعرف على الأشياء الواقعية مثل المقاعد أو الأشجار أو اللافتات باستخدام كاميرا الهاتف. يمكن للعبة بعد ذلك تراكب العناصر الافتراضية، مثل العملات المعدنية أو القرائن أو المخلوقات، فوق هذه الأشياء لتعزيز البيئة المحيطة باللاعب.

خلف الكواليس، يعمل هذا باستخدام اكتشاف الأجسام وتتبع الأجسام. يكتشف YOLO11 الأجسام ويحددها في الوقت الفعلي، بينما يحافظ التتبع على تلك الأجسام في العرض أثناء تحرك الكاميرا، مع التأكد من بقاء العناصر الافتراضية متماشية مع العالم الحقيقي.

يمكن للاعبين توجيه هواتفهم واستكشاف بيئتهم والتفاعل مع ما يرونه لجمع العناصر أو إكمال التحديات السريعة. يمكن أن يتم تشغيل كل هذا مباشرة على الجهاز دون الحاجة إلى اتصال بالإنترنت، مما يجعل التجربة سلسة وجذابة.

تطبيقات iOS المدمجة مع نماذج CoreML لـ ANPR في الوقت الحقيقي

التعرُّف التلقائي على لوحات الأرقام (ANPR ) هو تطبيق رؤية حاسوبية يُستخدم detect لوحات أرقام السيارات وقراءتها. يُستخدم بشكل شائع في أنظمة الأمن ومراقبة حركة المرور والتحكم في الوصول. مع CoreML ونماذج مثل YOLO11 يمكن الآن تشغيل ANPR بكفاءة على أجهزة iOS . 

يمكن أن يكون وجود تطبيق ANPR على جهاز iPhone الخاص بك مفيدًا بشكل خاص في البيئات التي تركز على الأمان. على سبيل المثال، يمكن أن يساعد الفرق في تحديد ما إذا كانت السيارة التي تدخل منطقة محظورة مصرحًا لها بذلك أم لا بسرعة.

يمكن لمثل هذا التطبيق استخدام نموذج ذكاء اصطناعي بصري مثل YOLO11 المدمج من خلال CoreML detect المركبات وتحديد موقع لوحات الترخيص الخاصة بها في الوقت الفعلي باستخدام كاميرا الجهاز. بمجرد اكتشاف اللوحة، يمكن لتقنية التعرّف الضوئي على الحروف (OCR) قراءة رقم الترخيص. يمكن للتطبيق بعد ذلك مقارنة هذا الرقم بقاعدة بيانات محلية أو سحابية للتحقق من الوصول أو الإبلاغ عن المركبات غير المصرح لها.

الشكل 3. يمكن استخدام الذكاء الاصطناعي البصري detect وقراءة أرقام لوحات السيارات.(المصدر).

يمكن للتطبيقات التي تركز على إمكانية الوصول الاستفادة من نماذج CoreML

كان للذكاء الاصطناعي تأثير كبير على إمكانية الوصول، مما ساعد على كسر الحواجز أمام الأشخاص ذوي الإعاقات البصرية. باستخدام أدوات مثل CoreML ونماذج الرؤية الحاسوبية مثل YOLO11 يمكن للمطورين إنشاء تطبيقات iOS التي تصف العالم من حول المستخدمين في الوقت الفعلي، مما يجعل المهام اليومية أسهل وأكثر استقلالية.

على سبيل المثال، يمكن لشخص يعاني من ضعف البصر توجيه كاميرا iPhone الخاصة به إلى محيطه. يستخدم التطبيق اكتشاف الكائنات للتعرف على العناصر الرئيسية، مثل المركبات أو الأشخاص أو لافتات الشوارع، ويروي ما يراه. يمكن استخدام هذا في مواقف مثل التنقل في شارع مزدحم أو فهم حالة طارئة.

الشكل 4. مثال على استخدام YOLO11 detect الأشخاص

النقاط الرئيسية

إن تصدير YOLO11 إلى تنسيق CoreML يخلق فرصاً جديدة للتطبيقات في الوقت الحقيقي، بما في ذلك اكتشاف الكائنات غير المتصلة بالإنترنت على أجهزة iOS . يتيح هذا المزيج للمطوّرين إنشاء تطبيقات ذكية وفعّالة وتركز على الخصوصية وتعمل بالكامل على الجهاز، بدءاً من الزراعة والأمان وصولاً إلى إمكانية الوصول.

من خلال بضع خطوات بسيطة، يمكنك تحويل طراز YOLO11 الخاص بك وإضافة ميزات رؤية الكمبيوتر الموثوقة إلى أجهزة iPhone. وأفضل ما في الأمر أنه يعمل دون الحاجة إلى اتصال بالإنترنت. بشكل عام، يوفر تكامل CoreML قوة الذكاء الاصطناعي المتقدم لتطبيقات الجوال اليومية، مما يجعلها أسرع وأكثر استجابة وجاهزة للتشغيل في أي مكان.

هل أنت مهتم بمعرفة المزيد عن الذكاء الاصطناعي؟ استكشف مستودع GitHub الخاص بنا، وتواصل مع مجتمعنا، وتحقق من خيارات الترخيص الخاصة بنا لبدء مشروع رؤية الكمبيوتر الخاص بك. اكتشف كيف تشكل الابتكارات مثل الذكاء الاصطناعي في البيع بالتجزئة و رؤية الكمبيوتر في الخدمات اللوجستية المستقبل في صفحات الحلول الخاصة بنا.

لنبنِ مستقبل
الذكاء الاصطناعي معًا!

ابدأ رحلتك مع مستقبل تعلم الآلة

ابدأ مجانًا