استكشف تقدير النقاط الرئيسية لليد المعتمدة على الذكاء الاصطناعي مع دعم Ultralytics YOLO11 لتقدير الوضعية في تطبيقات مثل التعرف على الإيماءات في الوقت الفعلي.
استكشف تقدير النقاط الرئيسية لليد المعتمدة على الذكاء الاصطناعي مع دعم Ultralytics YOLO11 لتقدير الوضعية في تطبيقات مثل التعرف على الإيماءات في الوقت الفعلي.
في الآونة الأخيرة، اكتسب مترجمو لغة الإشارة في مباراة السوبر بول الكثير من الاهتمام. عندما تشاهدهم وهم يغنون أغنية فنانك المفضل على شاشة التلفزيون، يمكنك فهمهم إذا كنت تعرف لغة الإشارة لأن دماغك يعالج حركات أيديهم. ولكن ماذا لو كان بإمكان الكمبيوتر أن يفعل الشيء نفسه؟ بفضل حلول تتبع اليدين التي تعتمد على الذكاء الاصطناعي، أصبح من الممكن للآلات track حركات اليدين وتفسيرها بدقة مذهلة.
ويقع في صميم هذه الحلول مجال الرؤية الحاسوبية، وهو مجال فرعي للذكاء الاصطناعي يمكّن الآلات من معالجة المعلومات المرئية وفهمها. من خلال تحليل الصور ومقاطع الفيديو، يساعد الذكاء الاصطناعي البصري على detect الأشياء track الحركات والتعرف على الإيماءات المعقدة بدقة ملحوظة.
على سبيل المثال، نماذج الرؤية الحاسوبية مثل Ultralytics YOLO11 على detect وتحليل النقاط الرئيسية لليد في الوقت الفعلي باستخدام تقدير الوضعية. وبذلك، يمكن استخدام هذه النماذج في تطبيقات مثل التعرف على الإيماءات وترجمة لغة الإشارة وتفاعلات الواقع المعزز/الواقع الافتراضي.
في هذه المقالة، سنستكشف في هذه المقالة كيفية تمكين YOLO11 من تتبع اليد القائم على الذكاء الاصطناعي، ومجموعات البيانات المستخدمة للتدريب، وكيفية تدريب نموذج مخصص لتقدير وضعية اليد. سنلقي نظرة أيضًا على تطبيقات العالم الحقيقي. لنبدأ!
يمكن استخدام الذكاء الاصطناعي للتعرف على حركات اليد track في البيانات المرئية من خلال تحديد النقاط الرئيسية مثل المعصم وأطراف الأصابع ومفاصل الأصابع. يساعد أحد الأساليب، المعروف باسم تقدير الوضع، أجهزة الكمبيوتر على فهم حركة الإنسان من خلال تعيين النقاط الرئيسية وتحليل كيفية تغيرها بمرور الوقت. وهذا يسمح لأنظمة الذكاء الاصطناعي بتفسير وضعية الجسم والإيماءات وأنماط الحركة بدقة عالية.
تجعل نماذج الرؤية الحاسوبية هذا الأمر ممكناً من خلال تحليل الصور أو مقاطع الفيديو لتحديد النقاط الرئيسية على اليد track حركتها. بمجرد تعيين هذه النقاط، يمكن للذكاء الاصطناعي التعرف على الإيماءات من خلال تحليل العلاقات المكانية بين النقاط الرئيسية وكيفية تغيرها بمرور الوقت.
على سبيل المثال، إذا انخفضت المسافة بين الإبهام والسبابة، يمكن للذكاء الاصطناعي تفسير ذلك على أنه حركة قرص. وبالمثل، يساعد تتبع كيفية تحرك النقاط الرئيسية في التسلسل على تحديد إيماءات اليد المعقدة وحتى التنبؤ بالحركات المستقبلية.

ومن المثير للاهتمام أن تقدير الوضع لتتبع اليد قد فتح إمكانيات مثيرة، بدءًا من التحكم بدون استخدام اليدين في الأجهزة الذكية وحتى تحسين الدقة الروبوتية والمساعدة في تطبيقات الرعاية الصحية. مع استمرار تطور الذكاء الاصطناعي ورؤية الكمبيوتر، من المحتمل أن يلعب تتبع اليد دورًا أكبر في جعل التكنولوجيا أكثر تفاعلية وسهولة الوصول إليها وبديهية في الحياة اليومية.
قبل أن نتعمق في كيفية إنشاء حل لتتبع اليد القائم على الذكاء الاصطناعي، دعنا نلقي نظرة فاحصة على تقدير الوضعية وكيف يدعم YOLO11 مهمة الرؤية الحاسوبية هذه. على عكس اكتشاف الأجسام القياسي، الذي يحدد الأجسام بأكملها، يركز تقدير الوضعية على اكتشاف المعالم الرئيسية - مثل المفاصل أو الأطراف أو الحواف - لتحليل الحركة والوضعية.
وعلى وجه التحديد، تم تصميم Ultralytics YOLO11 لتقدير الوضعية في الوقت الفعلي. ومن خلال الاستفادة من كل من الطريقتين من أعلى إلى أسفل ومن أسفل إلى أعلى، فإنه يكتشف الأشخاص بكفاءة ويقدّر النقاط الرئيسية في خطوة واحدة، متفوقاً بذلك على النماذج السابقة من حيث السرعة والدقة.
من خارج الصندوق، يأتي YOLO11 مدربًا مسبقًا على مجموعة بياناتCOCO ويمكنه التعرف على النقاط الرئيسية في جسم الإنسان، بما في ذلك الرأس والكتفين والمرفقين والمعصمين والوركين والركبتين والكاحلين.

بالإضافة إلى تقدير الوضعية البشرية، يمكن تدريب YOLO11 بشكل مخصص detect النقاط الرئيسية على مجموعة متنوعة من الأجسام، سواءً كانت متحركة أو غير متحركة. تجعل هذه المرونة من YOLO11 خيارًا رائعًا لمجموعة كبيرة من التطبيقات.
الخطوة الأولى في التدريب المخصص للنموذج هي جمع البيانات وتصنيفها أو العثور على مجموعة بيانات موجودة تناسب احتياجات المشروع. على سبيل المثال، تُعد مجموعة بيانات النقاط الرئيسية لليد نقطة انطلاق جيدة لتدريب نماذج رؤية الذكاء الاصطناعي لتتبع اليد وتقدير الوضع. مع 26,768 صورة مصنفة، فإنها تلغي الحاجة إلى التصنيف اليدوي.
يمكن استخدامها لتدريب نماذج مثل Ultralytics YOLO11 لتتعلم بسرعة كيفية detect حركات اليد track . تتضمن مجموعة البيانات 21 نقطة أساسية لكل يد، تغطي المعصم والأصابع والمفاصل. كما تم إنشاء التعليقات التوضيحية لمجموعة البيانات باستخدام Google MediaPipe، وهي أداة لتطوير حلول مدعومة بالذكاء الاصطناعي لمعالجة الوسائط في الوقت الفعلي، مما يضمن اكتشاف نقاط المفاتيح بدقة وموثوقية.

يؤدي استخدام مجموعة بيانات منظمة مثل هذه إلى توفير الوقت ويتيح للمطورين التركيز على تدريب نماذجهم وضبطها بدلاً من جمع البيانات وتصنيفها. في الواقع، تم بالفعل تقسيم مجموعة البيانات إلى مجموعات فرعية للتدريب (18,776 صورة) والتحقق (7,992 صورة)، مما يسهل تقييم أداء النموذج.
يُعدّ تدريب YOLO11 لتقدير وضعية اليد عملية مباشرة، خاصةً مع حزمةUltralytics Python مما يجعل إعداد النموذج وتدريبه أسهل. نظرًا لأن مجموعة بيانات Hand Keypoints مدعومة بالفعل في خط أنابيب التدريب، يمكن استخدامها على الفور دون الحاجة إلى تنسيق إضافي، مما يوفر الوقت والجهد.
إليك كيفية عمل عملية التدريب:
عند المرور بخطوات إنشاء نموذج مخصص، ستلاحظ أن مراقبة الأداء أمر ضروري. بالإضافة إلى تتبع التقدم المحرز أثناء التدريب، يعد تقييم النموذج بعد ذلك أمرًا بالغ الأهمية للتأكد من أنه يكتشف ويتتبع نقاط مفاتيح اليد بدقة.
تساعد مقاييس الأداء الرئيسية مثل الدقة وقيم الخسارة ومتوسط متوسط الدقةmAP) في تقييم مدى جودة أداء النموذج. وتوفر حزمة Ultralytics Python أدوات مدمجة لتصور النتائج ومقارنة التنبؤات مع التعليقات التوضيحية الحقيقية، مما يسهل اكتشاف مجالات التحسين.
لفهم أداء النموذج بشكل أفضل، يمكنك التحقق من رسوم بيانية للتقييم مثل منحنيات الخسارة ورسوم بيانية للدقة والاسترجاع ومصفوفات الالتباس، والتي يتم إنشاؤها تلقائيًا في سجلات التدريب.
تساعد هذه الرسوم البيانية في تحديد مشكلات مثل التجاوز (عندما يحفظ النموذج بيانات التدريب ولكنه يواجه صعوبة في التعامل مع البيانات الجديدة) أو النقص (عندما يفشل النموذج في تعلم الأنماط بشكل جيد بما يكفي لتحقيق أداء دقيق) وتوجيه التعديلات لتحسين الدقة. أيضًا، يعد اختبار النموذج على صور أو مقاطع فيديو جديدة أمرًا مهمًا لمعرفة مدى جودة عمله في سيناريوهات العالم الحقيقي.
بعد ذلك، دعنا نتعرف على بعض التطبيقات الأكثر تأثيرًا لتقدير النقاط الرئيسية اليدوية باستخدامYOLO11 Ultralytics YOLO11.
لنفترض أن بإمكانك ضبط مستوى الصوت في تلفازك بمجرد التلويح بيدك أو التنقل في نظام المنزل الذكي بتمريرة بسيطة في الهواء. يجعل التعرف على الإيماءات في الوقت الحقيقي المدعوم من YOLO11 هذه التفاعلات الخالية من اللمس ممكنة من خلال اكتشاف حركات اليد بدقة في الوقت الفعلي.
يعمل ذلك باستخدام كاميرات الذكاء الاصطناعي track النقاط الرئيسية في يدك وتفسير الإيماءات كأوامر. تقوم كاميرات استشعار العمق أو مستشعرات الأشعة تحت الحمراء أو حتى كاميرات الويب العادية بالتقاط حركات اليد، بينما يستطيع YOLO11 معالجة البيانات للتعرف على الإيماءات المختلفة. على سبيل المثال، يمكن لمثل هذا النظام معرفة الفرق بين التمرير لتغيير الأغنية، أو القرص للتكبير، أو الحركة الدائرية لضبط مستوى الصوت.
يمكن أن تدعم حلول الذكاء الاصطناعي لتتبع اليدين التواصل السلس بين شخص أصم وشخص لا يعرف لغة الإشارة. على سبيل المثال، يمكن استخدام الأجهزة الذكية المدمجة مع الكاميرات و YOLO11 لترجمة لغة الإشارة إلى نص أو كلام على الفور.
بفضل التطورات مثل YOLO11 أصبحت أدوات ترجمة لغة الإشارة أكثر دقة وسهولة في الوصول إليها. يؤثر ذلك على تطبيقات مثل التكنولوجيا المساعدة وخدمات الترجمة المباشرة والمنصات التعليمية. يمكن أن يساعد الذكاء الاصطناعي في سد فجوات التواصل وتعزيز الشمولية في أماكن العمل والمدارس والأماكن العامة.
هل سبق لك أن لعبت لعبة واقع افتراضي (VR) حيث يمكنك الإمساك بالأشياء دون استخدام وحدة تحكم؟ تتبع اليد المدعوم بالرؤية الحاسوبية يجعل هذا ممكنًا من خلال السماح للمستخدمين بالتفاعل بشكل طبيعي في بيئات الواقع المعزز (AR) والواقع الافتراضي.

من خلال تقدير النقاط الرئيسية لليد باستخدام نماذج مثل Ultralytics YOLO11 يتتبع الذكاء الاصطناعي الحركات في الوقت الفعلي، مما يتيح إيماءات مثل القرص والإمساك والتمرير. وهذا يعزز الألعاب والتدريب الافتراضي والتعاون عن بُعد، مما يجعل التفاعلات أكثر سهولة. مع تحسن تقنية تتبع اليدين، ستشعر الواقع المعزز والواقع الافتراضي بمزيد من الانغماس والواقعية.
يعمل تقدير النقاط الرئيسية لليد باستخدام Ultralytics YOLO11 على جعل حلول تتبع اليدين القائمة على الذكاء الاصطناعي أكثر سهولة وموثوقية. من التعرّف على الإيماءات في الوقت الفعلي إلى تفسير لغة الإشارة وتطبيقات الواقع المعزز/الواقع الافتراضي، تفتح الرؤية الحاسوبية إمكانيات جديدة في التفاعل بين الإنسان والحاسوب.
أيضًا، تساعد عمليات التدريب المخصص والضبط الدقيق المبسطة المطورين على بناء نماذج فعالة لمختلف الاستخدامات الواقعية. مع تطور تكنولوجيا الرؤية الحاسوبية، يمكننا أن نتوقع المزيد من الابتكارات في مجالات مثل الرعاية الصحية والروبوتات والألعاب والأمن.
تفاعل مع مجتمعنا واستكشف تطورات الذكاء الاصطناعي في مستودع GitHub الخاص بنا. اكتشف تأثير الذكاء الاصطناعي في التصنيع و الرؤية الحاسوبية في الرعاية الصحية من خلال صفحات الحلول الخاصة بنا. استكشف خطط الترخيص الخاصة بنا وابدأ رحلتك في عالم الذكاء الاصطناعي اليوم!