Yolo فيجن شنتشن
شنتشن
انضم الآن
مسرد المصطلحات

التتبع متعدد الأجسام (MOT)

استكشف التتبع متعدد الأجسام (MOT): track الأجسام وإعادة تحديدها عبر إطارات الفيديو باستخدام YOLO11 ومرشحات كالمان ومطابقة المظهر والربط الحديث للبيانات.

تعد متابعة الأجسام المتعددة (MOT) إحدى القدرات المتطورة في الرؤية الحاسوبية (CV) تتيح للأنظمة detect وتحديد وتتبع كيانات فريدة متعددة عبر سلسلة من إطارات الفيديو. على عكس الاكتشاف القياسي الكشف عن الكائناتالقياسي، الذي يعامل كل إطار صورة كحدث منفصل، يضيف MOT بعدًا زمنيًا إلى الذكاء الاصطناعي (AI). من خلال تعيين رقم تعريف دائم (ID) لكل حالة تم اكتشافها - مثل سيارة معينة في حركة المرور أو لاعب في ملعب رياضي - تسمح MOT للخوارزميات بالحفاظ على هوية الكائنات أثناء تحركها وتفاعلها وحتى اختفائها مؤقتًا خلف العوائق. هذه الاستمرارية هي أساس فهم الفيديو و تحليل السلوك.

ميكانيكا أنظمة التتبع

معظم أنظمة MOT المعاصرة، بما في ذلك تلك التي تعمل بأحدث التقنيات YOLO26، تعمل وفق نموذج "التتبع عن طريق الكشف". يعتمد سير العمل هذا على دورة من الكشف والربط لضمان دقة عالية الدقة وتبديل الهوية إلى أدنى حد.

  1. الكشف: في كل إطار، نموذج عالي السرعة مثل YOLO26 أو الجيل السابق YOLO11 المشهد لتحديد مواقع الكائنات، وإنشاء مربعات حدودية واحتمالات الفئات.
  2. توقع الحركة: لتوقع المكان الذي سيتحرك إليه الجسم بعد ذلك، تستخدم الخوارزميات مُقدِّرات رياضية مثل مرشح كالمان. وهذا يخلق تقدير الحالة بناءً على السرعة والمسار، مما يضيق نطاق البحث للإطار التالي.
  3. ربط البيانات: يقوم النظام بمطابقة الاكتشافات الجديدة مع المسارات الموجودة. طرق التحسين مثل الخوارزمية الخوارزمية المجرية تحل مشكلة التخصيص هذه عن طريق تقليل "تكلفة" المطابقة، وغالبًا ما تستخدم Intersection over Union (IoU) لقياس التداخل المكاني.
  4. إعادة التعرف (ReID): عند حدوث عوائق بصرية — تُعرف باسم الانسداد— تستخدم أجهزة التتبع المتقدمة التضمينات للتعرف على الكائن عندما يظهر مرة أخرى، مع الحفاظ على معرفه الأصلي بدلاً من التعامل معه ككيان جديد.

MOT مقابل المفاهيم ذات الصلة

فهم الفرق بين MOT والتعلم الآلي المماثل مصطلحات التعلم الآلي (ML) مهم للاختيار الصحيح للأداة المناسبة.

  • مقابل اكتشاف الكائنات: يحدد الاكتشاف "ماذا وأين" في صورة ثابتة. إذا ظهر شخص في الإطار 1 والإطار 2، يرى جهاز الكشف شخصين منفصلين. يربط MOT بينهما، ويفهم أنه نفس الشخص يتحرك عبر الزمن.
  • مقابل تتبع كائن واحد (SOT): يركز SOT على متابعة هدف محدد واحد، غالبًا ما يتم تهيئته يدويًا بواسطة المستخدم، وتتبعه بغض النظر عن أي عوامل تشتيت أخرى. MOT أكثر تعقيدًا لأنه يجب أن detect track بشكل مستقل track ومتقلب من الكائنات التي تدخل وتخرج من المشهد، مما يتطلب إدارة ذاكرة قوية إدارة قوية للذاكرة .

تطبيقات واقعية

القدرة على تحويل موجزات الفيديو إلى بيانات منظمة تدفع الابتكار في مختلف الصناعات، مما يتيح النمذجة التنبؤية و اتخاذ القرارات تلقائيًا.

  • أنظمة النقل الذكية: في الذكاء الاصطناعي في قطاع السيارات ، يعد MOT أمرًا ضروريًا للسيارات ذاتية القيادة و البنية التحتية للمدن الذكية. فهو يتيح تقدير السرعة من خلال تحليل المسافة التي تقطعها السيارة بمرور الوقت ويساعد على منع الحوادث من خلال توقع مسارات المشاة وراكبي الدراجات.
  • تحليلات البيع بالتجزئة: استخدام المتاجر التقليدية الذكاء الاصطناعي في البيع بالتجزئة لتحليل سلوك المتسوقين. من خلال تطبيق MOT لعد عد الأجسام، يمكن لتجار التجزئة إنشاء خرائط حرارية للممرات ذات الحركة الكثيفة، ومراقبة أوقات البقاء، وتحسين إدارة الطوابير لتقليل أوقات الانتظار عند الخروج.

تنفيذ التتبع باستخدام Python

إن ultralytics توفر الحزمة واجهة سلسة لـ MOT، حيث تدمج خوارزميات قوية مثل بوت-سورت و بايت تراك. يوضح المثال التالي كيفية تحميل نموذج track في دفق فيديو.

from ultralytics import YOLO

# Load a pre-trained YOLO model (YOLO11n is used here, YOLO26n is also supported)
model = YOLO("yolo11n.pt")

# Perform tracking on a video source
# 'persist=True' ensures tracks are maintained between frames
results = model.track(source="https://youtu.be/LNwODJXcvt4", persist=True, tracker="bytetrack.yaml")

# Visualize the first frame's results with IDs drawn
results[0].show()

يعالج سير العمل البسيط هذا الكشف والربط وتعيين المعرفات تلقائيًا، مما يتيح للمطورين التركيز على المنطق الأعلى مستوى مثل عد المناطق أو المحفزات السلوكية. لمزيد من التفاصيل حول التكوين، راجع وثائق وضع التتبع.

انضم إلى مجتمع Ultralytics

انضم إلى مستقبل الذكاء الاصطناعي. تواصل وتعاون وانمو مع المبتكرين العالميين

انضم الآن