استكشف التتبع متعدد الأجسام (MOT): track الأجسام وإعادة تحديدها عبر إطارات الفيديو باستخدام YOLO11 ومرشحات كالمان ومطابقة المظهر والربط الحديث للبيانات.
تعد متابعة الأجسام المتعددة (MOT) إحدى القدرات المتطورة في الرؤية الحاسوبية (CV) تتيح للأنظمة detect وتحديد وتتبع كيانات فريدة متعددة عبر سلسلة من إطارات الفيديو. على عكس الاكتشاف القياسي الكشف عن الكائناتالقياسي، الذي يعامل كل إطار صورة كحدث منفصل، يضيف MOT بعدًا زمنيًا إلى الذكاء الاصطناعي (AI). من خلال تعيين رقم تعريف دائم (ID) لكل حالة تم اكتشافها - مثل سيارة معينة في حركة المرور أو لاعب في ملعب رياضي - تسمح MOT للخوارزميات بالحفاظ على هوية الكائنات أثناء تحركها وتفاعلها وحتى اختفائها مؤقتًا خلف العوائق. هذه الاستمرارية هي أساس فهم الفيديو و تحليل السلوك.
معظم أنظمة MOT المعاصرة، بما في ذلك تلك التي تعمل بأحدث التقنيات YOLO26، تعمل وفق نموذج "التتبع عن طريق الكشف". يعتمد سير العمل هذا على دورة من الكشف والربط لضمان دقة عالية الدقة وتبديل الهوية إلى أدنى حد.
فهم الفرق بين MOT والتعلم الآلي المماثل مصطلحات التعلم الآلي (ML) مهم للاختيار الصحيح للأداة المناسبة.
القدرة على تحويل موجزات الفيديو إلى بيانات منظمة تدفع الابتكار في مختلف الصناعات، مما يتيح النمذجة التنبؤية و اتخاذ القرارات تلقائيًا.
إن ultralytics توفر الحزمة واجهة سلسة لـ MOT، حيث تدمج خوارزميات قوية مثل
بوت-سورت و
بايت تراك. يوضح المثال التالي كيفية تحميل نموذج track في دفق فيديو.
from ultralytics import YOLO
# Load a pre-trained YOLO model (YOLO11n is used here, YOLO26n is also supported)
model = YOLO("yolo11n.pt")
# Perform tracking on a video source
# 'persist=True' ensures tracks are maintained between frames
results = model.track(source="https://youtu.be/LNwODJXcvt4", persist=True, tracker="bytetrack.yaml")
# Visualize the first frame's results with IDs drawn
results[0].show()
يعالج سير العمل البسيط هذا الكشف والربط وتعيين المعرفات تلقائيًا، مما يتيح للمطورين التركيز على المنطق الأعلى مستوى مثل عد المناطق أو المحفزات السلوكية. لمزيد من التفاصيل حول التكوين، راجع وثائق وضع التتبع.