Learn how a Hidden Markov Model (HMM) works in statistical AI. Explore its core mechanisms, use cases in sequence analysis, and integration with [YOLO26](https://docs.ultralytics.com/models/yolo26/) for advanced action recognition.
نموذج ماركوف المخفي (HMM) هو إطار إحصائي يستخدم لنمذجة الأنظمة التي لا تكون فيها العملية الداخلية مرئية بشكل مباشر — ومن ثم فهي "مخفية" — ولكن يمكن استنتاجها من خلال سلسلة من الأحداث القابلة للملاحظة. بينما تطور التعلم العميق الحديث للتعامل مع التسلسلات المعقدة، يظل HMM مفهومًا أساسيًا في الذكاء الاصطناعي الإحصائي ونظرية الاحتمالات. وهو فعال بشكل خاص في تحليل بيانات تحليل السلاسل الزمنية حيث يوفر ترتيب الأحداث سياقًا مهمًا، بالاعتماد على المبدأ الأساسي القائل بأن احتمالية حالة مستقبلية تعتمد فقط على الحالة الحالية، وليس على التاريخ الذي سبقها.
لفهم كيفية عمل HMM، من الضروري التمييز بين طبقتين متميزتين من النموذج: الحالات غير المرئية والمخرجات المرئية. يفترض النموذج أن النظام ينتقل بين الحالات المخفية وفقًا لاحتمالات محددة، ويصدر ملاحظة في كل خطوة.
يتم تعريف HMM من خلال مجموعة من المعلمات التي تحكم هذه الانتقالات والانبعاثات:
يتضمن تدريب HMM عمومًا خوارزمية Baum-Welch لتقدير هذه المعلمات من بيانات التدريب. وبمجرد الانتهاء من التدريب، يُستخدم خوارزمية Viterbi عادةً لفك تشفير التسلسل الأكثر احتمالًا للحالات المخفية من مجموعة جديدة من الملاحظات.
على الرغم من أن نماذج HMM تشترك في بعض أوجه التشابه مع أدوات معالجة التسلسل الأخرى، إلا أنها تختلف عنها اختلافًا كبيرًا في البنية والتطبيق .
على الرغم من ظهور التعلم العميق (DL)، لا تزال نماذج ماركوف المخفية تستخدم على نطاق واسع في السيناريوهات التي تتطلب استنتاجًا احتماليًا على التسلسلات.
تاريخياً، كانت نماذج HMM هي العمود الفقري لأنظمة التعرف على الكلام. في هذا السياق، تعد الكلمات المنطوقة هي الحالات "الخفية"، والإشارات الصوتية المسجلة بواسطة الميكروفون هي الملاحظات. تساعد نماذج HMM في تحديد التسلسل الأكثر احتمالاً للكلمات التي أنتجت الإشارة الصوتية. وبالمثل، فهي تساعد في فك رموز الكتابة اليدوية المتصلة من خلال نمذجة الانتقال بين ضربات الأحرف.
في مجال المعلوماتية الحيوية، تعتبر HMMs حاسمة بالنسبة لتنبؤ الجينات ومحاذاة البروتينات. فهي تحلل تسلسلات الحمض النووي أو الأحماض الأمينية لتحديد المناطق الوظيفية، مثل الجينات داخل الجينوم. قد تمثل الحالات "الخفية" مناطق الترميز أو عدم الترميز، في حين أن النيوكليوتيدات المحددة (A، C، G، T) تعمل كملاحظات.
في الرؤية الحاسوبية الحديثة، يمكن دمج نماذج HMM مع نماذج مثل YOLO26 للقيام بالتعرف على الأفعال. بينما YOLO الأجسام أو الأوضاع في إطارات فردية، يمكن لـ HMM تحليل تسلسل هذه الأوضاع بمرور الوقت classify ، مثل "المشي" أو "الجري" أو "السقوط".
للمطورين الذين يستخدمون Ultralytics لإدارة مجموعات البيانات والنماذج، فإن فهم المنطق التسلسلي أمر بالغ الأهمية. يوفر نموذج الرؤية الملاحظات الأولية (الاكتشافات)، والتي يمكن بعد ذلك إدخالها في نموذج الحالة-الفضاء مثل HMM لاستنتاج السياق الزمني.
يوضح المثال التالي كيفية إنشاء سلسلة من الملاحظات باستخدام تقدير الوضع YOLO26. يمكن أن تكون هذه النقاط الرئيسية بمثابة مدخلات "الأحداث القابلة للملاحظة" لـ HMM أو منطق مشابه classify بمرور الوقت.
from ultralytics import YOLO
# Load the YOLO26n-pose model for efficient keypoint detection
model = YOLO("yolo26n-pose.pt")
# Run inference on a video source (the 'observable' sequence)
# stream=True creates a generator for memory efficiency
results = model.predict(source="path/to/video.mp4", stream=True)
# Iterate through frames to extract observations
for result in results:
# Each 'keypoints' object is an observation for a potential HMM
keypoints = result.keypoints.xyn.cpu().numpy()
if keypoints.size > 0:
print(f"Observation (Normalized Keypoints): {keypoints[0][:5]}...")
# In a full pipeline, these points would be fed into an HMM decoder
على الرغم من أن المحولات ونماذج اللغة الكبيرة (LLMs) قد تجاوزت HMMs في مهام مثل معالجة اللغة الطبيعية (NLP)، تظل HMMs ذات صلة في الحوسبة المتطورة و بيئات زمن الاستجابة المنخفض. كفاءتها الحسابية تجعلها مثالية للأنظمة ذات الموارد المحدودة حيث تتطلب GPU . علاوة على ذلك، نظرًا لأنها تستند إلى مصفوفات احتمالية شفافة، فإنها توفر قابلية مراقبة أعلى مقارنة بطبيعة "الصندوق الأسود" للعديد من الشبكات العصبية.