Yolo فيجن شنتشن
شنتشن
انضم الآن
مسرد المصطلحات

نموذج ماركوف المخفي (HMM)

Learn how a Hidden Markov Model (HMM) works in statistical AI. Explore its core mechanisms, use cases in sequence analysis, and integration with [YOLO26](https://docs.ultralytics.com/models/yolo26/) for advanced action recognition.

نموذج ماركوف المخفي (HMM) هو إطار إحصائي يستخدم لنمذجة الأنظمة التي لا تكون فيها العملية الداخلية مرئية بشكل مباشر — ومن ثم فهي "مخفية" — ولكن يمكن استنتاجها من خلال سلسلة من الأحداث القابلة للملاحظة. بينما تطور التعلم العميق الحديث للتعامل مع التسلسلات المعقدة، يظل HMM مفهومًا أساسيًا في الذكاء الاصطناعي الإحصائي ونظرية الاحتمالات. وهو فعال بشكل خاص في تحليل بيانات تحليل السلاسل الزمنية حيث يوفر ترتيب الأحداث سياقًا مهمًا، بالاعتماد على المبدأ الأساسي القائل بأن احتمالية حالة مستقبلية تعتمد فقط على الحالة الحالية، وليس على التاريخ الذي سبقها.

الآليات الأساسية لـ HMMs

لفهم كيفية عمل HMM، من الضروري التمييز بين طبقتين متميزتين من النموذج: الحالات غير المرئية والمخرجات المرئية. يفترض النموذج أن النظام ينتقل بين الحالات المخفية وفقًا لاحتمالات محددة، ويصدر ملاحظة في كل خطوة.

يتم تعريف HMM من خلال مجموعة من المعلمات التي تحكم هذه الانتقالات والانبعاثات:

  • الحالات المخفية: تمثل الحقيقة الكامنة للنظام في وقت معين. في نموذج الكلام، قد تمثل الحالة المخفية صوتًا أو كلمة معينة.
  • الأحداث القابلة للملاحظة: هي نقاط البيانات التي يتم جمعها فعليًا بواسطة أجهزة الاستشعار أو المدخلات. في مثال الخطاب، ستكون الملاحظة هي شكل الموجة الصوتية أو بيانات الطيف الصوتي.
  • احتمالات الانتقال: تصف هذه المصفوفة احتمالية الانتقال من حالة خفية إلى أخرى. على سبيل المثال، احتمال تغير الطقس من "ممطر" إلى "مشمس".
  • احتمالات الانبعاث: تحدد احتمالات رؤية ملاحظة معينة في حالة خفية حالية.
  • الاحتمالات الأولية: التوزيع الذي يحدد الحالة التي من المرجح أن يبدأ فيها النظام.

يتضمن تدريب HMM عمومًا خوارزمية Baum-Welch لتقدير هذه المعلمات من بيانات التدريب. وبمجرد الانتهاء من التدريب، يُستخدم خوارزمية Viterbi عادةً لفك تشفير التسلسل الأكثر احتمالًا للحالات المخفية من مجموعة جديدة من الملاحظات.

HMMs مقابل نماذج التسلسل الأخرى

على الرغم من أن نماذج HMM تشترك في بعض أوجه التشابه مع أدوات معالجة التسلسل الأخرى، إلا أنها تختلف عنها اختلافًا كبيرًا في البنية والتطبيق .

  • HMM مقابل الشبكات العصبية المتكررة (RNN): الشبكات العصبية المتكررة(RNN) و الذاكرة الطويلة قصيرة المدى (LSTM) هي نماذج تعلم عميق يمكنها التقاط التبعيات طويلة المدى والأنماط غير الخطية، في حين أن HMMs هي نماذج احتمالية أبسط محدودة بافتراض ماركوف (الذاكرة قصيرة المدى). ومع ذلك، تتطلب HMMs بيانات أقل بكثير وتكون أكثر قابلية للتفسير.
  • HMM مقابل مرشح كالمان (KF): يستخدم كلاهما لتقدير الحالة. ومع ذلك، تم تصميم مرشحات كالمان للحالات المستمرة (مثل تتبع الموقع الدقيق لسيارة متحركة)، بينما تستخدم HMM للحالات المنفصلة (مثل تحديد ما إذا كانت السيارة "متوقفة" أو "تسير" أو "متوقفة").

تطبيقات واقعية

على الرغم من ظهور التعلم العميق (DL)، لا تزال نماذج ماركوف المخفية تستخدم على نطاق واسع في السيناريوهات التي تتطلب استنتاجًا احتماليًا على التسلسلات.

التعرف على الكلام والكتابة اليدوية

تاريخياً، كانت نماذج HMM هي العمود الفقري لأنظمة التعرف على الكلام. في هذا السياق، تعد الكلمات المنطوقة هي الحالات "الخفية"، والإشارات الصوتية المسجلة بواسطة الميكروفون هي الملاحظات. تساعد نماذج HMM في تحديد التسلسل الأكثر احتمالاً للكلمات التي أنتجت الإشارة الصوتية. وبالمثل، فهي تساعد في فك رموز الكتابة اليدوية المتصلة من خلال نمذجة الانتقال بين ضربات الأحرف.

تحليل التسلسل البيولوجي

في مجال المعلوماتية الحيوية، تعتبر HMMs حاسمة بالنسبة لتنبؤ الجينات ومحاذاة البروتينات. فهي تحلل تسلسلات الحمض النووي أو الأحماض الأمينية لتحديد المناطق الوظيفية، مثل الجينات داخل الجينوم. قد تمثل الحالات "الخفية" مناطق الترميز أو عدم الترميز، في حين أن النيوكليوتيدات المحددة (A، C، G، T) تعمل كملاحظات.

التعرف على الحركة في الرؤية الحاسوبية

في الرؤية الحاسوبية الحديثة، يمكن دمج نماذج HMM مع نماذج مثل YOLO26 للقيام بالتعرف على الأفعال. بينما YOLO الأجسام أو الأوضاع في إطارات فردية، يمكن لـ HMM تحليل تسلسل هذه الأوضاع بمرور الوقت classify ، مثل "المشي" أو "الجري" أو "السقوط".

دمج الرؤية وتحليل الحالة

للمطورين الذين يستخدمون Ultralytics لإدارة مجموعات البيانات والنماذج، فإن فهم المنطق التسلسلي أمر بالغ الأهمية. يوفر نموذج الرؤية الملاحظات الأولية (الاكتشافات)، والتي يمكن بعد ذلك إدخالها في نموذج الحالة-الفضاء مثل HMM لاستنتاج السياق الزمني.

يوضح المثال التالي كيفية إنشاء سلسلة من الملاحظات باستخدام تقدير الوضع YOLO26. يمكن أن تكون هذه النقاط الرئيسية بمثابة مدخلات "الأحداث القابلة للملاحظة" لـ HMM أو منطق مشابه classify بمرور الوقت.

from ultralytics import YOLO

# Load the YOLO26n-pose model for efficient keypoint detection
model = YOLO("yolo26n-pose.pt")

# Run inference on a video source (the 'observable' sequence)
# stream=True creates a generator for memory efficiency
results = model.predict(source="path/to/video.mp4", stream=True)

# Iterate through frames to extract observations
for result in results:
    # Each 'keypoints' object is an observation for a potential HMM
    keypoints = result.keypoints.xyn.cpu().numpy()

    if keypoints.size > 0:
        print(f"Observation (Normalized Keypoints): {keypoints[0][:5]}...")
        # In a full pipeline, these points would be fed into an HMM decoder

أهميتها في الذكاء الاصطناعي الحديث

على الرغم من أن المحولات ونماذج اللغة الكبيرة (LLMs) قد تجاوزت HMMs في مهام مثل معالجة اللغة الطبيعية (NLP)، تظل HMMs ذات صلة في الحوسبة المتطورة و بيئات زمن الاستجابة المنخفض. كفاءتها الحسابية تجعلها مثالية للأنظمة ذات الموارد المحدودة حيث تتطلب GPU . علاوة على ذلك، نظرًا لأنها تستند إلى مصفوفات احتمالية شفافة، فإنها توفر قابلية مراقبة أعلى مقارنة بطبيعة "الصندوق الأسود" للعديد من الشبكات العصبية.

انضم إلى مجتمع Ultralytics

انضم إلى مستقبل الذكاء الاصطناعي. تواصل وتعاون وانمو مع المبتكرين العالميين

انضم الآن