Yolo فيجن شنتشن
شنتشن
انضم الآن
مسرد المصطلحات

نموذج ماركوف المخفي (HMM)

اكتشف نماذج ماركوف المخفية (HMMs)، ومبادئها، وتطبيقاتها في التعرف على الكلام، والمعلوماتية الحيوية والذكاء الاصطناعي، وكيف تستنتج الحالات المخفية.

نموذج ماركوف المخفي (HMM) هو نموذج ذكاء اصطناعي إحصائي نموذج إحصائي للذكاء الاصطناعي يستخدم لوصف الأنظمة الاحتمالية حيث تكون الحالات الداخلية غير قابلة للملاحظة المباشرة (مخفية) ولكن يمكن الاستدلال عليها من خلال سلسلة من الأحداث التي يمكن ملاحظتها. تعتبر HMMs فعالة بشكل خاص في تحليل السلاسل الزمنية والبيانات المتسلسلة, بالاعتماد على افتراض ماركوف: تعتمد احتمالية الحالة المستقبلية على الحالة الحالية فقط، وليس على الأحداث التي سبقتها. وقد جعل هذا الإطار من HMMs أداة أساسية في مجالات مثل معالجة اللغات الطبيعية (NLP), والمعلوماتية الحيوية ومعالجة الكلام.

كيف تعمل نماذج ماركوف المخفية (Hidden Markov Models)؟

يمثل HMM عملية ما كنظام ينتقل بين الحالات المخفية بمرور الوقت، ويصدر مخرجات يمكن ملاحظتها عند كل خطوة. يُعرّف النموذج بثلاث مجموعات أساسية من الاحتمالات:

  • احتمالات الانتقال: احتمالية الانتقال من حالة خفية إلى أخرى (على سبيل المثال، من حالة طقس "مشمس" إلى "ممطر"). حالة طقس "مشمس" إلى "ممطر").
  • احتمالات الانبعاثات: احتمالية ملاحظة ناتج محدد بالنظر إلى الحالة الخفية الحالية (على سبيل المثال، رؤية "مظلة" عندما تكون الحالة "ماطرة").
  • الاحتمالات الأولية: التوزيع الاحتمالي لحالة البداية.

هناك خوارزميتان رئيسيتان أساسيتان لاستخدام HMMs. تُستخدم خوارزمية تُستخدم خوارزمية فيتيربي لفك التشفير وتحديد التسلسل الأكثر احتمالًا للحالات المخفية التي أنتجت تسلسلًا معينًا من الملاحظات. لتعلم معلمات النموذج من بيانات التدريب، تستخدم خوارزمية خوارزمية Baum-Welch، وهي نوع من التوقع-التعظيم (EM)، وهي نوع من طرق التوقع-التعظيم (EM).

في حين أن الحديث التعلم العميق (DL) أطر عمل مثل PyTorch غالبًا ما تتعامل مع مهام التسلسل اليوم، فإن فهم HMMs نظرة ثاقبة في النمذجة الاحتمالية. يستخدم مثال Python التالي مثال Python hmmlearn مكتبة لتوضيح تنبؤ بسيط للحالة:

# pip install hmmlearn
import numpy as np
from hmmlearn import hmm

# Define an HMM with 2 hidden states (e.g., Sunny, Rainy) and 2 observables
model = hmm.CategoricalHMM(n_components=2, random_state=42)
model.startprob_ = np.array([0.6, 0.4])  # Initial state probabilities
model.transmat_ = np.array([[0.7, 0.3], [0.4, 0.6]])  # Transition matrix
model.emissionprob_ = np.array([[0.9, 0.1], [0.2, 0.8]])  # Emission matrix

# Predict the most likely hidden states for a sequence of observations
logprob, predicted_states = model.decode(np.array([[0, 1, 0]]).T)
print(f"Predicted sequence of hidden states: {predicted_states}")

تطبيقات واقعية

لعبت HMMs دورًا أساسيًا في تطوير أنظمة الذكاء الاصطناعي المبكرة ولا تزال تُستخدم حيثما كانت قابلية التفسير و والاستدلال الاحتمالي.

  1. التعرف على الكلام: قبل ظهور الشبكات العصبية العميقة، كانت HMMs هي المعيار لتحويل اللغة المنطوقة إلى نص. في هذا تمثّل الحالات المخفية الفونيمات (وحدات صوتية متميزة)، والمخرجات القابلة للملاحظة هي الإشارات الصوتية الإشارات الصوتية أو السمات المستمدة من الصوت. يستنتج النموذج تسلسل الفونيمات الذي يفسر الصوت على أفضل وجه. الصوت. للتعمق أكثر، فإن جمعية معالجة الإشارات IEEE موارد واسعة حول هذه الأساليب التاريخية.
  2. المعلوماتية الحيوية وعلم الجينوم: تُستخدم HMMs على نطاق واسع لتحليل التسلسلات البيولوجية، مثل الحمض النووي. A التطبيق التقليدي هو إيجاد الجينات، حيث تتوافق الحالات المخفية مع المناطق الوظيفية للجينوم (مثل مثل الإكسونات أو الإنترونات أو المناطق بين الجينات) والملاحظات هي تسلسلات النيوكليوتيدات (A، C، G، T). تستخدم أدوات مثل GENSCAN تستخدم HMMs للتنبؤ ببنية بنية الجينات داخل تسلسل الحمض النووي بدقة عالية. بدقة عالية.

مقارنة مع المفاهيم ذات الصلة

غالبًا ما تتم مقارنة HMMs بتقنيات نمذجة التسلسل الأخرى، على الرغم من اختلافها بشكل كبير في البنية و وقدراتها:

  • عملية اتخاذ القرار ماركوف (MDP): في حين أن كلاهما يعتمد على خاصية ماركوف، إلا أن عملية اتخاذ القرار (MDPs) تستخدم في التعلم المعزز حيث تكون الحالات يمكن ملاحظتها بالكامل، والهدف هو اتخاذ القرارات (الإجراءات) لتعظيم المكافأة. على العكس من ذلك، تتعامل HMMs مع الاستدلال السلبي حيث تكون الحالات مخفية.
  • الشبكات العصبية المتكررة (RNN) و LSTM: شبكات الشبكات العصبية المتكررة وشبكات الذاكرة طويلة المدى القصيرة هي نماذج تعلُّم عميقة تلتقط التبعيات المعقدة وغير الخطية في البيانات. على عكس HMMs، والتي تكون محدودة بالتاريخ الثابت لافتراض ماركوف، يمكن لشبكات الذاكرة طويلة المدى LSTMs تعلم بعيدة المدى. غالباً ما تسلط أبحاث ديب مايند الضوء على كيف أن هذه الأساليب العصبية العصبية هذه كيف أن هذه الأساليب العصبية قد حلت محل التكرارات المتسلسلة المتناهية الصغر (HMMs) في المهام المعقدة مثل الترجمة.

نماذج الرؤية الحاسوبية الحديثة، مثل Ultralytics YOLO11, تستخدم الشبكات العصبية التلافيفية المتقدمة (CNNs) والمحولات بدلاً من HMMs لمهام مثل اكتشاف الأجسام و وتجزئة المثيل. ومع ذلك، تظل HMMs مفهوماً قيماً لفهم الأسس الإحصائية ل التعلم الآلي (ML).

انضم إلى مجتمع Ultralytics

انضم إلى مستقبل الذكاء الاصطناعي. تواصل وتعاون وانمو مع المبتكرين العالميين

انضم الآن