Yolo Vision Shenzhen
Шэньчжэнь
Присоединиться сейчас
Глоссарий

Скрытая Марковская Модель (Hidden Markov Model, HMM)

Откройте для себя скрытые марковские модели (HMM), их принципы, применение в распознавании речи, биоинформатике и ИИ, а также то, как они выводят скрытые состояния.

Скрытая марковская модель (HMM) - это статистическая модель искусственного интеллекта, используемая для описания вероятностных систем, в которых внутренние состояния не являются непосредственно наблюдаемыми (скрытыми), но могут быть выведены через последовательность наблюдаемых событий. HMM особенно эффективны для анализа временных рядов и последовательных данных, Опираясь на предположение Маркова: вероятность будущего состояния зависит только от текущего состояния, а не от событий, которые ему предшествовали. Эта основа сделала ЧММ фундаментальным инструментом в таких областях, как Обработка естественного языка (NLP), биоинформатика и обработка речи.

Как работают скрытые марковские модели

ЧММ моделирует процесс как систему, которая переходит между скрытыми состояниями с течением времени, выдавая наблюдаемые выходы на каждом шаге. каждом шаге. Модель определяется тремя основными наборами вероятностей:

  • Вероятности перехода: Вероятность перехода из одного скрытого состояния в другое (например, из состояния "Солнечная" погода в "Дождливую").
  • Вероятности выбросов: Вероятность наблюдения определенного выхода при текущем скрытом состоянии (например, увидеть "Зонтик", когда состояние "Дождь").
  • Начальные вероятности: Распределение вероятностей начального состояния.

Два ключевых алгоритма занимают центральное место в использовании HMM. Алгоритм Алгоритм Витерби используется для декодирования, определяя наиболее вероятной последовательности скрытых состояний, которая привела к заданной последовательности наблюдений. Для обучения модели параметров модели на основе обучающих данных, используется алгоритм Баума-Уэлча, разновидность алгоритма Для обучения параметров модели по обучающим данным обычно используется алгоритм Баума-Уэлча, являющийся разновидностью метода ожиданий-максимизации (EM).

В то время как современные Глубокое обучение (DL) фреймворки, такие как PyTorch сегодня часто решают последовательные задачи, понимание ЧММ обеспечивает критическое понимание вероятностного моделирования. В следующем примере на Python используется hmmlearn библиотека для демонстрации простого предсказания состояния:

# pip install hmmlearn
import numpy as np
from hmmlearn import hmm

# Define an HMM with 2 hidden states (e.g., Sunny, Rainy) and 2 observables
model = hmm.CategoricalHMM(n_components=2, random_state=42)
model.startprob_ = np.array([0.6, 0.4])  # Initial state probabilities
model.transmat_ = np.array([[0.7, 0.3], [0.4, 0.6]])  # Transition matrix
model.emissionprob_ = np.array([[0.9, 0.1], [0.2, 0.8]])  # Emission matrix

# Predict the most likely hidden states for a sequence of observations
logprob, predicted_states = model.decode(np.array([[0, 1, 0]]).T)
print(f"Predicted sequence of hidden states: {predicted_states}")

Применение в реальном мире

ЧММ сыграли важную роль в разработке ранних систем искусственного интеллекта и продолжают использоваться там, где требуется интерпретируемость и вероятностные рассуждения.

  1. Распознавание речи: До появления глубоких нейронных сетей HMM были стандартом для преобразования разговорной речи в текст. В этом скрытые состояния представляют собой фонемы (отдельные единицы звука), а наблюдаемые выходы - акустические сигналы или признаки, полученные из аудио. Модель определяет последовательность фонем, которая наилучшим образом объясняет входной аудиосигнал. входной сигнал. Для более глубокого погружения в тему IEEE Signal Processing Society предлагает обширные ресурсы по этим историческим методам.
  2. Биоинформатика и геномика: HMM широко используются для анализа биологических последовательностей, таких как ДНК. A Классическое применение - поиск генов, где скрытые состояния соответствуют функциональным областям генома (таким как экзоны, интроны или межгенные области), а наблюдения - это последовательности нуклеотидов (A, C, G, T). Такие инструменты, как GENSCAN, используют HMM для предсказания структуру генов в последовательности ДНК с высокой точностью.

Сравнение со смежными понятиями

ЧММ часто сравнивают с другими методами моделирования последовательностей, хотя они существенно отличаются по структуре и возможностями:

  • Марковский процесс принятия решений (MDP): Хотя оба опираются на свойство Маркова, MDP используются в В обучении с подкреплением, где состояния полностью наблюдаемы, а целью является принятие решений (действий) для максимизации вознаграждения. ЧММ, наоборот, имеют дело с пассивным умозаключением, где состояния скрыты.
  • Рекуррентные нейронные сети (RNN) и LSTM: РНС и сети с долговременной памятью - это модели глубокого обучения, которые отражают сложные, нелинейные зависимости в данных. В отличие от ЧММ, которые ограничены фиксированной историей в предположении Маркова, LSTM могут изучать долгосрочный контекст. В исследованиях DeepMind часто подчеркивается, что эти нейронные подходы вытеснили ЧММ в таких сложных задачах, как перевод.

Современные модели компьютерного зрения, такие как Ultralytics YOLO11, используют усовершенствованные конволюционные нейронные сети (CNN) и трансформаторы, а не ЧММ для таких задач, как обнаружение объектов и сегментации объектов. Тем не менее, ЧММ остаются ценной концепцией для понимания статистических основ машинного обучения (ML).

Присоединяйтесь к сообществу Ultralytics

Присоединяйтесь к будущему ИИ. Общайтесь, сотрудничайте и развивайтесь вместе с мировыми новаторами

Присоединиться сейчас