Глоссарий

Скрытая марковская модель (HMM)

Узнай о скрытых марковских моделях (HMM), их принципах, применении в распознавании речи, биоинформатике и искусственном интеллекте, а также о том, как они выводят скрытые состояния.

Обучай модели YOLO просто
с помощью Ultralytics HUB.

Узнай больше

Скрытая марковская модель (HMM) - это статистическая модель, используемая для описания систем, которые переходят из одного состояния в другое с течением времени. В HMM последовательность состояний, через которые проходит система, не является непосредственно наблюдаемой (она "скрыта"), но ее можно вывести из последовательности наблюдаемых выходов или выбросов, производимых каждым состоянием. HMM особенно эффективны для моделирования последовательных данных и анализа временных рядов в различных областях искусственного интеллекта (AI) и машинного обучения (ML). Они принадлежат к классу моделей, известных как вероятностные графовые модели, обеспечивающие основу для работы с неопределенностью в динамических системах.

Основные понятия

HMM определяются двумя основными стохастическими (случайными) процессами:

  1. Скрытые состояния: Лежащая в основе ненаблюдаемая цепь состояний Маркова. Система переходит между этими скрытыми состояниями в соответствии с определенными вероятностями. Основным предположением является свойство Маркова: вероятность перехода в следующее состояние зависит только от текущего состояния, а не от последовательности состояний, которые ему предшествовали.
  2. Наблюдаемые выбросы: Каждое скрытое состояние генерирует наблюдаемый выход или выброс, основанный на определенном распределении вероятности. Эти выбросы и есть те данные, которые мы реально наблюдаем.

Модель характеризуется:

  • Состояния: Конечный набор скрытых состояний.
  • Наблюдения: Конечный набор возможных выбросов или наблюдений.
  • Вероятности перехода: Вероятности перехода из одного скрытого состояния в другое.
  • Вероятности выбросов: Вероятность наблюдения определенного выброса при условии, что система находится в определенном скрытом состоянии.
  • Распределение начальных состояний: Вероятность того, что система начнет работать в каждом скрытом состоянии.

Как работают скрытые марковские модели

Работа с HMM обычно включает в себя решение трех фундаментальных проблем, которые часто решаются с помощью специальных алгоритмов, подробно описанных в таких учебниках, как у Рабинера:

  1. Проблема оценки: учитывая HMM и последовательность наблюдений, какова вероятность того, что наблюдения были сгенерированы моделью? (Решается с помощью алгоритма Forward).
  2. Проблема декодирования: учитывая HMM и последовательность наблюдений, какова наиболее вероятная последовательность скрытых состояний, которая привела к этим наблюдениям? (Решается с помощью алгоритма Витерби).
  3. Проблема обучения: учитывая последовательность наблюдений (или несколько последовательностей), как мы можем настроить параметры HMM (вероятности перехода и выброса), чтобы наилучшим образом учесть наблюдаемые данные? (Часто решается с помощью алгоритма Баума-Уэлча, экземпляра алгоритма Expectation-Maximization). Это очень важно для обучения модели.

Применение в реальном мире

HMM успешно применяются во многих областях:

  • Распознавание речи: Это классическое приложение. Скрытые состояния могут представлять собой фонемы (основные единицы звука), а наблюдения - акустические признаки, извлеченные из речевого сигнала. HMM декодирует наиболее вероятную последовательность фонем с учетом аудиосигнала, формируя основу для распознавания слов. Такие инструменты, как CMU Sphinx, исторически в значительной степени опирались на HMM.
  • Биоинформатика: HMM широко используются для анализа последовательностей. Например, при поиске генов скрытые состояния могут представлять собой кодирующие регионы, некодирующие регионы или специфические генные структуры (например, стартовые кодоны, экзоны, интроны). Наблюдения - это пары оснований ДНК (A, C, G, T). Модель помогает определить местоположение генов в длинной последовательности ДНК. Такое программное обеспечение, как HMMER, использует профильные HMM для анализа белковых последовательностей, сравнивая последовательности с базами данных вроде базы данных NCBI Gene.
  • Обработка естественного языка (NLP): Используется для таких задач, как тегирование частей речи, где скрытыми состояниями являются грамматические теги (существительное, глагол, прилагательное), а наблюдениями - слова в предложении. Также применяется в распознавании именованных сущностей (NER).
  • Компьютерное зрение (КВ): Применяется в распознавании жестов, активности по видео и иногда исторически в отслеживании объектов, хотя часто вытесняется такими методами, как фильтры Калмана или подходы глубокого обучения.
  • Финансы: Моделирование рыночных режимов (например, бычьего и медвежьего рынков) как скрытых состояний на основе наблюдаемых финансовых показателей.
  • Анализ медицинских изображений: Анализируй последовательности медицинских изображений или сигналов с течением времени.

Сравнение с родственными концепциями

Важно отличать HMM от других моделей последовательности:

Хотя новые методы глубокого обучения часто достигают самых современных результатов, HMM остаются ценными благодаря своей интерпретируемости (явные состояния и вероятности) и эффективности, особенно когда обучающие данные ограничены или в структуру модели могут быть включены знания о домене. Понимание таких фундаментальных концепций, как HMM, обеспечивает ценный контекст в более широком ландшафте ML, даже при использовании таких платформ, как Ultralytics HUB, которые в основном облегчают разработку и развертывание DL-моделей, таких как YOLOv8 или YOLO11.

Читать полностью