深圳Yolo 视觉
深圳
立即加入
词汇表

隐马尔可夫模型 (HMM)

探索隐马尔可夫模型 (HMM)、其原理、在语音识别、生物信息学和人工智能中的应用,以及它们如何推断隐藏状态。

隐马尔可夫模型(HMM)是一种 统计人工智能模型,用于描述概率系统。 系统,其内部状态不可直接观测(隐藏),但可通过一系列可观测事件推断出来。 隐马尔可夫模型HMM 对于 时间序列分析和序列数据、 它依赖于马尔可夫假设:未来状态的概率只取决于当前状态,而不是之前的事件。 前的事件。这一框架使 HMM 成为以下领域的基础工具 自然语言处理(NLP) 生物信息学和语音处理等领域的基础工具。

隐马尔可夫模型的工作原理

HMM 将一个过程建模为一个随时间在隐藏状态之间转换的系统,每一步都有可观测的输出。 每一步的可观测输出。该模型由三组主要概率定义:

  • 转换概率:从一个隐藏状态转换到另一个隐藏状态的可能性(例如,从 "晴天 "天气状态转换到 "雨天 "天气状态)。 "晴天 "到 "雨天")。
  • 发射概率:在当前隐藏状态下观察到特定输出的可能性(例如,当状态为 "下雨 "时看到 "雨伞"。 状态下观察到特定输出的可能性(例如,当状态为 "下雨 "时看到 "雨伞")。
  • 初始概率:起始状态的概率分布。

有两种关键算法是使用 HMM 的核心。维特比算法 维特比算法用于解码,确定 维特比算法用于解码,确定产生给定观测序列的最可能的隐藏状态序列。从训练数据中学习模型 从训练数据中学习模型参数 鲍姆-韦尔奇算法是一种 通常采用期望最大化(EM)算法。

虽然现代 深度学习 (DL) 框架,如 PyTorch 如今,HMMs 经常处理序列任务,因此了解 HMMs HMM 为概率建模提供了重要的启示。下面的Python 示例使用 hmmlearn 库来演示一个简单的状态预测:

# pip install hmmlearn
import numpy as np
from hmmlearn import hmm

# Define an HMM with 2 hidden states (e.g., Sunny, Rainy) and 2 observables
model = hmm.CategoricalHMM(n_components=2, random_state=42)
model.startprob_ = np.array([0.6, 0.4])  # Initial state probabilities
model.transmat_ = np.array([[0.7, 0.3], [0.4, 0.6]])  # Transition matrix
model.emissionprob_ = np.array([[0.9, 0.1], [0.2, 0.8]])  # Emission matrix

# Predict the most likely hidden states for a sequence of observations
logprob, predicted_states = model.decode(np.array([[0, 1, 0]]).T)
print(f"Predicted sequence of hidden states: {predicted_states}")

实际应用

HMM 在早期人工智能系统的开发中发挥了重要作用,并在需要可解释性和概率推理的领域继续得到应用。 概率推理。

  1. 语音识别:在深度神经网络兴起之前,HMM 是将口语转换为文本的标准。在这种情况下 在这种情况下,隐藏状态代表音素(不同的声音单位),而可观测的输出则是声音信号或从音频中提取的特征。 信号或从音频中提取的特征。该模型可以推断出最能解释音频输入的音素序列。 输入。更深入的研究,请参见 IEEE 信号处理学会 提供了有关这些历史方法的大量资源。
  2. 生物信息学和基因组学:HMMs 广泛用于分析 DNA 等生物序列。A 隐态对应于基因组的功能区(如外显子、内含子或基因间区),而观测值则是核苷酸序列。 外显子、内含子或基因间区),观测值则是核苷酸序列(A、C、G、T)。像 等工具利用 HMM 预测 DNA 序列中的基因结构。 高精度地预测 DNA 序列中的基因结构。 准确性

与相关概念的比较

尽管 HMM 与其他序列建模技术在结构和能力上有很大不同,但它们经常被拿来与其他序列建模技术进行比较。 能力上有很大差异:

  • 马尔可夫决策过程(MDP):虽然二者都依赖于马尔可夫特性,但马尔可夫决策过程用于 强化学习中,其状态 在这种情况下,状态是完全可观察的,目标是做出决策(行动)以获得最大回报。相反,HMM 处理的是 被动推理,状态是隐藏的。
  • 递归神经网络(RNN)LSTM:RNN 和长短期记忆网络是深度学习模型,可捕捉数据中复杂的非线性依赖关系。 数据中复杂的非线性依赖关系。HMM 受限于马尔可夫假设的固定历史,而 LSTM 则不同,它可以学习远距离语境。 语境。DeepMind 的研究经常强调这些神经 在翻译等复杂任务中如何取代 HMM。

现代计算机视觉模型,如 Ultralytics YOLO11, 利用先进的卷积神经网络(CNN)和变换器而不是 HMM 来完成以下任务 对象检测实例分割等任务。然而,HMM 仍然是一个 是理解机器学习(ML)统计基础的重要概念。 机器学习 (ML)

加入Ultralytics 社区

加入人工智能的未来。与全球创新者联系、协作和共同成长

立即加入