Yolo Vision Shenzhen
Shenzhen
Junte-se agora
Glossário

Modelo Oculto de Markov (HMM)

Descubra os Modelos Ocultos de Markov (HMMs), seus princípios, aplicações em reconhecimento de fala, bioinformática e IA, e como eles inferem estados ocultos.

Um modelo de Markov oculto (HMM) é um modelo estatístico de IA utilizado para descrever sistemas probabilísticos probabilísticos em que os estados internos não são diretamente observáveis (ocultos) mas podem ser inferidos através de uma sequência de eventos observáveis. Os HMMs são particularmente eficazes para análise de séries temporais e dados sequenciais, baseando-se no pressuposto de Markov: a probabilidade de um estado futuro depende apenas do estado atual e não dos eventos que o precederam. Esta estrutura fez dos HMMs uma ferramenta fundamental em domínios como Processamento de linguagem natural (PNL), bioinformática e processamento da fala.

Como os Modelos Ocultos de Markov Funcionam

Um HMM modela um processo como um sistema que transita entre estados ocultos ao longo do tempo, emitindo resultados observáveis em em cada passo. O modelo é definido por três conjuntos principais de probabilidades:

  • Probabilidades de transição: A probabilidade de passar de um estado oculto para outro (por exemplo, de um estado estado meteorológico "Solarengo" para "Chuvoso").
  • Probabilidades de emissão: A probabilidade de observar uma saída específica dado o estado oculto atual oculto atual (por exemplo, ver um "Guarda-chuva" quando o estado é "Chuvoso").
  • Probabilidades iniciais: A distribuição de probabilidade do estado inicial.

Dois algoritmos-chave são fundamentais para a utilização de HMMs. O algoritmo O algoritmo de Viterbi é utilizado para a descodificação, determinando a A descodificação é efectuada determinando a sequência mais provável de estados ocultos que produziram uma dada sequência de observações. Para aprender os parâmetros do modelo modelo a partir dos dados de treino, o algoritmo algoritmo de Baum-Welch, um tipo de método de método de maximização da expetativa (EM), é normalmente utilizado.

Enquanto os modernos Aprendizado Profundo (DL) estruturas como PyTorch frequentemente lidam com tarefas sequenciais atualmente, a compreensão dos HMMs fornece uma visão crítica da modelação probabilística. O exemplo Python a seguir usa o hmmlearn para demonstrar uma previsão de estado simples:

# pip install hmmlearn
import numpy as np
from hmmlearn import hmm

# Define an HMM with 2 hidden states (e.g., Sunny, Rainy) and 2 observables
model = hmm.CategoricalHMM(n_components=2, random_state=42)
model.startprob_ = np.array([0.6, 0.4])  # Initial state probabilities
model.transmat_ = np.array([[0.7, 0.3], [0.4, 0.6]])  # Transition matrix
model.emissionprob_ = np.array([[0.9, 0.1], [0.2, 0.8]])  # Emission matrix

# Predict the most likely hidden states for a sequence of observations
logprob, predicted_states = model.decode(np.array([[0, 1, 0]]).T)
print(f"Predicted sequence of hidden states: {predicted_states}")

Aplicações no Mundo Real

Os HMM foram fundamentais para o desenvolvimento dos primeiros sistemas de IA e continuam a ser utilizados nos casos em que a interpretabilidade e o raciocínio probabilístico são necessários. e o raciocínio probabilístico são necessários.

  1. Reconhecimento de fala: Antes do aparecimento das redes neuronais profundas, os HMM eram a norma para converter a linguagem falada em texto. Neste Neste contexto, os estados ocultos representam fonemas (unidades distintas de som) e as saídas observáveis são os sinais acústicos sinais acústicos ou caraterísticas derivadas do áudio. O modelo infere a sequência de fonemas que melhor explica a entrada de áudio. áudio. Para um mergulho mais profundo, a Sociedade de Processamento de Sinais do IEEE oferece recursos abrangentes sobre esses métodos históricos.
  2. Bioinformática e Genómica: Os HMMs são amplamente utilizados para analisar sequências biológicas, como o ADN. A Uma aplicação clássica é a descoberta de genes, em que os estados ocultos correspondem a regiões funcionais de um genoma (como exões, intrões ou regiões intergénicas) e as observações são as sequências de nucleótidos (A, C, G, T). Ferramentas como o GENSCAN utilizam HMMs para prever a estrutura dos genes numa sequência de ADN com elevada precisão.

Comparação com Conceitos Relacionados

Os HMMs são frequentemente comparados com outras técnicas de modelação de sequências, embora difiram significativamente em termos de estrutura e capacidade:

  • Processo de Decisão de Markov (MDP): Embora ambos se baseiem na propriedade de Markov, os MDP são utilizados em Aprendizagem por reforço, em que os estados são totalmente observáveis, e o objetivo é tomar decisões (acções) para maximizar uma recompensa. Os HMMs, pelo contrário, lidam com inferência passiva em que os estados estão ocultos.
  • Redes Neuronais Recorrentes (RNN) e LSTM: As redes RNN e as redes de memória de curto prazo são modelos de aprendizagem profunda que captam dependências complexas e não lineares complexas e não lineares nos dados. Ao contrário dos HMMs, que são limitados pelo histórico fixo do pressuposto de Markov, os LSTMs podem aprender o contexto de longo alcance. contexto. A pesquisa do DeepMind frequentemente destaca como essas abordagens neurais abordagens neurais substituíram os HMMs em tarefas complexas como a tradução.

Modelos modernos de visão por computador, tais como Ultralytics YOLO11, utilizam Redes Neuronais Convolucionais (CNN) e Transformadores avançados em vez de HMMs para tarefas como deteção de objectos e deteção de objectos e segmentação de instâncias. No entanto, os HMM continuam a ser um conceito valioso para compreender os fundamentos estatísticos da aprendizagem automática (ML).

Junte-se à comunidade Ultralytics

Junte-se ao futuro da IA. Conecte-se, colabore e cresça com inovadores globais

Junte-se agora