Yolo Vision Shenzhen
Shenzhen
Únete ahora
Glosario

Modelo oculto de Márkov (HMM)

Descubra los modelos ocultos de Markov (HMM), sus principios, aplicaciones en el reconocimiento de voz, la bioinformática y la IA, y cómo infieren estados ocultos.

Un modelo oculto de Markov (HMM) es un modelo estadístico de IA utilizado para describir probabilísticos en los que los estados internos no son directamente observables (ocultos), sino que pueden deducirse a través de una secuencia de eventos observables. eventos observables. Los HMM son especialmente eficaces para análisis de series temporales y datos secuenciales, se basan en el supuesto de Markov: la probabilidad de un estado futuro depende sólo del estado actual, no de los acontecimientos que lo precedieron. eventos que lo precedieron. Este marco ha hecho de los HMM una herramienta fundamental en campos como procesamiento del lenguaje natural (PLN) la bioinformática y el procesamiento del habla.

Cómo funcionan los modelos ocultos de Márkov

Un HMM modela un proceso como un sistema que realiza transiciones entre estados ocultos a lo largo del tiempo, emitiendo salidas observables en cada paso. observables en cada paso. El modelo se define mediante tres conjuntos principales de probabilidades:

  • Probabilidades de transición: La probabilidad de pasar de un estado oculto a otro (por ejemplo, de un estado meteorológico "Soleado" a "Lluvioso"). "soleado" a "lluvioso").
  • Probabilidades de emisión: La probabilidad de observar una salida específica dado el estado oculto actual (por ejemplo, ver un "Paraguas" cuando el estado es "Lluvia"). (por ejemplo, ver un "paraguas" cuando el estado es "lluvioso").
  • Probabilidades iniciales: La distribución de probabilidad del estado inicial.

Dos algoritmos clave son fundamentales para utilizar los HMM. El algoritmo El algoritmo de Viterbi se utiliza para la descodificación, determinando la secuencia más probable de estados ocultos que produjeron una secuencia dada de observaciones. secuencia más probable de estados ocultos que produjo una secuencia dada de observaciones. Para aprender los parámetros modelo a partir de los datos de Baum-Welch, un tipo de método de de maximización de expectativas (EM).

Mientras que los modernos Aprendizaje Profundo (DL) marcos como PyTorch hoy en día, la comprensión de los HMM proporciona una visión crítica del modelado probabilístico. El siguiente ejemplo Python utiliza el hmmlearn para demostrar una sencilla predicción de estado:

# pip install hmmlearn
import numpy as np
from hmmlearn import hmm

# Define an HMM with 2 hidden states (e.g., Sunny, Rainy) and 2 observables
model = hmm.CategoricalHMM(n_components=2, random_state=42)
model.startprob_ = np.array([0.6, 0.4])  # Initial state probabilities
model.transmat_ = np.array([[0.7, 0.3], [0.4, 0.6]])  # Transition matrix
model.emissionprob_ = np.array([[0.9, 0.1], [0.2, 0.8]])  # Emission matrix

# Predict the most likely hidden states for a sequence of observations
logprob, predicted_states = model.decode(np.array([[0, 1, 0]]).T)
print(f"Predicted sequence of hidden states: {predicted_states}")

Aplicaciones en el mundo real

Los HMM han desempeñado un papel decisivo en el desarrollo de los primeros sistemas de IA y siguen utilizándose cuando se requiere interpretabilidad y razonamiento probabilístico. razonamiento probabilístico.

  1. Reconocimiento de voz: Antes de la aparición de las redes neuronales profundas, los HMM eran el estándar para convertir el lenguaje hablado en texto. En este En este contexto, los estados ocultos representan fonemas (unidades distintas de sonido) y las salidas observables son las señales acústicas o las características derivadas del audio. acústicas o características derivadas del audio. El modelo deduce la secuencia de fonemas que mejor explica la entrada de audio. audio. Para profundizar más, la Sociedad de Procesamiento de Señales del IEEE ofrece amplios recursos sobre estos métodos históricos.
  2. Bioinformática y genómica: los HMM se utilizan ampliamente para analizar secuencias biológicas, como el ADN. A Una aplicación clásica es la búsqueda de genes, en la que los estados ocultos corresponden a regiones funcionales de un genoma (como exones, intrones o regiones intergénicas) y las observaciones son las secuencias de nucleótidos (A, C, G, T). Herramientas como GENSCAN utilizan HMM para predecir la estructura de los genes dentro de una secuencia de precisión.

Comparación con conceptos relacionados

Los HMM se comparan a menudo con otras técnicas de modelado de secuencias, aunque difieren significativamente en estructura y capacidad:

  • Proceso de decisión de Markov (MDP): Aunque ambos se basan en la propiedad de Markov, los MDP se utilizan en aprendizaje por refuerzo, en el que los estados son totalmente observables, y el objetivo es tomar decisiones (acciones) para maximizar una recompensa. Por el contrario, los HMM inferencia pasiva en la que los estados están ocultos.
  • Redes neuronales recurrentes (RNN) y LSTM: Las RNN y las redes de memoria a largo plazo son modelos de aprendizaje profundo que capturan dependencias complejas y no lineales en los datos. en los datos. A diferencia de los HMM, que están limitados por la historia fija del supuesto de Markov, los LSTM pueden aprender el contexto de largo alcance. de largo alcance. La investigación de DeepMind destaca a menudo cómo estos enfoques neurales neurales han sustituido a los HMM en tareas complejas como la traducción.

Modelos modernos de visión por ordenador, como Ultralytics YOLO11, utilizan redes neuronales convolucionales (CNN) avanzadas y transformadores en lugar de HMM para tareas como la detección de objetos y segmentación de instancias. Sin embargo, los HMM siguen siendo un concepto valioso para comprender los fundamentos estadísticos del aprendizaje automático (AM).

Únase a la comunidad Ultralytics

Únete al futuro de la IA. Conecta, colabora y crece con innovadores de todo el mundo

Únete ahora