Yolo Vision Shenzhen
Shenzhen
Rejoindre maintenant
Glossaire

Modèle de Markov caché (HMM)

Découvrez les modèles de Markov cachés (HMM), leurs principes, leurs applications dans la reconnaissance vocale, la bio-informatique et l'IA, et comment ils déduisent les états cachés.

Un modèle de Markov caché (HMM) est un modèle statistique d'intelligence artificielle utilisé pour décrire les probabilités. modèle statistique d'IA utilisé pour décrire des systèmes probabilistes dont les états internes ne sont pas directement observables (cachés) mais peuvent être déduits d'une séquence d'événements observables. événements observables. Les HMM sont particulièrement efficaces pour l'analyse de séries temporelles et de données séquentielles, sur l'hypothèse de Markov : la probabilité d'un état futur ne dépend que de l'état actuel, et non des événements qui l'ont précédé. événements qui l'ont précédé. Ce cadre a fait des HMM un outil fondamental dans des domaines tels que le traitement du langage naturel (NLP) la bio-informatique et le traitement de la parole.

Fonctionnement des modèles de Markov cachés

Un HMM modélise un processus comme un système qui passe d'un état caché à un autre au fil du temps, en émettant des sorties observables à chaque étape. observables à chaque étape. Le modèle est défini par trois ensembles primaires de probabilités :

  • Probabilités de transition: La probabilité de passer d'un état caché à un autre (par exemple, d'un état météorologique "ensoleillé" à un état "pluvieux"). d'un état météorologique "ensoleillé" à un état "pluvieux").
  • Probabilités d'émission: La probabilité d'observer une sortie spécifique compte tenu de l'état caché actuel (par exemple, voir un "parapluie" lorsque l'état est "pluvieux"). (par exemple, voir un "parapluie" lorsque l'état est "pluvieux").
  • Probabilités initiales: La distribution de probabilité de l'état initial.

Deux algorithmes clés sont essentiels à l'utilisation des HMM. L'algorithme de L'algorithme de Viterbi est utilisé pour le décodage, en déterminant la séquence d'états cachés la plus probable qui a produit une séquence donnée d'observations. séquence la plus probable d'états cachés ayant produit une séquence donnée d'observations. Pour l'apprentissage des paramètres du modèle à partir de données d'apprentissage, l'algorithme algorithme de Baum-Welch, un type de méthode d'espérance-maximisation (EM). l'algorithme de Baum-Welch, un type de méthode de maximisation de l'espérance (EM), est couramment utilisé.

Alors que les Apprentissage profond (Deep Learning - DL) des cadres tels que PyTorch souvent des tâches séquentielles aujourd'hui, la compréhension des HMM fournit un aperçu critique de la modélisation probabiliste. L'exemple Python suivant utilise l'outil hmmlearn pour faire la démonstration d'une prédiction d'état simple :

# pip install hmmlearn
import numpy as np
from hmmlearn import hmm

# Define an HMM with 2 hidden states (e.g., Sunny, Rainy) and 2 observables
model = hmm.CategoricalHMM(n_components=2, random_state=42)
model.startprob_ = np.array([0.6, 0.4])  # Initial state probabilities
model.transmat_ = np.array([[0.7, 0.3], [0.4, 0.6]])  # Transition matrix
model.emissionprob_ = np.array([[0.9, 0.1], [0.2, 0.8]])  # Emission matrix

# Predict the most likely hidden states for a sequence of observations
logprob, predicted_states = model.decode(np.array([[0, 1, 0]]).T)
print(f"Predicted sequence of hidden states: {predicted_states}")

Applications concrètes

Les HMM ont joué un rôle déterminant dans le développement des premiers systèmes d'intelligence artificielle et continuent d'être utilisés lorsque l'interprétabilité et le raisonnement probabiliste sont nécessaires. raisonnement probabiliste sont nécessaires.

  1. Reconnaissance de la parole: Avant l'apparition des réseaux neuronaux profonds, les HMM étaient la norme pour convertir la langue parlée en texte. Dans ce contexte, les états cachés Dans ce contexte, les états cachés représentent les phonèmes (unités distinctes de son) et les sorties observables sont les signaux acoustiques ou les caractéristiques dérivées de l'audio. acoustiques ou les caractéristiques dérivées de l'audio. Le modèle déduit la séquence de phonèmes qui explique le mieux l'entrée audio. audio. Pour aller plus loin, la IEEE Signal Processing Society propose des ressources complètes sur ces méthodes historiques.
  2. Bioinformatique et génomique: les HMM sont largement utilisés pour analyser les séquences biologiques, telles que l'ADN. A classique est la recherche de gènes, où les états cachés correspondent à des régions fonctionnelles d'un génome (comme exons, introns ou régions intergéniques) et les observations sont les séquences de nucléotides (A, C, G, T). Des outils comme GENSCAN utilisent les HMM pour prédire la structure des la structure des gènes au sein d'une séquence d'ADN avec une précision.

Comparaison avec des concepts connexes

Les HMM sont souvent comparés à d'autres techniques de modélisation des séquences, bien qu'ils diffèrent considérablement en termes de structure et de capacité. capacité :

  • Processus de décision de Markov (PDM): Bien que les deux reposent sur la propriété de Markov, les MDP sont utilisés dans les domaines suivants l'apprentissage par renforcement où les états sont entièrement observables et que l'objectif est de prendre des décisions (actions) pour maximiser une récompense. Les HMM, à l'inverse, traitent de l'inférence passive où les états sont cachés. l'inférence passive où les états sont cachés.
  • Réseaux neuronaux récurrents (RNN) et LSTM: les RNN et les réseaux de mémoire à long terme sont des modèles d'apprentissage profond qui capturent des dépendances complexes et non linéaires dans les données. non linéaires dans les données. Contrairement aux HMM, qui sont limités par l'historique fixe de l'hypothèse de Markov, les LSTM peuvent apprendre le contexte à long terme. à long terme. Les recherches de DeepMind mettent souvent en évidence la façon dont ces approches neuronales ont supplanté les HMM. ont supplanté les HMM pour des tâches complexes telles que la traduction.

Les modèles modernes de vision par ordinateur, tels que Ultralytics YOLO11, utilisent des réseaux neuronaux convolutionnels (CNN) avancés et des transformateurs plutôt que des HMM pour des tâches telles que la détection d'objets et détection d'objets et la segmentation d'instances. Cependant, les HMM restent un concept concept précieux pour comprendre les fondements statistiques de l'apprentissage l 'apprentissage automatique (ML).

Rejoindre la communauté Ultralytics

Rejoignez le futur de l'IA. Connectez-vous, collaborez et évoluez avec des innovateurs mondiaux.

Rejoindre maintenant