Connectez-vous à YOLO Vision 2025 !
25 septembre 2025
10:00 — 18:00, heure d'été britannique
Événement hybride
Yolo Vision 2024
Glossaire

Modèle de Markov caché (HMM)

Découvrez les modèles de Markov cachés (HMM), leurs principes, leurs applications dans la reconnaissance vocale, la bio-informatique et l'IA, et comment ils déduisent les états cachés.

Un modèle de Markov caché (HMM) est un type de modèle d'IA statistique utilisé pour analyser des données séquentielles où le système sous-jacent est supposé être un processus de Markov avec des états non observés (cachés). L'idée principale est de faire des inférences sur une séquence d'états cachés en se basant sur une séquence de sorties observables. Les HMM sont basés sur la propriété de Markov, qui stipule que la probabilité d'un état futur dépend uniquement de l'état actuel, et non de l'ensemble de l'historique des états. Cela fait des HMM un outil puissant pour les tâches dans des domaines tels que le traitement du langage naturel (NLP) et la bioinformatique.

Fonctionnement des modèles de Markov cachés

Un HMM est constitué de plusieurs composants clés qui fonctionnent ensemble pour modéliser des données séquentielles :

  • États cachés : Ce sont les états non observables du système que le modèle essaie de déduire. Par exemple, dans les prévisions météorologiques, les états cachés pourraient être "Ensoleillé", "Nuageux" ou "Pluvieux".
  • Sorties observables (émissions) : Ce sont les points de données visibles que chaque état caché peut produire. En suivant l'exemple de la météo, les observations pourraient être "Température élevée", "Température basse" ou "Humidité élevée".
  • Probabilités de transition : Ces probabilités régissent la probabilité de passer d’un état caché à un autre. Par exemple, il existe une certaine probabilité qu’une journée « Ensoleillée » soit suivie d’une journée « Nuageuse ».
  • Probabilités d'émission : Ces probabilités représentent la vraisemblance d'observer une sortie particulière étant donné que le système est dans un état caché spécifique. Par exemple, la probabilité d'observer une "Humidité élevée" est probablement plus forte si l'état caché est "Pluvieux".

Pour faire des prédictions, les HMM utilisent des algorithmes établis. L'algorithme de Viterbi est couramment utilisé pour trouver la séquence d'états cachés la plus probable étant donné une séquence d'observations. Pour entraîner le modèle et apprendre ses distributions de probabilité à partir des données d'entraînement, l'algorithme de Baum-Welch est souvent utilisé.

Applications concrètes

Les HMM ont été appliqués avec succès dans divers domaines pendant des décennies. Voici quelques exemples importants :

  1. Reconnaissance vocale : Dans les systèmes classiques de reconnaissance vocale, les HMM ont joué un rôle déterminant. Les états cachés correspondent aux phonèmes (les unités de base du son dans une langue), et les sorties observables sont des caractéristiques acoustiques extraites de la parole enregistrée. La tâche du HMM est de déterminer la séquence de phonèmes la plus probable à partir du signal audio, qui est ensuite utilisée pour identifier les mots prononcés.
  2. Bio-informatique : Les HMM sont une pierre angulaire de la biologie computationnelle, en particulier pour la recherche de gènes. Dans ce contexte, les états cachés peuvent représenter des parties d'un gène, comme un « exon » (région codante) ou un « intron » (région non codante), tandis que les observations sont la séquence de bases d'ADN (A, C, G, T). En analysant une longue séquence d'ADN, un HMM peut identifier les emplacements les plus probables des gènes. Le National Center for Biotechnology Information (NCBI) détaille ces méthodes.

Comparaison avec des concepts connexes

Il est important de distinguer les HMM des autres modèles de séquence :

Bien que les nouvelles méthodes d'apprentissage profond atteignent souvent des résultats de pointe, les HMM restent précieux pour leur interprétabilité (états et probabilités explicites) et leur efficacité, en particulier lorsque les données d'entraînement sont limitées ou que les connaissances du domaine peuvent être intégrées dans la structure du modèle. La compréhension des concepts fondamentaux comme les HMM fournit un contexte précieux dans le paysage plus large du ML, même lors de l'utilisation de plateformes comme Ultralytics HUB qui facilitent principalement le développement et le déploiement de modèles DL comme YOLOv8 ou YOLO11.

Rejoignez la communauté Ultralytics

Rejoignez le futur de l'IA. Connectez-vous, collaborez et évoluez avec des innovateurs mondiaux.

Rejoindre maintenant
Lien copié dans le presse-papiers