Yolo Vision Shenzhen
Shenzhen
Jetzt beitreten
Glossar

Hidden Markov Model (HMM)

Entdecken Sie Hidden Markov Models (HMMs), ihre Prinzipien, Anwendungen in der Spracherkennung, Bioinformatik & KI und wie sie verborgene Zustände ableiten.

Ein Hidden Markov Model (HMM) ist ein statistisches AI-Modell, das zur Beschreibung probabilistischer Systeme zu beschreiben, bei denen die internen Zustände nicht direkt beobachtbar (versteckt) sind, sondern aus einer Abfolge von beobachtbaren Ereignissen abgeleitet werden können. HMMs sind besonders effektiv für Zeitreihenanalyse und sequenzielle Daten, Sie stützen sich auf die Markov-Annahme: Die Wahrscheinlichkeit eines zukünftigen Zustands hängt nur vom aktuellen Zustand ab, nicht von den Ereignisse, die ihm vorausgingen. Dieser Rahmen hat HMMs zu einem grundlegenden Werkzeug in Bereichen wie Natürliche Sprachverarbeitung (NLP), Bioinformatik und Sprachverarbeitung gemacht.

Wie Hidden-Markov-Modelle funktionieren

Ein HMM modelliert einen Prozess als ein System, das im Laufe der Zeit zwischen verborgenen Zuständen wechselt und bei jedem Schritt beobachtbare Ausgaben erzeugt. jedem Schritt. Das Modell wird durch drei primäre Sätze von Wahrscheinlichkeiten definiert:

  • Übergangswahrscheinlichkeiten: Die Wahrscheinlichkeit des Übergangs von einem verborgenen Zustand zu einem anderen (z. B. von einem Wetterzustand "sonnig" zu "regnerisch").
  • Emissionswahrscheinlichkeiten: Die Wahrscheinlichkeit, eine bestimmte Ausgabe zu beobachten, wenn der aktuelle verborgene Zustandes (z. B. einen "Regenschirm" zu sehen, wenn der Zustand "regnerisch" ist).
  • Anfangswahrscheinlichkeiten: Die Wahrscheinlichkeitsverteilung des Ausgangszustands.

Zwei Schlüsselalgorithmen sind für die Verwendung von HMMs von zentraler Bedeutung. Der Viterbi-Algorithmus wird für die Dekodierung verwendet und bestimmt die die wahrscheinlichste Abfolge von verborgenen Zuständen, die eine gegebene Abfolge von Beobachtungen erzeugt hat. Für das Lernen der Modell Parametern aus Trainingsdaten wird der Baum-Welch-Algorithmus, eine Art von Expectation-Maximization (EM)-Methode, verwendet.

Während moderne Deep Learning (DL) Rahmenwerke wie PyTorch heute häufig Sequenzaufgaben bewältigen, bietet das Verständnis HMMs einen entscheidenden Einblick in die probabilistische Modellierung. Das folgende Python verwendet die hmmlearn Bibliothek, um eine einfache Zustandsvorhersage zu demonstrieren:

# pip install hmmlearn
import numpy as np
from hmmlearn import hmm

# Define an HMM with 2 hidden states (e.g., Sunny, Rainy) and 2 observables
model = hmm.CategoricalHMM(n_components=2, random_state=42)
model.startprob_ = np.array([0.6, 0.4])  # Initial state probabilities
model.transmat_ = np.array([[0.7, 0.3], [0.4, 0.6]])  # Transition matrix
model.emissionprob_ = np.array([[0.9, 0.1], [0.2, 0.8]])  # Emission matrix

# Predict the most likely hidden states for a sequence of observations
logprob, predicted_states = model.decode(np.array([[0, 1, 0]]).T)
print(f"Predicted sequence of hidden states: {predicted_states}")

Anwendungsfälle in der Praxis

HMMs haben bei der Entwicklung früher KI-Systeme eine wichtige Rolle gespielt und werden weiterhin eingesetzt, wenn Interpretierbarkeit und probabilistische Schlussfolgerungen erforderlich sind.

  1. Erkennung von Sprache: Vor dem Aufkommen der tiefen neuronalen Netze waren HMMs der Standard für die Umwandlung von gesprochener Sprache in Text. In diesem In diesem Zusammenhang stellen die verborgenen Zustände Phoneme (einzelne Lauteinheiten) dar, und die beobachtbaren Ausgaben sind die akustischen Signale oder Merkmale, die aus den Audiodaten abgeleitet werden. Das Modell schlussfolgert die Phonemfolge, die den Audio-Input am besten erklärt. Eingabe erklärt. Für einen tieferen Einblick bietet die IEEE Signal Processing Society bietet umfangreiche Ressourcen zu diesen historischen Methoden.
  2. Bioinformatik und Genomik: HMMs werden häufig zur Analyse biologischer Sequenzen, wie z. B. der DNA, verwendet. A klassische Anwendung ist die Gensuche, bei der die verborgenen Zustände funktionalen Regionen eines Genoms entsprechen (wie Exons, Introns oder intergene Regionen) und die Beobachtungen die Nukleotidsequenzen (A, C, G, T) sind. Werkzeuge wie GENSCAN nutzen HMMs zur Vorhersage der Struktur von Genen innerhalb einer DNA-Sequenz mit hoher Genauigkeit vorherzusagen.

Vergleich mit verwandten Konzepten

HMMs werden oft mit anderen Sequenzmodellierungstechniken verglichen, obwohl sie sich in Struktur und Fähigkeiten unterscheiden:

  • Markov-Entscheidungsprozess (MDP): Während beide auf der Markov-Eigenschaft beruhen, werden MDPs verwendet in Reinforcement Learning verwendet, wo die Zustände vollständig beobachtbar sind und das Ziel darin besteht, Entscheidungen (Aktionen) zu treffen, um eine Belohnung zu maximieren. HMMs hingegen befassen sich mit passive Inferenz, bei der die Zustände verborgen sind.
  • Rekurrente neuronale Netze (RNN) und LSTM: RNNs und Long Short-Term Memory-Netzwerke sind Deep-Learning-Modelle, die komplexe, nicht-lineare Abhängigkeiten in Daten erfassen. Im Gegensatz zu HMMs, die durch die feste Historie der Markov-Annahme begrenzt sind, können LSTMs einen weitreichenden Kontext. In der Forschung von DeepMind wird häufig betont, wie diese neuronalen Ansätze die HMMs für komplexe Aufgaben wie die Übersetzung abgelöst haben.

Moderne Computer-Vision-Modelle, wie z. B. Ultralytics YOLO11, nutzen fortschrittliche Convolutional Neural Networks (CNNs) und Transformers anstelle von HMMs für Aufgaben wie Objekterkennung und Segmentierung von Instanzen. HMMs bleiben jedoch ein wertvolles Konzept für das Verständnis der statistischen Grundlagen des Maschinellen Lernens (ML).

Werden Sie Mitglied der Ultralytics

Gestalten Sie die Zukunft der KI mit. Vernetzen Sie sich, arbeiten Sie zusammen und wachsen Sie mit globalen Innovatoren

Jetzt beitreten