Schalten Sie ein zu YOLO Vision 2025!
25. September 2025
10:00 — 18:00 Uhr BST
Hybride Veranstaltung
Yolo Vision 2024
Glossar

Hidden Markov Model (HMM)

Entdecken Sie Hidden Markov Models (HMMs), ihre Prinzipien, Anwendungen in der Spracherkennung, Bioinformatik & KI und wie sie verborgene Zustände ableiten.

Ein Hidden Markov Model (HMM) ist eine Art statistisches KI-Modell, das zur Analyse sequenzieller Daten verwendet wird, bei denen davon ausgegangen wird, dass das zugrunde liegende System ein Markov-Prozess mit unbeobachteten (versteckten) Zuständen ist. Die Kernidee besteht darin, Schlussfolgerungen über eine Sequenz versteckter Zustände auf der Grundlage einer Sequenz beobachtbarer Ausgaben zu ziehen. HMMs basieren auf der Markov-Eigenschaft, die besagt, dass die Wahrscheinlichkeit eines zukünftigen Zustands nur vom aktuellen Zustand abhängt, nicht von der gesamten Historie der Zustände. Dies macht HMMs zu einem leistungsstarken Werkzeug für Aufgaben in Bereichen wie Natural Language Processing (NLP) und Bioinformatik.

Wie Hidden-Markov-Modelle funktionieren

Ein HMM besteht aus mehreren Schlüsselkomponenten, die zusammenarbeiten, um sequentielle Daten zu modellieren:

  • Verborgene Zustände (Hidden States): Dies sind die nicht beobachtbaren Zustände des Systems, die das Modell zu erschließen versucht. Bei der Wettervorhersage könnten die verborgenen Zustände beispielsweise "Sonnig", "Bewölkt" oder "Regnerisch" sein.
  • Beobachtbare Ausgaben (Emissionen): Dies sind die sichtbaren Datenpunkte, die jeder verborgene Zustand erzeugen kann. Am Beispiel des Wetters könnten Beobachtungen "Hohe Temperatur", "Niedrige Temperatur" oder "Hohe Luftfeuchtigkeit" sein.
  • Übergangswahrscheinlichkeiten: Diese Wahrscheinlichkeiten bestimmen die Wahrscheinlichkeit, von einem verborgenen Zustand in einen anderen zu wechseln. Zum Beispiel gibt es eine bestimmte Wahrscheinlichkeit, dass auf einen "sonnigen" Tag ein "bewölkter" Tag folgt.
  • Emissionswahrscheinlichkeiten: Diese Wahrscheinlichkeiten stellen die Wahrscheinlichkeit dar, eine bestimmte Ausgabe zu beobachten, wenn sich das System in einem bestimmten verborgenen Zustand befindet. Zum Beispiel ist die Wahrscheinlichkeit, "Hohe Luftfeuchtigkeit" zu beobachten, wahrscheinlich höher, wenn der verborgene Zustand "Regnerisch" ist.

Um Vorhersagen zu treffen, verwenden HMMs etablierte Algorithmen. Der Viterbi-Algorithmus wird häufig verwendet, um die wahrscheinlichste Sequenz verborgener Zustände angesichts einer Sequenz von Beobachtungen zu finden. Um das Modell zu trainieren und seine Wahrscheinlichkeitsverteilungen aus Trainingsdaten zu lernen, wird häufig der Baum-Welch-Algorithmus verwendet.

Anwendungsfälle in der Praxis

HMMs werden seit Jahrzehnten erfolgreich in verschiedenen Bereichen eingesetzt. Hier sind ein paar prominente Beispiele:

  1. Spracherkennung: In klassischen Spracherkennungssystemen waren HMMs von entscheidender Bedeutung. Die verborgenen Zustände entsprechen Phonemen (den Grundeinheiten des Klangs in einer Sprache), und die beobachtbaren Ausgaben sind akustische Merkmale, die aus aufgezeichneter Sprache extrahiert werden. Die Aufgabe des HMM besteht darin, die wahrscheinlichste Sequenz von Phonemen aus dem Audiosignal zu bestimmen, die dann zur Identifizierung der gesprochenen Wörter verwendet wird.
  2. Bioinformatik: HMMs sind ein Eckpfeiler der Computational Biology, insbesondere für die Gensuche. In diesem Zusammenhang könnten verborgene Zustände Teile eines Gens darstellen, wie z. B. "Exon" (kodierender Bereich) oder "Intron" (nicht-kodierender Bereich), während die Beobachtungen die Sequenz der DNA-Basen (A, C, G, T) sind. Durch die Analyse einer langen DNA-Sequenz kann ein HMM die wahrscheinlichsten Positionen von Genen identifizieren. Das National Center for Biotechnology Information (NCBI) beschreibt diese Methoden im Detail.

Vergleich mit verwandten Konzepten

Es ist wichtig, HMMs von anderen Sequenzmodellen zu unterscheiden:

Obwohl neuere Deep-Learning-Methoden oft modernste Ergebnisse erzielen, bleiben HMMs aufgrund ihrer Interpretierbarkeit (explizite Zustände und Wahrscheinlichkeiten) und Effektivität wertvoll, insbesondere wenn nur begrenzte Trainingsdaten vorhanden sind oder Domänenwissen in die Modellstruktur einbezogen werden kann. Das Verständnis grundlegender Konzepte wie HMMs bietet einen wertvollen Kontext in der breiteren ML-Landschaft, selbst bei der Verwendung von Plattformen wie Ultralytics HUB, die in erster Linie die Entwicklung und das Deployment von DL-Modellen wie YOLOv8 oder YOLO11 erleichtern.

Treten Sie der Ultralytics-Community bei

Gestalten Sie die Zukunft der KI mit. Vernetzen Sie sich, arbeiten Sie zusammen und wachsen Sie mit globalen Innovatoren

Jetzt beitreten
Link in die Zwischenablage kopiert