Glossar

Modell Gewichte

Entdecken Sie die Bedeutung von Modellgewichten beim maschinellen Lernen, ihre Rolle bei Vorhersagen und wie Ultralytics YOLO ihre Verwendung für KI-Aufgaben vereinfacht.

Modellgewichte sind die numerischen Parameter innerhalb eines neuronalen Netzes, die während des Trainingsprozesses angepasst werden. Diese Werte stellen im Wesentlichen das erlernte Wissen eines Modells dar. Man kann sie sich als die Koeffizienten in einer sehr komplexen Gleichung vorstellen. Durch die Einstellung dieser Koeffizienten lernt das Modell, Eingabedaten, wie z. B. ein Bild, auf eine gewünschte Ausgabe, wie z. B. eine Bounding Box um ein Objekt, abzubilden. Die Qualität der Gewichte eines Modells bestimmt direkt seine Leistung bei einer bestimmten Aufgabe, z. B. der Bildklassifizierung oder Objekterkennung.

Wie die Gewichte bestimmt werden

Die Modellgewichte werden nicht manuell festgelegt, sondern aus den Daten "gelernt". Der Prozess beginnt mit der Initialisierung der Gewichte mit kleinen Zufallszahlen. Während des Trainings macht das Modell Vorhersagen zu den Trainingsdaten, und eine Verlustfunktion berechnet, wie falsch diese Vorhersagen sind. Dieses Fehlersignal wird dann in einem Prozess namens Backpropagation verwendet, um den Gradienten des Verlusts in Bezug auf jedes Gewicht zu berechnen. Ein Optimierungsalgorithmus, wie z. B. Stochastic Gradient Descent (SGD), passt dann die Gewichte in der entgegengesetzten Richtung des Gradienten an, um den Fehler zu minimieren. Dieser Zyklus wird für viele Epochen wiederholt, bis sich die Leistung des Modells auf einem separaten Validierungsdatensatz nicht mehr verbessert, was ein Zeichen dafür ist, dass es die Muster in den Daten gelernt hat.

Die Wichtigkeit von vortrainierten Gewichten

Um ein hochmodernes Modell von Grund auf zu trainieren, sind immense Rechenressourcen und riesige Datensätze erforderlich. Um dies zu überwinden, verwendet die Computer-Vision-Gemeinschaft häufig vortrainierte Gewichte. Dabei wird ein Modell, wie das Ultralytics YOLO-Modell, verwendet, das bereits auf einem großen, allgemeinen Datensatz wie COCO trainiert wurde. Diese Gewichte dienen als hervorragender Ausgangspunkt für eine neue, spezifische Aufgabe durch einen Prozess, der als Transferlernen bezeichnet wird. Indem Sie mit vortrainierten Gewichten beginnen, können Sie mit weniger Daten und kürzeren Trainingszeiten eine höhere Genauigkeit erreichen, was als Feinabstimmung bezeichnet wird.

Anwendungen in der realen Welt

  • Medizinische Bildanalyse: Ein Entwickler kann ein YOLOv8-Modell mit seinen vortrainierten Gewichten nehmen und es an einem benutzerdefinierten Datensatz von Hirntumor-Scans feinabstimmen. Das daraus resultierende Modell verfügt über Gewichte, die speziell für die Erkennung der subtilen Muster von Tumoren optimiert sind und Radiologen bei der Diagnose unterstützen. Dies ist eine wichtige Anwendung von KI im Gesundheitswesen.
  • Bestandsmanagement im Einzelhandel: Ein Einzelhandelsunternehmen kann ein Modell verwenden, um Regale zu überwachen und Produkte zu zählen. Ein Objekterkennungsmodell wird anhand von Bildern der Produkte des Geschäfts feinabgestimmt. Die endgültige Gewichtung ermöglicht es dem Modell, bestimmte Artikel für die automatische Bestandsverfolgung genau zu erkennen und zu zählen.

Gewichte vs. verwandte Konzepte

Es ist wichtig, die Modellgewichte von anderen verwandten Begriffen des maschinellen Lernens zu unterscheiden:

  • Hyperparameter: Im Gegensatz zu den Gewichten, die gelernt werden, werden die Hyperparameter vor Beginn des Trainings konfiguriert. Beispiele hierfür sind die Lernrate, die Stapelgröße und die Wahl des Optimierers. Der Prozess der Suche nach der besten Hyperparameterkonfiguration wird als Hyperparameter-Tuning bezeichnet.
  • Verzerrungen: Gewichte und Verzerrungen sind beides gelernte Parameter. Allerdings skalieren die Gewichte die Ausgabe eines Neurons, während ein Bias-Term sie verschiebt. Zusammen geben sie einem neuronalen Netz die Flexibilität, sich den Daten anzupassen.
  • Modellarchitektur: Die Architektur (z. B. das Backbone oder der Detektionskopf) ist der Bauplan des Modells - sie definiert die Schichten und wie sie miteinander verbunden sind. Die Gewichte sind die Werte innerhalb dieser Struktur. Dieselbe Architektur kann zahllose verschiedene Gewichtungssätze haben, je nachdem, wie sie trainiert wurde. Sie können verschiedene Modellvergleiche durchführen, um zu sehen, wie sich die Architekturen unterscheiden.

Verwaltung und Verfolgung von Gewichten

Da die Modelle immer komplexer werden, ist die Verwaltung ihrer Gewichte und der Experimente, die sie erzeugen, für die Reproduzierbarkeit und die Zusammenarbeit von entscheidender Bedeutung. Tools wie Weights & Biases (W&B) bieten eine Plattform speziell für MLOps, mit der Teams Hyperparameter, Metriken, Codeversionen und die resultierenden Modellgewichte für jedes Experiment verfolgen können. Es ist wichtig anzumerken, dass sich die Plattform "Gewichte & Verzerrungen" von den Konzepten der "Gewichte" und "Verzerrungen" als Parameter innerhalb eines neuronalen Netzes unterscheidet; die Plattform hilft, den Prozess der Suche nach optimalen Gewichten und Verzerrungen zu verwalten. Mehr über die Integration von Ultralytics mit W&B erfahren Sie in der Dokumentation. Effizientes Management ist der Schlüssel für Aufgaben, die von der Abstimmung der Hyperparameter bis zum Einsatz von Modellen mit Frameworks wie PyTorch oder TensorFlow reichen. Plattformen wie Ultralytics HUB bieten auch integrierte Lösungen für die Verwaltung des gesamten Modelllebenszyklus.

Werden Sie Mitglied der Ultralytics-Gemeinschaft

Beteiligen Sie sich an der Zukunft der KI. Vernetzen Sie sich, arbeiten Sie zusammen und wachsen Sie mit globalen Innovatoren

Jetzt beitreten
Link in die Zwischenablage kopiert