Optimieren Sie Ihre Workflows für maschinelles Lernen mit Weights & Biases. Verfolgen, visualisieren und arbeiten Sie gemeinsam an Experimenten für eine schnellere, reproduzierbare KI-Entwicklung.
Weights & Biases (oft abgekürzt als W&B oder WandB) ist eine prominente Plattform, die von Entwicklern entwickelt wurde, um zu rationalisieren. Operationen des maschinellen Lernens (MLOps). Sie dient als zentralisiertes System für Ingenieure und Wissenschaftler im Bereich des maschinellen Lernens und ermöglicht es ihnen Experimente track , die Modellleistung zu visualisieren und Datensätze zu verwalten. In dem komplexen Lebenszyklus von maschinellen Lernens (ML) ist es schwierig track jede W&B löst dieses Problem, indem es automatisch Metriken protokolliert und sie in interaktiven Dashboards organisiert. in interaktiven Dashboards. So können Teams verschiedene Trainingsläufe vergleichen, die Reproduzierbarkeit sicherstellen und effektiv an Projekten zusammenarbeiten, die von der akademischen Forschung bis hin zu unternehmensweiten Computer Vision (CV)-Einsätzen.
Um das Tool zu verstehen, ist es wichtig, es von den grundlegenden neuronalen Netzwerken (NN) zu unterscheiden, nach denen es benannt ist.
Während die Parameterweights and biases) die mathematischen Komponenten sind, die während des Trainings mittels stochastischen Gradientenabstieg (SGD) optimiert werden, ist die PlattformWeights & Biases) das Dienstprogramm, mit dem dieser Optimierungsprozess beobachtet und analysiert werden kann.
Die W&B-Plattform bietet eine Reihe von Werkzeugen, die auf spezifische Herausforderungen bei der Entwicklung künstlicher Intelligenz (KI) Arbeitsablauf.
Weights & Biases wird in vielen Branchen eingesetzt, in denen eine strenge Modellvalidierung und kooperative Entwicklung erforderlich ist.
Integration von Weights & Biases mit modernen Frameworks wie PyTorch oder speziellen Bibliotheken wie Ultralytics ist unkompliziert. Die Bibliothek erkennt automatisch das Vorhandensein von W&B und protokolliert wichtige Metriken ohne umfangreichen Kesselstein-Code.
Das folgende Beispiel zeigt, wie man ein YOLO11 trainiert und dabei den Lauf automatisch in Weights &
Verzerrungen. Stellen Sie sicher, dass Sie die Funktion pip install wandb und authentifiziert über wandb login in Ihrem
Terminal ein, bevor Sie das Skript ausführen.
from ultralytics import YOLO
# Initialize the YOLO11 model using pre-trained weights
model = YOLO("yolo11n.pt")
# Train the model on the COCO8 dataset
# If 'wandb' is installed and logged in, training metrics are automatically
# uploaded to the Weights & Biases dashboard.
results = model.train(data="coco8.yaml", epochs=5, project="Ultralytics-WandB-Demo", name="yolo11-experiment")
Diese Integration erfasst Systemmetriken wie z. B. GPU Nutzung und Modellmetriken, um einen umfassenden Überblick über die Trainingsleistung zu erhalten. Um tiefere Einblicke zu erhalten, können die Benutzer die Ultralytics erforschen, um anzupassen was protokolliert wird.