Erfahren Sie, wie die Aufgabenarithmetik Gewichtsaktualisierungen nutzt, um das Modellverhalten anzupassen. Lernen Sie, wie Sie in Ultralytics Aufgaben zusammenführen oder Merkmale „verlernen“ können, ohne das Modell komplett neu zu trainieren.
Die Aufgabenarithmetik ist eine fortschrittliche Technik des maschinellen Lernens, bei der das Verhalten vortrainierter neuronaler Netze durch Hinzufügen oder Weglassen bestimmter Gewichtsaktualisierungen verändert wird. Anstatt ein Modell von Grund auf neu zu trainieren, können Praktiker die erlernten Unterschiede zwischen einem Basismodell und einem feinabgestimmten Modell isolieren. Diese Unterschiede sind im Wesentlichen gerichtete Aktualisierungen, die eine bestimmte Fähigkeit oder ein bestimmtes Verhalten verkörpern. Durch die Anwendung grundlegender mathematischer Operationen wie Addition und Subtraktion auf diese Aktualisierungen können Entwickler Deep-Learning-Systeme dynamisch bearbeiten. Dieses Paradigma hat in der jüngsten arXiv-Forschung zur Aufgabenarithmetik erheblich an Bedeutung gewonnen und bietet eine ressourcenschonende, recheneffiziente Methode, um groß angelegte Modelle an neue Anforderungen anzupassen.
Die Grundlage dieser Technik besteht in der Berechnung der Differenz der Modellgewichte zwischen einem vortrainierten Basismodell und einer Version, die anhand eines bestimmten Datensatzes feinabgestimmt wurde. Diese isolierte Differenz wird zu einer lokalisierten Darstellung der neuen Fähigkeit. Durch diedirekte Manipulation PyTorch oder die Nutzung TensorFlow können Entwickler diese Gewichtsunterschiede skalieren und kombinieren. Beispielsweise kann das Subtrahieren einer bestimmten Gewichtsaktualisierung ein Modell dazu zwingen, ein erlerntes Verhalten zu „vergessen“ – ein Konzept, das in Anthropic zur Modellsicherheit intensiv untersucht wurde.
Die Aufgabenarithmetik ermöglicht mehrere hocheffiziente Arbeitsabläufe in modernen Computer-Vision- und Natursprachverarbeitungs- Pipelines:
Beim Durchstöbern der IEEE Xplore-Archive oder der ACM Digital Library kann es leicht passieren, dass man die Aufgabenarithmetik mit verwandten Methoden verwechselt:
Die Anwendung dieser Strategien zur Modelloptimierung in der Praxis erfordert eine sorgfältige Verwaltung des internen Zustands des Modells. Im Folgenden finden Sie ein Beispiel für die Berechnung und Anwendung einer Aktualisierung mit PyTorch, einer Technik, die in aktuellen Fachartikeln zum Thema Computer Vision häufig behandelt wird.
import torch
# Load the state dictionaries of the pre-trained base and fine-tuned models
base_weights = torch.load("yolo26_base.pt")
tuned_weights = torch.load("yolo26_tuned.pt")
# Calculate the task vector and add it back to the base model with a scaling factor
scaling_factor = 0.5
for key in base_weights.keys():
task_vector = tuned_weights[key] - base_weights[key]
base_weights[key] += scaling_factor * task_vector
Für Teams, die komplexe Datenannotations-Pipelines und mehrere feinabgestimmte Modellversionen verwalten, bietet die Ultralytics eine optimierte Umgebung zur Überwachung des Cloud-Trainings und der nahtlosen Bereitstellung, wodurch die Verwaltung iterativer Modellverbesserungen deutlich effizienter wird.
Beginnen Sie Ihre Reise mit der Zukunft des maschinellen Lernens