Schalten Sie ein zu YOLO Vision 2025!
25. September 2025
10:00 — 18:00 Uhr BST
Hybride Veranstaltung
Yolo Vision 2024
Glossar

Feinabstimmung

Feinabstimmung von Machine-Learning-Modellen wie Ultralytics YOLO für spezifische Aufgaben. Lernen Sie hier Methoden, Anwendungen und Best Practices!

Feinabstimmung ist eine Kerntechnik im maschinellen Lernen (ML), bei der ein auf einem großen, allgemeinen Datensatz vortrainiertes Modell genommen und auf einem kleineren, spezialisierten Datensatz weiter trainiert wird. Dieser Prozess, eine Form des Transferlernens, passt das erlernte Wissen des Modells an, um bei einer bestimmten Aufgabe hervorragende Leistungen zu erbringen, ohne ein Modell von Grund auf trainieren zu müssen. Durch den Start mit einem leistungsstarken Basismodell können Entwickler mit deutlich weniger Daten und Rechenressourcen eine hohe Leistung erzielen, ein Konzept, das von Institutionen wie dem Stanford AI Lab untersucht wird.

Wie Fine-Tuning funktioniert

Der Prozess beginnt mit einem Modell, dessen Gewichte bereits auf einem breiten Datensatz wie ImageNet für die Bildverarbeitung oder einem massiven Textkorpus für Large Language Models (LLMs) optimiert wurden. Dieses vortrainierte Modell versteht bereits allgemeine Merkmale – wie Kanten und Texturen in Bildern oder Grammatik und Semantik in Text. Das Fine-Tuning setzt dann den Trainingsprozess fort, typischerweise mit einer niedrigeren Lernrate, auf einem benutzerdefinierten Datensatz, der auf die Zielanwendung zugeschnitten ist. Dies passt die Parameter des Modells an, um es auf die spezifischen Nuancen der neuen Aufgabe zu spezialisieren. Frameworks wie PyTorch und TensorFlow bieten umfangreiche Tools zur Implementierung von Fine-Tuning-Workflows.

Anwendungsfälle in der Praxis

Feinabstimmung wird häufig in den Bereichen Computer Vision (CV) und Natural Language Processing (NLP) eingesetzt.

  • Medizinische Bildanalyse: Ein Modell wie Ultralytics YOLO11, das für die allgemeine Objekterkennung auf dem COCO-Datensatz vortrainiert wurde, kann auf einer speziellen Sammlung von MRT-Scans feinabgestimmt werden, um Tumore genau zu erkennen. Diese Anpassung ist entscheidend für den Aufbau zuverlässiger KI im Gesundheitswesen.
  • Benutzerdefinierte Chatbots: Ein Unternehmen kann ein leistungsstarkes LLM wie BERT auf seiner internen Dokumentation und seinen Kundensupportprotokollen feinabstimmen. Das resultierende Modell wird zu einem Experten für die Produkte des Unternehmens und ermöglicht einen hocheffektiven und kontextbezogenen Chatbot für seine Website. Viele solcher Modelle sind auf Plattformen wie Hugging Face verfügbar.

Feinabstimmung vs. verwandte Konzepte

Es ist wichtig, Fine-Tuning von anderen Techniken zur Modellanpassung zu unterscheiden:

  • Training von Grund auf: Dies beinhaltet die Initialisierung eines neuronalen Netzes mit zufälligen Gewichten und das Training anhand eines Datensatzes. Es erfordert riesige Datenmengen und Rechenleistung (z. B. GPUs) und ist im Allgemeinen weniger effizient als das Feinjustieren eines vortrainierten Modells.
  • Parameter-Efficient Fine-Tuning (PEFT): PEFT ist eine Sammlung von Methoden, die eine ressourceneffizientere Weiterentwicklung des Fine-Tunings darstellen. Anstatt alle Gewichte des Modells zu aktualisieren, frieren PEFT-Techniken wie LoRA das ursprüngliche Modell ein und trainieren nur eine kleine Anzahl neuer Parameter. Dies reduziert den Speicher- und Speicherplatzbedarf drastisch und erleichtert die Anpassung sehr großer Modelle von Organisationen wie Meta AI oder Google.
  • Prompt Tuning: Eine spezielle PEFT-Methode, bei der alle ursprünglichen Modellgewichte eingefroren werden. Anstatt das Modell selbst anzupassen, lernt es spezielle "Soft Prompts" (trainierbare Embeddings), die der Eingabe hinzugefügt werden, um die Ausgabe des Modells für eine bestimmte Aufgabe zu steuern.
  • Retrieval-Augmented Generation (RAG): Diese Technik verbessert die Modellausgabe, indem sie externes Wissen zur Inferenzzeit bereitstellt, anstatt die Gewichte des Modells durch Training zu verändern. RAG ruft relevante Informationen aus einer Datenbank ab und fügt sie dem Prompt hinzu, um genauere und aktuellere Antworten zu erzeugen.

Feinabstimmung mit Ultralytics

Ultralytics vereinfacht den Prozess des Feinabstimmens seiner hochmodernen YOLO-Modelle für kundenspezifische Anwendungen. Benutzer können auf einfache Weise vortrainierte Gewichte laden und mit dem Training auf ihren eigenen Datensätzen für Aufgaben wie Bildklassifizierung, Objekterkennung oder Segmentierung beginnen. Die Ultralytics HUB-Plattform rationalisiert diesen Workflow zusätzlich und bietet eine integrierte Lösung für die Verwaltung von Datensätzen, das Trainieren von Modellen und die anschließende Bereitstellung. Um die beste Leistung zu erzielen, wird das Fine-Tuning oft mit einer sorgfältigen Hyperparameter-Optimierung kombiniert.

Treten Sie der Ultralytics-Community bei

Gestalten Sie die Zukunft der KI mit. Vernetzen Sie sich, arbeiten Sie zusammen und wachsen Sie mit globalen Innovatoren

Jetzt beitreten
Link in die Zwischenablage kopiert