Entdecken Sie, wie Foundation Models die KI mit skalierbaren Architekturen, breitem Pretraining und Anpassungsfähigkeit für vielfältige Anwendungen revolutionieren.
Ein Basismodell ist ein groß angelegtes System für maschinelles Lernen (ML), das auf großen Datenmengen trainiert wurde und an eine Vielzahl nachgelagerter Aufgaben angepasst werden kann. Geprägt durch das Stanford Institute for Human-Centered AI (HAI), stellen diese Modelle einen Paradigmenwechsel in der Künstliche Intelligenz (KI), bei der ein ein einzelnes Modell in einer ressourcenintensiven Pre-Trainingsphase allgemeine Muster, Syntax und semantische Beziehungen erlernt Phase lernt. Nach dem Training dient diese "Grundlage" als vielseitiger Ausgangspunkt, den die Entwickler durch Feinabstimmung für spezifische Anwendungen modifizieren können. spezifische Anwendungen durch Feinabstimmung anpassen können, Dadurch wird die Notwendigkeit, spezialisierte Modelle von Grund auf neu zu erstellen, erheblich reduziert.
Die Stärke der Stiftungsmodelle liegt in ihrem Umfang und in der Methodik des Transferlernens. Im Gegensatz zu traditionellen Modelle, die für einen bestimmten Zweck trainiert werden (z. B. die Klassifizierung einer bestimmten Blumenart), nehmen Foundation-Modelle große Datensätze - die oft Text, Bilder oder Audio umfassen - unter Verwendung selbstüberwachte Lerntechniken. Diese können sie "auftauchende Eigenschaften" aufweisen, die es ihnen ermöglichen, Aufgaben auszuführen, für die sie nicht explizit programmiert wurden.
Zu den wichtigsten Mechanismen gehören:
Foundation-Modelle haben den Boom der generativen Generative KI und verändern verschiedene Branchen:
Es ist wichtig, Gründungsmodelle von ähnlichen Begriffen in der KI-Landschaft zu unterscheiden:
Bei der Verwendung eines Basismodells werden in der Regel vorab trainierte Gewichte geladen und auf einem kleineren, benutzerdefinierten
Datensatz. Die ultralytics Bibliothek rationalisiert diesen Prozess für Bildverarbeitungsaufgaben, so dass die Benutzer die
die grundlegenden Fähigkeiten von YOLO11 zu nutzen.
Das folgende Beispiel zeigt, wie man ein vortrainiertes YOLO11 (die Grundlage) lädt und es für eine spezifische Erkennungsaufgabe:
from ultralytics import YOLO
# Load a pre-trained YOLO11 model (acts as the foundation)
# 'yolo11n.pt' contains weights learned from the massive COCO dataset
model = YOLO("yolo11n.pt")
# Fine-tune the model on a specific dataset (Transfer Learning)
# This adapts the model's general vision capabilities to new classes
model.train(data="coco8.yaml", epochs=5)
Fundierte Modelle sind zwar leistungsfähig, stellen aber Herausforderungen dar Datensatzverzerrungen und die hohen Rechenkosten für das Ausbildung. Das grundlegende Papier über Basismodelle hebt die Risiken der Homogenisierung, bei der sich ein Fehler in der Grundlage auf alle nachgelagerten Anpassungen auswirkt. Daraus folgt, KI-Ethik und Sicherheitsforschung in den Mittelpunkt der ihre Entwicklung. Mit Blick auf die Zukunft bewegt sich die Branche in Richtung multimodale KI, bei der einzelne Grundmodelle nahtlos Video-, Text- und Audiodaten verarbeiten können, was den Weg für umfassendere autonome Fahrzeuge und Robotik.