Indem Sie auf „Alle Cookies akzeptieren“ klicken, stimmen Sie der Speicherung von Cookies auf Ihrem Gerät zu, um die Website-Navigation zu verbessern, die Website-Nutzung zu analysieren und unsere Marketingbemühungen zu unterstützen. Mehr Infos
Cookie-Einstellungen
Indem Sie auf „Alle Cookies akzeptieren“ klicken, stimmen Sie der Speicherung von Cookies auf Ihrem Gerät zu, um die Website-Navigation zu verbessern, die Website-Nutzung zu analysieren und unsere Marketingbemühungen zu unterstützen. Mehr Infos
Erfahren Sie, wie Sie die richtige GPU das Training von Computer-Vision-Modellen auf der Ultralytics auswählen – unter Berücksichtigung von Faktoren wie der Größe des Datensatzes, der Komplexität des Modells und den Kosten.
Skalieren Sie Ihre Computer-Vision-Projekte mit Ultralytics
Im vergangenen Monat haben wir Ultralytics vorgestellt, eine End-to-End-Umgebung, die darauf ausgelegt ist, den gesamten Workflow im Bereich Computer Vision zu optimieren – von der Verwaltung von Datensätzen bis hin zum Training und zur Bereitstellung von Modellen. Ultralytics vereint alles, was für die Entwicklung und Skalierung von Vision-KI-Modellen erforderlich ist, in einer einzigen, einheitlichen Umgebung.
Ein wesentlicher Bestandteil dieses Arbeitsablaufs ist das Modelltraining, bei dem neuronale Netze Muster aus Daten lernen, um präzise Vorhersagen zu treffen. Dabei spielt der Zugriff auf die richtigen Rechenressourcen eine entscheidende Rolle. Zuvor haben wir untersucht, wie Ultralytics das Modelltraining auf Basis vonGPU(Graphics Processing Units) unterstützt, wodurch Nutzer Computer-Vision-Modelle trainieren können, ohne eine lokale Infrastruktur verwalten zu müssen.
Dank des bedarfsorientierten Zugriffs auf leistungsstarke NVIDIA können Nutzer – von Studenten und Start-ups bis hin zu Forschern und großen Unternehmen – KI-Workloads effizienter als je zuvor ausführen. Während der Einstieg in das Cloud-Training unkompliziert ist, GPU der Auswahl der richtigen GPU Faktoren wie die Größe des Datensatzes, die Komplexität des Modells und die Kosten berücksichtigt werden.
Angesichts der heute verfügbaren breiten Palette an Optionen – von kostengünstigen RTX-GPUs bis hin zu leistungsstarken NVIDIA und Blackwell-Hardware der nächsten Generation – kann die Wahl der richtigen Konfiguration sowohl die Modellentwicklung als auch die Kosten erheblich beeinflussen.
In diesem Artikel befassen wir uns mit GPU für Computer Vision in der Cloud auf der Ultralytics und damit, wie Sie die richtige Hardware für Ihre Arbeitslast auswählen. Los geht’s!
Ein Überblick über die Cloud-Schulungen auf Ultralytics
Bevor wir uns damit befassen, wie man eine GPU das Cloud-Training auf der Ultralytics auswählt, wollen wir zunächst einen Schritt zurücktreten und uns ansehen, wie das Cloud-Training funktioniert.
Was ist Cloud GPU ?
Unter GPU versteht man die Nutzung von GPUs, die in einer Cloud-Computing-Umgebung gehostet werden, um Machine-Learning- und Deep-Learning-Modelle zu trainieren, anstatt auf eigene lokale Hardware oder Workstations zurückzugreifen. Auf Ultralytics können Sie so bei Bedarf auf leistungsstarke GPUs zugreifen und Trainingsaufträge aus der Ferne ausführen, ohne eine eigene Infrastruktur benötigen.
So können Sie Ihre Ressourcen ganz einfach an Ihre Auslastung anpassen. Sie können je nach Bedarf leistungsstärkere GPUs wählen oder die Kapazität erhöhen, ohne durch die Leistungsgrenzen Ihres Systems eingeschränkt zu sein. Stellen Sie sich das so vor, als würden Sie auf leistungsstarke Maschinen – sogenannte Knoten – in entfernten Rechenzentren zugreifen, deren Kapazität Sie nach Bedarf erhöhen oder verringern können.
Außerdem entfällt die Notwendigkeit, teure Hardware einzurichten und zu warten. Sie müssen keine GPUs kaufen, keine Treiber installieren und sich nicht mit Kompatibilitätsproblemen herumschlagen.
Ultralytics übernimmt über verwaltete Cloud-Dienste alle Aufgaben – von der Bereitstellung von Ressourcen über die Einrichtung der Umgebung bis hin zur Orchestrierung und Ausführung von Trainingsaufträgen –, sodass Sie sich ganz auf das Training, das Experimentieren und die Verbesserung Ihrer Modelle konzentrieren können.
So funktioniert das Modelltraining auf der Ultralytics
Auf der Ultralytics ist der GPU Trainingsablauf ganz einfach. Sie können zunächst Ihren Datensatz auf verschiedene Arten einlesen.
Sie können Ihre eigenen Daten hochladen, auf der Plattform verfügbare öffentliche Datensätze nutzen oder von der Community geteilte Datensätze klonen, um auf bestehenden Arbeiten aufzubauen. Durch das Klonen eines Datensatzes wird eine Kopie in Ihrem Arbeitsbereich erstellt, die Sie bearbeiten und erweitern können, während das Original unverändert bleibt.
Sobald Sie einen Datensatz ausgewählt haben, können Sie Ihre Bilder und Annotationen überprüfen und organisieren, um sicherzustellen, dass alles korrekt strukturiert ist. Die Plattform verfügt zudem über integrierte Annotationswerkzeuge, mit denen Sie Daten für Aufgaben wie Objekterkennung, Segmentierung und Klassifizierung kennzeichnen oder den Prozess mithilfe KI-gestützter Funktionen beschleunigen können.
Abb. 1: Anzeige eines Datensatzes in Ultralytics (Quelle)
Anschließend können Sie ein Projekt auswählen oder erstellen, um Ihre Trainingsläufe zu verwalten. Projekte helfen Ihnen dabei, Modelle zu organisieren und zu vergleichen, track und zugehörige Experimente an einem Ort zu bündeln.
Von dort aus gelangen Sie zum Cloud-Training, wo Sie ein Modell auswählen, Parameter konfigurieren und eine GPU Ihren Leistungs- und Budgetanforderungen auswählen können. Die Plattform kümmert sich für Sie um die zugrunde liegende Cloud-Infrastruktur.
Es stellt die ausgewählte GPU bereit, bereitet Ihren Datensatz vor und führt den Trainingsauftrag in der Cloud aus. Während des Trainings können Sie Metriken, Protokolle und die Systemleistung in Echtzeit überwachen, ohne sich um die Einrichtung, CUDA , Frameworks wie PyTorch TensorFlow oder die Hardware kümmern zu müssen.
Wichtige Funktionen für GPU auf Ultralytics
Hier sind einige der wichtigsten Merkmale des Cloud GPU auf der Ultralytics :
Training mit einem Klick: Starten Sie Trainingsaufträge mit minimalem Einrichtungsaufwand und wechseln Sie schnell vom Datensatz zum Modelltraining, ohne komplizierte Konfigurationen vornehmen zu müssen.
On-Demand-GPUs: Wählen Sie aus einer Reihe von GPU , die Ihren Anforderungen entsprechen, und skalieren Sie die Ressourcen nach Bedarf, ohne langfristige Verpflichtungen eingehen zu müssen.
Echtzeitüberwachung: Verfolgen Sie den Trainingsfortschritt anhand von Live-Diagrammen und Protokollen und sehen Sie sich Systemkennzahlen wie GPU und Speicherbelegung in Echtzeit an.
Automatische Speicherpunkte: Der Trainingsfortschritt wird in regelmäßigen Abständen gespeichert, sodass Sie Ihre Arbeit bei Bedarf problemlos fortsetzen oder wiederherstellen können.
Einfache Bereitstellung: Sobald das Training abgeschlossen ist, können Sie Ihre trainierten Modelle bereitstellen und sie in Anwendungen oder Workflows über gemeinsame Inferenz-APIs, dedizierte Endpunkte oder durch Export zur Verwendung auf externen Systemen nutzen. Diese Bereitstellungsoptionen ermöglichen eine Inferenz mit geringer Latenz und damit den Einsatz in Echtzeitanwendungen wie Videoanalyse, Automatisierungssystemen und interaktiven KI-Lösungen.
Verschiedene Cloud GPU innerhalb Ultralytics
Nachdem wir nun gesehen haben, wie das Training auf der Plattform funktioniert, wollen wir uns die verschiedenen verfügbaren GPU ansehen. GPU kann sich darauf auswirken, wie schnell Ihr Modell trainiert wird, wie gut es funktioniert und wie viel es kostet.
Die Ultralytics bietet eine breite Palette an GPUs, angefangen bei Modellen wie der RTX 2000 Ada und der RTX A4500 über GPUs wie die RTX 4000 Ada, die RTX A5000, die RTX 3090 und die RTX A6000 bis hin zu leistungsstärkeren Modellen wie der RTX 4090 und der RTX PRO 6000.
Abb. 2: Ein Beispiel für die verschiedenen GPU , die von Ultralytics unterstützt werden (Quelle)
Für die meisten Nutzer ist die RTX PRO 6000 eine ausgewogene Standardwahl. Sie bietet zuverlässige Leistung bei einer Vielzahl von Anwendungsfällen, ohne dass umfangreiche Anpassungen erforderlich sind. Die RTX 4090 ist eine weitere beliebte Option, die für ihren Preis eine starke Leistung bietet.
Für kleinere Aufgaben wie schnelle Experimente, die Erstellung von Prototypen oder die Arbeit mit kleinen Datensätzen sind GPUs wie die RTX 2000 Ada und die RTX A4500 ein guter Einstieg. Wenn Ihr Arbeitsaufkommen wächst, bieten Modelle wie die RTX 4000 Ada, die RTX A5000 und die RTX 3090 eine gleichmäßigere Leistung für allgemeine Trainingsaufgaben.
Im oberen Leistungssegment sind GPUs wie die A100 (Ampere), H100 und H200 (Hopper) sowie die B200 (Blackwell) für groß angelegte Workloads ausgelegt. Sie eignen sich am besten für das Training sehr großer Modelle, die Verarbeitung riesiger Datensätze oder die Ausführung von Aufgaben, bei denen Geschwindigkeit und Leistung entscheidend sind.
Verständnis GPU verschiedenen GPU und ihrer Anwendungsfälle
Schauen wir uns als Nächstes an, wie sich verschiedene Arten von GPUs im Vergleich schlagen und wo sie am besten zum Einsatz kommen.
RTX-GPUs von NVIDIA in der Regel kostengünstiger und werden häufig für alltägliche Trainingsaufgaben, Experimente sowie kleine bis mittlere Arbeitslasten eingesetzt. Sie bieten ein ausgewogenes Verhältnis zwischen Leistung und Erschwinglichkeit und eignen sich daher für eine Vielzahl von Anwendungsfällen.
Im Vergleich dazu sind GPUs wie die A100, A40 und L40 für anspruchsvollere Arbeitslasten und groß angelegte Trainingsprozesse ausgelegt. Sie bieten eine höhere Stabilität und Skalierbarkeit, insbesondere bei der Arbeit mit größeren Datensätzen oder komplexeren Modellen.
Im oberen Preissegment gehören GPUs wie die H100 und solche, die auf der Blackwell-Architektur NVIDIAbasieren, zur neuesten KI-Hardware. Sie sind für hochleistungsfähige Workloads ausgelegt und werden in der Regel für groß angelegte Trainings, anspruchsvolle Forschungsarbeiten oder zeitkritische Aufgaben eingesetzt.
Die Auswahl an GPU auf der Ultralytics bietet Flexibilität für unterschiedliche Arbeitslasten. Je nach Ihren Anforderungen können Sie mit kleineren Konfigurationen beginnen und diese bei Bedarf erweitern.
So wählen Sie die richtige GPU Ihr Projekt aus
Bei der Auswahl einer GPU das Cloud-Training auf der Ultralytics sind mehrere Faktoren zu berücksichtigen, darunter die Größe des Datensatzes, die Komplexität des Modells und die Kosten. Sehen wir uns diese Faktoren nun im Einzelnen an.
Anpassung GPU an die Größe des Datensatzes
Einer der wichtigsten Faktoren bei der Auswahl einer GPU die Größe Ihres Datensatzes, da diese Einfluss darauf hat, wie lange das Training dauert und wie viel Rechenleistung Sie benötigen.
Bei kleinen Datensätzen – in der Regel weniger als 1.000 Bilder – reicht oft eine leistungsgünstige GPU die RTX 2000 aus. Dies eignet sich gut für schnelle Experimente und kürzere Trainingsläufe.
Bei mittelgroßen Datensätzen mit etwa 1.000 bis 10.000 Bildern bieten GPUs wie die RTX 4090 oder RTX A6000 ein besseres Verhältnis zwischen Leistung und Effizienz, sodass Sie das Training reibungsloser und ohne lange Verzögerungen durchführen können.
Bei größeren Datensätzen mit mehr als 10.000 Bildern benötigen Sie wahrscheinlich leistungsstärkere Hardware, um die Trainingszeiten in einem vertretbaren Rahmen zu halten. GPUs wie die H100-GPUs eignen sich besser für die Bewältigung höherer Arbeitslasten und eine effektive Skalierung.
Im Großen und Ganzen geht es darum, die Größe Ihres Datensatzes auf die benötigte Rechenleistung und die Kapazitäten für die parallele Verarbeitung abzustimmen.
Auswahl einer GPU der Modellgröße und -komplexität
Ein weiterer wichtiger Faktor bei der Auswahl einer GPU die Größe und Komplexität Ihres Vision-KI-Modells. Modelle unterschiedlicher Größe benötigen jeweils unterschiedliche Rechenleistung.
Kleinere Modelle benötigen beispielsweise weniger GPU und lassen sich effizient auf GPUs wie der RTX 2000 Ada, der RTX A4500 oder sogar der RTX 4090 ausführen, wenn Sie schnellere Ergebnisse wünschen. Diese eignen sich ideal für schnelle Experimente, die Erstellung von Prototypen und einfachere Aufgaben, sodass Sie schneller iterieren und Ideen ohne hohe Rechenkosten testen können.
Andererseits erfordern größere und komplexere Modelle deutlich mehr Speicherplatz und Rechenleistung. GPUs wie die RTX A6000, RTX PRO 6000 und High-End-Modelle wie die H100 eignen sich besser für diese Aufgaben. Sie können größere Architekturen verarbeiten, die Trainingszeit verkürzen und Speicherprobleme vermeiden, was besonders wichtig ist, wenn man mit hochauflösenden Bildern, großen Batch-Größen oder komplexeren Modellentwürfen arbeitet.
Vergleich von Batch-Größe und GPU
Ebenso spielt die Batchgröße beim Modelltraining eine wichtige Rolle. Sie bezieht sich auf die Anzahl der Trainingsbeispiele, die das Modell in einem einzigen Schritt gleichzeitig verarbeitet.
Größere Batch-Größen können die Trainingseffizienz verbessern, da mehr Daten auf einmal verarbeitet werden können, erfordern jedoch auch mehr GPU (VRAM). Im Allgemeinen können GPUs mit höherer Speicherbandbreite größere Batch-Größen unterstützen, während GPUs mit weniger Speicher möglicherweise kleinere Batches erfordern.
Beispielsweise können GPUs wie die RTX A6000, RTX PRO 6000 oder A100 aufgrund ihres größeren Arbeitsspeichers größere Batch-Größen leichter verarbeiten, während Modelle wie die RTX 4090 oder RTX 2000 Ada je nach Arbeitslast möglicherweise kleinere Batch-Größen erfordern.
Allerdings GPU der Einsatz der leistungsstärksten GPU immer notwendig. Hochleistungs-GPUs können zwar die Geschwindigkeit und Kapazität verbessern, sind aber auch mit höheren Kosten verbunden. In vielen Fällen GPU es effizienter sein, die Batch-Größe auf einer weniger leistungsstarken GPU anzupassen.
Letztendlich geht es darum, je nach Modell und Datensatz das richtige Gleichgewicht zwischen Batch-Größe, verfügbarem GPU und Kosten zu finden.
Der Einfluss der Trainingskonfiguration auf GPU
Ein weiterer Faktor, der GPU beeinflusst, ist die Trainingskonfiguration. Dazu gehören Parameter wie die Anzahl der Epochen, die Bildgröße und andere Einstellungen, die bestimmen, wie ein Modell trainiert wird.
Beispielsweise erhöht eine größere Bildgröße den Rechenaufwand pro Schritt. Dies kann das Training verlangsamen und erfordert unter Umständen mehr Rechenleistung oder Arbeitsspeicher, um eine gute Leistung aufrechtzuerhalten.
Ebenso verlängert sich durch die Erhöhung der Anzahl der Epochen die Gesamtdauer des Trainings, insbesondere auf weniger leistungsfähiger Hardware. Eine Epoche bezeichnet einen vollständigen Durchlauf des gesamten Datensatzes während des Trainings.
Techniken wie die Datenvervielfachung führen zudem zu einem zusätzlichen Verarbeitungsaufwand während des Trainings. Bei der Datenvervielfachung werden Transformationen wie Spiegelung, Drehung oder Skalierung angewendet, um die Datenvielfalt zu erhöhen und die Modellleistung zu verbessern. Dies kann zwar die Robustheit des Modells verbessern, aber auch die Trainingsgeschwindigkeit verringern.
Im Allgemeinen können leistungsstärkere GPUs diese gestiegenen Anforderungen effizienter bewältigen, doch hängt der Effekt von der Gesamtkonfiguration und der Arbeitslast ab.
Kosten und Schulungsaufwand gegeneinander abwägen
Bei der Auswahl einer GPU Ihr Projekt muss oft ein Kompromiss zwischen Trainingsgeschwindigkeit und GPU eingegangen werden.
Ultralytics lassen sich diese Kosten vor Beginn eines Trainingsvorgangs ganz einfach abschätzen und nachvollziehen. Anhand Ihrer Konfiguration – einschließlich Datenmengengröße, Modell und GPU – können Sie im Voraus die geschätzten Kosten und die Trainingsdauer einsehen.
Abb. 3: Mit Ultralytics lassen sich Cloud-Kosten einfach abschätzen und nachvollziehen. (Quelle)
Schnellere GPUs verursachen in der Regel höhere Kosten pro Stunde, können jedoch die Gesamtdauer des Trainings verkürzen. GPUs wie die RTX 4090, RTX PRO 6000 und H100 sind aufgrund ihrer höheren Leistung in der Regel in der Lage, das Training schneller abzuschließen.
Langsamere GPUs verursachen in der Regel geringere Kosten pro Stunde, benötigen jedoch mehr Zeit für das Training. So werden GPUs wie die RTX 2000 Ada und die RTX A4500 häufig für kleinere Workloads oder länger laufende Jobs eingesetzt, bei denen geringere Kosten im Vordergrund stehen.
Darüber hinaus sind einige der leistungsstärksten GPUs, wie die H200 und die B200, nur in den Pro- oder Enterprise-Tarifen verfügbar, während die meisten anderen Optionen auch in der kostenlosen Version genutzt werden können.
Ein Blick auf Strategien zur Kostenoptimierung
Abgesehen von der Auswahl der richtigen GPU gibt es einige praktische Möglichkeiten, die Trainingskosten im Griff zu behalten. Einer der effektivsten Ansätze besteht darin, zunächst mit kleinen Testläufen zu beginnen, bevor man das Projekt ausweitet.
Anstatt direkt mit dem vollständigen Training zu beginnen, sollten Sie zunächst mit einer geringeren Anzahl von Epochen starten, um sicherzustellen, dass Ihre Konfiguration wie erwartet funktioniert. So können Sie Ihre Daten, Annotationen und Modellkonfiguration schnell überprüfen und vermeiden es, Zeit und Rechenleistung für Durchläufe zu verschwenden, die möglicherweise keine brauchbaren Ergebnisse liefern.
Behalte im Laufe des Trainings deine Trainingsdaten im Auge und brich die Läufe frühzeitig ab, wenn deine Leistung stagniert oder sich nicht mehr verbessert. Die Beobachtung deiner Trainingskurven kann dir dabei helfen, zu entscheiden, ob du weitermachen oder dein Trainingsprogramm anpassen solltest.
Sie können auch Parameter wie die Batch-Größe und die Bildgröße anpassen. Kleinere Werte senken den Speicher- und Rechenaufwand, wodurch es praktischer wird, zu experimentieren, verschiedene Konfigurationen zu testen oder Simulationen in kleinem Maßstab durchzuführen, bevor man die Skalierung erhöht.
Abb. 4: Visualisierung von Trainingskennzahlen auf Ultralytics (Quelle)
Darüber hinaus trägt Ultralytics zur Vereinfachung des Kostenmanagements bei. Sie bietet eine integrierte Kostenkalkulation, sodass Sie bereits vor Beginn eines Auftrags einen Überblick über die zu erwartenden Ausgaben erhalten.
Dank eines nutzungsabhängigen, auf Guthaben basierenden Systems zahlen Sie nur für die Rechenzeit, die Sie tatsächlich in Anspruch nehmen. So können Sie Ihr Budget leichter einhalten und die Kapazitäten erweitern, sobald Sie von Ihrer Trainingskonfiguration überzeugt sind.
Bewährte Verfahren für GPU in der Cloud im Bereich Computer Vision
Hier sind einige bewährte Vorgehensweisen, die Sie beim GPU in der Cloud auf der Ultralytics beachten sollten:
Überprüfen Sie die Datensätze vor dem Training: Stellen Sie sicher, dass Ihr Datensatz sauber, gut annotiert und konsistent ist, bevor Sie beginnen. Wenn Sie Probleme frühzeitig erkennen, vermeiden Sie unnötigen Rechenaufwand und verbessern die Modellleistung.
Führen Sie zunächst kurze Tests durch: Beginnen Sie mit kleinen Testläufen und einer geringeren Anzahl von Epochen, um Ihre Konfiguration zu überprüfen. So können Sie Probleme frühzeitig erkennen, ohne sich auf lange, kostspielige Trainingsläufe festlegen zu müssen. In gewisser Weise erstellen Sie damit eine Vorlage, die Sie wiederverwenden und skalieren können, sobald alles wie erwartet funktioniert.
Wichtige Kennzahlen überwachen: Verfolgen Sie während des gesamten Trainings Kennzahlen wie Verlust, mAP, Präzision und Recall. Diese Kennzahlen dienen als Maßstab für die Bewertung der Modellleistung und helfen Ihnen bei der Entscheidung, wann Anpassungen vorgenommen oder der Trainingsprozess beendet werden sollte.
Sorgen Sie für effiziente Datenverarbeitungsabläufe: Stellen Sie sicher , dass das Laden und die Vorverarbeitung der Daten effizient erfolgen, da diese Vorgänge CPU beanspruchen und zu Engpässen führen können, die sich auf die Gesamtleistung des Trainings auswirken.
Nutzen Sie integrierte Tools: Verwenden Sie Diagramme, Konsolenprotokolle und Systemkennzahlen, um das Training in Echtzeit zu überwachen und schnell fundierte Entscheidungen zu treffen.
Wesentliche Erkenntnisse
Die Auswahl der richtigen GPU Computer Vision auf Ultralytics hängt davon ab, dass Sie Ihre Arbeitslast genau kennen, einschließlich der Größe des Datensatzes, der Komplexität des Modells und der Trainingskonfiguration. Dank einer Vielzahl verfügbarer GPU , die auf Cloud-Infrastruktur und virtuellen Maschinen basieren, können Sie mit einer ausgewogenen Wahl beginnen und bei steigenden Anforderungen an das Modelltraining oder die Feinabstimmung nach oben skalieren. Durch die Kombination der richtigen Hardware mit bewährten Verfahren wie Überwachung und Kostenkontrolle können Sie modernste KI-Modelle effizient trainieren und gleichzeitig die Flexibilität des Hochleistungsrechnens optimal nutzen.