Entdecken Sie, wie Cloud Computing KI vorantreibt. Lernen Sie, wie Sie Ultralytics auf Cloud-GPUs trainieren und Vision-Modelle mit der brandneuen Ultralytics in großem Maßstab einsetzen können.
Cloud Computing bezeichnet die bedarfsgerechte Bereitstellung von IT-Ressourcen – wie Servern, Speicherplatz, Datenbanken, Netzwerken und Software – über das Internet. Anstatt physische Rechenzentren zu kaufen, zu besitzen und zu warten, können Unternehmen bei Bedarf auf Technologiedienstleistungen eines Cloud-Anbieters zugreifen. Für Praktiker der Künstlichen Intelligenz (KI) und des Maschinellen Lernens (ML) ist dieses Paradigma transformativ. Es bietet die elastische Skalierbarkeit, die für die Verarbeitung massiver Datensätze und komplexer Berechnungen erforderlich ist, ohne dass dafür hohe Vorabkosten für Hardware anfallen.
Die symbiotische Beziehung zwischen Cloud-Infrastruktur und moderner KI hat die technologische Innovation beschleunigt. Das Training anspruchsvoller Deep-Learning-Modelle (DL) erfordert eine immense Rechenleistung. Cloud-Plattformen bieten sofortigen Zugriff auf leistungsstarke Cluster von Grafikprozessoren (GPUs) und Tensor (TPUs), sodass Forscher verteiltes Training mit riesigen Mengen an Trainingsdaten durchführen können.
Über die reine Leistung hinaus optimieren Cloud-Dienste Machine Learning Operations (MLOps). Von der Datenerfassung und Datenkennzeichnung bis hin zur Modellbereitstellung und -überwachung bietet die Cloud ein einheitliches Ökosystem. Dadurch können sich Teams auf die Verfeinerung von Algorithmen konzentrieren, anstatt sich um die Verwaltung der Infrastruktur zu kümmern. Die Ultralytics nutzt beispielsweise Cloud-Ressourcen, um das Training und die Verwaltung von Vision-Modellen wie YOLO26 zu vereinfachen.
Cloud Computing wird in der Regel in drei Modelle unterteilt, die jeweils unterschiedliche Kontrollstufen bieten:
Cloud Computing ermöglicht den weltweiten Einsatz von KI-Lösungen in verschiedenen Branchen.
Es ist wichtig, Cloud Computing von Edge Computing zu unterscheiden, da sie in einer KI-Pipeline komplementäre Rollen erfüllen .
Ein gängiger Arbeitsablauf umfasst das Training eines robusten Modells wie YOLO26 in der Cloud, um die Vorteile von Hochgeschwindigkeits-GPUs zu nutzen, und anschließend den Export in ein Format wie ONNX zu exportieren, um es effizient auf einem Edge-Gerät auszuführen.
Der folgende Python zeigt, wie das Training für ein YOLO26-Modell initiiert wird. Dieser Code kann zwar lokal ausgeführt werden , ist jedoch so konzipiert, dass er sich nahtlos auf Cloud-Umgebungen skalieren lässt, in denen GPU den Prozess erheblich beschleunigen .
from ultralytics import YOLO
# Load the latest YOLO26 model (recommended for speed and accuracy)
model = YOLO("yolo26n.pt")
# Train the model on the COCO8 dataset
# Cloud GPUs drastically reduce training time for larger datasets
results = model.train(data="coco8.yaml", epochs=100, imgsz=640)
Bei Großprojekten sorgt der Einsatz von Cloud-Trainingslösungen dafür, dass Ihre Modellgewichte effizient optimiert werden, ohne die lokalen Workstations zu überlasten.