Erforschen Sie die wichtige Rolle der CPU bei KI und maschinellem Lernen. Erfahren Sie mehr über ihre Verwendung bei der Datenvorbereitung, Inferenz und wie sie im Vergleich zu GPUs/TPUs abschneidet.
Eine ZentraleinheitCPUCentral Processing UnitCPU) ist die Hauptkomponente eines Computers, die als Kontrollzentrum fungiert, Sie führt Anweisungen aus und steuert den Datenfluss im System. Oft wird sie als das "Gehirn" des Geräts bezeichnet, erledigt die CPU allgemeine Rechenaufgaben, wie die Ausführung des Betriebssystems und die Verwaltung von Eingabe-/Ausgabeoperationen. Im Kontext von künstlicher Intelligenz (AI) und maschinelles Lernen (ML) spielt die CPU eine grundlegende Rolle. Sie bietet zwar nicht die massive Parallelität, die für ein umfangreiches Modelltraining benötigt wird, ist sie für die Datenvorverarbeitung entscheidend, Verwaltung der Systemlogik und die Ausführung von Schlussfolgerungen auf Edge-Geräten, bei denen Stromverbrauch und Hardwarekosten Beschränkungen sind.
Das Verständnis der Hardware-Landschaft ist entscheidend für die Optimierung von maschineller Lernverfahren (MLOps). Die CPU unterscheidet sich in Architektur und Verwendungszweck erheblich von Beschleunigern wie GPUs und TPUs:
Während GPUs oft im Mittelpunkt des Trainings stehen, bleibt die CPU während des gesamten Lebenszyklus der KI unverzichtbar.
CPUs ermöglichen eine breite Palette von Anwendungen, bei denen Vielseitigkeit und Energieeffizienz Vorrang vor dem reinen Durchsatz.
Entwickler verwenden die CPU häufig zum Debuggen, Testen oder Bereitstellen von Modellen in Umgebungen, in denen es keine spezielle Hardware. Frameworks wie PyTorch ermöglichen den Benutzern explizit die CPU anzusprechen. Außerdem kann die Konvertierung von Modellen in Formate wie ONNX oder die Verwendung des OpenVINO kann die Inferenzgeschwindigkeit Inferenzgeschwindigkeit auf Intel erheblich optimieren.
Das folgende Beispiel zeigt, wie man die Ultralytics YOLO11 Modell zu zwingen, die Inferenz auf der CPU auszuführen. Diese ist besonders nützlich für das Benchmarking der Leistung auf Standard-Hardware.
from ultralytics import YOLO
# Load the official YOLO11 nano model
model = YOLO("yolo11n.pt")
# Run inference on an image, explicitly setting the device to CPU
# This bypasses any available GPU to simulate an edge deployment environment
results = model.predict("https://ultralytics.com/images/bus.jpg", device="cpu")
# Display the detection results
results[0].show()
Die Verwendung des device="cpu" stellt sicher, dass die Berechnung auf dem zentralen Prozessor bleibt,
ermöglicht es den Entwicklern, die Modellkompatibilität zu überprüfen mit
serverloses Rechnen Umgebungen oder stromsparende
Edge-Geräte.