Yolo Vision Shenzhen
Shenzhen
Jetzt beitreten
Glossar

CPU

Erforschen Sie die wichtige Rolle der CPU bei KI und maschinellem Lernen. Erfahren Sie mehr über ihre Verwendung bei der Datenvorbereitung, Inferenz und wie sie im Vergleich zu GPUs/TPUs abschneidet.

Eine ZentraleinheitCPUCentral Processing UnitCPU) ist die Hauptkomponente eines Computers, die als Kontrollzentrum fungiert, Sie führt Anweisungen aus und steuert den Datenfluss im System. Oft wird sie als das "Gehirn" des Geräts bezeichnet, erledigt die CPU allgemeine Rechenaufgaben, wie die Ausführung des Betriebssystems und die Verwaltung von Eingabe-/Ausgabeoperationen. Im Kontext von künstlicher Intelligenz (AI) und maschinelles Lernen (ML) spielt die CPU eine grundlegende Rolle. Sie bietet zwar nicht die massive Parallelität, die für ein umfangreiches Modelltraining benötigt wird, ist sie für die Datenvorverarbeitung entscheidend, Verwaltung der Systemlogik und die Ausführung von Schlussfolgerungen auf Edge-Geräten, bei denen Stromverbrauch und Hardwarekosten Beschränkungen sind.

CPU vs. GPU und TPU

Das Verständnis der Hardware-Landschaft ist entscheidend für die Optimierung von maschineller Lernverfahren (MLOps). Die CPU unterscheidet sich in Architektur und Verwendungszweck erheblich von Beschleunigern wie GPUs und TPUs:

Rolle in AI-Workflows

Während GPUs oft im Mittelpunkt des Trainings stehen, bleibt die CPU während des gesamten Lebenszyklus der KI unverzichtbar.

  1. Vorverarbeitung von Daten: Bevor ein Modell Daten "sehen" kann, müssen Bilder oder Text geladen und transformiert werden. Vorgänge wie Größenänderung, Normalisierung und Datenerweiterung werden normalerweise von der die CPU mit Hilfe von Bibliotheken wie NumPy und OpenCV. Effiziente CPU verhindert, dass die GPU Leerlauf, während sie auf Daten wartet.
  2. Nachbearbeitung: Nachdem ein Modell Rohprognosen erstellt hat, führt die CPU häufig letzte Berechnungen durch. Zum Beispiel bei der Objekterkennung, führt die CPU die Nicht-Maximum-Unterdrückung (NMS) aus, um überlappende Bounding Boxes herauszufiltern und die sichersten Erkennungen beizubehalten.
  3. Edge Inference: In vielen realen Szenarien ist der Einsatz von teuren GPUs nicht möglich. Edge AI verlässt sich stark auf CPUs für die Ausführung Modelle auf Geräten wie dem Raspberry Pi oder Mobiltelefonen Handys.

Anwendungsfälle in der Praxis

CPUs ermöglichen eine breite Palette von Anwendungen, bei denen Vielseitigkeit und Energieeffizienz Vorrang vor dem reinen Durchsatz.

  • Intelligente Überwachungssysteme: Viele Sicherheitssysteme nutzen Bewegungserkennungsalgorithmen, die auf Standard-CPUs laufen. Durch die lokale Verarbeitung von Videofeeds auf dem Aufzeichnungsgerät kann das System nur dann Alarme auslösen oder die Aufzeichnung starten, wenn eine Aktivität erkannt wird. oder die Aufzeichnung nur dann starten, wenn eine Aktivität erkannt wird, wodurch Speicherplatz und Bandbreite eingespart werden, ohne dass eine spezielle GPU erforderlich ist.
  • Industrielles IoT (IIoT): In der Fertigung, vorausschauende Wartungssysteme oft auf den den eingebetteten CPUs von Industriesteuerungen. Diese Systeme überwachen Sensordaten (Vibration, Temperatur) in Echtzeit Regressions- oder Klassifikationsmodelle, um Maschinenausfälle vorherzusagen und die die Fertigungsautomatisierung reibungslos läuft.

Inferenz auf der CPU ausführen

Entwickler verwenden die CPU häufig zum Debuggen, Testen oder Bereitstellen von Modellen in Umgebungen, in denen es keine spezielle Hardware. Frameworks wie PyTorch ermöglichen den Benutzern explizit die CPU anzusprechen. Außerdem kann die Konvertierung von Modellen in Formate wie ONNX oder die Verwendung des OpenVINO kann die Inferenzgeschwindigkeit Inferenzgeschwindigkeit auf Intel erheblich optimieren.

Das folgende Beispiel zeigt, wie man die Ultralytics YOLO11 Modell zu zwingen, die Inferenz auf der CPU auszuführen. Diese ist besonders nützlich für das Benchmarking der Leistung auf Standard-Hardware.

from ultralytics import YOLO

# Load the official YOLO11 nano model
model = YOLO("yolo11n.pt")

# Run inference on an image, explicitly setting the device to CPU
# This bypasses any available GPU to simulate an edge deployment environment
results = model.predict("https://ultralytics.com/images/bus.jpg", device="cpu")

# Display the detection results
results[0].show()

Die Verwendung des device="cpu" stellt sicher, dass die Berechnung auf dem zentralen Prozessor bleibt, ermöglicht es den Entwicklern, die Modellkompatibilität zu überprüfen mit serverloses Rechnen Umgebungen oder stromsparende Edge-Geräte.

Werden Sie Mitglied der Ultralytics

Gestalten Sie die Zukunft der KI mit. Vernetzen Sie sich, arbeiten Sie zusammen und wachsen Sie mit globalen Innovatoren

Jetzt beitreten