Yolo Vision Shenzhen
Shenzhen
Jetzt beitreten
Glossar

CPU

Entdecken Sie die wichtige Rolle der CPU der KI. Erfahren Sie, wie Sie die Datenvorverarbeitung und -nachbearbeitung optimieren und Ultralytics auf Edge-Geräten ausführen können.

Eine Zentraleinheit (CPU) ist die Hauptkomponente eines Computers, die als dessen „Gehirn“ fungiert und für die Interpretation und Ausführung von Befehlen aus Hardware und Software verantwortlich ist. Im Zusammenhang mit künstlicher Intelligenz (KI) spielt die CPU eine grundlegende Rolle bei der Datenverarbeitung, Systemorchestrierung und Ausführung von Schlussfolgerungen, insbesondere auf Edge-Geräten , bei denen Energieeffizienz von entscheidender Bedeutung ist. Während spezialisierte Hardware wie GPUs oft mit der schweren Aufgabe des Trainings von Deep-Learning-Modellen in Verbindung gebracht wird, CPU die CPU für die gesamte Machine-Learning-Pipeline (ML) unverzichtbar.

Die Rolle von CPUs in KI-Workflows

Obwohl GPUs für ihre massive Parallelität während des Trainings bekannt sind, CPU die CPU das Arbeitspferd für viele wesentliche Phasen des Computer Vision (CV) -Lebenszyklus. Ihre Architektur, die in der Regel auf x86- (Intel, AMD) oder ARM-Designs basiert, ist für sequentielle Verarbeitung und komplexe Logiksteuerung optimiert .

  • Datenvorverarbeitung: Bevor ein neuronales Netzwerk lernen kann, müssen die Daten vorbereitet werden. CPUs eignen sich hervorragend für Aufgaben wie das Laden von Dateien, die Datenbereinigung und komplexe Transformationen unter Verwendung von Bibliotheken wie NumPy und OpenCV.
  • Edge-Inferenz: Für den Einsatz in der Praxis ist es nicht immer möglich, Modelle auf massiven Servern auszuführen. CPUs ermöglichen eine effiziente Modellbereitstellung auf Verbraucherhardware, z. B. die Ausführung von Ultralytics auf einem Laptop oder einem Raspberry Pi.
  • Nachbearbeitung: Nachdem ein Modell Rohwahrscheinlichkeiten ausgegeben hat, übernimmt die CPU die abschließende Logik, wie beispielsweise die Nicht-Maximalunterdrückung (NMS) bei der Objekterkennung, um doppelte Vorhersagen herauszufiltern und die Ergebnisse zu verfeinern.

CPU . GPU . TPU

Das Verständnis der Hardware-Landschaft ist entscheidend für die Optimierung von Machine Learning Operations (MLOps). Diese Prozessoren unterscheiden sich erheblich in ihrer Architektur und ihren idealen Anwendungsfällen.

  • CPU: Entwickelt für Vielseitigkeit und komplexe Logik. Sie verfügt über einige leistungsstarke Kerne, die Aufgaben sequenziell verarbeiten. Sie eignet sich am besten für Datenanreicherung, Pipeline-Management und Inferenz mit geringer Latenz bei kleinen Chargen.
  • GPU Grafikprozessor): Ursprünglich für Grafiken entwickelt, verfügen GPUs über Tausende kleinerer Kerne, die für die parallele Verarbeitung ausgelegt sind. Sie sind der Standard für das Modelltraining, da sie Matrixmultiplikationen viel schneller als eine CPU durchführen können.
  • TPU Tensor Unit): Eine von Google speziell für tensor entwickelte Spezialschaltung (ASIC). Sie ist zwar für bestimmte Workloads sehr effizient, verfügt jedoch nicht über die allgemeine Flexibilität einer CPU.

Anwendungsfälle in der Praxis

CPUs sind häufig die Hardware der Wahl für Anwendungen, bei denen Kosten, Verfügbarkeit und Energieverbrauch wichtiger sind als die Notwendigkeit eines massiven Durchsatzes.

  1. Intelligente Sicherheitskameras: In Sicherheitsalarmsystemen verarbeiten Kameras häufig Videodaten lokal. Ein CPU-basiertes Objekterkennungsmodell kann eine Person oder ein Fahrzeug identifizieren und einen Alarm auslösen, ohne das Video an die Cloud zu senden, wodurch Bandbreite und die Privatsphäre der Nutzer geschützt werden.
  2. Industrielle Automatisierung: In Fabrikhallen überwachen vorausschauende Wartungssysteme mithilfe von CPUs die Sensordaten von Maschinen. Diese Systeme analysieren Vibrationen oder Temperaturspitzen in Echtzeit, um Ausfälle vorherzusagen, und gewährleisten so eine reibungslose Fertigungsautomatisierung, ohne dass teure GPU erforderlich sind.

Ausführen von Inferenz auf CPU Ultralytics

Entwickler testen Modelle häufig auf CPUs, um die Kompatibilität mit serverlosen Computing-Umgebungen oder Geräten mit geringem Stromverbrauch zu überprüfen. Mit der Ultralytics können Sie die CPU einfach ansprechen und so sicherstellen, dass Ihre Anwendung überall läuft.

Das folgende Beispiel zeigt, wie ein leichtgewichtiges Modell geladen und die Inferenz speziell auf der CPU ausgeführt wird:

from ultralytics import YOLO

# Load the lightweight YOLO26 nano model
# Smaller models are optimized for faster CPU execution
model = YOLO("yolo26n.pt")

# Run inference on an image, explicitly setting the device to 'cpu'
results = model.predict("https://ultralytics.com/images/bus.jpg", device="cpu")

# Print the detection results (bounding boxes)
print(results[0].boxes.xywh)

Um die Leistung auf Intel weiter zu verbessern, können Entwickler ihre Modelle in das OpenVINO Format exportieren, das die neuronale Netzwerkstruktur speziell für die x86-Architektur optimiert. Für die Verwaltung von Datensätzen und die Orchestrierung dieser Bereitstellungen vereinfachen Tools wie die Ultralytics den Workflow von der Annotation bis zur Edge-Ausführung .

Werden Sie Mitglied der Ultralytics

Gestalten Sie die Zukunft der KI mit. Vernetzen Sie sich, arbeiten Sie zusammen und wachsen Sie mit globalen Innovatoren

Jetzt beitreten