Yolo Vision Shenzhen
Shenzhen
Jetzt beitreten

Implementieren Sie Ultralytics YOLO Intel hochleistungsfähige Inferenz

Ultralytics mit Intel Ultralytics , Intel leistungsstarke Inferenzfunktionen bereitzustellen, die die Leistungsfähigkeit von CPUs, NPUs und GPUs nutzen.

Implementieren Sie Ultralytics YOLO  Intel hochleistungsfähige Inferenz

Über Intel

Intel Nasdaq: INTC) ist ein Branchenführer, der bahnbrechende Technologien entwickelt, die den weltweiten Fortschritt vorantreiben und das Leben der Menschen bereichern. Intel treibt die Entwicklung und Fertigung von Halbleitern Intel voran, um seinen Kunden bei der Bewältigung ihrer größten Herausforderungen zu helfen. Dabei integriert das Unternehmen intelligente Lösungen in die Cloud, in Netzwerke, am Netzwerkrand sowie in jedes Computergerät, um Wirtschaft und Gesellschaft zu verändern.


OpenVINO™ ist ein Open-Source-Toolkit, das KI-Inferenz mit geringerer Latenz und höherem Durchsatz beschleunigt, dabei die Genauigkeit gewährleistet und die Hardwareauslastung optimiert. Es vereinfacht die KI-Entwicklung und die Integration von Deep Learning in den Bereichen Computer Vision, große Sprachmodelle und generative KI.

Warum sollte man sich Intel YOLO Intel entscheiden?

Stellen Sie Ultralytics YOLO mit unübertroffener Leistung und Effizienz bereit

Optimiert für Ultralytics YOLO

Maximaler Durchsatz und minimale Latenz bei der gesamten Produktpalette Intel.

Edge-native Leistung

Edge-fähige YOLO mit Unterstützung für FP32, FP16 und INT8. Keine Kompromisse bei der Genauigkeit erforderlich.

Echtzeit-Inferenz

Inferenzzeiten unter 10 ms bei allen wichtigen YOLO , getestet auf Intel , -GPUs und -NPUs.

Geringere Betriebskosten

Inferenz auf bestehenden Intel . Geringere Kosten, ohne Abstriche bei der Genauigkeit.

Einfache Integration

In wenigen Minuten einsatzbereit mit demPython oder CLI. Gleiche API, gleicher Arbeitsablauf.

Zukunftssicher

Immer auf dem neuesten Stand mit den aktuellsten YOLO und Intel . Keine Überarbeitung der Pipeline erforderlich.

Technische Integration

Nahtlose Integration zwischen Ultralytics und Intel

Modellleistung auf Intel

Sehen Sie sich an, wie sichYOLO Ultralytics auf Intel , -GPUs und -NPUs schlagen.

Auf Intel bereitstellen
from ultralytics import YOLO
# Load a YOLO26n PyTorch model
model = YOLO("yolo26n.pt")
# Export the model
model.export(format="openvino")  # creates 'yolo26n_openvino_model/'
# Load the exported OpenVINO model
ov_model = YOLO("yolo26n_openvino_model/")
# Run inference
results = ov_model("https://ultralytics.com/images/bus.jpg")
# Run inference with specified device, available devices: ["intel:gpu", "intel:npu", "intel:cpu"]
results = ov_model("https://ultralytics.com/images/bus.jpg", device="intel:gpu")
# Export a YOLO26n PyTorch model to OpenVINO format
yolo export model=yolo26n.pt format=openvino # creates 'yolo26n_openvino_model/'
# Run inference with the exported model
yolo predict model=yolo26n_openvino_model source='https://ultralytics.com/images/bus.jpg'
# Run inference with specified device, available devices: ["intel:gpu", "intel:npu", "intel:cpu"]
yolo predict model=yolo26n_openvino_model source='https://ultralytics.com/images/bus.jpg' device="intel:gpu"

Werden Sie Ultralytics

Werden Sie Teil unseres Partner-Ökosystems und erschließen Sie neue Möglichkeiten zur Bereitstellung innovativer KI-Lösungen