深圳Yolo 视觉
深圳
立即加入

YOLO Intel YOLO 部署Ultralytics YOLO Intel 高性能推理

Ultralytics 与Intel Ultralytics 利用 CPU、NPU 和 GPU 的强大性能Intel 高性能推理Intel 。

YOLO  Intel YOLO 部署Ultralytics YOLO  Intel 高性能推理

关于Intel

Intel 纳斯达克代码:INTC)是业界翘楚,致力于创造改变世界的技术,推动全球进步,丰富人们的生活。Intel 推进半导体设计与制造技术,助力客户应对最严峻的挑战,将智能融入云端、网络、边缘及每一台计算设备,从而推动商业与社会的变革。


OpenVINO™ 是一款开源工具包,可在保持准确性的同时优化硬件利用率,通过降低延迟和提高吞吐量来加速 AI 推理。它简化了计算机视觉、大型语言模型和生成式 AI 领域的 AI 开发及深度学习集成。

为什么选择Intel YOLO?

部署性能与效率无与伦比的Ultralytics YOLO

针对Ultralytics YOLO进行了优化

Intel全系列设备均具备最高吞吐量和最低延迟。

Edge 原生性能

支持 FP32、FP16 和 INT8 的边缘就绪型YOLO 。无需在精度上做出妥协。

实时推理

在所有主要YOLO 中,推理时间均低于 10 毫秒,Intel 、GPU 和 NPU 上验证。

更低的拥有成本

在现有Intel 上进行推理。成本更低,且不影响准确性。

轻松集成

使用Ultralytics Python 或CLI,几分钟内即可快速部署。API 相同,工作流程一致。

面向未来

始终采用最新的YOLO 和Intel 。无需重新构建管道。

技术集成

Ultralytics 与Intel 的无缝集成

模型在Intel 上的性能

了解Ultralytics YOLO Intel 、GPU 和 NPU 上的运行表现。

部署在Intel 上
from ultralytics import YOLO
# Load a YOLO26n PyTorch model
model = YOLO("yolo26n.pt")
# Export the model
model.export(format="openvino")  # creates 'yolo26n_openvino_model/'
# Load the exported OpenVINO model
ov_model = YOLO("yolo26n_openvino_model/")
# Run inference
results = ov_model("https://ultralytics.com/images/bus.jpg")
# Run inference with specified device, available devices: ["intel:gpu", "intel:npu", "intel:cpu"]
results = ov_model("https://ultralytics.com/images/bus.jpg", device="intel:gpu")
# Export a YOLO26n PyTorch model to OpenVINO format
yolo export model=yolo26n.pt format=openvino # creates 'yolo26n_openvino_model/'
# Run inference with the exported model
yolo predict model=yolo26n_openvino_model source='https://ultralytics.com/images/bus.jpg'
# Run inference with specified device, available devices: ["intel:gpu", "intel:npu", "intel:cpu"]
yolo predict model=yolo26n_openvino_model source='https://ultralytics.com/images/bus.jpg' device="intel:gpu"

成为Ultralytics合作伙伴

加入我们的合作伙伴生态系统,发掘提供前沿人工智能解决方案的新机遇