신경망 처리 장치(NPU)가 AI 성능을 어떻게 향상시키는지 알아보세요. 효율적이고 저전력인 엣지 컴퓨팅 및 추론을 위해 NPU에 Ultralytics 배포하는 방법을 확인해 보세요.
신경 처리 장치(NPU)는 인공 지능 및 기계 학습 알고리즘의 실행 속도를 높이기 위해 특별히 설계된 전용 하드웨어 회로입니다. 범용 프로세서와 달리, NPU는 딥러닝 모델의 핵심인 복잡한 병렬 행렬 연산을 기본적으로 처리할 수 있는 아키텍처로 설계되었습니다. 이러한 계산을 극도로 효율적으로 수행함으로써, NPU는 전력 소비를 대폭 줄이는 동시에 추론 지연 시간을 크게 개선합니다. 이로 인해 NPU는 복잡한 모델을 효율적으로 구현하면서도 배터리 소모가 급격히 증가하지 않아야 하는 현대적인 스마트폰, 노트북, 특화형 IoT 기기에서 필수적인 구성 요소가 되었습니다.
NPU의 가치를 이해하려면, AI 분야에서 흔히 볼 수 있는 다른 하드웨어 가속기와 구분해 보는 것이 도움이 됩니다:
NPU의 등장으로, 지속적인 클라우드 연결에 의존하지 않고도 사용자 기기에서 직접 인공지능(AI)을 실행할 수 있게 되었습니다.
NPU를 활용하려는 개발자들에게 있어 컴퓨터 비전 모델 배포는 이제 놀라울 정도로 간편해졌습니다. 강력한 Ultralytics 모델을 사용하면 훈련된 네트워크를 다양한 하드웨어 가속기에 최적화된 형식으로 내보낼 수 있습니다. 이러한 전체 라이프사이클을 효율화하기 위해 Ultralytics 클라우드 데이터셋 관리, 자동 주석 처리, 그리고 거의 모든 모델 배포 환경에 최적화된 모델을 배포할 수 있는 강력한 도구를 제공합니다.
로컬 환경에서 작업할 때는 ONNX , PyTorch 또는 TensorFlow 프레임워크 통합 기능을 사용하여 NPU를 대상으로 할 수 있습니다. 아래는 YOLO OpenVINO 내보내는 방법을 보여주는 간단한 Python . OpenVINO 연산 부하를 Intel 원활하게 위임하여 실시간 추론 속도를 높여줍니다.
from ultralytics import YOLO
# Load the highly recommended Ultralytics YOLO26 Nano model
model = YOLO("yolo26n.pt")
# Export to OpenVINO with int8 quantization for optimal NPU performance
model.export(format="openvino", int8=True)
# Run highly efficient, accelerated inference on the edge device
results = model("path/to/environment_image.jpg")
미래의 머신러닝 여정을 시작하세요