엣지 AI가 장치에서 실시간, 안전하고 효율적인 AI 처리를 가능하게 하여 의료 및 자율 주행 차량과 같은 산업을 어떻게 변화시키는지 알아보세요.
엣지 AI는 중앙 집중식 클라우드 컴퓨팅 센터에 의존하기보다 스마트폰, IoT 센서, 드론, 커넥티드 차량과 같은 로컬 하드웨어 장치에 인공지능(AI) 알고리즘과 모델을 직접 배포하는 것을 의미합니다. 이러한 분산형 접근 방식은 데이터가 생성된 원천에서 처리되도록 하여 원격 서버와의 정보 송수신에 수반되는 지연 시간을 크게 줄여줍니다. 머신 러닝(ML) 작업을 로컬에서 실행함으로써 장치는 즉각적인 의사 결정을 내리고, 인터넷 연결 없이도 안정적으로 작동하며, 민감한 정보를 장치 자체에 보관함으로써 데이터 프라이버시를 강화할 수 있습니다.
엣지 AI의 핵심은 임베디드 시스템에서 추론 엔진을 실행하는 데 있습니다. 엣지 디바이스는 일반적으로 클라우드 서버에 비해 배터리 수명과 연산 능력이 제한적이므로, AI 모델은 매우 효율적이어야 합니다. 개발자들은 종종 모델 양자화나 모델 정제 같은 기법을 활용하여 정확도를 크게 저하시키지 않으면서도 대규모 신경망을 압축합니다.
이러한 워크로드를 효율적으로 처리하기 위해 특수 하드웨어 가속기가 자주 사용됩니다. 예를 들어 로봇 공학을 위한 NVIDIA 플랫폼 저전력 추론을 위한 Google Edge TPU 등이 있습니다. 소프트웨어 프레임워크 또한 중요한 역할을 합니다. TensorFlow, PyTorch, Keras, OpenML, PyTorch, TensorFlow, Keras, OpenML, PyTorch, TensorFlow, Keras, OpenML, PyTorch, TensorFlow, Keras, OpenML, PyTorch, TensorFlow, Keras, OpenML, PyTorch, TensorFlow, Keras, OpenML, PyTorch, TensorFlow, Keras, OpenML, PyTorch, TensorFlow, Keras, OpenML, PyTorch, TensorFlow, Keras, OpenML, PyTor TensorRT 및 TFLite 는 이러한 제약된 환경에 특화된 모델 최적화를 통해 신속한 실시간 추론을 보장합니다.
이 용어들은 종종 혼용되지만, 그 차이를 구분하는 것이 도움이 됩니다:
에지 AI는 중요한 상황에서 자율적 의사 결정을 가능하게 함으로써 산업을 변화시키고 있습니다:
모델을 에지에 배포하는 것은 일반적으로 고성능 컴퓨팅 환경에서 모델을 훈련시킨 후 에지 장치와 호환되는 형식(예: ONNX)으로 내보내는 과정을 포함합니다. ONNX 또는 OpenVINO 같은 에지 장치와 호환되는 형식으로 내보내는 과정을 포함합니다. Ultralytics 이 워크플로를 간소화하여 사용자가 다양한 에지 대상에 대한 모델을 훈련하고 자동으로 내보낼 수 있도록 합니다.
다음 예시는 효율성을 위해 특별히 설계된 경량 YOLO26 모델을 모바일 및 에지 배포에 적합한 형식으로 내보내는 방법을 보여줍니다.
from ultralytics import YOLO
# Load the YOLO26 Nano model, which is optimized for speed on edge devices
model = YOLO("yolo26n.pt")
# Export the model to TFLite format for deployment on Android or Raspberry Pi
# This creates a 'yolo26n.tflite' file ready for edge inference
model.export(format="tflite")
고급 엣지 배포는 종종 Docker와 같은 컨테이너화 기술을 활용하여 애플리케이션을 패키징함으로써 라즈베리 파이 장치부터 산업용 게이트웨이에 이르기까지 다양한 장치 아키텍처에서 일관되게 실행되도록 보장합니다.