엣지 AI가 장치에서 실시간, 안전하고 효율적인 AI 처리를 가능하게 하여 의료 및 자율 주행 차량과 같은 산업을 어떻게 변화시키는지 알아보세요.
엣지 AI는 다음과 같은 분산형 컴퓨팅 환경을 조성합니다. 인공 지능(AI) 과 머신러닝(ML) 알고리즘이 원격 서버에 의존하지 않고 원격 서버에 의존하지 않고 로컬 디바이스에서 직접 처리하는 분산 컴퓨팅 환경을 조성합니다. 센서, 카메라 등 소스 근처에서 데이터 처리를 수행함으로써 센서, 카메라, IoT 게이트웨이와 같은 소스 근처에서 데이터 처리를 수행함으로써 엣지 AI는 지연 시간과 대역폭 사용량을 크게 줄입니다. 이 접근 방식은 다음과 같은 애플리케이션에 필수적입니다. 밀리초가 중요한 실시간 추론이 필요한 애플리케이션, 또는 인터넷 연결이 불안정한 환경에 필수적입니다. 중앙 집중식 처리에서 엣지로의 전환은 디바이스가 독립적인 의사 결정을 내릴 수 있도록 디바이스가 독립적인 의사 결정을 내릴 수 있도록 지원하여 민감한 정보를 로컬 하드웨어에 보관하여 로컬 하드웨어.
일반적인 엣지 AI 워크플로에서는 물리적 디바이스가 입력 센서를 통해 데이터를 수집합니다. 원시 데이터를 클라우드 컴퓨팅 센터로 클라우드 컴퓨팅 센터로 전송하는 대신, 디바이스는 임베디드 마이크로프로세서나 임베디드 마이크로프로세서 또는 특수 가속기를 사용합니다. NVIDIA 젯슨 모듈 또는 Google Coral Edge TPU같은 특수 가속기를 TPU로컬에서 ML 모델을 실행합니다.
리소스가 제한된 디바이스에서 효과적으로 작동하기 위해 모델은 종종 최적화 프로세스를 거칩니다. 다음과 같은 기술 모델 정량화 및 모델 가지치기와 같은 기술은 신경망의 파일 크기와 계산 신경망의 복잡성을 줄이면서도 정확도를 크게 떨어뜨리지 않습니다. 최적화된 프레임워크, 다음과 같은 TensorRT 및 Intel OpenVINO는 이러한 모델을 가속화하는 추론 엔진으로 작동하여 추론 엔진 역할을 합니다.
자주 함께 사용되지만, 이 두 가지 관련 개념을 구분하는 것이 도움이 됩니다:
엣지 AI의 배포는 자율적인 운영과 더 스마트한 분석을 가능하게 함으로써 산업을 혁신하고 있습니다.
엣지 디바이스에 모델을 배포하려면 학습된 모델을 하드웨어에 구애받지 않는 형식으로 내보내야 하는 경우가 많습니다. 이러한 경우 ONNX (개방형 신경망 교환) 형식은 다양한 플랫폼에서 모델을 실행할 수 있는 표준입니다.
다음 예는 다음과 같은 이유로 엣지 배포에 이상적인 경량 YOLO11 모델을 내보내는 방법을 보여줍니다. 속도와 효율성으로 인해 엣지 배포에 이상적입니다:
from ultralytics import YOLO
# Load a lightweight YOLO11 nano model
model = YOLO("yolo11n.pt")
# Export the model to ONNX format for edge deployment
# The 'dynamic' argument allows for variable input sizes
model.export(format="onnx", dynamic=True)
엣지 AI를 구현하는 데는 주로 엣지 디바이스의 제한된 전력 및 메모리 리소스와 관련된 문제가 있습니다. 에지 디바이스의 제한된 전력 및 메모리 리소스와 관련된 문제가 있습니다. 개발자는 모델 성능과 에너지 소비의 균형을 맞춰야 하며, 종종 다음과 같은 회사의 시스템 온 칩(SoC) 설계를 활용해야 합니다. 퀄컴 또는 암바렐라.
앞으로 5G 네트워크의 통합은 엣지 AI를 더욱 향상시킬 것입니다. AI는 군집 지능으로 알려진 디바이스 조정에 필요한 고속 연결을 제공함으로써 더욱 향상될 것입니다. 또한 연합 학습과 같은 기술을 통해 엣지 디바이스는 원시 데이터를 탈중앙화 및 비공개로 유지하면서 글로벌 모델을 공동으로 개선할 수 있습니다.

