실시간 예측, 확장성 및 애플리케이션과의 원활한 통합을 위해 AI 모델을 배포하는 모델 제공의 필수 요소에 대해 알아보세요.
머신러닝(ML) 모델을 학습하고 검증한 다음 중요한 단계는 새로운 데이터에 대한 예측을 생성하는 데 사용할 수 있도록 하는 것입니다. 이 프로세스를 모델 서비스라고 합니다. 여기에는 일반적으로 API(애플리케이션 프로그래밍 인터페이스) 엔드포인트 뒤에 있는 프로덕션 환경에 학습된 모델을 배포하여 애플리케이션이나 다른 시스템이 실시간으로 예측을 요청할 수 있도록 하는 작업이 포함됩니다. 모델 서빙은 개발된 모델과 실제 애플리케이션 사이의 다리 역할을 하며, 정적 파일에서 더 넓은 머신 러닝 수명 주기 내에서 가치를 창출하는 능동적인 서비스로 전환합니다.
모델 서빙은 ML 모델을 운영하기 위한 기본 요소입니다. 이 기능이 없으면 아무리 정확한 모델이라도 최첨단 Ultralytics YOLO 객체 감지기처럼 가장 정확한 모델도 개발 환경에서 고립된 채로 실제 프로세스에 영향을 미칠 수 없습니다. 효과적인 모델 서비스는 학습 중에 개발된 인사이트와 자동화 기능에 액세스하고 사용할 수 있도록 보장합니다. 실시간 추론이 가능하므로 애플리케이션이 새로운 데이터에 동적으로 대응할 수 있으며, 이는 비디오의 객체 감지부터 챗봇의 자연어 처리(NLP) 에 이르기까지 다양한 작업에 매우 중요합니다. 궁극적으로 모델 제공은 AI 이니셔티브의 투자 수익률(ROI)을 실현하는 데 필수적입니다.
종종 같은 의미로 사용되기도 하지만, 모델 제공은 엄밀히 말해 모델 배포라는 광범위한 프로세스 내의 특정 구성 요소입니다. 모델 배포에는 패키징, 인프라 설정, 통합 및 모니터링을 포함하여 학습된 모델을 라이브 프로덕션 환경에서 작동시키는 데 필요한 모든 단계가 포함됩니다. 모델 서빙은 모델을 호스팅하고 들어오는 예측 요청을 처리하는 인프라 및 소프트웨어 계층에 특히 중점을 두며, 종종 REST 또는 gRPC와 같은 네트워크 프로토콜을 통해 모델의 기능을 서비스로 사용할 수 있도록 합니다. 자세한 내용은 모델 배포 옵션에 대한 가이드를 참조하세요.
모델 서빙은 우리가 매일 사용하는 수많은 AI 기반 기능을 가능하게 합니다. 다음은 두 가지 예입니다:
강력한 모델 서빙 시스템을 구현하려면 여러 구성 요소가 함께 작동해야 합니다:
Ultralytics HUB와 같은 플랫폼은 이러한 전체 워크플로우를 간소화하여 컴퓨터 비전 모델의 훈련, 버전 관리, 배포 및 서비스를 위한 통합 솔루션을 제공하며, MLOps(머신 러닝 운영) 모범 사례에 부합하는 것을 목표로 합니다. 주요 고려 사항으로는 로드 변경을 처리할 수 있는 확장성, 보안(데이터 보안) 및 유지 관리 용이성이 있습니다.