Yolo 비전 선전
선전
지금 참여하기
용어집

머신러닝 운영 (MLOps)

MLOps의 강력한 기능을 활용하여 ML 모델 배포를 간소화하고, 워크플로를 자동화하며, 안정성을 확보하고, AI 성공을 효율적으로 확장하십시오.

머신 러닝 운영(MLOps)은 머신 러닝(ML) 모델을 실험적 개발 단계에서 신뢰할 수 있는 생산 환경 배포로 이끄는 과정을 간소화하는 일련의 관행, 원칙 및 기술입니다. 데이터 사이언스의 탐구적 특성과 DevOps의 엄격한 규율을 결합함으로써, MLOps는 인공지능(AI)애플리케이션의 릴리스 주기를 통합하는 것을 목표로 합니다. 전통적인 소프트웨어 개발이 주로 코드 버전 관리에 초점을 맞추는 반면, MLOps는 대규모 데이터 관리와 진화하는 모델 행동이라는 추가적인 복잡성을 도입합니다. 이러한 종합적인 접근 방식은 AI 시스템이 전체 수명 주기 동안 확장성, 정확성 및 거버넌스를 유지하도록 보장합니다.

The Pillars of MLOps

Successful MLOps implementations rely on bridging the gap between three distinct disciplines: data engineering, machine learning, and DevOps.

  • Continuous Integration and Delivery (CI/CD): Just as standard software uses CI/CD pipelines to automate testing and deployment, MLOps pipelines automate model training and validation. This ensures that changes to the code or data automatically trigger steps to verify model performance before updates reach production.
  • Data and Model Versioning: In traditional coding, you only version the source code. In MLOps, teams must use tools like DVC (Data Version Control) to track changes in training data alongside the model hyperparameters. This guarantees reproducibility, allowing engineers to recreate any specific model version from history.
  • Continuous Monitoring: Once deployed, models can degrade due to concept drift, where the statistical properties of the target variable change over time. MLOps involves setting up observability systems to track metrics like inference latency and accuracy, automatically alerting teams when retraining is necessary.

실제 애플리케이션

MLOps는 현대 기업 AI의 중추로서, 기업이 단일 모델에서 수천 개의 배포된 엔드포인트까지 안정적으로 확장할 수 있도록 지원합니다.

  1. 제조업에서의 예측 유지보수: 공장에서는 조립 라인상의 결함을 식별하기 위해 컴퓨터 비전을 활용합니다. MLOps 파이프라인은 신규 제품 라인이 도입될 때마다 객체 탐지 모델이 새로운 이미지로 재훈련되고 버전 관리되며, 가동 중단 없이 공장 에지 장치에 자동 배포되도록 보장합니다. 이를 통해 제조 환경이 변화하더라도 품질 검사가일관되게 유지됩니다.
  2. 스마트 리테일 재고 관리: 소매업체는 track 재고를 track 위해 카메라를 설치합니다. 매장 조명과 제품 포장이 자주 변경되기 때문에 모델 드리프트는 지속적인 위험 요소입니다. MLOps 시스템은 신뢰도 점수를 모니터링합니다. 신뢰도가 떨어지면 시스템은 이미지를 주석 처리 대상으로 표시하고 클라우드에서 재훈련 주기를 시작하여 업데이트된 모델을 매장에 배포함으로써 자동화된 재고 관리를 유지합니다.

Ultralytics MLOps 구현하기

모든 MLOps 워크플로우에서 핵심 단계는 실험 추적입니다. 이를 통해 모든 훈련 실행이 특정 구성과 함께 기록되므로, 팀은 결과를 재현하거나 필요한 경우 이전 버전으로 롤백할 수 있습니다.

다음 예시는 프로젝트 추적을 활성화하면서 YOLO26 모델(모든 신규 프로젝트에 Ultralytics 최신 최첨단 모델)을 훈련하는 방법을 보여줍니다. 이는 자연스럽게 프로덕션 파이프라인에 필요한 아티팩트를 생성합니다.

from ultralytics import YOLO

# Load the YOLO26 model (recommended for superior speed and accuracy)
model = YOLO("yolo26n.pt")

# Train the model while specifying project and name for organized logging
# This creates a structured directory of artifacts (weights, charts, args)
# which is essential for reproducibility in MLOps pipelines.
results = model.train(data="coco8.yaml", epochs=10, project="mlops_experiments", name="run_v1")

훈련 실행을 특정 프로젝트로 구성함으로써 팀은 MLflow나 TensorBoard와 같은 도구를 쉽게 통합하여 시간 경과에 따른 성능 지표를 시각화할 수 있습니다. 조직이 확장됨에 따라 이러한 워크플로를 Ultralytics 마이그레이션하는 경우가 많으며, Ultralytics 데이터셋 관리, 원격 훈련, TensorRT와 같은 다양한 형식으로 모델 배포를 위한 통합 인터페이스를 제공합니다. TensorRT 와 같은 다양한 형식으로 모델을 배포하는 데 사용됩니다.

MLOps와 관련 개념 비교

이러한 관행을 효과적으로 구현하려면 생태계 내 관련 용어와 MLOps를 구분하는 것이 중요합니다.

  • MLOps 대 DevOps: DevOps는 소프트웨어 애플리케이션의 지속적 배포에 중점을 둡니다. MLOps는 "데이터"와 "모델"을 동등한 중요 요소로 추가함으로써 이러한 원칙을 확장합니다. DevOps에서는 코드 변경이 빌드를 트리거하지만, MLOps에서는 데이터 분포의 변화나 정밀도 하락 역시 새로운 파이프라인 실행을 트리거할 수 있습니다.
  • MLOps 대 모델 서빙: 모델 서빙은 모델을 호스팅하고 추론 요청을 처리하는 데 사용되는 인프라를 구체적으로 지칭합니다. MLOps는 서빙을 포함하지만, 훈련, 거버넌스, 모니터링 단계를 아우르는 더 광범위한 개념입니다.
  • MLOps 대 AutoML: 자동화된 머신 러닝(AutoML)은 모델 생성 과정(예: 알고리즘 선택)의 자동화에 중점을 둡니다. MLOps는 해당 모델이 생성된 후의 라이프사이클을 관리하고 AutoML 도구를 실행하는 파이프라인을 운영화합니다.

Ultralytics 커뮤니티 가입

AI의 미래에 동참하세요. 글로벌 혁신가들과 연결하고, 협력하고, 성장하세요.

지금 참여하기