머신러닝 운영 (MLOps)
MLOps의 강력한 기능을 활용하여 ML 모델 배포를 간소화하고, 워크플로를 자동화하며, 안정성을 확보하고, AI 성공을 효율적으로 확장하십시오.
머신 러닝 운영(MLOps)은 머신 러닝, 데이터 엔지니어링, 데브옵스의 교차점을 나타냅니다.
관행의 교차점을 나타냅니다. 이는 머신 러닝 모델의 수명 주기를 간소화하도록 설계된 표준화된 프로세스 및 도구의 집합입니다.
머신 러닝(ML) 모델, 실험적 연구부터
실험적 연구부터 확장 가능하고 안정적인 프로덕션 시스템까지. 기존의 소프트웨어 개발은
코드 변경을 관리하기 위한 데브옵스 원칙에 의존하는 반면, MLOps는 데이터와 모델이라는 두 가지
데이터와 모델이라는 두 가지 중요한 차원을 추가합니다. 이러한 전체론적 접근 방식은 다음을 보장합니다.
인공 지능(AI)
애플리케이션이 시간이 지나도 정확성과 효율성을 유지하여 모델 붕괴 및 변화와 같은 고유한 문제를 해결합니다.
데이터 배포.
MLOps 라이프사이클의 핵심 구성 요소
강력한 MLOps 프레임워크는 엔드투엔드 워크플로우를 자동화하여 재현성을 보장하고 시장 출시 기간을 단축합니다. 라이프사이클
수명 주기는 일반적으로 여러 통합 단계로 구성됩니다:
-
데이터 관리: 여기에는 데이터 세트의 수집, 정리 및 버전 관리가 포함됩니다. 효과적인
데이터 사전 처리를 통해
모델에 공급되는 정보가 고품질이며 일관성을 유지합니다. 팀은 종종 다음과 같은 도구를 사용합니다.
이러한 복잡한 데이터 파이프라인을 조율하기 위해 Apache Airflow와 같은 도구를 사용합니다.
-
모델 개발: 데이터 과학자는
모델 훈련 및 실험에 참여합니다. 이 단계에는 다음이 포함됩니다.
성능 최적화를 위한 하이퍼파라미터 튜닝
성능을 최적화합니다. MLflow와 같은 도구로 실험을 추적하는 것은 가장 성능이 좋은 모델을 식별하고
가장 성능이 우수한 모델을 식별하고 재현할 수 있습니다.
-
배포 및 서비스: 모델이 검증되면 프로덕션 환경에
프로덕션 환경에 모델을 배포합니다.
여기에는 종종 Docker를 사용한 컨테이너화가 포함됩니다.
다양한 컴퓨팅 환경에서 일관성을 보장하거나 다음과 같이 상호 운용 가능한 형식으로 내보내는 경우가 많습니다.
ONNX 와 같은 상호 운용 가능한 형식으로 내보내야 합니다.
-
모니터링 및 유지 관리: 배포 후 시스템은 다음 사항을 관찰해야 합니다.
데이터 드리프트(실제 데이터가 학습 데이터와
데이터 드리프트를 관찰해야 합니다. 지속적인
모델 모니터링을 통해 팀은 성능 detect
성능 저하를 감지하고 재교육 주기를 자동으로 트리거할 수 있습니다.
MLOps와 관련 개념 비교
올바른 전략을 실행하려면 MLOps가 유사한 용어와 어떻게 다른지 이해하는 것이 중요합니다:
-
MLOps와 DevOps 비교: DevOps는 소프트웨어 코드의 지속적인
소프트웨어 코드의 지속적인 배포에 중점을 두는 반면, MLOps는 코드, 데이터 및 모델 아티팩트를 포괄합니다. MLOps에서 "버그"는 깨진 코드가 아니라
코드가 깨진 것이 아니라 변화하는 환경 요인으로 인한
정확도가 저하될 수 있습니다.
-
MLOps와 모델 서빙 비교:
모델 서빙은 모델을 호스팅하고 추론 요청을 처리하는 데 필요한 인프라에만
모델을 호스팅하고 추론 요청을 처리하는 데 필요한 인프라에 엄격하게 초점을 맞추고 있습니다. MLOps는 더 광범위한
교육 및 거버넌스와 함께 서빙 인프라를 관리하는 포괄적인 개념입니다.
-
MLOps 대 AutoML:
자동화된 머신 러닝(AutoML)
은 모델 선택 및 학습 프로세스를 자동화합니다. MLOps는 모델이 생성된 후 해당 모델의 운영 수명 주기를 관리합니다.
생성된 후 관리합니다.
실제 애플리케이션
MLOps는 다양한 산업 분야에서 이론적 모델을 실용적인 비즈니스 솔루션으로 전환합니다.
-
스마트 리테일 인벤토리: 대형 소매업체에서
YOLO11 를 사용하여
물체 감지를 통해 진열대 재고를 모니터링합니다. An
MLOps 파이프라인은 새 제품이 추가되면 자동으로 데이터 세트의 버전을 업데이트합니다. 시스템이 이를 감지하면
신뢰도 점수가 임계값 아래로 떨어지면
Ultralytics 플랫폼의 재교육 파이프라인을 트리거합니다,
새 모델의 유효성을 검사하고 다운타임 없이 수천 개의 엣지 디바이스에 업데이트를 푸시합니다.
-
제조업의 예측 유지보수: 공장에서는
컴퓨터 비전으로 조립 라인의 결함 detect
라인의 결함을 감지합니다. 고속 생산을 처리하기 위해 모델을 최적화하여
추론 지연 시간을 줄이기 위해
TensorRT. MLOps는 제조 공차가 변경됨에 따라,
엄격한 품질 검사를 유지하기 위해 모델을 업데이트하고 버전을 제어합니다.
품질 검사
표준을 유지할 수 있습니다.
Ultralytics MLOps 구현하기
MLOps의 기본 단계는 모델 훈련이 재현 가능하고 기록되도록 하는 것입니다. 아래 코드는
버전이 지정된 아티팩트와 메트릭을 자동으로 생성하는 훈련 실행을 시작하는 방법을 보여줍니다.
MLOps 파이프라인.
from ultralytics import YOLO
# Load the YOLO11 model (recommended for state-of-the-art performance)
model = YOLO("yolo11n.pt")
# Train the model on a dataset
# This step generates logs, saves model weights, and records metrics
# essential for the experiment tracking phase of MLOps.
results = model.train(data="coco8.yaml", epochs=5, imgsz=640)
이 분야가 진화함에 따라 YOLO26과 같은 향후 아키텍처는 이러한 자동화된 파이프라인에 더욱더
이러한 자동화된 파이프라인에 원활하게 통합되도록 설계되고 있으며, 기본 엔드투엔드 기능을 제공하여 교육에서 배포까지
전환을 간소화하는 네이티브 엔드투엔드 기능을 제공합니다. MLOps는 이러한 고급 모델이 실제 환경에서 안정적으로 작동할 수 있도록 하는 중추적인 역할을 합니다.
클라우드 컴퓨팅을 활용하여
클라우드 컴퓨팅
확장성과 엣지 AI 효율성을 활용합니다.