YOLO Vision 2025를 놓치지 마세요!
2025년 9월 25일
10:00 — 18:00 BST
하이브리드 이벤트
Yolo Vision 2024
용어집

컨테이너화

AI/ML 프로젝트를 위한 컨테이너화의 힘을 알아보세요. 최첨단 도구를 사용하여 워크플로를 간소화하고 일관성을 보장하며 효율적으로 확장하세요.

컨테이너화는 운영 체제 가상화의 경량화된 형태로, 라이브러리, 프레임워크, 구성 파일과 같은 애플리케이션과 그 종속성을 컨테이너라는 단일 격리된 단위로 패키징할 수 있습니다. 이는 하나의 컴퓨팅 환경에서 다른 환경으로 이동할 때 소프트웨어가 올바르게 실행되지 않는 일반적인 문제를 해결합니다. 머신 러닝(ML)의 맥락에서 컨테이너화는 복잡한 AI 모델과 그 복잡한 소프트웨어 스택이 이식 가능하고, 재현 가능하며, 확장 가능하도록 보장하여 현대적인 MLOps 사례의 중요한 구성 요소를 형성합니다.

가장 널리 사용되는 컨테이너화 기술은 컨테이너를 빌드, 배송 및 실행하는 표준화된 방법을 제공하는 Docker입니다. 각 컨테이너는 호스트 시스템의 OS 커널을 공유하지만 사용자 공간에서 격리된 프로세스로 실행됩니다. OCI(Open Container Initiative)와 같은 조직에서 표준화한 이 접근 방식은 컨테이너를 기존 가상 머신보다 훨씬 더 리소스 효율적이고 빠르게 시작할 수 있도록 합니다. Red Hat의 컨테이너 설명과 같은 리소스에서 컨테이너화의 기본 사항에 대해 자세히 알아볼 수 있습니다.

컨테이너화 vs. 관련 개념

컨테이너화와 유사한 기술 간의 차이점을 이해하는 것은 AI/ML 워크플로우에서 컨테이너화의 역할을 이해하는 데 중요합니다.

  • 가상 머신(VM): 컨테이너와 VM은 모두 격리된 환경을 제공하지만 서로 다른 수준에서 작동합니다. VM은 전체 게스트 운영 체제를 포함하여 전체 하드웨어 스택을 에뮬레이트하므로 무겁고 시작하는 데 시간이 오래 걸립니다. 대조적으로 컨테이너는 호스트 커널을 공유하는 OS를 가상화합니다. 따라서 컨테이너는 훨씬 더 가볍고 빠르지만 VM은 더 높은 수준의 하드웨어 수준 격리를 제공할 수 있습니다.
  • Docker: 컨테이너화는 기본적인 개념입니다. Docker는 이 개념을 구현하는 가장 인기 있는 플랫폼으로, 개별 컨테이너를 생성하고 관리하는 도구를 제공합니다. 실질적인 시작을 위해 Ultralytics는 YOLO 모델 실행을 위한 Docker 퀵스타트 가이드를 제공합니다. 자세한 내용은 Docker의 공식 리소스를 참조할 수도 있습니다.
  • Kubernetes: Docker가 호스트에서 단일 컨테이너를 관리하는 반면, Kubernetes는 컨테이너 오케스트레이션 플랫폼입니다. 이는 수천 개의 컨테이너의 배포, 확장 및 관리를 머신 클러스터 전체에서 자동화합니다. 일반적인 워크플로는 Docker를 사용하여 컨테이너를 빌드한 다음 Kubernetes를 사용하여 대규모로 관리하는 것입니다. 자세한 내용은 공식 Kubernetes 문서를 참조하십시오.
  • 서버리스 컴퓨팅: 서버리스는 클라우드 공급자가 코드를 실행하는 데 필요한 인프라를 자동으로 관리하는 실행 모델입니다. 이는 서버와 컨테이너를 완전히 추상화합니다. 컨테이너화가 애플리케이션 환경에 대한 제어를 제공하는 반면, AWS Lambda와 같은 서버리스 플랫폼은 모든 인프라 관리를 숨겨 사용 편의성을 우선시합니다.

AI/ML의 실제 애플리케이션

컨테이너화는 실험에서부터 프로덕션 모델 배포에 이르기까지 전체 AI/ML 라이프사이클 전반에 걸쳐 널리 사용됩니다.

  1. 객체 감지 모델 배포: 객체 감지를 위해 학습된 Ultralytics YOLO 모델을 Docker 컨테이너로 패키징할 수 있습니다. 이 컨테이너에는 모델 가중치, 추론 스크립트 및 PyTorchNVIDIA CUDA 라이브러리와 같은 필요한 모든 종속성이 포함됩니다. 그런 다음 이 자체 포함된 장치를 강력한 클라우드 GPU에서 리소스가 제한된 Edge AI 장치에 이르기까지 다양한 플랫폼에 일관되게 배포하여 환경에 관계없이 모델이 예상대로 작동하도록 할 수 있습니다.
  2. 마이크로서비스로 NLP 모델 제공: Hugging Face와 같은 플랫폼의 모델을 사용하여 자연어 처리(NLP) 애플리케이션을 개발하는 팀은 텍스트 전처리, 모델 추론, API 엔드포인트와 같은 다양한 구성 요소를 별도의 마이크로서비스로 컨테이너화할 수 있습니다. 이러한 컨테이너는 Kubernetes를 사용하여 관리할 수 있으므로 각 구성 요소를 독립적으로 확장하고 업데이트할 수 있습니다. 이는 마이크로서비스 아키텍처의 원칙을 따르며 보다 탄력적인 시스템으로 이어집니다. Ultralytics HUB와 같은 플랫폼은 간소화된 모델 관리 및 배포를 위해 컨테이너화 원칙을 활용합니다.

일관되고 격리된 환경을 제공함으로써 컨테이너화는 현대 소프트웨어 개발, 특히 빠르게 진화하는 AI 및 컴퓨터 비전(CV) 분야의 초석이 되었습니다. 이를 통해 개발자와 MLOps 엔지니어는 Google CloudAmazon Elastic Container Service와 같은 플랫폼에서 더욱 빠르고 효율적으로 안정적인 AI 애플리케이션을 구축, 테스트 및 배포할 수 있습니다.

Ultralytics 커뮤니티에 참여하세요

AI의 미래에 동참하세요. 글로벌 혁신가들과 연결하고, 협력하고, 성장하세요.

지금 참여하기
클립보드에 링크가 복사되었습니다.