YOLO Vision 2025를 놓치지 마세요!
2025년 9월 25일
10:00 — 18:00 BST
하이브리드 이벤트
Yolo Vision 2024
용어집

CPU

AI 및 머신 러닝에서 CPU의 중요한 역할을 살펴보세요. 데이터 준비, 추론에서의 사용법과 GPU/TPU와의 비교 방법을 알아보세요.

중앙 처리 장치(CPU)는 명령을 실행하고 컴퓨팅 장치 내부에서 대부분의 처리를 수행하는 컴퓨터의 주요 구성 요소입니다. 종종 컴퓨터의 "두뇌"라고 불리는 CPU의 주요 역할은 컴퓨터 프로그램을 구성하는 명령 시퀀스를 수행하는 것입니다. 머신러닝(ML)인공 지능(AI)의 맥락에서 CPU는 전체 시스템을 관리하고 데이터 준비를 처리하며 특수 하드웨어에 적합하지 않은 작업을 실행하는 기본 요소입니다. 모델 훈련 중에 많은 양의 계산을 수행하지는 않지만 전체 AI 워크플로에 필수적인 역할을 합니다.

CPU vs. GPU 및 TPU

CPU, GPUTPU의 주요 차이점은 아키텍처와 의도된 목적에 있습니다.

  • CPU: 순차적 작업의 낮은 지연 시간 실행에 최적화된 범용 프로세서입니다. 운영 체제, 제어 흐름 및 광범위한 계산을 관리하는 데 이상적인 몇 개의 강력한 코어를 가지고 있습니다. 주요 제조업체로는 IntelAMD가 있습니다.
  • GPU: 원래 그래픽용으로 설계되었지만, GPU는 현재 아키텍처 덕분에 AI에 널리 사용됩니다. GPU는 병렬 처리를 위해 최적화된 수천 개의 작은 코어를 특징으로 하며, 이는 딥러닝에 사용되는 행렬과 같은 대규모 데이터 블록에 유용합니다. 이러한 병렬 처리 방식은 Ultralytics YOLO11과 같은 모델의 훈련을 상당히 가속화합니다.
  • TPU: Google의 맞춤형 하드웨어특정 용도 집적 회로(ASIC)는 신경망에서 사용되는 텐서 계산을 가속화하도록 특별히 설계되었습니다. 이는 클라우드 플랫폼에서 TensorFlowPyTorch와 같은 프레임워크에 매우 최적화되어 있습니다.

모델 학습을 위해 GPU 또는 TPU에 크게 의존하는 시스템에서도 CPU는 전체 시스템을 관리하고, 가속기를 위한 데이터를 준비하며, 병렬 계산에 최적화되지 않은 워크플로 부분을 처리합니다. 이러한 트레이드 오프를 이해하는 것은 효율적인 모델 배포에 매우 중요합니다.

CPU를 사용한 실제 AI/ML 예시

특수 하드웨어가 대규모 학습에 탁월하지만 CPU는 특정 제약 조건이 있는 환경에서 특히 많은 AI 작업에 필수적입니다.

  1. 자연어 처리(NLP) 전처리: 텍스트 데이터를 훈련 또는 추론을 위해 모델에 공급하기 전에 전처리해야 합니다. 텍스트를 더 작은 단위로 분할하는 토큰화와 같은 작업은 NLP에서 기본적입니다. Hugging Face의 Tokenizers와 같은 라이브러리는 처리된 데이터를 GPU로 보내기 전에 CPU에서 이러한 순차적 작업을 효율적으로 수행하는 경우가 많습니다.
  2. 엣지 장치 추론: 많은 엣지 AI 애플리케이션은 Raspberry Pi 또는 ARM 아키텍처 기반 장치와 같이 제한된 전력 및 컴퓨팅 리소스를 가진 장치에 ML 모델을 배포합니다. 이러한 시나리오에서 추론은 종종 장치의 CPU에서 직접 실행됩니다. TensorFlow Lite 또는 OpenVINO 툴킷과 같은 최적화된 라이브러리는 기본 객체 감지 또는 키워드 스포팅과 같은 작업에 대해 허용 가능한 성능을 달성하는 데 사용됩니다. 이러한 배포 관리는 Ultralytics HUBDocker와 같은 컨테이너화 도구를 통해 간소화할 수 있습니다.

데이터 수집 처리부터 다양한 하드웨어 플랫폼에서 효율적인 배포를 달성하는 데 이르기까지, CPU의 기능과 제한 사항을 이해하는 것은 엔드 투 엔드 AI 시스템을 설계하고 최적화하는 데 매우 중요합니다. 이는 성공적인 MLOps 전략의 핵심 측면입니다.

Ultralytics 커뮤니티에 참여하세요

AI의 미래에 동참하세요. 글로벌 혁신가들과 연결하고, 협력하고, 성장하세요.

지금 참여하기
클립보드에 링크가 복사되었습니다.