용어집

CPU

AI 및 머신 러닝에서 CPU의 중요한 역할에 대해 알아보세요. 데이터 준비, 추론에서 CPU가 어떻게 사용되는지, 그리고 GPU/TPU와 어떻게 비교되는지 알아보세요.

중앙 처리 장치(CPU)는 컴퓨터의 주요 구성 요소로, 명령을 실행하고 컴퓨팅 장치 내부에서 대부분의 처리를 수행합니다. 흔히 컴퓨터의 '두뇌'라고 불리는 CPU의 주요 역할은 컴퓨터 프로그램을 구성하는 일련의 명령어를 수행하는 것입니다. 머신러닝(ML)인공 지능(AI)의 맥락에서 CPU는 전체 시스템을 관리하고 데이터 준비를 처리하며 특수 하드웨어에 적합하지 않은 작업을 실행하는 기본 요소입니다. 모델 학습 중에 대량의 무거운 연산을 수행하지는 않지만, 완전한 AI 워크플로우를 위해서는 CPU의 역할이 필수적입니다.

CPU와 GPU 및 TPU

CPU, GPU, TPU의 주요 차이점은 아키텍처와 사용 목적에 있습니다:

  • CPU: 순차적 작업의 짧은 지연 시간 실행에 최적화된 범용 프로세서입니다. 몇 개의 강력한 코어가 있어 운영 체제, 제어 흐름 및 다양한 계산을 관리하는 데 이상적입니다. 주요 제조업체로는 인텔과 AMD가 있습니다.
  • GPU: 원래 그래픽용으로 설계된 GPU는 그 아키텍처로 인해 현재 AI에 널리 사용되고 있습니다. 딥 러닝에 사용되는 행렬과 같은 대규모 데이터 블록의 병렬 처리에 최적화된 수천 개의 작은 코어가 특징입니다. 이러한 병렬 처리 덕분에 Ultralytics YOLO11과 같은 모델의 학습 속도가 크게 빨라집니다.
  • TPU: 신경망에 사용되는 텐서 연산을 가속화하기 위해 특별히 설계된 Google의 맞춤형 하드웨어인 애플리케이션별 집적 회로(ASIC)입니다. 클라우드 플랫폼의 TensorFlowPyTorch와 같은 프레임워크에 고도로 최적화되어 있습니다.

모델 학습을 위해 GPU나 TPU에 크게 의존하는 시스템에서도 CPU는 전체 시스템을 관리하고 가속기를 위한 데이터를 준비하며 병렬 연산에 최적화되지 않은 워크플로우의 일부를 처리합니다. 효율적인 모델 배포를 위해서는 이러한 장단점을 이해하는 것이 중요합니다.

CPU를 사용한 실제 AI/ML 예제

특수 하드웨어는 대규모 학습에 탁월하지만, CPU는 특히 특정 제약이 있는 환경에서 많은 AI 작업에 여전히 필수적입니다.

  1. 자연어 처리(NLP) 전처리: 텍스트 데이터를 학습 또는 추론을 위해 모델에 입력하기 전에 반드시 전처리를 거쳐야 합니다. 텍스트를 더 작은 단위로 나누는 토큰화와 같은 작업은 NLP의 기본입니다. Hugging Face의 토큰화 라이브러리와 같은 라이브러리는 처리된 데이터를 GPU로 보내기 전에 CPU에서 이러한 순차적인 작업을 효율적으로 수행합니다.
  2. 엣지 디바이스 추론: 많은 에지 AI 애플리케이션은 라즈베리 파이나 ARM 아키텍처 기반 디바이스와 같이 전력과 연산 리소스가 제한된 디바이스에 ML 모델을 배포합니다. 이러한 시나리오에서는 추론이 디바이스의 CPU에서 직접 실행되는 경우가 많습니다. 기본적인 객체 감지나 키워드 스팟팅과 같은 작업에 적합한 성능을 달성하기 위해 TensorFlow Lite나 OpenVINO 툴킷과 같은 최적화된 라이브러리가 사용됩니다. 이러한 배포 관리는 Ultralytics HUB와 같은 플랫폼과 Docker와 같은 컨테이너화 도구를 통해 간소화할 수 있습니다.

데이터 수집 처리부터 다양한 하드웨어 플랫폼에 효율적으로 배포하는 것까지 엔드투엔드 AI 시스템을 설계하고 최적화하려면 CPU의 기능과 한계를 이해하는 것이 중요합니다. 이는 성공적인 MLOps 전략의 핵심 요소입니다.

울트라 애널리틱스 커뮤니티 가입

AI의 미래와 함께하세요. 글로벌 혁신가들과 연결, 협업, 성장하기

지금 가입하기
링크가 클립보드에 복사됨