Yolo 비전 선전
선전
지금 참여하기
용어집

GPU (그래픽 처리 장치)

GPU가 딥 러닝을 가속화하고, 워크플로를 최적화하며, 실제 애플리케이션을 가능하게 함으로써 AI 및 머신 러닝을 어떻게 혁신하는지 알아보세요.

GPU그래픽 처리 장치)는 컴퓨터 그래픽과 이미지의 생성 및 렌더링을 가속화하도록 설계된 특수 전자 회로입니다. 렌더링을 가속화하도록 설계된 특수 전자 회로입니다. 그 기원은 게임 및 비디오 렌더링에 기원을 두고 있지만, GPU 다음과 같은 이유로 현대 컴퓨팅의 핵심 구성 요소로 발전했습니다. 고유한 아키텍처. 작업을 순차적으로 처리하는 표준 프로세서와 달리 GPU 수천 개의 대량의 데이터 블록을 동시에 처리할 수 있는 작고 효율적인 코어로 구성되어 있습니다. 이 병렬 아키텍처는 GPU는 다음과 같은 분야에서 필수 불가결한 존재가 되었습니다. 인공 지능(AI)머신 러닝(ML) 분야에서 필수적인 요소가 되었습니다. 복잡한 알고리즘을 훈련하는 데 필요한 시간을 대폭 줄여줍니다.

병렬 컴퓨팅의 힘

GPU 핵심 장점은 병렬 컴퓨팅에 있습니다. 최신 AI 워크로드, 특히 다음과 같은 워크로드에 적합합니다. 딥 러닝(DL)신경망(NN)과 관련된 최신 AI 워크로드는 행렬에 크게 의존합니다. 계산 집약적이지만 반복적인 연산에 크게 의존합니다. GPU 이러한 작업을 수천 개의 코어로 나눠서 수행할 수 있습니다. 코어로 나누어 한 번에 실행할 수 있습니다.

이 기능은 GPU가 학습을 할 수 있음을 보여준 AlexNet 아키텍처의 성공으로 유명해졌습니다. 컨볼루션 신경망(CNN) 을 기존 프로세서보다 훨씬 빠르게 훈련할 수 있음을 입증했습니다. 오늘날 연구자들은 이러한 가속화를 통해 몇 주가 걸리던 모델 트레이닝을 몇 주가 아닌 몇 시간 만에 모델 트레이닝을 수행할 수 있습니다. 이러한 장치의 계산 처리량은 종종 다음과 같은 단위로 측정됩니다. 고성능 컴퓨팅을 위한 표준 측정하는 경우가 많습니다.

하드웨어 차이점: GPU 대 CPU 대 TPU

하드웨어 환경에서 GPU가 어디에 적합한지 이해하려면 다른 일반적인 프로세서와 비교하면 도움이 됩니다:

  • CPU (중앙 처리 장치): CPU 컴퓨터의 범용 '두뇌'로, 더 적은 수의 강력한 코어로 설계되어 순차적인 작업과 복잡한 논리를 순차적인 작업과 복잡한 로직을 처리하도록 설계되었습니다. 운영 체제를 실행하는 데는 이상적이지만 AI에 필요한 대규모 병렬 처리에는 효율성이 떨어집니다.
  • GPU (그래픽 처리 장치): 처리량에 최적화된 GPU 병렬 작업에 탁월한 성능을 발휘합니다. 선도적인 선도적인 NVIDIAAMD와 같은 선도적인 제조업체는 다음과 같은 강력한 에코시스템을 제공합니다. CUDA 및 ROCm과 같은 강력한 에코시스템을 제공하여 개발자가 이 성능을 직접 활용할 수 있습니다. 활용할 수 있도록 합니다.
  • TPU Tensor 처리 장치): TPU 머신 러닝 로드를 가속화하기 위해 특별히 머신 러닝 워크로드 가속화를 위해 특별히 Google Cloud에서 개발했습니다. TPU는 다음과 같은 프레임워크에서 tensor 연산에 매우 효율적입니다. TensorFlow와 같은 프레임워크에서 텐서 연산에 매우 효율적이지만, GPU는 더 넓은 더 다양한 작업을 수행할 수 있습니다.

AI의 실제 적용 사례

GPU 가속의 구현은 다양한 산업 분야에서 혁신을 촉진했습니다:

  • 자율 주행: 자율 주행 자동차는 카메라, 레이더, 라이다 센서의 데이터를 실시간으로 처리해야 합니다, 실시간 처리가 필요합니다. GPU는 객체 감지 모델 보행자, 다른 차량, 교통 표지판을 즉시 식별하는 물체 감지 모델을 지원합니다. 자동차의 AI.
  • 의료 이미징: 의료 분야에서 GPU는 MRI와 같은 고해상도 스캔의 분석을 가속화합니다. 및 CT와 같은 고해상도 스캔의 분석을 가속화합니다. 이미지 세분화 모델 을 통해 종양이나 장기를 정밀하게 묘사하여 방사선 전문의가 더 빠르고 정확하게 진단할 수 있도록 지원합니다. 이 기술은 헬스케어 분야의 의료 분야의 AI.

모델 훈련에 GPU 활용하기

사용 시 ultralytics GPU 활용하면 트레이닝 프로세스의 속도를 크게 높일 수 있습니다. 라이브러리는 라이브러리는 자동 하드웨어 감지를 지원하지만, 사용자가 수동으로 장치를 지정하여 GPU 사용되도록 활용할 수도 있습니다.

다음 예는 사용 가능한 첫 번째 GPU YOLO11 모델을 훈련하는 방법을 보여줍니다:

from ultralytics import YOLO

# Load a model
model = YOLO("yolo11n.pt")  # Load a pretrained YOLO11 model

# Train the model using the GPU (device=0)
# This command utilizes the parallel processing power of the GPU
results = model.train(data="coco8.yaml", epochs=5, device=0)

최적화 및 엣지 배포

트레이닝 외에도 GPU는 다음 분야에서 중요한 역할을 합니다. 모델 배포. 다음이 필요한 애플리케이션의 경우 실시간 추론이 필요한 경우, 훈련된 모델은 종종 다음과 같은 도구를 사용하여 최적화됩니다. NVIDIA TensorRT 또는 ONNX 런타임. 이러한 도구는 신경망을 재구성하여 GPU의 특정 아키텍처를 극대화하고 신경망을 재구성하여 지연 시간을 줄입니다. 또한 엣지 AI의 부상으로 인해 정교한 작업을 실행할 수 있는 소형의 정교한 컴퓨터 비전(CV) 작업을 직접 실행할 수 있는 로컬 장치에서 직접 컴퓨터 비전(CV) 작업을 실행할 수 있는 클라우드 연결에 대한 의존도를 줄였습니다.

Ultralytics 커뮤니티 가입

AI의 미래에 동참하세요. 글로벌 혁신가들과 연결하고, 협력하고, 성장하세요.

지금 참여하기