딥 러닝에서 배치 크기가 미치는 영향을 알아보고, 학습 속도, 메모리 사용량 및 모델 성능을 효율적으로 최적화하는 방법을 알아보세요.
배치 크기는 머신 러닝 영역에서 중요한 하이퍼파라미터로 머신러닝 영역에서 중요한 하이퍼파라미터로 처리되는 학습 데이터 샘플의 수를 결정하는 모델이 내부 파라미터를 업데이트하기 전에 처리하는 학습 데이터 샘플 수를 결정하는 중요한 하이퍼파라미터입니다. 전체 데이터 세트를 한 번에 분석하는 대신(종종 메모리 제한으로 인해 계산적으로 메모리 제한으로 인해 불가능한 경우가 많은 딥러닝 프레임워크는 데이터를 배치라고 하는 작은 그룹으로 나눕니다. 이 분할은 학습 과정의 안정성, 계산 속도, 학습 과정의 안정성 프로세스, 계산 속도, 필요한 메모리 양을 결정합니다. GPU 를 결정합니다. 올바른 배치 크기를 선택하면 올바른 배치 크기를 선택하는 것은 계산 효율성과 모델의 품질 사이의 균형을 맞추는 역할을 합니다. 균형을 맞추는 역할을 합니다.
배치 크기를 선택하면 신경망의 학습 방식이 근본적으로 변경됩니다. 신경망이 학습하는 방식을 근본적으로 변경합니다. 배치 크기를 더 낮은 값으로 설정하면 를 더 낮은 값으로 설정하면 모델은 모델 가중치를 더 자주 업데이트하여 경사 하강 프로세스에 노이즈를 도입합니다. 이 노이즈는 최적화 알고리즘이 국부적 최소값을 벗어나는 데 도움이 되는 로컬 최소값을 벗어나 더 강력한 솔루션을 찾는 데 도움이 될 수 있습니다. 과적합을 방지합니다. 반대로 배치 크기가 클수록 이 클수록 기울기를 더 정확하게 추정할 수 있어 더 부드럽고 안정적인 업데이트가 가능하지만, 하드웨어 메모리가 훨씬 더 많은 하드웨어 메모리가 필요하며 때때로 모델이 훈련 데이터에서는 잘 작동하지만 훈련 데이터에서는 잘 작동하지만 보이지 않는 데이터에서는 덜 효과적으로 작동하는 '일반화 격차'가 발생할 수 있습니다.
하드웨어 성능에 따라 이 매개변수의 상한이 결정되는 경우가 많습니다. 다음과 같은 최신 하드웨어 가속기는 에 자세히 설명된 NVIDIA 딥 러닝 성능 가이드에 설명된 것과 같은 최신 하드웨어 가속기는 병렬 컴퓨팅을 사용하여 대량의 데이터 블록을 병렬 컴퓨팅에 의존합니다. 따라서 프로세서의 아키텍처와 일치하는 배치 크기(일반적으로 32, 64, 128 또는 256과 같은 32, 64, 128 등 프로세서 아키텍처에 맞는 배치 크기를 사용하면 처리량을 극대화하고 에포크당 에포크당
이 매개변수를 조정하는 방법을 이해하는 것은 다양한 산업에 효과적인 AI 솔루션을 배포하는 데 산업 전반에 걸쳐
사용 시 Ultralytics Python 패키지를 사용하여 배치
크기를 설정하는 것은 간단합니다. 배치 크기는 batch 인수를 사용하면 가중치를 업데이트하기 전에 모델에 표시할 이미지 수
이 가중치를 업데이트하기 전에 표시해야 하는 이미지 수를 지정할 수 있습니다. 로 설정하면 -1라이브러리는 또한
자동 배치 기능 를 사용하여 하드웨어가 지원할 수 있는
하드웨어가 지원할 수 있는 최대 배치 크기를 자동으로 결정합니다.
from ultralytics import YOLO
# Load the latest YOLO11 model
model = YOLO("yolo11n.pt")
# Train the model on the COCO8 dataset with a specific batch size
# A batch size of 32 balances speed and memory usage for most standard GPUs
results = model.train(data="coco8.yaml", epochs=50, batch=32)
실무자는 "배치 크기"를 다음과 같은 유사한 용어와 구별하는 것이 중요합니다. 유사한 용어와 구별하는 것이 중요합니다.

