YOLO Vision 2025를 놓치지 마세요!
2025년 9월 25일
10:00 — 18:00 BST
하이브리드 이벤트
Yolo Vision 2024
용어집

ReLU (Rectified Linear Unit)

ReLU의 강력한 기능을 알아보세요. 딥러닝의 핵심 활성화 함수로서 효율적인 신경망이 AI 및 ML을 위한 복잡한 패턴을 학습할 수 있도록 지원합니다.

ReLU(Rectified Linear Unit)는 현대 딥러닝(DL)의 초석이 된 기본적인 활성화 함수입니다. 단순성과 효율성으로 높이 평가되며 계산 효율성을 유지하면서 신경망(NN)에 비선형성을 도입합니다. 주요 역할은 뉴런의 출력을 결정하는 것입니다. 함수는 간단합니다. 입력이 양수이면 값을 변경하지 않고 전달합니다. 입력이 0 또는 음수이면 0을 출력합니다. 이 간단한 규칙은 네트워크가 뉴런을 선택적으로 활성화하여 복잡한 패턴을 학습하는 데 도움이 되며 많은 아키텍처에서 숨겨진 레이어에 대한 기본 선택이 됩니다.

ReLU 작동 방식

Sigmoid 또는 Tanh와 같이 더 부드러운 활성화 함수와 달리 ReLU의 동작은 조각별 선형입니다. 이 특성은 심층 신경망 학습에 몇 가지 중요한 이점을 제공합니다.

  • 계산 효율성: 함수의 간단한 조건부 연산은 GPU 또는 CPU에서 계산하는 데 매우 빠르며 훈련추론에 필요한 전체 시간을 줄입니다. 이것이 대규모 모델에서 널리 채택된 주된 이유입니다.
  • 기울기 소실 완화: 딥 네트워크 학습의 주요 과제 중 하나는 기울기 소실 문제입니다. 여기서 기울기는 역전파 중에 매우 작아져 학습 프로세스가 느려지거나 중단됩니다. ReLU의 도함수는 모든 양수 입력에 대해 상수 1이므로 건전한 기울기 흐름을 유지하여 더 깊은 네트워크가 더 효과적으로 학습할 수 있습니다. 이 개념에 대한 개요는 ReLU를 사용한 딥러닝에 대한 획기적인 논문에서 확인할 수 있습니다.
  • 희소성 유도: ReLU는 모든 음수 입력에 대해 0을 출력하여 뉴런의 하위 집합만 활성화되는 희소 표현을 만들 수 있습니다. 이러한 신경망의 희소성은 과적합 가능성을 줄여 모델을 더욱 효율적이고 강력하게 만들 수 있습니다.

ReLU vs. 기타 활성화 함수

ReLU가 강력한 기본값이기는 하지만, 그 한계와 변형된 형태와 어떻게 비교되는지 이해하는 것이 중요합니다.

  • Dying ReLU 문제: ReLU의 주요 단점은 뉴런의 입력이 지속적으로 음수이면 비활성화될 수 있다는 것입니다. 이러한 "dying" 뉴런은 항상 0을 출력하고, 이를 통과하는 기울기도 0이기 때문에 훈련 중에 해당 가중치가 업데이트되지 않습니다.
  • Leaky ReLU: 이 변형은 음수 입력에 대해 작은, 0이 아닌 기울기를 허용하여 dying ReLU 문제를 해결합니다. 0을 출력하는 대신 입력에 0.01을 곱한 값과 같은 값을 출력합니다. 이를 통해 뉴런이 항상 약간의 기울기를 갖도록 하여 활성 상태를 유지합니다.
  • SiLU (Sigmoid Linear Unit): Swish라고도 하는 SiLU는 더 깊은 모델에서 ReLU보다 성능이 뛰어난 더 부드러운 활성화 함수입니다. Ultralytics YOLOv8과 같은 최첨단 모델을 포함한 고급 아키텍처에 사용되지만 계산 집약적입니다. 이들 사이의 선택은 종종 성능과 효율성의 균형을 맞추기 위해 하이퍼파라미터 튜닝을 포함합니다. ReLU에 대한 광범위한 문서가 있는 PyTorch자세한 ReLU 구현 가이드를 제공하는 TensorFlow와 같은 프레임워크를 사용하여 다양한 활성화 함수를 탐색할 수 있습니다.

AI 및 ML에서의 응용 분야

ReLU는 특히 컴퓨터 비전(CV) 작업에 사용되는 합성곱 신경망(CNN)에서 널리 사용되는 활성화 함수입니다. 비선형성을 효율적으로 처리하는 능력이 있어 이미지 데이터 처리에 이상적입니다.

  • 의료 영상 분석: 헬스케어 AI에 사용되는 CNN은 숨겨진 레이어에서 ReLU를 사용하는 경우가 많습니다. 예를 들어 X선 또는 MRI에서 복잡한 시각적 정보를 처리하여 종양 또는 골절과 같은 이상 징후를 감지하여 방사선 전문의의 진단을 돕습니다(PubMed Central의 연구 예). ReLU의 효율성은 뇌종양 감지와 같은 데이터 세트에서 대용량 의료 스캔을 빠르게 분석하는 데 중요합니다.
  • 자율 주행 차량: Waymo와 같은 회사에서 개발한 자율 주행 차량용 시스템은 ReLU가 있는 CNN에 크게 의존합니다. 이러한 네트워크는 실시간 객체 감지를 수행하여 보행자, 다른 차량, 교통 신호 및 차선 표시를 식별하여 안전한 탐색을 가능하게 합니다. ReLU의 속도는 자율 주행 애플리케이션에 필요한 낮은 추론 지연 시간에 매우 중요합니다.

ReLU는 CNN에서 널리 사용되지만 다른 유형의 신경망에서도 사용됩니다. 최신 모델은 종종 ReLU 변형 또는 기타 효율적인 활성화 함수를 활용합니다. Ultralytics HUB와 같은 플랫폼을 사용하여 이러한 모델을 학습하고 배포할 수 있으며, 최적의 결과를 위해 모델 학습 팁 가이드를 활용할 수 있습니다.

Ultralytics 커뮤니티에 참여하세요

AI의 미래에 동참하세요. 글로벌 혁신가들과 연결하고, 협력하고, 성장하세요.

지금 참여하기
클립보드에 링크가 복사되었습니다.