YOLO Vision 2025를 놓치지 마세요!
2025년 9월 25일
10:00 — 18:00 BST
하이브리드 이벤트
Yolo Vision 2024
용어집

SiLU (Sigmoid Linear Unit)

SiLU (Swish) 활성화 함수가 객체 감지 및 NLP와 같은 AI 작업에서 딥러닝 성능을 어떻게 향상시키는지 알아보세요.

일반적으로 SiLU로 알려진 시그모이드 선형 유닛은 효율성과 성능으로 인기를 얻고 있는 신경망에서 사용되는 활성화 함수입니다. 시그모이드ReLU(Rectified Linear Unit) 함수의 속성을 우아하게 결합한 자체 게이트 함수입니다. SiLU는 원래 Swish라고 불렸던 "활성화 함수 검색" 논문에서 소개되었습니다. 부드러움 및 비단조성과 같은 고유한 속성 덕분에 딥 모델에서 ReLU와 같은 기존 활성화 함수보다 성능이 뛰어나 정확도가 향상되고 모델 학습 중 수렴 속도가 빨라집니다.

SiLU 작동 방식

SiLU는 입력 값을 시그모이드와 곱하여 정의됩니다. 이 자체 게이팅 메커니즘을 통해 함수는 양수 입력에 대해 선형으로, 큰 음수 입력에 대해 거의 0으로 부드럽게 전환될 수 있으며, 이는 네트워크를 통해 정보 흐름을 조절하는 데 도움이 됩니다. SiLU의 주요 특징은 비단조성입니다. 작은 음수 입력의 경우 0으로 다시 상승하기 전에 0보다 약간 아래로 떨어질 수 있습니다. 이 속성은 더 풍부한 gradient landscape를 만들고 딥 아키텍처에서 학습 프로세스를 늦추거나 중단시킬 수 있는 vanishing gradient 문제를 방지하여 신경망의 표현력을 향상시키는 것으로 여겨집니다. SiLU 곡선의 매끄러움은 gradient descent와 같은 최적화 알고리즘에 대한 부드러운 gradient를 보장하므로 상당한 이점입니다.

다른 활성화 함수와 비교한 SiLU

SiLU는 일반적으로 사용되는 다른 활성화 함수에 비해 여러 가지 장점이 있어 현대적인 딥러닝(DL) 아키텍처에 매력적인 선택입니다.

  • ReLU(Rectified Linear Unit): 0에서 급격한 변화를 보이고 모든 음수 입력에 대해 일정한 0 기울기를 갖는 ReLU와 달리 SiLU는 부드러운 연속 함수입니다. 이 부드러움은 역전파 프로세스 중에 도움이 됩니다. 또한 SiLU는 뉴런이 지속적으로 음수 입력을 받으면 영구적으로 비활성화될 수 있는 "ReLU 소멸" 문제를 방지합니다.
  • Leaky ReLU: Leaky ReLU도 음수 입력에 대해 작은, 0이 아닌 기울기를 허용하여 dying neuron 문제를 해결하지만, SiLU의 부드럽고 비단조적인 곡선은 때때로 매우 심층 네트워크에서 더 나은 일반화 및 최적화를 유도할 수 있습니다.
  • Sigmoid: Sigmoid 함수는 SiLU의 핵심 구성 요소이지만, 응용 분야는 상당히 다릅니다. Sigmoid는 일반적으로 이진 분류 작업을 위한 출력 레이어 또는 RNN의 게이팅 메커니즘으로 사용됩니다. 반대로 SiLU는 숨겨진 레이어용으로 설계되었으며 CNN(Convolutional Neural Networks)에서 성능을 향상시키는 것으로 나타났습니다.
  • GELU (Gaussian Error Linear Unit): SiLU는 종종 GELU와 비교되는데, GELU는 특히 Transformer 모델에서 뛰어난 성능을 보이는 또 다른 부드러운 활성화 함수입니다. 두 함수 모두 유사한 형태와 성능 특성을 가지며, 둘 중 하나를 선택하는 것은 종종 하이퍼파라미터 튜닝의 경험적 결과에 따라 결정됩니다.

AI 및 머신러닝 분야에서의 응용

효율성과 성능의 균형 덕분에 SiLU는 다양한 최첨단 모델에서 널리 사용됩니다.

  • 객체 감지: Ultralytics YOLO 버전을 포함한 고급 객체 감지 모델은 숨겨진 레이어에서 SiLU를 사용합니다. 예를 들어 실시간 감지에 의존하는 자율 주행 차량과 같은 애플리케이션에서 SiLU는 모델이 센서 데이터에서 복잡한 특징을 보다 효과적으로 학습하여 보행자, 교통 표지판 및 기타 차량의 감지 정확도를 향상시키는 데 도움이 됩니다. 이러한 개선된 특징 학습은 특히 COCO와 같은 대규모 데이터 세트에서 학습할 때 안전과 신뢰성에 매우 중요합니다.
  • Image Classification: SiLU는 EfficientNet 모델 제품군과 같이 효율적이고 강력한 분류 모델의 핵심 구성 요소입니다. 의료 영상 분석과 같은 분야에서 SiLU는 기울기 흐름을 유지하는 능력을 통해 모델이 미묘한 텍스처와 패턴을 학습하는 데 도움이 됩니다. 이는 MRI 스캔에서 종양을 분류하거나 흉부 X-ray에서 질병을 식별하는 것과 같이 높은 정밀도가 중요한 작업에 유용합니다.

구현

SiLU는 주요 딥러닝 프레임워크에서 쉽게 사용할 수 있으므로 새 모델 또는 기존 모델에 쉽게 통합할 수 있습니다.

Ultralytics HUB와 같은 플랫폼은 SiLU와 같은 고급 구성 요소를 활용하는 모델에 대한 모델 학습 및 다양한 배포 옵션 탐색을 지원합니다. DeepLearning.AI와 같은 기관의 지속적인 연구와 자료는 실무자가 이러한 기능을 효과적으로 활용하는 데 도움이 됩니다. 활성화 함수를 선택하는 것은 효과적인 신경망 아키텍처를 설계하는 데 있어 중요한 부분이며, SiLU는 이 분야에서 중요한 진전을 나타냅니다.

Ultralytics 커뮤니티에 참여하세요

AI의 미래에 동참하세요. 글로벌 혁신가들과 연결하고, 협력하고, 성장하세요.

지금 참여하기
클립보드에 링크가 복사되었습니다.