Yolo 비전 선전
선전
지금 참여하기
용어집

Leaky ReLU

AI 및 ML을 위한 Leaky ReLU 활성화의 힘을 발견하십시오. Dying ReLU 문제를 해결하고 CV, NLP, GAN 등에서 모델 성능을 향상시키십시오!

누수 정류 선형 장치 또는 누수 ReLU는 전문화된 기능입니다. 활성화 기능으로 주로 모델에 비선형성을 도입하기 위한 신경망(NN) 를 모델에 도입하기 위해 주로 사용되는 특수 활성화 기능입니다. 이는 표준의 향상된 버전으로 작동합니다. 정류 선형 유닛(ReLU)의 향상된 버전으로 작동합니다. 특히 뉴런이 비활성 상태가 되어 학습이 중단되는 시나리오인 '죽어가는 ReLU' 문제를 완화하기 위해 설계되었습니다. 학습을 완전히 중단하는 시나리오입니다. 음수 입력에 대해 0이 아닌 작은 기울기를 허용함으로써, 누수 ReLU는 정보가 정보가 네트워크를 통해 계속 흐르도록 보장합니다. 역전파를 통해 더욱 강력하고 안정적인 모델 훈련으로 이어집니다. 이 작은 수정으로 인해 많은 최신 모델에서 중요한 많은 최신 딥 러닝(DL) 아키텍처, 특히 특히 심층적이거나 복잡한 네트워크를 훈련할 때 유용합니다.

죽어가는 뉴런 문제 해결하기

Leaky ReLU의 주요 혁신은 음수 값을 처리하는 데 있습니다. 기존의 ReLU 함수에서 음수 입력은 은 0의 출력이 됩니다. 부적절한 가중치 초기화나 공격적인 데이터 이동으로 인해 뉴런이 지속적으로 음수 입력을 받는다면 가중치 초기화 또는 공격적인 데이터 이동으로 인해 뉴런이 지속적으로 음수 입력을 받으면 기울기가 0이 되기 때문에 사실상 "죽게" 됩니다. 기울기가 0이 되면 최적화 알고리즘이 해당 뉴런의 가중치를 업데이트할 수 없으므로 나머지 훈련 과정에서 뉴런을 쓸모없게 만듭니다.

Leaky ReLU는 음수 입력에 대한 간단한 선형 방정식을 구현하여 이 문제를 해결합니다: f(x) = alpha * x, where alpha 는 작은 상수(일반적으로 0.01)입니다. 이 "누수"는 장치가 활성화되지 않은 상태에서도 가 활성화되지 않은 경우에도 0이 아닌 작은 그라데이션이 계속 통과합니다. 이 지속적인 그라디언트 흐름은 사라지는 그라데이션 문제를 해결합니다, 모델이 가중치를 효과적으로 복구하고 조정할 수 있도록 합니다. 이 동작은 다음과 같은 연구에서 공식적으로 분석되었습니다. 와 같은 연구에서 컨볼루션 네트워크에서 정류된 활성화의 경험적 평가를 통해 표준 정류 방식에 비해 이점을 강조했습니다.

AI의 실제 적용 사례

기울기 흐름을 유지하는 능력으로 인해 Leaky ReLU는 훈련 안정성이 가장 중요한 작업에 널리 채택되고 있습니다.

  • 생성적 적대적 네트워크(GAN): Leaky ReLU의 가장 두드러진 사용처 중 하나는 판별자 네트워크입니다. 생성적 적대 신경망(GAN)입니다. GAN 훈련은 불안정한 것으로 악명이 높으며, 종종 소실 그라데이션으로 인해 판별자가 실제 데이터를 구별하는 법을 배우지 못하는 가 실제 데이터와 합성 데이터. 음수 값에 대해서도 그라데이션이 흐르도록 함으로써 음수 값에 대해서도 그라데이션이 흐르도록 보장함으로써 Leaky ReLU는 생성기와 판별기 간의 건전한 경쟁을 유지하도록 돕습니다, 결과적으로 더 높은 충실도의 출력을 얻을 수 있습니다.
  • 컴퓨터 비전 아키텍처: 많은 컴퓨터 비전(CV) 모델, 특히 객체 감지기의 초기 반복에서는 딥러닝의 특징 추출을 개선하기 위해 Leaky ReLU를 활용했습니다. 심층 컨볼루션 신경망(CNN)의 특징 추출을 개선하기 위해 활용했습니다. 다음과 같은 일부 최신 모델은 Ultralytics YOLO11 와 같은 일부 최신 모델은 더 부드러운 기능으로 전환되었지만 로 전환했지만, Leaky ReLU는 여전히 맞춤형 객체 탐지 아키텍처 또는 경량 모델에 대한 계산 효율적인 대안으로 남아 있습니다.

PyTorch 누수 ReLU 구현하기

다음과 같이 널리 사용되는 프레임워크에서 Leaky ReLU를 구현하는 것은 간단합니다. PyTorchTensorFlow. 아래 예제는 간단한 순차 모델에 통합하는 방법을 보여줍니다. nn 모듈.

import torch
import torch.nn as nn

# Define a neural network layer with Leaky ReLU
# negative_slope=0.01 sets the leak factor for negative inputs
model = nn.Sequential(
    nn.Linear(in_features=10, out_features=5),
    nn.LeakyReLU(negative_slope=0.01),
    nn.Linear(in_features=5, out_features=2),
)

# Create a sample input tensor
input_data = torch.randn(1, 10)

# Perform a forward pass (inference)
output = model(input_data)

print(f"Model output: {output}")

관련 활성화 기능과의 비교

아키텍처에 적합한 구성 요소를 선택하려면 Leaky ReLU를 다른 활성화 기능과 구별하는 것이 중요합니다. 아키텍처에 적합한 구성 요소를 선택하는 것이 중요합니다.

  • ReLU와 누수 ReLU: 표준 ReLU는 모든 음수 입력에 대해 정확히 0을 출력하여 음수 입력을 출력하여 진정한 희소성을 제공하지만 뉴런이 죽을 위험이 있습니다. 누수 ReLU는 완벽한 희소성을 희생하여 완벽한 희소성을 희생합니다.
  • PReLU(파라메트릭 ReLU): 누수 ReLU는 음의 기울기에 고정 상수(예: 0.01)를 사용하지만(예: 0.01), PReLU는 이 기울기를 학습 파라미터로 취급합니다. 기울기에 고정 상수(예: 0.01)를 사용하는 반면, PReLU는 이 기울기를 학습 가능한 파라미터로 취급합니다. 이를 통해 네트워크는 훈련 중에 훈련 중 활성화 모양을 최적화하여 잠재적으로 약간의 계산 오버헤드를 감수하더라도 정확도를 높일 수 있습니다.
  • SiLU 및 GELU: 다음과 같은 최신 기능 SiLU(시그모이드 선형 단위)가우스 오차 선형 단위(GELU) 와 같은 최신 함수는 ReLU의 부드러운 확률적 근사치를 제공합니다. 이러한 함수는 종종 다음과 같은 분야에서 선호됩니다. 트랜스포머 및 최신 YOLO 모델에서 선호되는 경우가 많지만, 딥 네트워크에서 뛰어난 성능을 제공합니다. 누수 ReLU가 여전히 계산 속도가 더 빠릅니다.

올바른 활성화 기능을 선택하려면 종종 다음이 포함됩니다. 하이퍼파라미터 튜닝 및 검증 성능을 검증해야 하는 경우가 많습니다. 누수 ReLU는 표준 ReLU가 실패하거나 딥 네트워크에서 훈련 불안정성이 관찰되는 경우 탁월한 기본 선택입니다.

Ultralytics 커뮤니티 가입

AI의 미래에 동참하세요. 글로벌 혁신가들과 연결하고, 협력하고, 성장하세요.

지금 참여하기