Yolo 비전 선전
선전
지금 참여하기
용어집

ReLU (Rectified Linear Unit)

ReLU의 강력한 기능을 알아보세요. 딥러닝의 핵심 활성화 함수로서 효율적인 신경망이 AI 및 ML을 위한 복잡한 패턴을 학습할 수 있도록 지원합니다.

일반적으로 ReLU로 알려진 정류 선형 장치는 기본 활성화 기능입니다. 활성화 기능으로 딥러닝(DL) 분야에 혁신을 가져온 딥러닝(DL) 분야에 혁신을 가져온 기본 활성화 기능입니다. 신경망(NN) 내에서 핵심적인 신경망(NN) 내에서 중요한 구성 요소로 작용하며, 주요 목적은 주요 목적은 모델에 비선형성을 도입하여 시스템이 데이터 내의 복잡한 패턴과 데이터 내의 관계를 학습하는 것입니다. 이러한 비선형 함수가 없다면 신경망은 단순한 선형 회귀 모델처럼 작동할 것입니다. 선형 회귀 모델처럼 작동할 것이며, 현대 비즈니스에 필요한 복잡한 작업을 처리할 수 없는 인공 지능(AI). ReLU는 는 수학적 단순성과 계산 효율성으로 유명하며, 많은 최신 기술의 숨겨진 레이어를 위한 기본 선택으로 유명합니다.

ReLU의 작동 방식

ReLU의 작동 방식은 간단합니다. 양수 값은 그대로 통과시키는 필터 역할을 하고 모든 음수 값은 0으로 설정하는 필터 역할을 합니다. 이러한 단편적인 선형 동작은 주어진 시간에 뉴런의 일부분만 뉴런의 하위 집합만 활성화되는 희소 네트워크를 생성합니다. 이러한 희소성은 생물학적 신경 활동을 모방하여 모델 학습 중 계산 부하를 모델 훈련 중 계산 부하를 줄이는 데 도움이 됩니다.

이 기능은 이전 대안에 비해 특별한 이점을 제공합니다:

  • 계산 효율성: 지수 함수와 달리 와 달리 ReLU는 간단한 임계값 연산만 필요합니다. 이 속도는 대규모 기초 모델을 훈련할 때 매우 중요합니다. 같은 하드웨어에서 대규모 GPU.
  • 소실 그라데이션 완화하기: 딥 네트워크는 종종 소실 그라 디언트 문제를 겪는 경우가 많습니다. 신호가 너무 작아져 가중치를 효과적으로 업데이트하지 못하는 역전파. ReLU는 양의 입력에 대해 일정한 기울기를 일정하게 유지하여 중요한 논문인 ImageNet 분류 논문에서 설명한 대로 더 빠른 수렴을 촉진합니다.
  • 구현의 단순성: 로직을 통해 다음과 같은 프레임워크에 쉽게 통합할 수 있습니다. PyTorchTensorFlow을 사용하여 사용자 정의 아키텍처 개발을 간소화합니다. 아키텍처 개발을 간소화합니다.

실제 애플리케이션

ReLU는 다음과 같은 애플리케이션에서 널리 사용되고 있습니다. 최신 시각 인식 시스템의 근간이 되는 컨볼루션 신경망(CNN)과 관련된 애플리케이션에 널리 사용됩니다.

자율 주행 시스템

자율 주행 차량의 영역에서 인식 시스템은 보행자, 차선 표시, 교통 표지판을 식별하기 위해 실시간으로 비디오 피드를 처리해야 합니다. 모델 물체 감지에 최적화된 모델은 이미지에서 특징을 빠르게 추출하기 위해 숨겨진 레이어를 활용하여 이미지에서 특징을 빠르게 추출합니다. 낮은 짧은 추론 지연 시간 덕분에 차량의 컴퓨터가 순식간에 결정을 내릴 수 있으며, 이는 다음에서 심층적으로 탐구한 개념입니다. Waymo의 지각에 관한 연구.

의료 진단

의료 분야의 AI는 의료 영상 분석을 위해 ReLU가 장착된 네트워크에 의존합니다. 예를 들어 예를 들어, MRI 스캔이나 엑스레이에서 이상 징후를 감지할 때 네트워크는 건강한 조직과 잠재적 종양을 잠재적 종양. ReLU가 도입한 비선형성을 통해 모델은 병리와 관련된 미묘하고 불규칙한 모양을 병리와 관련된 미묘하고 불규칙한 모양을 학습할 수 있습니다. 다음과 같은 데이터 세트에서 이 기능이 적용된 것을 볼 수 있습니다. 효율성이 핵심인 뇌종양 탐지, 고해상도 의료 데이터 처리의 고해상도 의료 데이터를 처리하는 데 핵심적인 역할을 합니다.

ReLU와 관련 용어 구별하기

ReLU는 표준이지만, 이 기능이 다른 활성화 기능과 어떻게 다른지 이해하는 것이 중요합니다. Ultralytics 용어집에 나와 있는 다른 활성화 함수와의 차이점을 이해하는 것이 중요합니다:

  • 시그모이드: 이 S자형 함수는 0과 1 사이의 출력을 0과 1 사이로 압축합니다. 이진 확률에는 유용하지만 계산 비용이 많이 들고 깊은 레이어에서는 깊은 레이어에서 그라데이션이 사라지기 쉬우므로 숨겨진 레이어에는 ReLU가 선호됩니다.
  • 누수 ReLU: 직접적인 변형 부정적인 입력만 받는 뉴런이 학습을 멈추는 '죽어가는 ReLU' 문제를 해결하기 위해 고안되었습니다. 완전히 멈추는 문제를 해결하기 위해 고안되었습니다. 누수 ReLU는 음수 입력에 대해 0이 아닌 작은 기울기를 허용하여 모든 뉴런이 활성 상태를 유지하도록 합니다.
  • SiLU(시그모이드 선형 단위): Swish라고도 하는 이 기능은 다음과 같은 고급 모델에 사용되는 더 부드럽고 비단조적인 기능입니다. Ultralytics YOLO11. SiLU는 종종 딥 아키텍처에서 ReLU보다 정확도가 높지만 계산 비용이 약간 더 높습니다.

Python ReLU 구현하기

ReLU는 실제로 작동하는 모습을 보면 가장 쉽게 이해할 수 있습니다. 다음 예제에서는 torch 를 사용하여 음수 값은 제로화되고 양수 값은 엄격하게 선형을 유지하는 방법을 보여줍니다.

import torch
import torch.nn as nn

# Initialize the ReLU activation function
relu = nn.ReLU()

# Create a sample tensor with mixed positive and negative values
data = torch.tensor([-3.0, -1.0, 0.0, 2.0, 5.0])

# Apply ReLU: Negatives become 0, Positives stay the same
output = relu(data)

print(f"Input:  {data}")
print(f"Output: {output}")
# Output: tensor([0., 0., 0., 2., 5.])

최신 아키텍처에서의 중요성

ReLU의 도입은 심층 신경망 훈련의 실현 가능성에 전환점이 되었습니다. 효율적인 경사 흐름과 계산 오버헤드를 줄임으로써 다음과 같은 더 심층적인 모델을 위한 길을 열었습니다. ResNet 및 널리 사용되는 검출기. 반면 트랜스포머와 같은 최신 아키텍처는 때때로 GeLU 또는 SiLU를 선호하기도 하지만, ReLU는 여전히 중요한 기준선으로 남아 있으며, 경량 모델에 자주 사용됩니다. 경량 모델에 자주 사용됩니다.

이러한 함수의 수학적 토대에 대한 자세한 내용을 읽어보세요, 스탠포드의 CS231n 노트는 훌륭한 기술 심층 분석을 제공합니다. 기술 심층 분석과 PyTorch ReLU 문서는 개발자를 위한 개발자를 위한 구체적인 구현 세부 사항을 제공합니다.

Ultralytics 커뮤니티 가입

AI의 미래에 동참하세요. 글로벌 혁신가들과 연결하고, 협력하고, 성장하세요.

지금 참여하기