深圳Yolo 视觉
深圳
立即加入
词汇表

ReLU(修正线性单元)

探索 ReLU 的强大功能,它是深度学习中的关键激活函数,使高效神经网络能够学习 AI 和 ML 的复杂模式。

整流线性单元(通常称为 ReLU)是一种基本的 激活函数,彻底改变了 深度学习(DL)领域带来了革命性的变化。作为神经网络(NN)中的关键 神经网络(NN)中的一个关键组件,其 主要目的是在模型中引入非线性,使系统能够学习数据中的复杂模式和关系。 关系。如果没有这种非线性功能,神经网络就会表现得像一个简单的 线性回归模型,无法处理 现代人工智能(AI)所需的复杂任务。 人工智能(AI)所需的复杂任务。ReLU 因其数学上的简洁性和计算效率而闻名,因此成为许多最先进的隐藏层 层的默认选择。

ReLU 如何运作

ReLU 的操作非常简单:它就像一个过滤器,允许正值不变地通过,同时将所有负值置零。 而将所有负值置零。这种片断线性行为创建了一个稀疏的网络,在该网络中只有一个子集 神经元的子集被激活。这种稀疏性模拟了生物神经活动,有助于减少模型训练过程中的计算负荷。 模型训练过程中的计算负荷。

与老式替代品相比,该功能具有独特的优势:

  • 计算效率与涉及指数的函数不同 涉及指数的函数不同,ReLU 只需要进行简单的阈值运算。这种速度对于在硬件(如 基础模型时,这种速度至关重要。 GPU.
  • 减少消失的梯度深度网络经常会遇到 梯度消失问题。 信号变得太小,无法在反向传播过程中有效更新权重。 反向传播。ReLU 对正输入保持恒定的 梯度,从而加快收敛速度。 ImageNet 分类论文中所述,ReLU 可保持正输入的梯度恒定,从而加快收敛速度。
  • 实施简单:其逻辑可轻松集成到以下框架中 PyTorchTensorFlow和 TensorFlow,简化了定制 架构的开发。

实际应用

ReLU 在涉及以下方面的应用中无处不在 卷积神经网络(CNN),它是现代视觉识别系统的支柱。

自动驾驶系统

自动驾驶汽车领域,感知 系统必须实时处理视频馈送,以识别行人、车道标记和交通标志。模型 在其隐藏层中利用 ReLU 隐藏层,快速提取图像中的特征。ReLU 推理延迟可确保 车载电脑能在瞬间做出决定,这是 Waymo 感知研究深入探讨的一个概念。 Waymo 的感知研究深入探讨了这一概念。

医疗诊断

医疗保健领域的人工智能在很大程度上依赖于配备 ReLU 网络进行医学图像分析。例如 例如,在检测核磁共振成像扫描或 X 射线中的异常时,网络必须区分健康组织和潜在肿瘤。 潜在肿瘤。ReLU 引入的非线性使模型能够学习与病理相关的细微、不规则形状。 与病理相关的不规则形状。您可以在以下数据集中看到这种应用 脑肿瘤检测等数据集中,效率是处理高分辨率医疗数据的关键。 处理高分辨率医疗数据的关键。

区分 ReLU 和相关术语

虽然 ReLU 是一个标准,但了解它与 Ultralytics 术语表中的其他激活函数有何不同也很重要。 Ultralytics 术语表中的其他激活函数有何不同:

  • 乙状结肠这种 S 形函数 虽然对二进制概率有用,但它的计算成本很高,而且在深度层中容易出现梯度消失。 因此,ReLU 成为隐藏层的首选。
  • Leaky ReLU直接变体 旨在解决 "垂死的 ReLU "问题--即神经元只接受负输入就完全停止学习。 完全停止学习。Leaky ReLU 允许负输入有一个小的、不为零的梯度,确保所有神经元保持活跃。
  • SiLU(西格玛线性单元) 也称为 Swish,是一种更平滑的非单调函数,用于高级模型,如 Ultralytics YOLO11.在深度架构中,SiLU 通常比 ReLU 但计算成本略高。

用Python实现 ReLU

要理解 ReLU,最简单的方法就是看到它的实际应用。下面的示例使用了 torch 来演示 负值如何归零,而正值如何保持严格的线性关系。

import torch
import torch.nn as nn

# Initialize the ReLU activation function
relu = nn.ReLU()

# Create a sample tensor with mixed positive and negative values
data = torch.tensor([-3.0, -1.0, 0.0, 2.0, 5.0])

# Apply ReLU: Negatives become 0, Positives stay the same
output = relu(data)

print(f"Input:  {data}")
print(f"Output: {output}")
# Output: tensor([0., 0., 0., 2., 5.])

在现代架构中的重要性

ReLU 的采用标志着深度神经网络训练可行性的转折点。通过实现高效的 梯度流和减少计算开销,为 ResNet 等深度模型和广泛应用的检测器铺平了道路。 ResNet和广泛使用的检测器铺平了道路。虽然 像Transformers这样的新架构有时更倾向于 GeLU 或 SiLU,但 ReLU 仍然是一个重要的基线,经常被用于边缘人工智能部署的轻量级模型中。 边缘人工智能部署的轻量级模型中经常使用。

如需进一步阅读这些函数的数学基础、 斯坦福 CS231n 笔记提供了极好的 技术深度,而 PyTorch ReLU 文档为开发人员提供了 为开发人员提供了具体的实现细节。

加入Ultralytics 社区

加入人工智能的未来。与全球创新者联系、协作和共同成长

立即加入