了解激活函数在神经网络中的作用、其类型以及在 AI 和机器学习中的实际应用。
激活函数是神经网络(NN)中的一个关键数学组件,它决定了一个 激活函数是神经网络 (NN)中的一个重要数学组件,它决定了一个 特定神经元应该激活还是不激活。激活函数通常被描述为神经元的 "守门员",它接收输入的加权总和,并将其转化为输出信号,然后将输出信号传递给下一级神经元。 输入的加权和,并将其转换为输出信号传递给下一层。这种转换 是将非线性引入 深度学习(DL)模型中引入非线性至关重要。如果没有激活 函数,神经网络的行为实际上就像一个简单的 线性回归模型,无论它有多少 层。这种限制会阻碍模型学习复杂的模式,例如手写数字的曲线或人脸的特征。 手写数字的曲线或人脸的特征。
激活函数的主要目的是将输入值映射到所需范围并引入复杂性。 根据模型架构和当前任务的具体要求选择不同的函数、 如计算机视觉 (CV)或语言 处理。
激活函数是现代人工智能系统决策能力背后的引擎。它们的选择 直接影响实时推理的准确性和速度。 实时推理的准确性和速度。
开发人员可以使用诸如 PyTorch.下面的示例演示了不同 函数如何转换相同的输入数据。
import torch
import torch.nn as nn
# Sample data: a tensor with negative, zero, and positive values
data = torch.tensor([-2.0, 0.0, 2.0])
# Define activation functions
relu = nn.ReLU()
sigmoid = nn.Sigmoid()
# Apply functions to the data
# ReLU turns negatives to 0; keeps positives unchanged
print(f"ReLU Output: {relu(data)}")
# Expected: tensor([0., 0., 2.])
# Sigmoid squashes values between 0 and 1
print(f"Sigmoid Output: {sigmoid(data)}")
# Expected: tensor([0.1192, 0.5000, 0.8808])
有关实现的全面细节,请参阅 PyTorch 关于非线性激活的文档。
将激活函数与学习过程中的其他基本组成部分区分开来是很有帮助的:

