登录    |    注册

激活函数(AcTIvaTIon Function)

2020-09-09 16:42:59

为了让神经网络能够学习复杂的决策边界(decision boundary),我们在其一些层应用一个非线性激活函数。常用的函数有sigmoid、tanh、ReLU(RecTIfied Linear Unit 线性修正单元)和以及这些函数的变体。