机器学习中的数学——激活函数(六):Parametric ReLU(PReLU)函数

相关文章

PReLU

1. 数学公式:

PReLU(Parametric Rectified Linear Unit)是 ReLU 的改进版本
P  ⁣ ReLU ⁡ ( x ) = { x 若  x > 0 , a i x 若  x ≤ 0 P\!\operatorname{ReLU}(x) = \begin{cases} x & \text{若 } x > 0, \\ a_i x & \text{若 } x \leq 0 \end{cases} PReLU(x)={xaix x>0, x0

  • 参数说明:参数 α \alpha α通常为0到1之间的数字,并且通常相对较小
    • 如果 α i \alpha_i αi=0,退化为标准 ReLU。
    • 如果 α i \alpha_i αi>0,为固定小值(如 0.01)时,退化为 LeakyReLU
    • 如果 α i \alpha_i αi是可学习的参数,则PReLU(x)为PReLU函数

2. 特点:

  • 在负值域,PReLU的斜率较小,这也可以避免Dead ReLU问题。
  • 与ELU相比,PReLU 在负值域是线性运算。尽管斜率很小,但不会趋于0。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值