6、RReLU函数
对应的论文链接:https://arxiv.org/pdf/1505.00853.pdf
6.1 公式
RReLU函数的公式:
f ( x ) = { x , x > = 0 α x , x < 0 f(x) = \begin{cases} x&,x>=0 \\ \alpha x&,x<0 \end{cases} f(x)={xαx,x>=0,x<0
RReLU函数的导函数:
f ′ ( x ) = { 1 , x > = 0 α , x < 0 f'(x) = \begin{cases} 1&,x>=0 \\ \alpha &,x<0 \end{cases} f′(x)={1α,x>=0,x<0
6.2 优点与不足
RReLU函数(ReLU的改进):
1、RReLU和PReLU的表达式一样,但𝛼α参数不一样,这里的𝛂α是个随机震荡的数,范围(pytorch):1/8~1/3。(对应图的参数为lower =1/8,upper =1/3)
3、RReLU(随机校正线性单元)。在RReLU中,负部分的斜率在训练中被随机化到给定的范围内,然后再测试中被固定。在最近的Kaggle国家数据科学碗(NDSB)比赛中,由于RReLU的随机性,它可以降低过拟合。因此RReLU是有利的,而在大数据的情况下,未来还需要做更多的研究。