torch.nn.ReLU(inplace=False)
ReLU(x)=max(0,x)
输入:
- inplace:是否改变输入数据,如果设置为
True
,则会直接修改输入数据;如果设置为False
,则不对输入数据做修改。默认为False
注意:
- 输入可以是任意尺寸的数
据,输出尺寸与输入尺寸相同import torch import torch.nn as nn from torch import autograd x = torch.randn(8) print(x) relu1 = nn.ReLU() a = relu1(x) print(a) 输出: tensor([ 0.4887, 0.1770, -1.7598, 0.4083, -0.6115, -0.6180, 1.0494, 0.0070]) tensor([0.4887, 0.1770, 0.0000, 0.4083, 0.0000, 0.0000, 1.0494, 0.0070])