【动手学深度学习】(七)丢弃法

一、理论知识

1.动机

  • 一个好的模型需要对输入数据的扰动鲁棒
    • 使用有噪音的数据等价于Tikhonov正则
    • 丢弃法:在层之间加入噪音
      2.无偏差的加入噪音
  • 对x加入噪音得到x’,我们希望
    在这里插入图片描述
  • 丢弃法对每个元素进行如下扰动在这里插入图片描述

在这里插入图片描述
3.使用场景

  • 通常将丢弃法作用在隐藏全连接层的输出上
    在这里插入图片描述
    4.推理中的丢弃法
  • 正则项只在训练中使用:他们影响模型参数的更新
  • 在推理过程中,丢弃法直接返回输出
    在这里插入图片描述
    总结:
  • 丢弃法将一些输出项随机置0来控制模型复杂度
  • 常作用在多层感知机的隐藏层输出上
  • 丢弃概率是控制模型复杂度的超参数

二、代码实现

2.1从零开始实现Dropout

import torch
from torch import nn
from d2l import torch as d2l

def dropout_layer(X, dropout):
    assert 0 <= dropout <= 1
    if dropout == 1:
#         全置0,即全丢弃
        return torch.zeros_like(x)
    if dropout == 0:
#         全保留
        return X
#     掩码中的元素大于 dropout 的值时为 True,表示该元素丢弃;
    mask = np.random.uniform(0, 1, X.shape) > dropout
#     mask = (torch.randn(X.shape) > dropout).float()
# 进行归一化,保持期望不变
    return mask.astype(np.float32) * X / (1.0 - dropout)

需要解释一下最后为什么需要进行归一化(即对保留的元素进行缩放)

在进行 Dropout 操作时,为了保持期望值不变,需要对被保留的神经元的输出进行归一化。Dropout 实际上是在训练期间按照一定概率随机将某些神经元的输出置零,这样可以防止模型过拟合。
假设在一个 Dropout 操作中,有一部分神经元被保留,而一部分被置零。那么为了保持期望值不变,就需要对被保留的神经元的输出进行归一化。这是因为在测试阶段,所有神经元都会参与预测,而在训练阶段,有一部分参与训练。如果在训练时不对被保留的神经元的输出进行归一化,那么在测试时整体的输出值就会偏大,因为所有神经元都要参与预测。

具体而言,对于被保留的神经元,其输出值 X 会乘以一个缩放因子,即 1.0 / (1.0 -dropout)。这样,在训练阶段,因为有一部分神经元被置零,乘以缩放因子后可以保持整体期望值不变。在测试阶段,因为所有神经元都是活跃的,这个缩放因子就等于1,不影响整体输出。

所以,通过除以 (1.0 - dropout) 进行归一化,可以在 Dropout操作中保持整体期望值不变,确保在训练和测试阶段输出值的一致性。
训练时输出的期望是E(x)=[(1-p)x+p*0]/(1-p) = x
测试阶段的期望值等于模型的实际输出,X

测试dropout_layer函数

X= torch.arange(16, dtype = torch.float32).reshape((2, 8))
print(X)
print(dropout_layer(X, 0.))
print(dropout_layer(X, 0.5))
print(dropout_layer(X, 1.))

tensor([[ 0., 1., 2., 3., 4., 5., 6., 7.],
[ 8., 9., 10., 11., 12., 13., 14., 15.]])
tensor([[ 0., 1., 2., 3., 4., 5., 6., 7.],
[ 8., 9., 10., 11., 12., 13., 14., 15.]])
tensor([[ 0., 0., 0., 0., 8., 10., 0., 14.],
[ 0., 0., 20., 22., 0., 0., 0., 30.]])
tensor([[0., 0., 0., 0., 0., 0., 0., 0.],
[0., 0., 0., 0., 0., 0., 0., 0.]])
定义具有两个隐藏层的多层感知机,每个隐藏层包含256个单元

num_inputs, num_outputs, num_hiddens1, num_hiddens2 = 784, 10, 256, 256

dropout1, dropout2 = 0.2, 0.5

class Net(nn.Module):
    def __init__(self, num_inputs, num_outputs, num_hiddens1, num_hiddens2,
                is_training=True):
        super(Net, self).__init__()
        self.num_inputs = num_inputs
        self.training = is_training
        self.lin1 = nn.Linear(num_inputs, num_hiddens1)
        self.lin2 = nn.Linear(num_hiddens1, num_hiddens2)
        self.lin3 = nn.Linear(num_hiddens2, num_outputs)
        self.relu = nn.ReLU()
        
    def forward(self, X):
        H1 = self.relu(self.lin1(X.reshape(-1, self.num_inputs)))
#         只有在训练模型时才使用dropout
        if self.training == True:
           # 在第一个全连接层之后添加一个dropout层
            H1 = dropout_layer(H1, dropout1)
        H2 = self.relu(self.lin2(H1))
        if self.training == True:
             # 在第二个全连接层之后添加一个dropout层
            H2 = dropout_layer(H2, dropout2)
        out = self.lin3(H2)
        return out
    
net = Net(num_inputs, num_outputs, num_hiddens1, num_hiddens2)

训练和测试

# 训练和测试
num_epochs, lr, batch_size = 10, 0.5, 256
loss = nn.CrossEntropyLoss(reduction='none')
train_iter, test_iter = d2l.load_data_fashion_mnist(batch_size)
train_iter.num_workers = 0
test_iter.num_workers = 0
trainer = torch.optim.SGD(net.parameters(), lr=lr)
d2l.train_ch3(net, train_iter, test_iter, loss, num_epochs, trainer)

在这里插入图片描述

2.2简洁实现

# 只需要在每个全连接层之后添加一个Dropout层
# 在训练时,Dropout层将根据指定的暂退概率随机丢弃上一层的输出
net = nn.Sequential(nn.Flatten(),
        nn.Linear(784, 256),
        nn.ReLU(),
#       在第一个连接层之后添加一个dropout层
        nn.Dropout(dropout1),
        nn.Linear(256, 256),
        nn.ReLU(),
#       在第二个连接层之后添加一个dropout层
        nn.Dropout(dropout2),
        nn.Linear(256, 10))

def init_weights(m):
#     print(m)
    if type(m) == nn.Linear:
        nn.init.normal_(m.weight, std=0.01)
        
net.apply(init_weights);
# 训练和测试
trainer = torch.optim.SGD(net.parameters(), lr=lr)
d2l.train_ch3(net, train_iter, test_iter, loss, num_eopchs, trainer)

在这里插入图片描述

【相关总结】

np.random.uniform(low,high,size)

生成服从[low,high)范围内的均匀分布的元素。

low:生成元素值的下界(默认为0)
high:生成元素值的上界(默认为1)
size:输出设置

import numpy as np

# 默认为[0,1)的均匀分布
arr = np.random.uniform()
print(arr)

# 指定low,high
arr = np.random.uniform(2, 8)
print(arr)

# 指定size
arr = np.random.uniform(2,8, (3,3))
print(arr)

0.8091521937664127
7.354698032780574
[[2.43782389 4.08495999 2.84664462]
[5.61473981 6.99573442 7.15074041]
[3.27288764 2.22821273 5.99610331]]

astype

转换数组数据类型

import numpy as np

# 创建一个整数数组
arr_int = np.array([1, 2, 3, 4, 5])

# 将整数数组转换为浮点数数组
arr_float = arr_int.astype(np.float32)

print(arr_float)

[1. 2. 3. 4. 5.]

# 创建一个布尔数组
arr_bool = np.array([True, False, True, False])

# 将布尔数组转换为整数数组
arr_int_from_bool = arr_bool.astype(np.int)

print(arr_int_from_bool)

[1 0 1 0]

torch.rand()

用于生成随机数,生成在区间 [0, 1) 内均匀分布的随机数,包括 0,但不包括 1。

import torch

# 生成一个包含随机数的张量,形状为 (3, 4)
random_tensor = torch.rand(3, 4)

print(random_tensor)

tensor([[0.2901, 0.8945, 0.7689, 0.5298],
[0.6336, 0.8918, 0.8178, 0.8453],
[0.0051, 0.8169, 0.1454, 0.9368]])

如果需要生成在其他区间的随机数,可以通过适当的缩放和平移来实现。例如,如果要生成在区间 [a, b) 内均匀分布的随机数,可以使用:

tensor([[3.1698, 2.7084, 2.2045, 4.5003],
[3.1167, 4.5860, 3.7704, 4.0340],
[3.1466, 2.3846, 4.7165, 4.7822]])

相关推荐

  1. 动手深度学习——pandas

    2023-12-08 13:38:04       10 阅读
  2. 动手深度学习——tensor

    2023-12-08 13:38:04       11 阅读
  3. 动手深度学习深度学习计算

    2023-12-08 13:38:04       28 阅读
  4. 动手深度学习|notebook教程

    2023-12-08 13:38:04       21 阅读

最近更新

  1. TCP协议是安全的吗?

    2023-12-08 13:38:04       16 阅读
  2. 阿里云服务器执行yum,一直下载docker-ce-stable失败

    2023-12-08 13:38:04       16 阅读
  3. 【Python教程】压缩PDF文件大小

    2023-12-08 13:38:04       15 阅读
  4. 通过文章id递归查询所有评论(xml)

    2023-12-08 13:38:04       18 阅读

热门阅读

  1. Spring Task

    2023-12-08 13:38:04       39 阅读
  2. Swagger PHP Thinkphp 接口文档

    2023-12-08 13:38:04       47 阅读
  3. 一、C#笔记

    2023-12-08 13:38:04       34 阅读
  4. QT学习随记 (二)—— QT基础

    2023-12-08 13:38:04       38 阅读
  5. 一起学习云计算

    2023-12-08 13:38:04       36 阅读
  6. 我的创作纪念日

    2023-12-08 13:38:04       51 阅读
  7. Ubuntu环境下使用nginx实现强制下载静态资源

    2023-12-08 13:38:04       37 阅读
  8. Ubuntu开机出现Welcome to emergency mode解决办法

    2023-12-08 13:38:04       58 阅读
  9. Appium:iOS部署

    2023-12-08 13:38:04       35 阅读
  10. 源代码编译cuda opencv

    2023-12-08 13:38:04       39 阅读