深度卷积神经网络(AlexNet)

文章目录

简介

AlexNet由八层组成:五个卷积层、两个全连接隐藏层和一个全连接输出层。
AlexNet使用ReLU而不是sigmoid作为其激活函数。
在这里插入图片描述

import torch
from torch import nn

net = nn.Sequential(
    # 这里使用一个11*11的更大窗口来捕捉对象。
    # 同时,步幅为4,以减少输出的高度和宽度。
    # 另外,输出通道的数目远大于LeNet
    nn.Conv2d(1, 96, kernel_size=11, stride=4, padding=1), nn.ReLU(),
    nn.MaxPool2d(kernel_size=3, stride=2),
    # 减小卷积窗口,使用填充为2来使得输入与输出的高和宽一致,且增大输出通道数
    nn.Conv2d(96, 256, kernel_size=5, padding=2), nn.ReLU(),
    nn.MaxPool2d(kernel_size=3, stride=2),
    # 使用三个连续的卷积层和较小的卷积窗口。
    # 除了最后的卷积层,输出通道的数量进一步增加。
    # 在前两个卷积层之后,汇聚层不用于减少输入的高度和宽度
    nn.Conv2d(256, 384, kernel_size=3, padding=1), nn.ReLU(),
    nn.Conv2d(384, 384, kernel_size=3, padding=1), nn.ReLU(),
    nn.Conv2d(384, 256, kernel_size=3, padding=1), nn.ReLU(),
    nn.MaxPool2d(kernel_size=3, stride=2),
    nn.Flatten(),
    # 这里,全连接层的输出数量是LeNet中的好几倍。使用dropout层来减轻过拟合
    nn.Linear(6400, 4096), nn.ReLU(),
    nn.Dropout(p=0.5),
    nn.Linear(4096, 4096), nn.ReLU(),
    nn.Dropout(p=0.5),
    # 最后是输出层。由于这里使用Fashion-MNIST,所以用类别数为10,而非论文中的1000
    nn.Linear(4096, 10))

相关推荐

最近更新

  1. docker php8.1+nginx base 镜像 dockerfile 配置

    2024-04-02 05:48:08       94 阅读
  2. Could not load dynamic library ‘cudart64_100.dll‘

    2024-04-02 05:48:08       100 阅读
  3. 在Django里面运行非项目文件

    2024-04-02 05:48:08       82 阅读
  4. Python语言-面向对象

    2024-04-02 05:48:08       91 阅读

热门阅读

  1. 双端队列,LeetCode 2810. 故障键盘

    2024-04-02 05:48:08       37 阅读
  2. ChatGPT技巧分享:如何用AI提升学术写作水平

    2024-04-02 05:48:08       45 阅读
  3. GPIO引脚编号计算公式

    2024-04-02 05:48:08       36 阅读
  4. 抖音短剧小程序挂载短剧系统开发

    2024-04-02 05:48:08       34 阅读
  5. MATLAB中读取NetCDF(.nc)文件中的group中的数据

    2024-04-02 05:48:08       38 阅读
  6. matlab用代码写泰勒函数

    2024-04-02 05:48:08       41 阅读