论文阅读——UniRepLKNet

UniRepLKNet: A Universal Perception Large-Kernel ConvNet for Audio, Video, Point Cloud, Time-Series and Image Recognition

        当我们将一个3×3的conv添加到一个小卷积核ConvNet中时,我们预计它会同时产生三种效果——1)使感受野更大,2)增加空间模式的抽象层次(例如,从角度和纹理到对象的形状),3)通过使其更深入,引入更多可学习的参数和非线性,来提高模型的一般表示能力。相比之下,我们认为,在大卷积核架构中,这三种影响应该解耦,因为模型应该利用大卷积核的实质性优势——即不深入就可以看到广泛的东西。由于在扩大感受野时,增加卷积核大小比堆叠更多层要有效得多,因此可以用少量的大卷积核层来建立足够的ERF,从而可以为其他有效结构节省计算预算,这些结构在增加空间模式的抽象层次或通常增加深度方面更有效。

Dilated Reparam Block

膨胀卷积中忽略输入的像素相当于将额外的零项插入到conv卷积核中,因此具有小卷积核的膨胀conv层可以等效地转换为具有稀疏较大内核的非膨胀(即,r=1)层。

原来的卷积核:

插零后:

可以通过步长为r的转置卷积实现:

Reparam块,它使用一个非膨胀的小卷积核和多个膨胀的小卷积核层来增强非膨胀的大卷积核conv层。大核大小K,平行的卷积层大小k,膨胀率r,

另外设计了四个结构加深模型:

不同卷积核:

不同模块:

不同大小模型:

在不同任务的表现:

相关推荐

  1. 论文阅读笔记】清单

    2023-12-27 14:02:02       77 阅读

最近更新

  1. docker php8.1+nginx base 镜像 dockerfile 配置

    2023-12-27 14:02:02       98 阅读
  2. Could not load dynamic library ‘cudart64_100.dll‘

    2023-12-27 14:02:02       106 阅读
  3. 在Django里面运行非项目文件

    2023-12-27 14:02:02       87 阅读
  4. Python语言-面向对象

    2023-12-27 14:02:02       96 阅读

热门阅读

  1. 腾讯云国外服务器价格表免费公网IP地址

    2023-12-27 14:02:02       71 阅读
  2. MySQL5.7服务器状态变量参考

    2023-12-27 14:02:02       61 阅读
  3. ASP.NET Core认证原理和实现

    2023-12-27 14:02:02       53 阅读
  4. LLaMA-2 下载&demo使用

    2023-12-27 14:02:02       54 阅读
  5. 【数字IC设计】Verilog计算x/255的商和余数

    2023-12-27 14:02:02       66 阅读
  6. 微信小程序实现一个电影信息查询的应用程序

    2023-12-27 14:02:02       56 阅读