YOLOv5改进系列:轻量化主干MobileVIT2结构助力降参涨点

一、论文理论

论文地址:Separable Self-attention for Mobile Vision Transformers

1.理论思想

将 MobileViTv1 中的Transformer块中的 MHA 替换为提出的可分离自注意力方法。我们将生成的架构称为 MobileViTv2。我们也没有在 MobileViT 块中使用skip-connection连接和融合块([4] 中的图 1b),因为它略微提高了性能([4] 中的图 12)。此外,为了创建不同复杂度的 MobileViTv2 模型,我们使用宽度乘数 α ∈ {0.5, 2.0} 统一缩放 MobileViTv2 网络的宽度。这与为移动设备训练三种特定架构(XXS、XS 和 S)的 MobileViTv1 形成对比

2.创新点

操作过程:

(1)将特征图通过一个卷积核大小为nxn(代码中是3x3)的卷积层进行局部的特征建模,然后通过一个卷积核大小为1x1的卷积层调整通道数<

最近更新

  1. docker php8.1+nginx base 镜像 dockerfile 配置

    2024-03-22 03:34:02       94 阅读
  2. Could not load dynamic library ‘cudart64_100.dll‘

    2024-03-22 03:34:02       100 阅读
  3. 在Django里面运行非项目文件

    2024-03-22 03:34:02       82 阅读
  4. Python语言-面向对象

    2024-03-22 03:34:02       91 阅读

热门阅读

  1. 【leetcode】动态规划专题

    2024-03-22 03:34:02       43 阅读
  2. 使用Tesseract识别中文 并提高精度

    2024-03-22 03:34:02       48 阅读
  3. React面试题

    2024-03-22 03:34:02       38 阅读
  4. CCF-CSP认证考试 202303-4 星际网络II 100分题解

    2024-03-22 03:34:02       36 阅读
  5. AOP+MySQL实现一个简历的日志收集工具

    2024-03-22 03:34:02       36 阅读
  6. C++ 小玉家的电费

    2024-03-22 03:34:02       40 阅读
  7. 【Python-Pandas】to_csv用法示例

    2024-03-22 03:34:02       41 阅读
  8. 【mybatis】MetaObject解读

    2024-03-22 03:34:02       45 阅读
  9. “横扫”时代的《大数据》

    2024-03-22 03:34:02       45 阅读
  10. 单目深度估计:从理论到实践

    2024-03-22 03:34:02       40 阅读