YOLOv9改进 添加可变形注意力机制DAttention

一、Deformable Attention Transformer论文

论文地址:arxiv.org/pdf/2201.00520.pdf

二、Deformable Attention Transformer注意力结构

Deformable Attention Transformer包含可变形注意力机制,允许模型根据输入的内容动态调整注意力权重。在传统的Transformer中,注意力是通过对查询和键向量之间的点积来确定的,然后将输入嵌入的加权和进行计算。然而,这种方法假设了一个刚性的注意力模式,其中每个查询都会参与固定的一组键。

在可变形注意力转换器中,注意力权重使用学习机制进行计算,该机制可以根据输入学习调整注意力模式。这使得模型能够捕捉输入的不同部分之间更复杂的关系,从而在需要建模长距离依赖或捕捉细粒度细节的任务上提供更好的性能。可变形注意力机制DAttention引入了额外的可学习参数,

最近更新

  1. TCP协议是安全的吗?

    2024-03-13 06:12:05       16 阅读
  2. 阿里云服务器执行yum,一直下载docker-ce-stable失败

    2024-03-13 06:12:05       16 阅读
  3. 【Python教程】压缩PDF文件大小

    2024-03-13 06:12:05       15 阅读
  4. 通过文章id递归查询所有评论(xml)

    2024-03-13 06:12:05       18 阅读

热门阅读

  1. 中间件面试题之ElasticSearch

    2024-03-13 06:12:05       21 阅读
  2. extern和static的使用与区别

    2024-03-13 06:12:05       20 阅读
  3. linux Shell 命令行-05-test 检查某个条件是否成立

    2024-03-13 06:12:05       22 阅读
  4. 【理解机器学习算法】之KNN(纯Python)

    2024-03-13 06:12:05       19 阅读
  5. 【无标题】

    2024-03-13 06:12:05       18 阅读
  6. ElasticSearch 集群安装

    2024-03-13 06:12:05       18 阅读
  7. Idea、VsCode、WebStorm常用插件

    2024-03-13 06:12:05       28 阅读
  8. vue的生命周期有那些

    2024-03-13 06:12:05       28 阅读
  9. Spring Boot面试系列-03

    2024-03-13 06:12:05       18 阅读
  10. 张量维度改变总结

    2024-03-13 06:12:05       19 阅读
  11. C#/.Net 多线程下载m3u8视频

    2024-03-13 06:12:05       18 阅读
  12. uniapp相关内容

    2024-03-13 06:12:05       16 阅读