YOLOv8添加注意力机制方法
注意力机制示例1:MHSA
1、 注意力机制文件放在nn文件夹下
2、 task.py文件导入注意力机制文件
3、 task.py中parse_model函数添加elif语句:
注意是in
4、 改模型配置文件
原模型(左图)和添加注意力机制后的(右图)
这里的参数要看MHSA的参数要求
该注意力机制属于有参数的
注意力机制示例2:ShuffleAttention
1、 nn文件夹下添加.py文件,task.py文件导入ShuffleAttention
2、 parse_model函数添加elif语句,由于该注意力机制也接收通道数为参数,所以方法和MHSA相同,如图所示:
3、看注意力机制源码的参数
注意力机制示例3:SiAM
1、 该注意力机制不接受参数,故直接在task.py中导入即可
2、 修改yaml文件后即可运行