# yolov5v改进
## 一、性能改进
### 24[0,26]添加RFAConv注意力卷积
RFA不仅关注感受野空间特征,而且为大尺寸卷积核提供了有效的注意力权重。
### 6[0,20]添加BiFormer注意力机制(小目标涨点)
BiFomer模块 提出了 一种动态的稀疏注意力机制 。首先在宏观上 过滤掉大部分不相关的 key 与 value ,只保留下一小部分相关的 key 和 value。然后 在这一小部分相关 key 与 value 中使用 token -to-token 注意力 。
### 8[0,19]替换主干网络之SwinTransformerV1
(1)基于局部窗口做注意力
(2)将层次性、局部性和平移不变性等先验引入Transformer网络结构设计
(3)关键部分是提出了Shift window移动窗口(W-MSA、SW-MSA),改进了ViT中忽略局部窗口之间相关性的问题。
(4)使用cyclic-shift 循环位移和mask机制,保证计算量不变,并忽略不相关部分的注意力权重
(5)加入了相对位置偏置B
### 10[0,10]替换主干网络之GhostNet
相比于有些轻量化网络去除掉这些冗余的特征图,GhostNet 选择低成本的办法来保留它们。
### 1[0,9]替换主干网络之EfficientNetv2
在训练速度和参数效率方面都优于之前的模型。
自适应的调整正则化和输入大小,通过实验证明该方法既加快了训练速度,同时也提高了准确性。
### 10[0,15]增加小目标检测层
### 3[0,13]更换SiLU激活函数
### 0[0,12]更换Neck之BiFPN
### 11[0,11]添加损失函数
WIoU Loss:解决质量较好和质量较差的样本间的BBR平衡问题
## 二、避免过拟合
### 增加背景图像
### 增加wiseiou
即5[0,11]添加损失函数
WIoU Loss:解决质量较好和质量较差的样本间的BBR平衡问题
### 增加分布移位卷积(DSConv)
[Yolov5/Yolov7优化:卷积变体---分布移位卷积(DSConv),提高卷积层的内存效率和速度_提高性能的卷积变体-CSDN博客](https://blog.csdn.net/m0_63774211/article/details/130399774)