涨点神器:基于Yolov5/Yolov7的小目标性能提升

1.小目标介绍         目标检测近十年涌现了一大批如Faster R-CNN、RetinaNet、YOLO等可以在工业界实用的目标检测方法,但小目标检测性能差的问题至今也没有被完全解决。因为Swin Transformer的提出,COCO test-dev上的 AP 已经刷到64 ,但小目标检测性能(即APS )和大目标检测性能(即 APL )仍然差距悬殊。从某方面讲,现在COCO刷不上去的一...

涨点神器:基于Yolov8的SPD-Conv,低分辨率图像和小物体涨点明显

 1.论文简介  论文:https://arxiv.org/pdf/2208.03641v1.pdf github:SPD-Conv/YOLOv5-SPD at main · LabSAINT/SPD-Conv · GitHub 摘要:卷积神经网络(CNNs)在计算即使觉任务中如图像分类和目标检测等取得了显著的成功。然而,当图像分辨率较低或物体较小时,它们的性能会灾难性下降。这是由于现有CNN常见的设...

Yolov8实战:交通roadsign识别,通过加入CVPR203 DCNV3和BiLevelRoutingAttention,暴力涨点

]] # Detect(P3, P4, P5) 3.总结 通过加入cvpr2023中的DCNV3和BiLevelRoutingAttention来提升检测精度,最终map从0.841提升至0.903,涨点效果明显且创新程度较高,能够发论文级别;...

涨点神器:FocalNet焦点调制注意力模块引入Yolov5/Yolov7,暴力涨点

1.Focal modulation networks介绍 论文:https://arxiv.org/pdf/2203.11926.pdf         在Transformers中,自注意力(SA)可以说是其成功的关键,它支持依赖于输入的全局交互。但尽管有这些优势,由于自注意力二次的计算复杂度效率较低,尤其是对于高分辨率输入。因此,作者提出了focal modulation network(Foc...

基于Yolov5的NEU-DET钢材表面缺陷检测,优化组合新颖程度较高:CVPR2023 DCNV3和InceptionNeXt,涨点明显

1.钢铁缺陷数据集介绍 NEU-DET钢材表面缺陷共有六大类,分别为:'crazing','inclusion','patches','pitted_surface','rolled-in_scale','scratches' 每个类别分布为: 训练结果如下: 2.基于yolov5s的训练 map值:   2.1  Inception-MetaNeXtStage 对应博客:https://cv2023...

基于Yolov5/Yolov7的DRConv动态区域感知卷积,即插即用,涨点显著!

1.Dynamic Region-Aware Convolution  论文:https://arxiv.org/pdf/2003.12243.pdf 本文提出了一种新的卷积算法,称为动态区域卷积算法(DRConv) ,该算法能够自动将滤波器分配到相应的空间区域,因此,DRConv具有强大的语义表示能力,并完美地保持了平移不变性。  DRConv的结构如上图所示,首先用标准卷积从输入生成引导特征,然...

注意力机制:基于Yolov8的Triplet注意力模块,即插即用,效果优于cbam、se,涨点明显

   论文:https://arxiv.org/pdf/2010.03045.pdf 本文提出了可以有效解决跨维度交互的triplet attention。相较于以往的注意力方法,主要有两个优点: 1.可以忽略的计算开销 2.强调了多维交互而不降低维度的重要性,因此消除了通道和权重之间的间接对应。         传统的计算通道注意力的方法为了计算这些通道的权值,输入张量在空间上通过全局平均池化分解为...

涨点技巧: 谷歌强势推出优化器Lion,引入到Yolov5/Yolov7,内存更小、效率更高,秒杀Adam(W)

1.Lion优化器介绍 论文:https://arxiv.org/abs/2302.06675 代码:automl/lion at master · google/automl · GitHub  1.1  简单、内存高效、运行速度更快 1)与 AdamW 和各种自适应优化器需要同时保存一阶和二阶矩相比,Lion 只需要动量,将额外的内存占用减半; 2)由于 Lion 的简单性,Lion 在我们的实验...

Yolov8 引入CVPR 2023 BiFormer: 基于动态稀疏注意力构建高效金字塔网络架构,对小目标涨点明显

 1.BiFormer介绍 论文:https://arxiv.org/pdf/2303.08810.pdf 代码:GitHub - rayleizhu/BiFormer: [CVPR 2023] Official code release of our paper "BiFormer: Vision Transformer with Bi-Level Routing Attention" 背景:注意力...

涨点神器:卷积变体DCNV2引入Yolov5/Yolov7,助力涨点

1.DCN V2介绍 DCN V2: Improved Deep & Cross Network and Practical Lessons for Web-scale Learning to Rank Systems 论文:https://arxiv.org/abs/2008.13535   作者通过在DCN的基础上,增加了2个创新点,分别是调制模块和使用多个调制后的DCN模块,从形成了DCN的升级...
© 2024 LMLPHP 关于我们 联系我们 友情链接 耗时0.013483(s)
2024-05-10 05:43:16 1715290996