当前位置: 首页 > news >正文

YOLO11改进 | 卷积模块 | 添加选择性内核SKConv【附完整代码一键运行】

秋招面试专栏推荐 :深度学习算法工程师面试问题总结【百面算法工程师】——点击即可跳转


💡💡💡本专栏所有程序均经过测试,可成功执行💡💡💡


在标准卷积神经网络 (CNN) 中,每层人工神经元的感受野被设计为具有相同的大小。在神经科学界众所周知,视觉皮层神经元的感受野大小受刺激调节,但在构建 CNN 时很少考虑这一点。然而动态的选择机制,允许每个神经元基于多种输入信息尺度自适应地调整其感受野大小。在本文中,给大家带来的教程是将原来的网络中C3k2块替换为SKConv或者单纯的添加SKconv。文章在介绍主要的原理后,将手把手教学如何进行模块的代码添加和修改,并将修改后的完整代码放在文章的最后,方便大家一键运行,小白也可轻松上手实践

专栏地址:YOLO11入门 + 改进涨点——点击即可跳转 欢迎订阅

目录

1.原理

2. SKConv代码实现

2.1 将SKConv代码添加到YOLO11中

2.2 更改init.py文件

2.3 在task.py中进行注册

2.4 添加yaml文件

2.5 执行程序

3.修改后的网络结构图

4. 完整代码分享

5. GFLOPs

6. 进阶

7.总结


1.原理

官方论文:Selective Kernel Networks——点击即可跳转

官方代码:代码仓库地址——点击即可跳转

SKconv是一种用于图像处理中的卷积神经网络(CNN)的卷积层变体。SKconv的全称是Selective Kernel Convolution,它引入了一种选择性内核机制,可以动态地选择不同尺寸的卷积核来捕捉不同尺度的特征。

SKconv的核心思想是引入一个注意力机制,允许网络在每个位置上选择性地聚焦于局部和全局特征之间的权衡。为了实现这一点,SKconv引入了三个部分:SK模块(Selective Kernel Module)、SK卷积操作和SK融合。

  1. SK模块:SK模块包括一个全局池化操作,用于捕捉全局信息,并通过一系列操作将全局信息与局部信息进行融合,以便在每个位置上动态选择适当的卷积核尺寸。

  2. SK卷积操作:在SKconv中,卷积核的选择不再是固定的,而是基于SK模块的输出动态确定的。这意味着在每个位置上,网络可以选择不同大小的卷积核来捕获局部和全局特征。

  3. SK融合:SKconv使用一种有效的方式将选择的不同尺寸的卷积核的输出进行融合,以产生最终的特征图。

SKconv的引入旨在提高CNN模型对不同尺度特征的表达能力,从而增强模型对于图像的感知能力和识别性能。通过动态地选择卷积核尺寸,SKconv可以更好地适应不同尺度的目标,提高了模型的泛化能力和鲁棒性。因此,SKconv已经被广泛应用于图像分类、目标检测和语义分割等任务中,并取得了较好的效果。

2. SKConv代码实现

2.1 将SKConv代码添加到YOLO11中

关键步骤一:将下面代码粘贴到在/ultralytics/ultralytics/nn/modules/conv.py中,并在该文件的_all_中添加“SKConv”

class SKConv(nn.Module):def __init__(self, features, WH, M=2, G=1, r=2, stride=1, L=32):""" ConstructorArgs:features: input channel dimensionality.WH: input spatial dimensionality, used for GAP kernel size.M: the number of branchs.G: num of convolution groups.r: the radio for compute d, the length of z.stride: stride, default 1.L: the minimum dim of the vector z in paper, default 32."""super(SKConv, self).__init__()d = max(int(features / r), L)self.M = Mself.features = featuresself.convs = nn.ModuleList([])for i in range(M):self.convs.append(nn.Sequential(nn.Conv2d(features,features,kernel_size=3 + i * 2,stride=stride,padding=1 + i,groups=G), nn.BatchNorm2d(features),nn.ReLU(inplace=False)))# self.gap = nn.AvgPool2d(int(WH/stride))# print("D:", d)self.fc = nn.Linear(features, d)self.fcs = nn.ModuleList([])for i in range(M):self.fcs.append(nn.Linear(d, features))self.softmax = nn.Softmax(dim=1)def forward(self, x):for i, conv in enumerate(self.convs):fea = conv(x).unsqueeze_(dim=1)if i == 0:feas = feaelse:feas = torch.cat([feas, fea], dim=1)fea_U = torch.sum(feas, dim=1)# fea_s = self.gap(fea_U).squeeze_()fea_s = fea_U.mean(-1).mean(-1)fea_z = self.fc(fea_s)for i, fc in enumerate(self.fcs):# print(i, fea_z.shape)vector = fc(fea_z).unsqueeze_(dim=1)# print(i, vector.shape)if i == 0:attention_vectors = vectorelse:attention_vectors = torch.cat([attention_vectors, vector],dim=1)attention_vectors = self.softmax(attention_vectors)attention_vectors = attention_vectors.unsqueeze(-1).unsqueeze(-1)fea_v = (feas * attention_vectors).sum(dim=1)return fea_v

SKconv的关键流程步骤主要包括SK模块的构建、SK卷积操作和SK融合。

  1. SK模块的构建

    • 首先,对于输入特征图,通过一个全局池化操作(通常是全局平均池化),得到一个全局特征向量。

    • 接着,通过几个全连接层或者卷积层,将全局特征向量映射到一个较低维度的表示,通常使用非线性激活函数来引入非线性。

    • 在SK模块中,通常还会引入一些规范化操作,如归一化或者正则化,以便更好地控制特征的范围和稳定性。

    • 最后,使用softmax函数或者sigmoid函数来生成一组权重,这些权重代表了每个位置上不同尺度卷积核的选择概率。

  2. SK卷积操作

    • 在SK卷积操作中,根据SK模块生成的权重,动态地选择不同尺寸的卷积核来对输入特征图进行卷积操作。

    • 对于每个位置,根据SK模块生成的权重,选择相应尺寸的卷积核,并在该位置上进行卷积操作。

    • 通常,SK卷积操作可以在单个卷积层中实现,但也可以通过串联多个卷积层来实现。

  3. SK融合

    • 在SK融合阶段,将不同尺寸卷积核的输出进行融合,以产生最终的特征图。

    • 通常,可以采用加权求和或者拼接的方式来融合不同尺寸卷积核的输出。

    • 在加权求和的情况下,使用SK模块生成的权重来对不同尺寸卷积核的输出进行加权求和。

    • 在拼接的情况下,将不同尺寸卷积核的输出在通道维度上拼接起来,形成最终的特征图。

这些步骤的关键是引入了一个选择性的机制,使得网络可以动态地选择不同尺寸的卷积核,从而更好地捕获局部和全局特征。这样的设计使得SKconv在处理不同尺度的目标时更加灵活和有效。

2.2 更改init.py文件

关键步骤二:修改modules文件夹下的__init__.py文件,先导入函数

 然后在下面的__all__中声明函数

2.3 在task.py中进行注册

关键步骤三:在parse_model函数中进行注册,添加SKConv,

2.4 添加yaml文件

关键步骤四:在/ultralytics/ultralytics/cfg/models/11下面新建文件yolo11_skconv.yaml文件,粘贴下面的内容

  • 目标检测 
# Ultralytics YOLO 🚀, AGPL-3.0 license
# YOLO11 object detection model with P3-P5 outputs. For Usage examples see https://docs.ultralytics.com/tasks/detect# Parameters
nc: 80 # number of classes
scales: # model compound scaling constants, i.e. 'model=yolo11n.yaml' will call yolo11.yaml with scale 'n'# [depth, width, max_channels]n: [0.50, 0.25, 1024] # summary: 319 layers, 2624080 parameters, 2624064 gradients, 6.6 GFLOPss: [0.50, 0.50, 1024] # summary: 319 layers, 9458752 parameters, 9458736 gradients, 21.7 GFLOPsm: [0.50, 1.00, 512] # summary: 409 layers, 20114688 parameters, 20114672 gradients, 68.5 GFLOPsl: [1.00, 1.00, 512] # summary: 631 layers, 25372160 parameters, 25372144 gradients, 87.6 GFLOPsx: [1.00, 1.50, 512] # summary: 631 layers, 56966176 parameters, 56966160 gradients, 196.0 GFLOPs# YOLO11n backbone
backbone:# [from, repeats, module, args]- [-1, 1, Conv, [64, 3, 2]] # 0-P1/2- [-1, 1, Conv, [128, 3, 2]] # 1-P2/4- [-1, 2, C3k2, [256, False, 0.25]]- [-1, 1, Conv, [256, 3, 2]] # 3-P3/8- [-1, 2, C3k2, [512, False, 0.25]]- [-1, 1, Conv, [512, 3, 2]] # 5-P4/16- [-1, 1, SKConv, [512, True]]- [-1, 1, Conv, [1024, 3, 2]] # 7-P5/32- [-1, 2, C3k2, [1024, True]]- [-1, 1, SPPF, [1024, 5]] # 9- [-1, 2, C2PSA, [1024]] # 10# YOLO11n head
head:- [-1, 1, nn.Upsample, [None, 2, "nearest"]]- [[-1, 6], 1, Concat, [1]] # cat backbone P4- [-1, 2, C3k2, [512, False]] # 13- [-1, 1, nn.Upsample, [None, 2, "nearest"]]- [[-1, 4], 1, Concat, [1]] # cat backbone P3- [-1, 2, C3k2, [256, False]] # 16 (P3/8-small)- [-1, 1, Conv, [256, 3, 2]]- [[-1, 13], 1, Concat, [1]] # cat head P4- [-1, 2, C3k2, [512, False]] # 19 (P4/16-medium)- [-1, 1, Conv, [512, 3, 2]]- [[-1, 10], 1, Concat, [1]] # cat head P5- [-1, 2, C3k2, [1024, True]] # 22 (P5/32-large)- [[16, 19, 22], 1, Detect, [nc]] # Detect(P3, P4, P5)
  • OBB
# Ultralytics YOLO 🚀, AGPL-3.0 license
# YOLO11 object detection model with P3-P5 outputs. For Usage examples see https://docs.ultralytics.com/tasks/detect# Parameters
nc: 80 # number of classes
scales: # model compound scaling constants, i.e. 'model=yolo11n.yaml' will call yolo11.yaml with scale 'n'# [depth, width, max_channels]n: [0.50, 0.25, 1024] # summary: 319 layers, 2624080 parameters, 2624064 gradients, 6.6 GFLOPss: [0.50, 0.50, 1024] # summary: 319 layers, 9458752 parameters, 9458736 gradients, 21.7 GFLOPsm: [0.50, 1.00, 512] # summary: 409 layers, 20114688 parameters, 20114672 gradients, 68.5 GFLOPsl: [1.00, 1.00, 512] # summary: 631 layers, 25372160 parameters, 25372144 gradients, 87.6 GFLOPsx: [1.00, 1.50, 512] # summary: 631 layers, 56966176 parameters, 56966160 gradients, 196.0 GFLOPs# YOLO11n backbone
backbone:# [from, repeats, module, args]- [-1, 1, Conv, [64, 3, 2]] # 0-P1/2- [-1, 1, Conv, [128, 3, 2]] # 1-P2/4- [-1, 2, C3k2, [256, False, 0.25]]- [-1, 1, Conv, [256, 3, 2]] # 3-P3/8- [-1, 2, C3k2, [512, False, 0.25]]- [-1, 1, Conv, [512, 3, 2]] # 5-P4/16- [-1, 1, SKConv, [512, True]]- [-1, 1, Conv, [1024, 3, 2]] # 7-P5/32- [-1, 2, C3k2, [1024, True]]- [-1, 1, SPPF, [1024, 5]] # 9- [-1, 2, C2PSA, [1024]] # 10# YOLO11n head
head:- [-1, 1, nn.Upsample, [None, 2, "nearest"]]- [[-1, 6], 1, Concat, [1]] # cat backbone P4- [-1, 2, C3k2, [512, False]] # 13- [-1, 1, nn.Upsample, [None, 2, "nearest"]]- [[-1, 4], 1, Concat, [1]] # cat backbone P3- [-1, 2, C3k2, [256, False]] # 16 (P3/8-small)- [-1, 1, Conv, [256, 3, 2]]- [[-1, 13], 1, Concat, [1]] # cat head P4- [-1, 2, C3k2, [512, False]] # 19 (P4/16-medium)- [-1, 1, Conv, [512, 3, 2]]- [[-1, 10], 1, Concat, [1]] # cat head P5- [-1, 2, C3k2, [1024, True]] # 22 (P5/32-large)- [[16, 19, 22], 1, OBB, [nc, 1]] # Detect(P3, P4, P5)

温馨提示:本文只是对yolo11基础上添加模块,如果要对yolo11n/l/m/x进行添加则只需要指定对应的depth_multiple 和 width_multiple。 


# YOLO11n
depth_multiple: 0.50  # model depth multiple
width_multiple: 0.25  # layer channel multiple
max_channel:1024# YOLO11s
depth_multiple: 0.50  # model depth multiple
width_multiple: 0.50  # layer channel multiple
max_channel:1024# YOLO11m
depth_multiple: 0.50  # model depth multiple
width_multiple: 1.00  # layer channel multiple
max_channel:512# YOLO11l 
depth_multiple: 1.00  # model depth multiple
width_multiple: 1.00  # layer channel multiple
max_channel:512 # YOLO11x
depth_multiple: 1.00  # model depth multiple
width_multiple: 1.50 # layer channel multiple
max_channel:512

2.5 执行程序

关键步骤五:在ultralytics文件中新建train.py,将model的参数路径设置为yolo11_skconv.yaml的路径即可

from ultralytics import YOLO
import warnings
warnings.filterwarnings('ignore')
from pathlib import Pathif __name__ == '__main__':# 加载模型model = YOLO("ultralytics/cfg/11/yolo11.yaml")  # 你要选择的模型yaml文件地址# Use the modelresults = model.train(data=r"你的数据集的yaml文件地址",epochs=100, batch=16, imgsz=640, workers=4, name=Path(model.cfg).stem)  # 训练模型

 🚀运行程序,如果出现下面的内容则说明添加成功🚀

                   from  n    params  module                                       arguments0                  -1  1       464  ultralytics.nn.modules.conv.Conv             [3, 16, 3, 2]1                  -1  1      4672  ultralytics.nn.modules.conv.Conv             [16, 32, 3, 2]2                  -1  1      6640  ultralytics.nn.modules.block.C3k2            [32, 64, 1, False, 0.25]3                  -1  1     36992  ultralytics.nn.modules.conv.Conv             [64, 64, 3, 2]4                  -1  1     26080  ultralytics.nn.modules.block.C3k2            [64, 128, 1, False, 0.25]5                  -1  1    147712  ultralytics.nn.modules.conv.Conv             [128, 128, 3, 2]6                  -1  1    164416  ultralytics.nn.modules.conv.SKConv           [128, 128, True]7                  -1  1    295424  ultralytics.nn.modules.conv.Conv             [128, 256, 3, 2]8                  -1  1    346112  ultralytics.nn.modules.block.C3k2            [256, 256, 1, True]9                  -1  1    164608  ultralytics.nn.modules.block.SPPF            [256, 256, 5]10                  -1  1    249728  ultralytics.nn.modules.block.C2PSA           [256, 256, 1]11                  -1  1         0  torch.nn.modules.upsampling.Upsample         [None, 2, 'nearest']12             [-1, 6]  1         0  ultralytics.nn.modules.conv.Concat           [1]13                  -1  1    111296  ultralytics.nn.modules.block.C3k2            [384, 128, 1, False]14                  -1  1         0  torch.nn.modules.upsampling.Upsample         [None, 2, 'nearest']15             [-1, 4]  1         0  ultralytics.nn.modules.conv.Concat           [1]16                  -1  1     32096  ultralytics.nn.modules.block.C3k2            [256, 64, 1, False]17                  -1  1     36992  ultralytics.nn.modules.conv.Conv             [64, 64, 3, 2]18            [-1, 13]  1         0  ultralytics.nn.modules.conv.Concat           [1]19                  -1  1     86720  ultralytics.nn.modules.block.C3k2            [192, 128, 1, False]20                  -1  1    147712  ultralytics.nn.modules.conv.Conv             [128, 128, 3, 2]21            [-1, 10]  1         0  ultralytics.nn.modules.conv.Concat           [1]22                  -1  1    378880  ultralytics.nn.modules.block.C3k2            [384, 256, 1, True]23        [16, 19, 22]  1    464912  ultralytics.nn.modules.head.Detect           [80, [64, 128, 256]]
YOLO11_SKConv summary: 296 layers, 2,701,456 parameters, 2,701,440 gradients, 6.8 GFLOPs

3.修改后的网络结构图

4. 完整代码分享

pan.bai【删】du.【删】com/s/1ybPkxdJje9PPahSmmZuTmA?pwd=seqs

提取码: seqs

5. GFLOPs

关于GFLOPs的计算方式可以查看百面算法工程师 | 卷积基础知识——Convolution

未改进的YOLO11n GFLOPs

改进后的GFLOPs 

6. 进阶

可以与其他的注意力机制或者损失函数等结合,进一步提升检测效果

7.总结

SKconv是一种图像处理中的卷积神经网络卷积层变体,其核心思想是引入选择性内核机制,允许网络动态地选择不同尺寸的卷积核,以捕获局部和全局特征之间的权衡。其关键流程包括构建SK模块、SK卷积操作和SK融合,通过全局池化、全连接层和softmax函数生成不同尺寸卷积核的选择权重,然后根据这些权重动态选择卷积核进行卷积操作,并最终通过加权求和或拼接融合不同尺寸卷积核的输出。SKconv提高了CNN模型对不同尺度特征的表达能力,增强了模型对图像的感知能力和识别性能,适用于图像分类、目标检测和语义分割等任务。


http://www.mrgr.cn/news/41880.html

相关文章:

  • 征程6 工具链常用工具和 API 整理(含新手示例)
  • 动态规划
  • Macos终端常用的命令行指令总结
  • Nodejs多版本切换工具NVM
  • csdn加目录,标题
  • 主动配电网故障恢复的重构与孤岛划分模型——代码
  • 【艾思科蓝】Python数据分析与可视化实战:从入门到进阶
  • 【大数据入门 | Hive】函数{单行函数,集合函数,炸裂函数,窗口函数}
  • [RabbitMQ] Spring Boot整合RabbitMQ
  • 【含文档】基于Springboot+Vue的海洋馆预约系统(含源码+数据库+lw)
  • 【机器学习】集成学习——提升模型准确度的秘密武器
  • C++ 语言特性12 - 联合体类型
  • 【MySQL】SQL介绍+基础+DDL+数据备份+还原
  • SQL高级语法
  • 【python面试宝典3】遍历文件夹
  • PlantUML中的实体关系图
  • 前端登录页面验证码
  • 制造业的工业控制系统(ICS)安全策略
  • 数据资料安全治理新时代,AI/ML 来助力!
  • 树莓派5里使用protobuf