当前位置: 首页 > news >正文

MicroNet关键代码解读(Micro-block与Dynamic Shift-Max的实现代码)

论文地址:https://arxiv.org/pdf/2011.12289
中文翻译:https://hpg123.blog.csdn.net/article/details/141772832?spm=1001.2014.3001.5502
发表时间:2022
项目地址:https://github.com/liyunsheng13/micronet

在MicroNet论文中提出了Micro-block与Dynamic Shift-Max,这里对其代码实现进行深入分析。最终结论是Micro-block的定义实现十分混乱,MicroNet比Moblienet强主要是深度分离卷积的性能没有充分挖掘到位,可以替换成conv1xk_group+convkx1_group的组合,从而在低flop的约束条件下实现了5个点左右的提升;另外一点是使用了带参数的激活函数,同时激活函数中提供了group间的数据交互,故再次提升了模型精度。

1、Micro-block

1.1 模块定义

在MicroNet论文中一共有Micro-Block-A、Micro-Block-B、Micro-Block-C三种模块设计。

Micro-Block-A 采用微因式点卷积和深度卷积的精简组合(见图 2-右),它主要适用在模型的浅层。需要注意的是,微因数深度卷积扩大了通道数,而分组自适应卷积则压缩了通道数。

Micro-Block-B 用于连接 Micro-Block-A 和 Micro-Block-C。与 Micro-Block-A 不同的是,它使用的是全 Micro-Factorized 点式卷积,其中包括两个组自适应卷积(如图 5b 所示)。前者压缩了通道数,后者则扩大了通道数。

微块-C(如图 5c 所示)使用了常规组合。 深度卷积和点卷积的正则组合。它用于模型的深层,因为与精简组合相比,它在通道融合(点上)上花费的计算量更大。
在这里插入图片描述

基于下列图片可以发现,Micro-block虽然使用了group conv,但基于Φ函数的shitf操作,是可以实现数据在不同group间的交互。
在这里插入图片描述

1.2 模块效果

首先通过论文中的表1可以发现Micro-Block-B 是一直只有一个,且介于A与C之间。
在这里插入图片描述
在block级别的对比中,可以发现Micro-block具备明显的涨点效果。
在这里插入图片描述
在与MobileNet的对比中可以发现在没有Shift-Max操作时,Micro就可以比Mobile高6个点了。这主要是因为MobileNet只是将conv拆解为深度分离卷积与点卷积,conv3x3的操作没有拆解;而在Micro中,将conv拆解为了conv3x1_group+full_group_connect+conv1x3_group,这种拆解相比MobileNet更高效。同时在保证相同flop的时候能具备更深的网络结构。
在这里插入图片描述

1.3 代码实现

以下代码推测是Micro-Block-A 的实现,可以发现是 kx1+bn+1xk+ChannelShuffle操作,对比DepthSpatialSepConv函数,发现实现上高度接近。

class ChannelShuffle(nn.Module):def __init__(self, groups):super(ChannelShuffle2, self).__init__()self.groups = groupsdef forward(self, x):b, c, h, w = x.size()channels_per_group = c // self.groups# reshapex = x.view(b, self.groups, channels_per_group, h, w)x = torch.transpose(x, 1, 2).contiguous()out = x.view(b, -1, h, w)return out######################################################################3
# part 3: new block
#####################################################################3class SpatialSepConvSF(nn.Module):def __init__(self, inp, oups, kernel_size, stride):super(SpatialSepConvSF, self).__init__()oup1, oup2 = oupsself.conv = nn.Sequential(nn.Conv2d(inp, oup1,(kernel_size, 1),(stride, 1),(kernel_size//2, 0),bias=False, groups=1),nn.BatchNorm2d(oup1),nn.Conv2d(oup1, oup1*oup2,(1, kernel_size),(1, stride),(0, kernel_size//2),bias=False, groups=oup1),nn.BatchNorm2d(oup1*oup2),ChannelShuffle(oup1),)def forward(self, x):out = self.conv(x)return out

在追溯DYMicroBlock代码中并为明确发现Micro-Block-A、Micro-Block-B、Micro-Block-C的定义。但发现了不少ChannelShuffle操作,这表明在conv_group模型中,通道间的交互是不可少的。
在这里插入图片描述

2、Dynamic Shift-Max

2.1 模块定义

在MicroNet中提到了一种新的激活函数–动态 Shift-Max函数,以增强非线性。它能动态地将输入特征图与它的环形组移动进行动态融合,以group为移动单位进行移动。Dynamic Shift-Max 还能
加强组之间的联系。这是对Micro-Factorized pointwise convolution的补充,侧重于组内连接的互补性。

其具体作用如图4所示,对channel以group为单位进行循环移动,并基于fc映射后动态输出max值。
在这里插入图片描述

2.2 模块效果

Shift-Max模块的效果如下所示,可以看到相比于不加之前,top1 acc提升了2.7%,而当使用dynamic shift-max后,top1 acc相比于不加提升了6.8%。可以发现Shift-Max模块是MicroNet的涨点关键。其对于分组卷积提供了group间的特征互动,同时相比于普通的激活函数,其是带可训练参数的模型。
在这里插入图片描述
同时在与其他同类型激活函数对比中,可以发现使用Dynamic Shift-Max时更加有效;同时Dynamic ReLU也证明了在低flop模型中也具有显著的作用,只是在group conv中略有不殆。
在这里插入图片描述

2.3 代码实现

class DYShiftMax(nn.Module):def __init__(self, inp, oup, reduction=4, act_max=1.0, act_relu=True, init_a=[0.0, 0.0], init_b=[0.0, 0.0], relu_before_pool=False, g=None, expansion=False):super(DYShiftMax, self).__init__()self.oup = oupself.act_max = act_max * 2self.act_relu = act_reluself.avg_pool = nn.Sequential(nn.ReLU(inplace=True) if relu_before_pool == True else nn.Sequential(),nn.AdaptiveAvgPool2d(1))self.exp = 4 if act_relu else 2self.init_a = init_aself.init_b = init_b# determine squeezesqueeze = _make_divisible(inp // reduction, 4)if squeeze < 4:squeeze = 4print('reduction: {}, squeeze: {}/{}'.format(reduction, inp, squeeze))print('init-a: {}, init-b: {}'.format(init_a, init_b))self.fc = nn.Sequential(nn.Linear(inp, squeeze),nn.ReLU(inplace=True),nn.Linear(squeeze, oup*self.exp),h_sigmoid())if g is None:g = 1self.g = g[1]if self.g !=1  and expansion:self.g = inp // self.gprint('group shuffle: {}, divide group: {}'.format(self.g, expansion))self.gc = inp//self.gindex=torch.Tensor(range(inp)).view(1,inp,1,1)index=index.view(1,self.g,self.gc,1,1)indexgs = torch.split(index, [1, self.g-1], dim=1)indexgs = torch.cat((indexgs[1], indexgs[0]), dim=1)indexs = torch.split(indexgs, [1, self.gc-1], dim=2)indexs = torch.cat((indexs[1], indexs[0]), dim=2)self.index = indexs.view(inp).type(torch.LongTensor)self.expansion = expansiondef forward(self, x):x_in = xx_out = xb, c, _, _ = x_in.size()y = self.avg_pool(x_in).view(b, c)y = self.fc(y).view(b, self.oup*self.exp, 1, 1)y = (y-0.5) * self.act_maxn2, c2, h2, w2 = x_out.size()x2 = x_out[:,self.index,:,:]if self.exp == 4:a1, b1, a2, b2 = torch.split(y, self.oup, dim=1)a1 = a1 + self.init_a[0]a2 = a2 + self.init_a[1]b1 = b1 + self.init_b[0]b2 = b2 + self.init_b[1]z1 = x_out * a1 + x2 * b1z2 = x_out * a2 + x2 * b2out = torch.max(z1, z2)elif self.exp == 2:a1, b1 = torch.split(y, self.oup, dim=1)a1 = a1 + self.init_a[0]b1 = b1 + self.init_b[0]out = x_out * a1 + x2 * b1return out

http://www.mrgr.cn/news/17331.html

相关文章:

  • postgis
  • Vue 全局数据:提升开发效率的利器
  • Go语言的前世今生与未来展望
  • ⾳频重采样及基本概念
  • 数据结构:(LeetCode101)对称二叉树
  • 驱动开发系列17 - PCI总线
  • World of Warcraft [CLASSIC][80][Grandel]Sapphire Hive Drone
  • C语言中的预处理指令的其中之一——#line
  • 《JavaEE进阶》----7.<SpringMVC实践项目:【登录页面的验证】>
  • 产品入门篇笔记
  • 系统编程--进程间通信
  • 嵌入式Linux C应用编程指南-进程、线程(速记版)
  • ECC密码与RSA
  • 精度:Fine-Grained Egocentric Hand-Object Segmentation
  • 第三篇——数学的可预见性:如何用推理走出认知盲区?
  • 安装python软件
  • 设置开机自动挂载硬盘
  • 树状数组C/C++实现
  • ACL学习笔记
  • vue , 微信小程序 , uni-app绑定变量属性