当前位置: 首页 > news >正文

24/10/12 算法笔记 AlexNet

AlexNet采用深度网络结构,由8层组成,包括5个卷积和3个全连接层,这种深度结构使得网络能够学习到更复杂的特征表示

1.ReLU激活函数:

首次成功的在较深的网络中使用ReLU激活函数,解决了梯度消失问题,加快了训练速度

2.Dropout正则化:

为了减少过拟合,在全连接层1引入dropout机制随机丢弃一部分神经元的激活输出

3.局部响应归一化LRN:

这是一种规范化技术,用于控制神经元的激活强度,增强模型泛化能力。

4.重叠池化:

池化窗口的步长小于窗口大小,有效扩大训练集,减少过拟合

5.多GPU:

采用两块GPU并行训练,提高训练效率

net = nn. Sequential()
net.add(nn.Conv2D(96,kernel_size=11,strides = 4,activation='relu'),nn.MaxPool2D(pool_size=3,strides=2),nn.Conv2D(256,kernel_size=5,padding=2,activation='relu'),nn.MaxPool2D(pool_size=3,strides=2),nn.Conv2D(384,kernel_size=3,padding=1,activation='relu'),nn.Conv2D(384, kernel_size=3, padding=1, activation='relu'),nn.Conv2D(256, kernel_size=3, padding=1, activation='relu'),nn.MaxPool2D(pool_size=3, strides=2),nn.Dense(4096, activation='relu'), nn.Dropout(0.5),nn.Dense(4096, activation='relu'), nn.Dropout(0.5),nn.Dense(10))

看一下AlexNet好在哪里:

首先就是深度足够深,能学习复杂的特征表示

使用不同大小的卷积核来捕捉不同尺度的特征,较大的卷积核能够捕捉图像中粗略特征,较小的能捕捉更精细的特征。

使用填充,保持或减少特征图的空间尺寸,有助于保留更多信息。

使用正则化,减少过拟合,提高泛化能力

全连接层能将学习到的特征映射到最终的输出,这里使用两个4096个神经元的全连接层,有助于学习特征的高层次表示


http://www.mrgr.cn/news/48965.html

相关文章:

  • ES6语法有哪些
  • Win10自带录屏神器?这4款工具让你秒变剪辑达人!
  • Smartfusion2开发环境的搭建
  • 编译原理——扫描器设计与实现
  • 视觉检测开源库-功能包框架搭建
  • 多态(二)
  • 电脑健康检查用什么软件好 电脑健康状况检查工具在哪里
  • [Raspberry Pi]如何在Ubuntu的python venv虛擬環境中,運行YOLOv5 物件辨識功能?
  • CSP-J
  • SBB Local Interface 详解
  • select poll epoll 的区别和联系 以及 应用场景
  • 代码随想录打卡Day57
  • 自动猫砂盆真的有必要吗?买自动猫砂盆不看这四点小心害死猫。
  • Linux内核 -- 文件系统之超级块 super_operations 字段作用与用法
  • 过滤器和拦截器的区别是什么?
  • Jain SLEE 中 Addresses
  • 机器学习中的模型设计与训练流程详解
  • SQL优化 where谓词条件is null优化
  • 秋窗的一周年创作纪念日
  • 【fisco学习记录2】多群组搭建