当前位置: 首页 > news >正文

Layer Normalization论文解读

基本信息

作者JL Badoi
发表时间2016期刊NIPS
网址https://arxiv.org/abs/1607.06450v1

研究背景

1. What’s known 既往研究已证实
batch Normalization对属于同一个Batch中的数据长度要求是相同的,不适合处理序列型的数据。因此它在NLP领域的RNN上效果并不显著,但在CV领域的CNN上效果显著。
2. What’s new 创新点
层内正则化方法,不依赖batch的大小,Layer Normalization 的作用是把神经网络中隐藏层归一为标准正态分布。

3. What’s are the implications 意义
LN是一种有效的正则化方法,也解决了BN在处理RNN和流式数据时遇到的问题,推动了深度学习的进一步发展。

研究方法

1. 嵌入维度
每一行数据有三个特征,假设这三个特征是【身高、体重、年龄】。那么BN是针对每一列(特征)进行缩放,例如算出【身高】的均值与方差,再对身高这一列的10个数据进行缩放。体重和年龄同理。这是一种“列缩放”。
针对每个位置进行缩放,这不符合NLP的规律。
当Batch size很小的时候,BN的效果就非常不理想了。在很多情况下,Batch size大不了,因为GPU的显存不够。
在这里插入图片描述
2. Layer Normalization
在每一个样本上计算均值和方差;用每一列的每一个元素减去这列的均值,再除以这列的标准差,从而得到归一化后的数值。
在这里插入图片描述
对数据进行归一化处理(均值为0,标准差为1),把数据分布强制统一在一个数据分布下,而且这一步不是一开始做的,而是在每次进行下一层之前都需要做的。也就是说,在网络的每一层输入之前增加一个当前数据归一化处理,然后再输入到下一层网络中去训练。
把神经网络中隐藏层归一为标准正态分布,也就是 独立同分布,以起到加快训练速度,加速收敛的作用。

联合训练图片和句子embedding上的表现,模型使用的是RNN。可以看出,LN能加速收敛,比BN的效果好。
在这里插入图片描述
参考文章:论文笔记 | Layer Normalization - 知乎
(zhihu.com)

结果与讨论

  1. (LN)的主要作用是解决内部协变量偏移,使得数据收敛加快,并且能够提高模型泛化能力,提高训练速度和稳定性。

重要图

文献中重要的图记录下来
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述


http://www.mrgr.cn/news/19437.html

相关文章:

  • 【自动驾驶】控制算法(七)离散规划轨迹的误差计算
  • 《OpenCV计算机视觉》—— 对图片的各种操作
  • 每日读源码---Day1_processdata
  • C++11 --- function 包装器以及 bind 适配器
  • 如何打造抗冲击的超级电容器?用啥材料好?
  • 李宏毅机器学习笔记——反向传播算法
  • 如何防止邮件内容外发时泄露
  • 源代码为啥要进行加密?怎么给源代码进行加密?
  • 玻璃盖板视觉丝印机应用
  • kali——wpscan的使用
  • 增强RAG:选择最佳的嵌入和重排模型
  • fastadmin后台报expandOnHover错误
  • gcc编译与Linux下的库
  • 科学计算工具包Scipy介绍及功能学习
  • 解锁Python编程的无限可能:《奇妙的Python》带你漫游代码世界!
  • 在Python中,文本查找和替换的常用操作
  • 【系统方案】网络空间安全态势感知与大数据分析平台建设方案(Doc完整版)
  • 1、正则表达式
  • 最完整的招投标流程步骤以及投标全流程和标书逐项检查表
  • Docker 部署 Mysql (图文并茂超详细)