当前位置: 首页 > news >正文

深度学习(六)-循环神经网络

标准CNN模型的不足

  • 假设数据之间是独立的。标准CNN假设数据之间是独立的,所以在处理前 后依赖、序列问题(如语音、文本、视频)时就显得力不从心。这一类数 据(如文本)和图像数据差别非常大,最明显的差别莫过于,文本数据对文字的前后次序非常敏感。所以,需要发展新的理论模型。
  • 标准CNN络还存在一个短板,输入都是标准的等长向量,而序列数据长度是可变的。

RNN模型

循环神经网络(Recurrent Neural Network,RNN)是一类具有短期记忆能力的神经网络,适合用于处理视频、语音、文本等与时序相关的问题

 

 

LSTM模型

由于RNN具有梯度消失问题,因此很难处理长序列的数据。于是对RNN进行了改进,得到了长短期记忆网络模型(Long Short-Term Memory,简称LSTM)
  • 输入门:决定什么信息输入进来
  • 遗忘门:决定从细胞状态中丢弃什么信息
  • 输出门:决定输出什么

         

LSTMs的核心是细胞状态,用贯穿细胞的水平线表示。细胞状态像传送带一样。它贯穿整个细胞却只有很少的分支,这样能保证信息不变的流过整个RNNs。

 遗忘门

输入门
状态更新
输出门

CNN和RNN的关系

CNN和RNN同属于深度学习基本模型,CNN主要用于图像问题,RNN主要用于语音、NLP。深度学习还有一种基本模型Transformer,发源于NLP,后来也引入到图像识别中

http://www.mrgr.cn/news/18942.html

相关文章:

  • 【微信小程序入门】3、微信小程序开发基础及微信开发者工具的使用
  • python读取excel数据详细讲解
  • ListBox等控件的SelectedItem,SelectedValue,SelectedValuePath属性详解
  • pr瘦脸怎么操作?
  • CSS学习10
  • 内存卡乱码问题解析恢复方案
  • 渠道招商有哪些工作内容?可以通过什么途径获客!
  • Allure报告下载不同格式的文件
  • redis缓存和数据库通过延迟双删除实现数据一致性
  • 基于Bert-base-chinese训练多分类文本模型(代码详解)
  • 为什么说2025年是国自然申请最佳时机?
  • Centos根目录扩容Docker分区扩容最佳实践
  • MySQL备份与恢复
  • 鸿蒙开发占多列的瀑布流
  • 商务文件的八大翻译需求
  • 短剧APP遭遇DDoS攻击的解决方法
  • 代码随想录打卡第10天
  • 前端框架大观:探索现代Web开发的基石
  • 算法:当一系列数据经过四舍五入后,总和不再等于100%时
  • 图论题总结