当前位置: 首页 > news >正文

网站内容管理规范wordpress进入后台

网站内容管理规范,wordpress进入后台,网站建设服务58,wordpress点播主题1.1 LSTM的产生原因 ​ RNN在处理长期依赖(时间序列上距离较远的节点)时会遇到巨大的困难,因为计算距离较远的节点之间的联系时会涉及雅可比矩阵的多次相乘,会造成梯度消失或者梯度膨胀的现象。为了解决该问题,研究人…

1.1 LSTM的产生原因

​ RNN在处理长期依赖(时间序列上距离较远的节点)时会遇到巨大的困难,因为计算距离较远的节点之间的联系时会涉及雅可比矩阵的多次相乘,会造成梯度消失或者梯度膨胀的现象。为了解决该问题,研究人员提出了许多解决办法,例如ESN(Echo State Network),增加有漏单元(Leaky Units)等等。其中最成功应用最广泛的就是门限RNN(Gated RNN),而LSTM就是门限RNN中最著名的一种。有漏单元通过设计连接间的权重系数,从而允许RNN累积距离较远节点间的长期联系;而门限RNN则泛化了这样的思想,允许在不同时刻改变该系数,且允许网络忘记当前已经累积的信息。

1.2 图解标准RNN和LSTM的区别

​ 所有 RNN 都具有一种重复神经网络模块的链式的形式。在标准的 RNN 中,这个重复的模块只有一个非常简单的结构,例如一个 tanh 层,如下图所示:

在这里插入图片描述

​ LSTM 同样是这样的结构,但是重复的模块拥有一个不同的结构。不同于单一神经网络层,这里是有四个,以一种非常特殊的方式进行交互。

在这里插入图片描述

注:上图图标具体含义如下所示:

在这里插入图片描述

​ 上图中,每一条黑线传输着一整个向量,从一个节点的输出到其他节点的输入。粉色的圈代表 pointwise 的操作,诸如向量的和,而黄色的矩阵就是学习到的神经网络层。合在一起的线表示向量的连接,分开的线表示内容被复制,然后分发到不同的位置。

1.3 LSTM核心思想图解

​ LSTM 的关键就是细胞状态,水平线在图上方贯穿运行。细胞状态类似于传送带。直接在整个链上运行,只有一些少量的线性交互。信息在上面流传保持不变会很容易。示意图如下所示:

在这里插入图片描述

LSTM 有通过精心设计的称作为“门”的结构来去除或者增加信息到细胞状态的能力。门是一种让信息选择式通过的方法。他们包含一个 sigmoid 神经网络层和一个 pointwise 乘法操作。示意图如下:

在这里插入图片描述

LSTM 拥有三个门,分别是忘记层门,输入层门和输出层门,来保护和控制细胞状态。

忘记层门

​ 作用对象:细胞状态 。

​ 作用:将细胞状态中的信息选择性的遗忘。

​ 操作步骤:该门会读取 h t − 1 h_{t-1} ht1 x t x_t xt,输出一个在 0 到 1 之间的数值给每个在细胞状态 C t − 1 ​ C_{t-1}​ Ct1中的数字。1 表示“完全保留”,0 表示“完全舍弃”。示意图如下:

在这里插入图片描述

输入层门

​ 作用对象:细胞状态

​ 作用:将新的信息选择性的记录到细胞状态中。

​ 操作步骤:

​ 步骤一,sigmoid 层称 “输入门层” 决定什么值我们将要更新。

​ 步骤二,tanh 层创建一个新的候选值向量 C ~ t \tilde{C}_t C~t加入到状态中。其示意图如下:

在这里插入图片描述

​ 步骤三:将 c t − 1 c_{t-1} ct1更新为 c t c_{t} ct。将旧状态与 f t f_t ft相乘,丢弃掉我们确定需要丢弃的信息。接着加上 i t ∗ C ~ t i_t * \tilde{C}_t itC~t得到新的候选值,根据我们决定更新每个状态的程度进行变化。其示意图如下:

在这里插入图片描述

输出层门
作用对象:隐层 h t h_t ht

​ 作用:确定输出什么值。

​ 操作步骤:

​ 步骤一:通过sigmoid 层来确定细胞状态的哪个部分将输出。

​ 步骤二:把细胞状态通过 tanh 进行处理,并将它和 sigmoid 门的输出相乘,最终我们仅仅会输出我们确定输出的那部分。

其示意图如下所示:

在这里插入图片描述

1.4 LSTM流行的变体

增加peephole 连接

​ 在正常的LSTM结构中,Gers F A 等人提出增加peephole 连接,可以门层接受细胞状态的输入。示意图如下所示:

在这里插入图片描述

对忘记门和输入门进行同时确定

​ 不同于之前是分开确定什么忘记和需要添加什么新的信息,这里是一同做出决定。示意图如下所示:

在这里插入图片描述

Gated Recurrent Unit

​ 由Kyunghyun Cho等人提出的Gated Recurrent Unit (GRU),其将忘记门和输入门合成了一个单一的更新门,同样还混合了细胞状态和隐藏状态,和其他一些改动。其示意图如下:

在这里插入图片描述

最终的模型比标准的 LSTM 模型要简单,也是非常流行的变体。

2 LSTMs与GRUs的区别

LSTMs与GRUs的区别如图所示:

在这里插入图片描述

从上图可以看出,二者结构十分相似,不同在于

  1. new memory都是根据之前state及input进行计算,但是GRUs中有一个reset gate控制之前state的进入量,而在LSTMs里没有类似gate;
  2. 产生新的state的方式不同,LSTMs有两个不同的gate,分别是forget gate (f gate)和input gate(i gate),而GRUs只有一种update gate(z gate);
  3. LSTMs对新产生的state可以通过output gate(o gate)进行调节,而GRUs对输出无任何调节。
http://www.yayakq.cn/news/741339/

相关文章:

  • 云南网站建设工具阿里能帮做网站吗
  • wordpress文件存放不同目录下seo推广公司教程
  • 西安网站建设开发熊掌号网站建设推广哪个好
  • 成都市温江区建设局网站百度网站建设工资
  • linux系统如何做网站做外贸找客户的网站
  • 房地产东莞网站建设中国纪检监察报总编
  • 江西中恒建设集团有限公司网站上海企业网站推广方法
  • 基本的网站开发技术中国建设人才服务信息网证书查询
  • 开封景区网站建设方案校园二手信息网站建设
  • 电子商务网站建设汉狮百度推广登录地址
  • 聚搜济南网站建设公司颐和国际沧州网络科技
  • 淮北建网站seo比较好的网站
  • 微信h5制作seo专员工作容易学吗
  • 哈尔滨工程建设信息网站精美静态网站源码
  • wordpress建站详解asp怎么新建网站
  • 想在网上做外卖 上什么网站好网站建设客户目标模板
  • 南阳网站优化排名做设计有哪些接私活的网站
  • 手工活外发女生seo专员很难吗为什么
  • 有经验的番禺网站建设网站制作计算机
  • 网站被k手机wordpress无法登录
  • 简洁大气网站设计codeus企业wordpress
  • 电大考试亿唐网不做网站做品牌网站做很多关键词
  • 北京大型网站优化美橙建站之星怎么样
  • 网站开发建设价格附件上海到北京高铁最快几小时
  • 北京网站建设专业公司公司网站建设注意事项
  • 如何开办网站求个网站你懂我意思是
  • 网站备案要邮寄资料吗深圳响应式网站建设
  • 成都建设规划网站c2c平台排名
  • 做家教什么网站怎样制作公司网站
  • 网站建设幽默外汇网站模版