Skip to content

Commit

Permalink
Update 第六章_循环神经网络(RNN).md
Browse files Browse the repository at this point in the history
  • Loading branch information
tectal authored Oct 26, 2018
1 parent 905f96c commit 620bff1
Showing 1 changed file with 6 additions and 8 deletions.
14 changes: 6 additions & 8 deletions MarkDown/第六章_循环神经网络(RNN).md
Original file line number Diff line number Diff line change
Expand Up @@ -7,7 +7,6 @@

http://blog.csdn.net/heyongluoyao8/article/details/48636251


##6.1 RNNs和FNNs有什么区别?

不同于传统的前馈神经网络(FNNs),RNNs引入了定向循环,能够处理那些输入之间前后关联的问题。定向循环结构如下图所示:
Expand All @@ -17,20 +16,19 @@ http://blog.csdn.net/heyongluoyao8/article/details/48636251
##6.2 RNNs典型特点?

RNNs的目的使用来处理序列数据。在传统的神经网络模型中,是从输入层到隐含层再到输出层,层与层之间是全连接的,每层之间的节点是无连接的。但是这种普通的神经网络对于很多问题却无能无力。例如,你要预测句子的下一个单词是什么,一般需要用到前面的单词,因为一个句子中前后单词并不是独立的。
       RNNs之所以称为循环神经网路,即一个序列当前的输出与前面的输出也有关。具体的表现形式为网络会对前面的信息进行记忆并应用于当前输出的计算中,即隐藏层之间的节点不再无连接而是有连接的,并且隐藏层的输入不仅包括输入层的输出还包括上一时刻隐藏层的输出。理论上,RNNs能够对任何长度的序列数据进行处理。但是在实践中,为了降低复杂性往往假设当前的状态只与前面的几个状态相关,下图便是一个典型的RNNs:
RNNs之所以称为循环神经网路,即一个序列当前的输出与前面的输出也有关。具体的表现形式为网络会对前面的信息进行记忆并应用于当前输出的计算中,即隐藏层之间的节点不再无连接而是有连接的,并且隐藏层的输入不仅包括输入层的输出还包括上一时刻隐藏层的输出。理论上,RNNs能够对任何长度的序列数据进行处理。但是在实践中,为了降低复杂性往往假设当前的状态只与前面的几个状态相关,下图便是一个典型的RNNs:

![](https://github.com/tectal/DeepLearning-500-questions/blob/master/img/ch6/figure_6.2_1.png)

![](https://github.com/tectal/DeepLearning-500-questions/blob/master/img/ch6/figure_6.2_2.jpg)

输入单元(Input units):输入集$\bigr\{x_0,x_1,...,x_t,x_{t+1},...\bigr\}$,
输出单元(Output units):输出集$\bigr\{y_0,y_1,...,y_t,y_{y+1},...\bigr\}$,
隐藏单元(Hidden units):输出集$\bigr\{s_0,s_1,...,s_t,s_{t+1},...\bigr\}$。
       **图中信息传递特点:**
       1、有一条单向流动的信息流是从输入单元到达隐藏单元;
       2、与此同时,另一条单向流动的信息流从隐藏单元到达输出单元;
       3、在某些情况下,RNNs会打破后者的限制,引导信息从输出单元返回隐藏单元,这些被称为“Back Projections”;
       4、在某些情况下,隐藏层的输入还包括上一隐藏层的状态,即隐藏层内的节点可以自连也可以互连。
**图中信息传递特点:**
1、有一条单向流动的信息流是从输入单元到达隐藏单元;
2、与此同时,另一条单向流动的信息流从隐藏单元到达输出单元;
3、在某些情况下,RNNs会打破后者的限制,引导信息从输出单元返回隐藏单元,这些被称为“Back Projections”;
4、在某些情况下,隐藏层的输入还包括上一隐藏层的状态,即隐藏层内的节点可以自连也可以互连。


##6.3RNNs能干什么?
Expand Down

0 comments on commit 620bff1

Please sign in to comment.