Skip to content
项目
群组
代码片段
帮助
当前项目
正在载入...
登录 / 注册
切换导航面板
M
mtbookv2
概览
Overview
Details
Activity
Cycle Analytics
版本库
Repository
Files
Commits
Branches
Tags
Contributors
Graph
Compare
Charts
问题
0
Issues
0
列表
Board
标记
里程碑
合并请求
0
Merge Requests
0
CI / CD
CI / CD
流水线
作业
日程表
图表
维基
Wiki
代码片段
Snippets
成员
Collapse sidebar
Close sidebar
活动
图像
聊天
创建新问题
作业
提交
Issue Boards
Open sidebar
NiuTrans
mtbookv2
Commits
4f15474d
Commit
4f15474d
authored
Sep 16, 2020
by
xiaotong
Browse files
Options
Browse Files
Download
Email Patches
Plain Diff
wording (sec 10, rnns)
parent
ecec245e
隐藏空白字符变更
内嵌
并排
正在显示
3 个修改的文件
包含
45 行增加
和
55 行删除
+45
-55
Chapter10/Figures/figure-bi-rnn.tex
+2
-1
Chapter10/Figures/figure-double-layer-rnn.tex
+1
-1
Chapter10/chapter10.tex
+42
-53
没有找到文件。
Chapter10/Figures/figure-bi-rnn.tex
查看文件 @
4f15474d
...
@@ -132,7 +132,7 @@
...
@@ -132,7 +132,7 @@
\begin{pgfonlayer}
{
background
}
\begin{pgfonlayer}
{
background
}
\node
[draw=red,thick,densely dashed,inner sep=5pt]
[fit = (backinit) (backenc1) (backenc10)] (backrnn)
{}
;
\node
[draw=red,thick,densely dashed,inner sep=5pt]
[fit = (backinit) (backenc1) (backenc10)] (backrnn)
{}
;
\end{pgfonlayer}
\end{pgfonlayer}
\node
[font=\scriptsize,anchor=south]
(backrnnlabel) at ([xshift=-0.5
\base
,yshift=
\base
]backrnn.north east)
{
反向
RNN
}
;
\node
[font=\scriptsize,anchor=south]
(backrnnlabel) at ([xshift=-0.5
\base
,yshift=
\base
]backrnn.north east)
{
反向
}
;
\draw
[->,dashed]
(backrnnlabel.south) to ([xshift=-0.5
\base
]backrnn.north east);
\draw
[->,dashed]
(backrnnlabel.south) to ([xshift=-0.5
\base
]backrnn.north east);
\end{scope}
\end{scope}
\end{tikzpicture}
\end{tikzpicture}
\ No newline at end of file
Chapter10/Figures/figure-double-layer-rnn.tex
查看文件 @
4f15474d
...
@@ -131,7 +131,7 @@
...
@@ -131,7 +131,7 @@
\node
[draw=red,thick,densely dashed,inner sep=5pt]
[fit = (init2) (enc21) (enc210)] (enc2)
{}
;
\node
[draw=red,thick,densely dashed,inner sep=5pt]
[fit = (init2) (enc21) (enc210)] (enc2)
{}
;
\node
[draw=red,thick,densely dashed,inner sep=5pt]
[fit = (dec21) (dec210)] (dec2)
{}
;
\node
[draw=red,thick,densely dashed,inner sep=5pt]
[fit = (dec21) (dec210)] (dec2)
{}
;
\end{pgfonlayer}
\end{pgfonlayer}
\node
[font=\scriptsize,anchor=west]
(label) at ([xshift=0.4
\base
]demb10.east)
{
堆叠
RNN
}
;
\node
[font=\scriptsize,anchor=west]
(label) at ([xshift=0.4
\base
]demb10.east)
{
堆叠
}
;
\draw
[->,dashed]
(label.north) to (dec2.east);
\draw
[->,dashed]
(label.north) to (dec2.east);
\draw
[->,dashed]
(label.south) to (enc2.east);
\draw
[->,dashed]
(label.south) to (enc2.east);
...
...
Chapter10/chapter10.tex
查看文件 @
4f15474d
...
@@ -70,7 +70,7 @@
...
@@ -70,7 +70,7 @@
\subsection
{
神经机器翻译的起源
}
\subsection
{
神经机器翻译的起源
}
\parinterval
从广义上讲,神经机器翻译是一种基于人工神经网络的方法,它把翻译过程描述为可以用人工神经网络表示的函数。所有的训练和推断都在这些函数上进行。由于神经机器翻译中的神经网络可以用连续可微函数表示,因此这类方法也可以用基于梯度的方法进行优化,相关技术非常成熟。更为重要的是,在神经网络的设计中,研究者引入了
{
\small\bfnew
{
分布式表示
}}
\index
{
分布式表示
}
(Distributed Representation)
\index
{
Distributed Representation
}
的概念,这也是近些年自然语言处理领域的重要成果之一。传统统计机器翻译仍然把词序列看作离散空间里的由多个特征函数描述的点,类似于
$
n
$
-gram语言模型,这类模型对数据稀疏问题非常敏感。此外,人工设计特征也在一定程度上限制了模型对问题的表示能力。神经机器翻译把文字序列表示为实数向量,一方面避免了特征工程繁重的工作,另一方面使得系统可以对文字序列的“表示”进行学习。可以说,神经机器翻译的成功很大程度上源自“ 表示学习”这种自然语言处理的新范式的出现。在表示学习的基础上,注意力机制、深度神经网络等技术都被应用于神经机器翻译,使其得以进一步发展。
\parinterval
从广义上讲,神经机器翻译是一种基于人工神经网络的方法,它把翻译过程描述为可以用人工神经网络表示的函数。所有的训练和推断都在这些函数上进行。由于神经机器翻译中的神经网络可以用连续可微函数表示,因此这类方法也可以用基于梯度的方法进行优化,相关技术非常成熟。更为重要的是,在神经网络的设计中,研究者引入了
{
\small\bfnew
{
分布式表示
}}
\index
{
分布式表示
}
(Distributed Representation)
\index
{
Distributed Representation
}
的概念,这也是近些年自然语言处理领域的重要成果之一。传统统计机器翻译仍然把词序列看作离散空间里的由多个特征函数描述的点,类似于
$
n
$
-gram语言模型,这类模型对数据稀疏问题非常敏感。此外,人工设计特征也在一定程度上限制了模型对问题的表示能力。神经机器翻译把文字序列表示为实数向量,一方面避免了特征工程繁重的工作,另一方面使得系统可以对文字序列的“表示”进行学习。可以说,神经机器翻译的成功很大程度上源自“ 表示学习”这种自然语言处理的新范式的出现。在表示学习的基础上,注意力机制、深度神经网络等技术都被应用于神经机器翻译,使其得以进一步发展。
\parinterval
虽然神经机器翻译中大量的使用了人工神经网络方法,但是它并不是最早在机器翻译中使用人工神经网络的框架。实际上,人工神经网络在机器翻译中应用的历史要远早于现在的神经机器翻译。 在统计机器翻译时代,也有很多研究者利用人工神经网络进行机器翻译系统模块的构建
\upcite
{
devlin-etal-2014-fast,Schwenk
_
continuousspace
}
,比如,Jacob Devlin等人就成功地在统计机器翻译系统中使用了基于神经网络的联合表示模型,取得了
令人振奋的结果,这项工作也获得了ACL2014的最佳论文奖(Best Paper Award)
。
\parinterval
虽然神经机器翻译中大量的使用了人工神经网络方法,但是它并不是最早在机器翻译中使用人工神经网络的框架。实际上,人工神经网络在机器翻译中应用的历史要远早于现在的神经机器翻译。 在统计机器翻译时代,也有很多研究者利用人工神经网络进行机器翻译系统模块的构建
\upcite
{
devlin-etal-2014-fast,Schwenk
_
continuousspace
}
,比如,Jacob Devlin等人就成功地在统计机器翻译系统中使用了基于神经网络的联合表示模型,取得了
很好的效果
。
\parinterval
不过,以上这些工作大多都是在系统的局部模块中使用人工神经网络和深度学习方法。与之不同的是,神经机器翻译是用人工神经网络完成整个翻译过程的建模,这样做的一个好处是,整个系统可以进行端到端学习,无需引入对任何翻译的隐含结构假设。这种利用端到端学习对机器翻译进行神经网络建模的方式也就成为了现在大家所熟知的神经机器翻译。这里简单列出部分代表性的工作:
\parinterval
不过,以上这些工作大多都是在系统的局部模块中使用人工神经网络和深度学习方法。与之不同的是,神经机器翻译是用人工神经网络完成整个翻译过程的建模,这样做的一个好处是,整个系统可以进行端到端学习,无需引入对任何翻译的隐含结构假设。这种利用端到端学习对机器翻译进行神经网络建模的方式也就成为了现在大家所熟知的神经机器翻译。这里简单列出部分代表性的工作:
...
@@ -323,6 +323,9 @@ NMT & 21.7 & 18.7 & -13.7 \\
...
@@ -323,6 +323,9 @@ NMT & 21.7 & 18.7 & -13.7 \\
\noindent
这里令<eos>(End of Sequence)表示序列的终止,<sos>(Start of Sequence)表示序列的开始。
\noindent
这里令<eos>(End of Sequence)表示序列的终止,<sos>(Start of Sequence)表示序列的开始。
\parinterval
翻译过程的神经网络结构如图
\ref
{
fig:10-7
}
所示,其中左边是编码器,右边是解码器。编码器会顺序处理源语言单词,将每个单词都表示成一个实数向量,也就是每个单词的词嵌入结果(绿色方框)。在词嵌入的基础上运行循环神经网络(蓝色方框)。在编码下一个时间步状态的时候,上一个时间步的隐藏状态会作为历史信息传入循环神经网络。这样,句子中每个位置的信息都被向后传递,最后一个时间步的隐藏状态(红色方框)就包含了整个源语言句子的信息,也就得到了编码器的编码结果
$
\ \dash\
$
源语言句子的分布式表示。
%----------------------------------------------
%----------------------------------------------
\begin{figure}
[htp]
\begin{figure}
[htp]
\centering
\centering
...
@@ -332,18 +335,24 @@ NMT & 21.7 & 18.7 & -13.7 \\
...
@@ -332,18 +335,24 @@ NMT & 21.7 & 18.7 & -13.7 \\
\end{figure}
\end{figure}
%----------------------------------------------
%----------------------------------------------
\parinterval
翻译过程的神经网络结构如图
\ref
{
fig:10-7
}
所示,其中左边是编码器,右边是解码器。编码器会顺序处理源语言单词,将每个单词都表示成一个实数向量,也就是每个单词的词嵌入结果(绿色方框)。在词嵌入的基础上运行循环神经网络(蓝色方框)。在编码下一个时间步状态的时候,上一个时间步的隐藏状态会作为历史信息传入给循环神经网络。这样,句子中每个位置的信息都被向后传递,最后一个时间步的隐藏状态(红色方框)就包含了整个源语言句子的信息,也就得到了编码器的编码结果
$
\ \dash\
$
源语言句子的分布式表示。
\parinterval
解码器直接把源语言句子的分布式表示作为输入的隐层状态,之后像编码器一样依次读入目标语言单词,这是一个标准的循环神经网络的执行过程。与编码器不同的是,解码器会有一个输出层,用于根据当前时间步的隐层状态生成目标语言单词及其概率分布。可以看到,解码端当前时刻的输出单词与下一个时刻的输入单词是一样的。从这个角度说,解码器也是一种神经语言模型,只不过它会从另外一种语言(源语言)获得一些信息,而不是仅仅做单语句子的生成。具体来说,当生成第一个单词“I”时,解码器利用了源语言句子表示(红色方框)和目标语言的起始词“<sos>”。在生成第二个单词“am”时,解码器利用了上一个时间步的隐藏状态和已经生成的“I”的信息。这个过程会循环执行,直到生成完整的目标语言句子。
\parinterval
解码器直接把源语言句子的分布式表示作为输入的隐层状态,之后像编码器一样依次读入目标语言单词,这是一个标准的循环神经网络的执行过程。与编码器不同的是,解码器会有一个输出层,用于根据当前时间步的隐层状态生成目标语言单词及其概率分布。可以看到,解码端当前时刻的输出单词与下一个时刻的输入单词是一样的。从这个角度说,解码器也是一种神经语言模型,只不过它会从另外一种语言(源语言言)获得一些信息,而不是仅仅做单语句子的生成。具体来说,当生成第一个单词“I”时,解码器利用了源语言句子表示(红色方框)和目标语言的起始词“<sos>”。在生成第二个单词“am”时,解码器利用了上一个时间步的隐藏状态(隐藏层变量)和已经生成的“I”的信息。这个过程会循环执行,直到生成完整的目标语言句子。
\parinterval
从这个例子可以看出,神经机器翻译的流程其实并不复杂:首先通过编码器神经网络将源语言句子编码成实数向量,然后解码器神经网络利用
源语言句子的表示结果逐词生成译文。几乎所有的神经机器翻译系统都是类似
架构。
\parinterval
从这个例子可以看出,神经机器翻译的流程其实并不复杂:首先通过编码器神经网络将源语言句子编码成实数向量,然后解码器神经网络利用
这个向量逐词生成译文。现在几乎所有的神经机器翻译系统都采用类似的
架构。
%----------------------------------------------------------------------------------------
%----------------------------------------------------------------------------------------
% NEW SUB-SECTION 10.2.4
% NEW SUB-SECTION 10.2.4
%----------------------------------------------------------------------------------------
%----------------------------------------------------------------------------------------
\subsection
{
机器翻译范式的对比
}
\subsection
{
机器翻译范式的对比
}
\parinterval
对于不同类型的机器翻译方法,人类所扮演的作用是不同的。在统计机器翻译时代,往往需要人工来定义翻译时所需要的特征和翻译单元,翻译中的每一个步骤对于人来说都是透明的,翻译过程具有一定的可解释性。而在神经机器翻译时代,神经机器翻译将所有的工作都交给神经网络,翻译的过程完全由神经网络计算得到。在整个神经网络的运行过程中并不需要人工先验知识,其中所生成的中间表示也只有神经网络自身才可以理解。有时候也会把神经机器翻译系统看作“黑盒”。所谓“黑盒”并不是指神经网络计算的过程不可见,而是这种复杂的计算过程无法控制也很难解释。那么是神经机器翻译会魔法吗,不需要任何人为的干预就可以进行翻译吗?其实不然,相对于统计机器翻译,真正变化的是人类使用知识的形式。
\parinterval
对于不同类型的机器翻译方法,人类所扮演的作用是不同的。在统计机器翻译时代,往往需要人工定义所需要的特征和翻译单元,翻译中的每一个步骤对于人来说都是透明的,翻译过程具有一定的可解释性。而在神经机器翻译时代,神经机器翻译将所有的工作都交给神经网络,翻译的过程完全由神经网络计算得到。在整个神经网络的运行过程中并不需要人工先验知识,其中所生成的中间表示也只有神经网络自身才可以理解。有时候也会把神经机器翻译系统看作“黑盒”。所谓“黑盒”并不是指神经网络计算的过程不可见,而是这种复杂的计算过程无法控制也很难解释。那么是神经机器翻译会魔法吗,不需要任何人为的干预就可以进行翻译吗?其实不然,相对于统计机器翻译,真正变化的是人类使用知识的形式。
\parinterval
在机器翻译的不同时期,人类参与到机器翻译中的形式并不相同,如表
\ref
{
tab:10-5
}
所述。具体来说,
\begin{itemize}
\item
在早期基于规则的方法中,规则的编写、维护均需要人来完成,也就是人类直接提供了计算机可读的知识形式;
\item
在统计机器翻译方法中,则需要人为的设计翻译特征,并且定义基本翻译单元的形式,然后剩下的事情(比如翻译过程)交由统计机器翻译算法完成,也就是人类间接的提供了翻译所需要的知识;
\item
在神经机器翻译方法中,特征的设计完全不需要人的参与,但是进行特征提取的网络结构仍然需要人为地设计,训练网络所需要的参数也需要工程师的不断调整,才能发挥神经机器翻译的强大性能。
\end{itemize}
%----------------------------------------------
%----------------------------------------------
\begin{table}
[htp]
\begin{table}
[htp]
...
@@ -359,9 +368,7 @@ NMT & 21.7 & 18.7 & -13.7 \\
...
@@ -359,9 +368,7 @@ NMT & 21.7 & 18.7 & -13.7 \\
\end{table}
\end{table}
%----------------------------------------------
%----------------------------------------------
\parinterval
在机器翻译的不同时期,人类参与到机器翻译中的形式并不相同。如表
\ref
{
tab:10-5
}
所述,在早期基于规则的方法中,规则的编写、维护均需要人来完成,也就是人类直接提供了计算机可读的知识形式;在统计机器翻译方法中,则需要人为的设计翻译特征,并且定义基本翻译单元的形式,然后剩下的事情(比如翻译过程)交由统计机器翻译算法完成,也就是人类间接的提供了翻译所需要的知识;在神经机器翻译方法中,特征的设计完全不需要人的参与,但是完成特征提取的网络结构仍然需要人为地设计,训练网络所需要的参数也需要工程师的不断调整,才能发挥神经机器翻译的强大性能。
\parinterval
可见,不管是基于规则的机器翻译方法,还是统计机器翻译方法,甚至最新的神经机器翻译方法,人类的作用是不可替代的。虽然神经机器翻译很强大,但是它的成功仍然依赖人工设计网络结构、调参。纵然,也有一些研究工作通过结构搜索的方法自动获得神经网络结构,但是搜索的算法和模型仍然需要人工设计。道理很简单:机器翻译是人类设计的,脱离了人的工作,机器翻译是不可能成功的。
\parinterval
可见,不管是基于规则的机器翻译方法,还是统计机器翻译方法,甚至今天的神经机器翻译方法,人类的作用是不可替代的。虽然神经机器翻译很强大,但是它的成功仍然依赖人工设计网络结构、调参。纵然,也有一些研究工作通过结构搜索的方法自动获得神经网络结构,但是搜索的算法和模型仍然需要人工设计。当然,这里不是要讨论一个新的悖论,因为结论还是很简单的:机器翻译是人类设计的,脱离了人的工作,机器翻译是不可能成功的。
%----------------------------------------------------------------------------------------
%----------------------------------------------------------------------------------------
% NEW SECTION 10.3
% NEW SECTION 10.3
...
@@ -374,7 +381,7 @@ NMT & 21.7 & 18.7 & -13.7 \\
...
@@ -374,7 +381,7 @@ NMT & 21.7 & 18.7 & -13.7 \\
%----------------------------------------------
%----------------------------------------------
\begin{table}
[htp]
\begin{table}
[htp]
\centering
\centering
\caption
{
2013-2015期间神经机器翻译方面的部分论文
}
\caption
{
2013-2015期间神经机器翻译方面的部分论文
(
{
\color
{
red
}
论文要加引用
}
)
}
\label
{
tab:10-6
}
\label
{
tab:10-6
}
\begin{tabular}
{
l| l p
{
8cm
}}
\begin{tabular}
{
l| l p
{
8cm
}}
\rule
{
0pt
}{
16pt
}
时间
&
作者
&
论文
\\
\hline
\rule
{
0pt
}{
16pt
}
时间
&
作者
&
论文
\\
\hline
...
@@ -388,36 +395,27 @@ NMT & 21.7 & 18.7 & -13.7 \\
...
@@ -388,36 +395,27 @@ NMT & 21.7 & 18.7 & -13.7 \\
\end{table}
\end{table}
%----------------------------------------------
%----------------------------------------------
\parinterval
可以说循环神经网络和注意力机制构成了当时神经机器翻译的标准框架。比较有代表性的工作是谷歌公司于2016年上线的谷歌神经机器翻译系统(GNMT),它是由多层循环神经网络(长短时记忆模型)以及注意力机制搭建,且在当时来看性能很强劲的翻译模型
\upcite
{
Wu2016GooglesNM
}
。这项工作也引起了广泛的关注(图
\ref
{
fig:10-8
}
),甚至可以被看作是神经机器翻译进入飞速发展时期的一个重要的标志。在GNMT推出后,很多企业也推出了基于循环神经网络的神经机器翻译系统,出现了百花齐放的局面。
\parinterval
可以说循环神经网络和注意力机制构成了当时神经机器翻译的标准框架。例如,2016年出现的GNMT(Google Neural Machine Translation)系统就是由多层循环神经网络(长短时记忆模型)以及注意力机制搭建,且在当时展示出很出色的性能
\upcite
{
Wu2016GooglesNM
}
。其中的很多技术也都为其它神经机器翻译系统的研发提供了很好的依据。
\parinterval
本节将会从基于循环神经网络的翻译模型入手,介绍神经机器翻译的基本方法。同时也会以GNMT系统为例,对神经机器翻译的其他相关技术进行讨论。
%----------------------------------------------
\parinterval
下面将会从基于循环神经网络的翻译模型入手,介绍神经机器翻译的基本方法。之后,会对注意力机制进行介绍,同时也会介绍其在GNMT系统中的应用。
\begin{figure}
[htp]
\centering
\includegraphics
[scale=0.35]
{
./Chapter10/Figures/google-news.png
}
\caption
{
对GNMT的报道
}
\label
{
fig:10-8
}
\end{figure}
%----------------------------------------------
%----------------------------------------------------------------------------------------
%----------------------------------------------------------------------------------------
% NEW SUB-SECTION
10.3.1
% NEW SUB-SECTION
%----------------------------------------------------------------------------------------
%----------------------------------------------------------------------------------------
\subsection
{
建模
}
\subsection
{
建模
}
\label
{
sec:10.3.1
}
\label
{
sec:10.3.1
}
\parinterval
同大多数自然语言处理任务一样,神经机器翻译要解决的一个基本问题是如何描述文字序列,称为序列表示问题。例如,处理语音数据、文本数据都可以被看作是典型的序列表示问题。如果把一个序列看作一个时序上的一系列变量,不同时刻的变量之间往往是存在相关性的。也就是说,一个时序中某个时刻变量的状态会依赖其他时刻变量的状态,即上下文的语境信息。下面是一个简单的例子,假设有一个句子,但是最后
两个
单词被擦掉了,如何猜测被擦掉的单词是什么?
\parinterval
同大多数自然语言处理任务一样,神经机器翻译要解决的一个基本问题是如何描述文字序列,称为序列表示问题。例如,处理语音数据、文本数据都可以被看作是典型的序列表示问题。如果把一个序列看作一个时序上的一系列变量,不同时刻的变量之间往往是存在相关性的。也就是说,一个时序中某个时刻变量的状态会依赖其他时刻变量的状态,即上下文的语境信息。下面是一个简单的例子,假设有一个句子,但是最后
的
单词被擦掉了,如何猜测被擦掉的单词是什么?
\vspace
{
0.8em
}
\vspace
{
0.8em
}
\centerline
{
中午
\
没
\
吃饭
\
,
\
又
\
刚
\
打
\
了
\
一
\
下午
\
篮球
\
,
\
我
\
现在
\
很
\
饿
\
,
\
我
\
想
\underline
{
\quad
\quad
\quad
}
。
}
\centerline
{
中午
\
没
\
吃饭
\
,
\
又
\
刚
\
打
\
了
\
一
\
下午
\
篮球
\
,
\
我
\
现在
\
很
\
饿
\
,
\
我
\
想
\underline
{
\quad
\quad
\quad
}
。
}
\vspace
{
0.8em
}
\vspace
{
0.8em
}
\parinterval
显然,根据上下文中提到的“没
吃饭”、“很饿”,最佳的答案是“吃 饭”或者“吃
东西”。也就是,对序列中某个位置的答案进行预测时需要记忆当前时刻之前的序列信息,因此,
{
\small\bfnew
{
循环神经网络
}}
\index
{
循环神经网络
}
(Recurrent Neural Network, RNN)
\index
{
Recurrent Neural Network, RNN
}
应运而生。实际上循环神经网络有着极为广泛的应用,例如语音识别、语言建模以及即将要介绍的神经机器翻译。
\parinterval
显然,根据上下文中提到的“没
/吃饭”、“很/饿”,最佳的答案是“吃饭”或者“吃
东西”。也就是,对序列中某个位置的答案进行预测时需要记忆当前时刻之前的序列信息,因此,
{
\small\bfnew
{
循环神经网络
}}
\index
{
循环神经网络
}
(Recurrent Neural Network, RNN)
\index
{
Recurrent Neural Network, RNN
}
应运而生。实际上循环神经网络有着极为广泛的应用,例如语音识别、语言建模以及即将要介绍的神经机器翻译。
\parinterval
第九章
已经对循环神经网络的基本知识进行过介绍。这里再回顾一下。简单来说,循环神经网络由循环单元组成。对于序列中的任意时刻,都有一个循环单元与之对应,它会融合当前时刻的输入和上一时刻循环单元的输出,生成当前时刻的输出。这样每个时刻的信息都会被传递到下一时刻,这也间接达到了记录历史信息的目的。比如,对于序列
$
\vectorn
{
\emph
{
x
}}
=
\{
x
_
1
, x
_
2
,..., x
_
m
\}
$
,循环神经网络会按顺序输出一个序列
$
\vectorn
{
\emph
{
h
}}
=
\{
\vectorn
{
\emph
{
h
}}_
1
,
\vectorn
{
\emph
{
h
}}_
2
,...,
\vectorn
{
\emph
{
h
}}_
m
\}
$
,其中
$
\vectorn
{
\emph
{
h
}}_
i
$
表示
$
i
$
时刻循环神经网络的输出(通常为一个向量)。
\parinterval
{
\chapternine
}
已经对循环神经网络的基本知识进行过介绍。这里再回顾一下。简单来说,循环神经网络由循环单元组成。对于序列中的任意时刻,都有一个循环单元与之对应,它会融合当前时刻的输入和上一时刻循环单元的输出,生成当前时刻的输出。这样每个时刻的信息都会被传递到下一时刻,这也间接达到了记录历史信息的目的。比如,对于序列
$
\vectorn
{
\emph
{
x
}}
=
\{
x
_
1
, x
_
2
,..., x
_
m
\}
$
,循环神经网络会按顺序输出一个序列
$
\vectorn
{
\emph
{
h
}}
=
\{
\vectorn
{
\emph
{
h
}}_
1
,
\vectorn
{
\emph
{
h
}}_
2
,...,
\vectorn
{
\emph
{
h
}}_
m
\}
$
,其中
$
\vectorn
{
\emph
{
h
}}_
i
$
表示
$
i
$
时刻循环神经网络的输出(通常为一个向量)。
\parinterval
图
\ref
{
fig:10-9
}
展示了一个循环神经网络处理序列问题的实例。当前时刻循环单元的输入由上一个时刻的输
入
和当前时刻的输入组成,因此也可以理解为,网络当前时刻计算得到的输出是由之前的序列共同决定的,即网络在不断地传递信息的过程中记忆了历史信息。以最后一个时刻的循环单元为例,它在对“开始”这个单词的信息进行处理时,参考了之前所有词(“<sos>
\
让
\
我们”)的信息。
\parinterval
图
\ref
{
fig:10-9
}
展示了一个循环神经网络处理序列问题的实例。当前时刻循环单元的输入由上一个时刻的输
出
和当前时刻的输入组成,因此也可以理解为,网络当前时刻计算得到的输出是由之前的序列共同决定的,即网络在不断地传递信息的过程中记忆了历史信息。以最后一个时刻的循环单元为例,它在对“开始”这个单词的信息进行处理时,参考了之前所有词(“<sos>
\
让
\
我们”)的信息。
%----------------------------------------------
%----------------------------------------------
\begin{figure}
[htp]
\begin{figure}
[htp]
...
@@ -452,12 +450,7 @@ NMT & 21.7 & 18.7 & -13.7 \\
...
@@ -452,12 +450,7 @@ NMT & 21.7 & 18.7 & -13.7 \\
\end{eqnarray}
\end{eqnarray}
\vspace
{
-0.5em
}
\vspace
{
-0.5em
}
\noindent
其中,
$
\vectorn
{
\emph
{
y
}}_{
<j
}$
表示目标语言第
$
j
$
个位置之前已经生成的译文单词序列。
$
\funp
{
P
}
(
y
_
j |
\vectorn
{
\emph
{
y
}}_{
<j
}
,
\vectorn
{
\emph
{
x
}}
)
$
可以被解释为:根据源语言句子
$
\vectorn
{
\emph
{
x
}}
$
和已生成的目标语言译文片段
$
\vectorn
{
\emph
{
y
}}_{
<j
}
=
\{
y
_
1
, y
_
2
,..., y
_{
j
-
1
}
\}
$
,生成第
$
j
$
个目标语言单词
$
y
_
j
$
的概率。举个简单的例子,已知源文为
$
\vectorn
{
\emph
{
x
}}
=
$
\{\textrm
{
“我”, “很好”
}
\}
,则译文
$
\vectorn
{
\emph
{
y
}}
=
$
\{
“I’m”, “fine”
\}
的概率为:
\noindent
其中,
$
\vectorn
{
\emph
{
y
}}_{
<j
}$
表示目标语言第
$
j
$
个位置之前已经生成的译文单词序列。
$
\funp
{
P
}
(
y
_
j |
\vectorn
{
\emph
{
y
}}_{
<j
}
,
\vectorn
{
\emph
{
x
}}
)
$
可以被解释为:根据源语言句子
$
\vectorn
{
\emph
{
x
}}
$
和已生成的目标语言译文片段
$
\vectorn
{
\emph
{
y
}}_{
<j
}
=
\{
y
_
1
, y
_
2
,..., y
_{
j
-
1
}
\}
$
,生成第
$
j
$
个目标语言单词
$
y
_
j
$
的概率。
\begin{eqnarray}
\funp
{
P
}
(
\{
{
\textrm
{
“I'm”,“fine”
}}
\}
|
\{\textrm
{
“我”, “很好”
}
\}
)
&
=
&
\funp
{
P
}
(
\textrm
{
“I'm”
}
|
\{\textrm
{
“我”, “很好”
}
\}
)
\cdot
\nonumber
\\
&
&
\funp
{
P
}
(
\textrm
{
“fine”
}
|
\textrm
{
“I'm”
}
,
\{\textrm
{
“我”, “很好”
}
\}
)
\nonumber
\\
\label
{
eq:10-3
}
\end{eqnarray}
\parinterval
求解
$
\funp
{
P
}
(
y
_
j |
\vectorn
{
\emph
{
y
}}_{
<j
}
,
\vectorn
{
\emph
{
x
}}
)
$
有三个关键问题(图
\ref
{
fig:10-11
}
):
\parinterval
求解
$
\funp
{
P
}
(
y
_
j |
\vectorn
{
\emph
{
y
}}_{
<j
}
,
\vectorn
{
\emph
{
x
}}
)
$
有三个关键问题(图
\ref
{
fig:10-11
}
):
...
@@ -494,7 +487,8 @@ $\funp{P}({y_j | \vectorn{\emph{s}}_{j-1} ,y_{j-1},\vectorn{\emph{C}}})$由Softm
...
@@ -494,7 +487,8 @@ $\funp{P}({y_j | \vectorn{\emph{s}}_{j-1} ,y_{j-1},\vectorn{\emph{C}}})$由Softm
\end{figure}
\end{figure}
%----------------------------------------------
%----------------------------------------------
\parinterval
输入层(词嵌入)和输出层(Softmax)的内容已在
{
\chapternine
}
进行了介绍,因此这里的核心内容是设计循环神经网络结构,即设计循环单元的结构。至今,研究人员已经提出了很多优秀的循环单元结构。其中RNN(Recurrent Neural Network)是最原始的循环神经网络结构。在RNN中,对于序列
$
\vectorn
{
\emph
{
x
}}
=
\{
\vectorn
{
\emph
{
x
}}_
1
,
\vectorn
{
\emph
{
x
}}_
2
,...,
\vectorn
{
\emph
{
x
}}_
m
\}
$
,每个时刻
$
t
$
都对应一个循环单元,它的输出是一个向量
$
\vectorn
{
\emph
{
h
}}_
t
$
,可以被描述为:
\parinterval
输入层(词嵌入)和输出层(Softmax)的内容已在
{
\chapternine
}
进行了介绍,因此这里的核心内容是设计循环神经网络结构,即设计循环单元的结构。至今,研究人员已经提出了很多优秀的循环单元结构。其中循环神经网络(RNN)
是最原始的循环单元结构。在RNN中,对于序列
$
\vectorn
{
\emph
{
x
}}
=
\{
\vectorn
{
\emph
{
x
}}_
1
,
\vectorn
{
\emph
{
x
}}_
2
,...,
\vectorn
{
\emph
{
x
}}_
m
\}
$
,每个时刻
$
t
$
都对应一个循环单元,它的输出是一个向量
$
\vectorn
{
\emph
{
h
}}_
t
$
,可以被描述为:
\begin{eqnarray}
\begin{eqnarray}
\vectorn
{
\emph
{
h
}}_
t=f(
\vectorn
{
\emph
{
x
}}_
t
\vectorn
{
\emph
{
U
}}
+
\vectorn
{
\emph
{
h
}}_{
t-1
}
\vectorn
{
\emph
{
W
}}
+
\vectorn
{
\emph
{
b
}}
)
\vectorn
{
\emph
{
h
}}_
t=f(
\vectorn
{
\emph
{
x
}}_
t
\vectorn
{
\emph
{
U
}}
+
\vectorn
{
\emph
{
h
}}_{
t-1
}
\vectorn
{
\emph
{
W
}}
+
\vectorn
{
\emph
{
b
}}
)
...
@@ -509,12 +503,12 @@ $\funp{P}({y_j | \vectorn{\emph{s}}_{j-1} ,y_{j-1},\vectorn{\emph{C}}})$由Softm
...
@@ -509,12 +503,12 @@ $\funp{P}({y_j | \vectorn{\emph{s}}_{j-1} ,y_{j-1},\vectorn{\emph{C}}})$由Softm
% NEW SUB-SECTION
% NEW SUB-SECTION
%----------------------------------------------------------------------------------------
%----------------------------------------------------------------------------------------
\subsection
{
长短时记忆网络
(LSTM)
}
\subsection
{
长短时记忆网络
}
\label
{
sec:lstm-cell
}
\label
{
sec:lstm-cell
}
\parinterval
RNN结构使得当前时刻循环单元的状态包含了之前时间步的状态信息。但是这种对历史信息的记忆并不是无损的,随着序列变长,RNN的记忆信息的损失越来越严重。在很多长序列处理任务中(如长文本生成)都观测到了类似现象。对于这个问题,
Hochreiter和Schmidhuber提出了
{
\small\bfnew
{
长短时记忆
}}
\index
{
长短时记忆
}
(Long Short-term Memory)
\index
{
Long Short-Term Memory
}
模型,也就是常说的LSTM模型
\upcite
{
HochreiterLong
}
。
\parinterval
RNN结构使得当前时刻循环单元的状态包含了之前时间步的状态信息。但是这种对历史信息的记忆并不是无损的,随着序列变长,RNN的记忆信息的损失越来越严重。在很多长序列处理任务中(如长文本生成)都观测到了类似现象。对于这个问题,
研究者门提出了
{
\small\bfnew
{
长短时记忆
}}
\index
{
长短时记忆
}
(Long Short-Term Memory)
\index
{
Long Short-Term Memory,LSTM
}
模型,也就是常说的LSTM模型
\upcite
{
HochreiterLong
}
。
\parinterval
LSTM模型是RNN模型的一种改进。相比RNN仅传递前一时刻的状态
$
\vectorn
{
\emph
{
h
}}_{
t
-
1
}$
,LSTM会同时传递两部分信息:状态信息
$
\vectorn
{
\emph
{
h
}}_{
t
-
1
}$
和记忆信息
$
\vectorn
{
\emph
{
c
}}_{
t
-
1
}$
。这里,
$
\vectorn
{
\emph
{
c
}}_{
t
-
1
}$
是新引入的变量,它也是循环单元的一部分,用于显性的记录需要记录的历史内容,
$
\vectorn
{
\emph
{
h
}}_{
t
-
1
}$
和
$
\vectorn
{
\emph
{
c
}}_{
t
-
1
}$
在循环单元中会相互作用。LSTM通过“门”单元来动态地选择遗忘多少以前的信息和记忆多少当前的信息。LSTM中所使用的门结构如图
\ref
{
fig:10-15
}
所示,包括遗忘门,输入门和输出门。图中
$
\sigma
$
代表Sigmoid函数,它将函数输入映射为0-1范围内的实数,用来充当门控信号。
\parinterval
LSTM模型是RNN模型的一种改进。相比RNN仅传递前一时刻的状态
$
\vectorn
{
\emph
{
h
}}_{
t
-
1
}$
,LSTM会同时传递两部分信息:状态信息
$
\vectorn
{
\emph
{
h
}}_{
t
-
1
}$
和记忆信息
$
\vectorn
{
\emph
{
c
}}_{
t
-
1
}$
。这里,
$
\vectorn
{
\emph
{
c
}}_{
t
-
1
}$
是新引入的变量,它也是循环单元的一部分,用于显性的记录需要记录的历史内容,
$
\vectorn
{
\emph
{
h
}}_{
t
-
1
}$
和
$
\vectorn
{
\emph
{
c
}}_{
t
-
1
}$
在循环单元中会相互作用。LSTM通过“门”单元来动态地选择遗忘多少以前的信息和记忆多少当前的信息。LSTM中所使用的门
单元
结构如图
\ref
{
fig:10-15
}
所示,包括遗忘门,输入门和输出门。图中
$
\sigma
$
代表Sigmoid函数,它将函数输入映射为0-1范围内的实数,用来充当门控信号。
%----------------------------------------------
%----------------------------------------------
\begin{figure}
[htp]
\begin{figure}
[htp]
...
@@ -542,12 +536,8 @@ $\funp{P}({y_j | \vectorn{\emph{s}}_{j-1} ,y_{j-1},\vectorn{\emph{C}}})$由Softm
...
@@ -542,12 +536,8 @@ $\funp{P}({y_j | \vectorn{\emph{s}}_{j-1} ,y_{j-1},\vectorn{\emph{C}}})$由Softm
\vspace
{
0.5em
}
\vspace
{
0.5em
}
\item
{
\small\sffamily\bfseries
{
记忆更新
}}
\index
{
记忆更新
}
。首先,要生成当前时刻需要新增加的信息,该部分由输入门完成,其结构如图
\ref
{
fig:10-15
}
(b)红色线部分,图中“
$
\bigotimes
$
”表示进行点乘操作。输入门的计算分为两部分,首先利用
$
\sigma
$
决定门控参数
$
\vectorn
{
\emph
{
i
}}_
t
$
,然后通过Tanh函数得到新的信息
$
\hat
{
\vectorn
{
\emph
{
c
}}}_
t
$
,具体公式如下:
\item
{
\small\sffamily\bfseries
{
记忆更新
}}
\index
{
记忆更新
}
。首先,要生成当前时刻需要新增加的信息,该部分由输入门完成,其结构如图
\ref
{
fig:10-15
}
(b)红色线部分,图中“
$
\bigotimes
$
”表示进行点乘操作。输入门的计算分为两部分,首先利用
$
\sigma
$
决定门控参数
$
\vectorn
{
\emph
{
i
}}_
t
$
,然后通过Tanh函数得到新的信息
$
\hat
{
\vectorn
{
\emph
{
c
}}}_
t
$
,具体公式如下:
\begin{eqnarray}
\begin{eqnarray}
\vectorn
{
\emph
{
i
}}_
t =
\sigma
(
\vectorn
{
\emph
{
W
}}_
i [
\vectorn
{
\emph
{
h
}}_{
t-1
}
,
\vectorn
{
\emph
{
x
}}_{
t
}
] +
\vectorn
{
\emph
{
b
}}_
i )
\vectorn
{
\emph
{
i
}}_
t
&
=
&
\sigma
(
\vectorn
{
\emph
{
W
}}_
i [
\vectorn
{
\emph
{
h
}}_{
t-1
}
,
\vectorn
{
\emph
{
x
}}_{
t
}
] +
\vectorn
{
\emph
{
b
}}_
i )
\label
{
eq:10-13
}
\\
\label
{
eq:10-13
}
\hat
{
\vectorn
{
\emph
{
c
}}}_
t
&
=
&
\textrm
{
Tanh
}
(
\vectorn
{
\emph
{
W
}}_
c [
\vectorn
{
\emph
{
h
}}_{
t-1
}
,
\vectorn
{
\emph
{
x
}}_{
t
}
] +
\vectorn
{
\emph
{
b
}}_
c )
\label
{
eq:10-14
}
\end{eqnarray}
\begin{eqnarray}
\hat
{
\vectorn
{
\emph
{
c
}}}_
t =
\textrm
{
Tanh
}
(
\vectorn
{
\emph
{
W
}}_
c [
\vectorn
{
\emph
{
h
}}_{
t-1
}
,
\vectorn
{
\emph
{
x
}}_{
t
}
] +
\vectorn
{
\emph
{
b
}}_
c )
\label
{
eq:10-14
}
\end{eqnarray}
\end{eqnarray}
之后,用
$
\vectorn
{
\emph
{
i
}}_
t
$
点乘
$
\hat
{
\vectorn
{
\emph
{
c
}}}_
t
$
,得到当前需要记忆的信息,记为
$
\vectorn
{
\emph
{
i
}}_
t
\cdot
\hat
{
\vectorn
{
\emph
{
c
}}}_
t
$
。接下来需要更新旧的信息
$
\vectorn
{
\emph
{
c
}}_{
t
-
1
}$
,得到新的记忆信息
$
\vectorn
{
\emph
{
c
}}_
t
$
,更新的操作如图
\ref
{
fig:10-15
}
(c)红色线部分所示,“
$
\bigoplus
$
”表示相加。具体规则是通过遗忘门选择忘记一部分上文信息
$
\vectorn
{
\emph
{
f
}}_
t
$
,通过输入门计算新增的信息
$
\vectorn
{
\emph
{
i
}}_
t
\cdot
\hat
{
\vectorn
{
\emph
{
c
}}}_
t
$
,然后根据“
$
\bigotimes
$
”门与“
$
\bigoplus
$
”门进行相应的乘法和加法计算:
之后,用
$
\vectorn
{
\emph
{
i
}}_
t
$
点乘
$
\hat
{
\vectorn
{
\emph
{
c
}}}_
t
$
,得到当前需要记忆的信息,记为
$
\vectorn
{
\emph
{
i
}}_
t
\cdot
\hat
{
\vectorn
{
\emph
{
c
}}}_
t
$
。接下来需要更新旧的信息
$
\vectorn
{
\emph
{
c
}}_{
t
-
1
}$
,得到新的记忆信息
$
\vectorn
{
\emph
{
c
}}_
t
$
,更新的操作如图
\ref
{
fig:10-15
}
(c)红色线部分所示,“
$
\bigoplus
$
”表示相加。具体规则是通过遗忘门选择忘记一部分上文信息
$
\vectorn
{
\emph
{
f
}}_
t
$
,通过输入门计算新增的信息
$
\vectorn
{
\emph
{
i
}}_
t
\cdot
\hat
{
\vectorn
{
\emph
{
c
}}}_
t
$
,然后根据“
$
\bigotimes
$
”门与“
$
\bigoplus
$
”门进行相应的乘法和加法计算:
...
@@ -564,7 +554,9 @@ $\funp{P}({y_j | \vectorn{\emph{s}}_{j-1} ,y_{j-1},\vectorn{\emph{C}}})$由Softm
...
@@ -564,7 +554,9 @@ $\funp{P}({y_j | \vectorn{\emph{s}}_{j-1} ,y_{j-1},\vectorn{\emph{C}}})$由Softm
\vspace
{
0.5em
}
\vspace
{
0.5em
}
\end{itemize}
\end{itemize}
\vspace
{
-2em
}
\parinterval
LSTM的完整结构如图
\ref
{
fig:10-16
}
所示,模型的参数包括:参数矩阵
$
\vectorn
{
\emph
{
W
}}_
f
$
、
$
\vectorn
{
\emph
{
W
}}_
i
$
、
$
\vectorn
{
\emph
{
W
}}_
c
$
、
\\
$
\vectorn
{
\emph
{
W
}}_
o
$
和偏置
$
\vectorn
{
\emph
{
b
}}_
f
$
、
$
\vectorn
{
\emph
{
b
}}_
i
$
、
$
\vectorn
{
\emph
{
b
}}_
c
$
、
$
\vectorn
{
\emph
{
b
}}_
o
$
。可以看出,
$
\vectorn
{
\emph
{
h
}}_
t
$
是由
$
\vectorn
{
\emph
{
c
}}_{
t
-
1
}$
、
$
\vectorn
{
\emph
{
h
}}_{
t
-
1
}$
与
$
\vectorn
{
\emph
{
x
}}_
t
$
共同决定的。此外,上述公式中激活函数的选择是根据函数各自的特点决定的。
%----------------------------------------------
%----------------------------------------------
\begin{figure}
[htp]
\begin{figure}
[htp]
\centering
\centering
...
@@ -574,13 +566,11 @@ $\funp{P}({y_j | \vectorn{\emph{s}}_{j-1} ,y_{j-1},\vectorn{\emph{C}}})$由Softm
...
@@ -574,13 +566,11 @@ $\funp{P}({y_j | \vectorn{\emph{s}}_{j-1} ,y_{j-1},\vectorn{\emph{C}}})$由Softm
\end{figure}
\end{figure}
%----------------------------------------------
%----------------------------------------------
\parinterval
LSTM的完整结构如图
\ref
{
fig:10-16
}
所示,模型的参数包括:参数矩阵
$
\vectorn
{
\emph
{
W
}}_
f
$
、
$
\vectorn
{
\emph
{
W
}}_
i
$
、
$
\vectorn
{
\emph
{
W
}}_
c
$
、
\\
$
\vectorn
{
\emph
{
W
}}_
o
$
和偏置
$
\vectorn
{
\emph
{
b
}}_
f
$
、
$
\vectorn
{
\emph
{
b
}}_
i
$
、
$
\vectorn
{
\emph
{
b
}}_
c
$
、
$
\vectorn
{
\emph
{
b
}}_
o
$
。可以看出,
$
\vectorn
{
\emph
{
h
}}_
t
$
是由
$
\vectorn
{
\emph
{
c
}}_{
t
-
1
}$
、
$
\vectorn
{
\emph
{
h
}}_{
t
-
1
}$
与
$
\vectorn
{
\emph
{
x
}}_
t
$
共同决定的。此外,上述公式中激活函数的选择是根据函数各自的特点决定的。
%----------------------------------------------------------------------------------------
%----------------------------------------------------------------------------------------
% NEW SUB-SECTION
% NEW SUB-SECTION
%----------------------------------------------------------------------------------------
%----------------------------------------------------------------------------------------
\subsection
{
门控循环单元
(GRU)
}
\subsection
{
门控循环单元
}
\parinterval
LSTM 通过门控单元控制传递状态,忘记不重要的信息,记住必要的历史信息,在长序列上取得了很好的效果,但是其进行了许多门信号的计算,较为繁琐。
{
\small\bfnew
{
门循环单元
}}
\index
{
门循环单元
}
(Gated Recurrent Unit,GRU)
\index
{
Gated Recurrent Unit,GRU
}
作为一个LSTM的变种,它继承了LSTM中利用门控单元控制信息传递的思想,并对LSTM进行了简化
\upcite
{
Cho2014Learning
}
。它把循环单元状态
$
\vectorn
{
\emph
{
h
}}_
t
$
和记忆
$
\vectorn
{
\emph
{
c
}}_
t
$
合并成一个状态
$
\vectorn
{
\emph
{
h
}}_
t
$
,同时使用了更少的门控单元,大大提升了计算效率。
\parinterval
LSTM 通过门控单元控制传递状态,忘记不重要的信息,记住必要的历史信息,在长序列上取得了很好的效果,但是其进行了许多门信号的计算,较为繁琐。
{
\small\bfnew
{
门循环单元
}}
\index
{
门循环单元
}
(Gated Recurrent Unit,GRU)
\index
{
Gated Recurrent Unit,GRU
}
作为一个LSTM的变种,它继承了LSTM中利用门控单元控制信息传递的思想,并对LSTM进行了简化
\upcite
{
Cho2014Learning
}
。它把循环单元状态
$
\vectorn
{
\emph
{
h
}}_
t
$
和记忆
$
\vectorn
{
\emph
{
c
}}_
t
$
合并成一个状态
$
\vectorn
{
\emph
{
h
}}_
t
$
,同时使用了更少的门控单元,大大提升了计算效率。
...
@@ -634,7 +624,7 @@ $\funp{P}({y_j | \vectorn{\emph{s}}_{j-1} ,y_{j-1},\vectorn{\emph{C}}})$由Softm
...
@@ -634,7 +624,7 @@ $\funp{P}({y_j | \vectorn{\emph{s}}_{j-1} ,y_{j-1},\vectorn{\emph{C}}})$由Softm
\end{figure}
\end{figure}
%----------------------------------------------
%----------------------------------------------
\parinterval
双向模型是自然语言处理领域的常用模型,包括前
面
提到的词对齐对称化、语言模型等中都大量地使用了类似的思路。实际上,这里也体现了建模时的非对称思想。也就是,建模时如果设计一个对称模型可能会导致问题复杂度增加,因此往往先对问题进行化简,从某一个角度解决问题。之后再融合多个模型,从不同角度得到相对合理的最终方案。
\parinterval
双向模型是自然语言处理领域的常用模型,包括前
几章
提到的词对齐对称化、语言模型等中都大量地使用了类似的思路。实际上,这里也体现了建模时的非对称思想。也就是,建模时如果设计一个对称模型可能会导致问题复杂度增加,因此往往先对问题进行化简,从某一个角度解决问题。之后再融合多个模型,从不同角度得到相对合理的最终方案。
%----------------------------------------------------------------------------------------
%----------------------------------------------------------------------------------------
% NEW SUB-SECTION
% NEW SUB-SECTION
...
@@ -642,9 +632,9 @@ $\funp{P}({y_j | \vectorn{\emph{s}}_{j-1} ,y_{j-1},\vectorn{\emph{C}}})$由Softm
...
@@ -642,9 +632,9 @@ $\funp{P}({y_j | \vectorn{\emph{s}}_{j-1} ,y_{j-1},\vectorn{\emph{C}}})$由Softm
\subsection
{
多层网络
}
\subsection
{
多层网络
}
\parinterval
实际上,对于单词序列所使用的循环神经网络是一种很“深”的网络,因为从第一个单词到最后一个单词需要经过至少句子长度相当层数的神经元。比如,一个包含几十个词的句子也会对应几十个神经元层。但是,在很多深度学习应用中,更习惯把对输入序列的同一种处理作为“一层”。比如,对于输入序列,构建一个RNN,那么这些循环单元就构成了网络的“一层”。当然,这里并不是要混淆概念。只是要明确,在随后的讨论中,“层”并不是指一组神经元的全连接,它一般指的是网络
的拓扑结构
。
\parinterval
实际上,对于单词序列所使用的循环神经网络是一种很“深”的网络,因为从第一个单词到最后一个单词需要经过至少句子长度相当层数的神经元。比如,一个包含几十个词的句子也会对应几十个神经元层。但是,在很多深度学习应用中,更习惯把对输入序列的同一种处理作为“一层”。比如,对于输入序列,构建一个RNN,那么这些循环单元就构成了网络的“一层”。当然,这里并不是要混淆概念。只是要明确,在随后的讨论中,“层”并不是指一组神经元的全连接,它一般指的是网络
结构中逻辑上的一层
。
\parinterval
单层循环神经网络对输入序列进行了抽象,为了得到更深入的抽象能力,可以把多个循环神经网络叠在一起,构成多层循环神经网络。比如,图
\ref
{
fig:10-19
}
就展示基于两层循环神经网络的解码器和编码器结构。通常来说,层数越多模型的表示能力越强,因此在很多基于循环神经网络的机器翻译系统中一般会使用4
$
\sim
$
8层的网络。但是,过多的层也会增加模型训练的难度,甚至导致模型无法进行训练。
第十三章
还会对这个问题进行深入讨论。
\parinterval
单层循环神经网络对输入序列进行了抽象,为了得到更深入的抽象能力,可以把多个循环神经网络叠在一起,构成多层循环神经网络。比如,图
\ref
{
fig:10-19
}
就展示基于两层循环神经网络的解码器和编码器结构。通常来说,层数越多模型的表示能力越强,因此在很多基于循环神经网络的机器翻译系统中一般会使用4
$
\sim
$
8层的网络。但是,过多的层也会增加模型训练的难度,甚至导致模型无法进行训练。
{
\chapterthirteen
}
还会对这个问题进行深入讨论。
%----------------------------------------------
%----------------------------------------------
\begin{figure}
[htp]
\begin{figure}
[htp]
...
@@ -662,13 +652,13 @@ $\funp{P}({y_j | \vectorn{\emph{s}}_{j-1} ,y_{j-1},\vectorn{\emph{C}}})$由Softm
...
@@ -662,13 +652,13 @@ $\funp{P}({y_j | \vectorn{\emph{s}}_{j-1} ,y_{j-1},\vectorn{\emph{C}}})$由Softm
\section
{
注意力机制
}
\section
{
注意力机制
}
\label
{
sec:10.4
}
\label
{
sec:10.4
}
\parinterval
前面提到
GNMT使用了注意力机制,那么注意力机制究竟是什么?回顾一下第二章提到过的“上帝是不公平的”这个观点,它主要是表达了
:世界上事物之间的联系不是均匀的,有些事物之间的联系会很强,而其他的联系可能很弱。自然语言也完美地契合了这个观点。比如,再重新看一下前面提到的根据上下文补全缺失单词的例子,
\parinterval
前面提到
的GNMT系统就使用了注意力机制,那么注意力机制究竟是什么?回顾一下
{
\chaptertwo
}
提到的一个观点
:世界上事物之间的联系不是均匀的,有些事物之间的联系会很强,而其他的联系可能很弱。自然语言也完美地契合了这个观点。比如,再重新看一下前面提到的根据上下文补全缺失单词的例子,
\vspace
{
0.8em
}
\vspace
{
0.8em
}
\centerline
{
中午
\
没
\
吃饭
\
,
\
又
\
刚
\
打
\
了
\
一
\
下午
\
篮球
\
,
\
我
\
现在
\
很
\
饿
\
,
\
我
\
想
\underline
{
\quad
\quad
\quad
}
。
}
\centerline
{
中午
\
没
\
吃饭
\
,
\
又
\
刚
\
打
\
了
\
一
\
下午
\
篮球
\
,
\
我
\
现在
\
很
\
饿
\
,
\
我
\
想
\underline
{
\quad
\quad
\quad
}
。
}
\vspace
{
0.8em
}
\vspace
{
0.8em
}
\noindent
之所以能想到在横线处填“吃饭”、“吃东西”很有可能是因为看到了“没
\
吃饭”、 “很
\
饿”等关键信息。也就是这些关键的片段对预测缺失的单词起着关键性作用。而预测“吃饭”与前文中的“ 中午”、“又”之间的联系似乎不那么紧密。也就是说,在形成 “吃饭”的逻辑时,在潜意识里会更注意“没
吃饭”、“很饿”等关键信息。也就是我们的关注度并不是均匀地分布在整个句子上的。
\noindent
之所以能想到在横线处填“吃饭”、“吃东西”很有可能是因为看到了“没
/吃饭”、 “很/饿”等关键信息。也就是这些关键的片段对预测缺失的单词起着关键性作用。而预测“吃饭”与前文中的“ 中午”、“又”之间的联系似乎不那么紧密。也就是说,在形成 “吃饭”的逻辑时,在潜意识里会更注意“没/
吃饭”、“很饿”等关键信息。也就是我们的关注度并不是均匀地分布在整个句子上的。
\parinterval
这个现象可以用注意力机制进行解释。注意力机制的概念来源于生物学的一些现象:当待接收的信息过多时,人类会选择性地关注部分信息而忽略其他信息。它在人类的视觉、听觉、嗅觉等方面均有体现,当我们在感受事物时,大脑会自动过滤或衰减部分信息,仅关注其中少数几个部分。例如,当看到图
\ref
{
fig:12-20
}
时,往往不是“均匀地”看图像中的所有区域,可能最先注意到的是大狗头上戴的帽子,然后才会关注图片中其他的部分。
\parinterval
这个现象可以用注意力机制进行解释。注意力机制的概念来源于生物学的一些现象:当待接收的信息过多时,人类会选择性地关注部分信息而忽略其他信息。它在人类的视觉、听觉、嗅觉等方面均有体现,当我们在感受事物时,大脑会自动过滤或衰减部分信息,仅关注其中少数几个部分。例如,当看到图
\ref
{
fig:12-20
}
时,往往不是“均匀地”看图像中的所有区域,可能最先注意到的是大狗头上戴的帽子,然后才会关注图片中其他的部分。
...
@@ -678,7 +668,7 @@ $\funp{P}({y_j | \vectorn{\emph{s}}_{j-1} ,y_{j-1},\vectorn{\emph{C}}})$由Softm
...
@@ -678,7 +668,7 @@ $\funp{P}({y_j | \vectorn{\emph{s}}_{j-1} ,y_{j-1},\vectorn{\emph{C}}})$由Softm
\begin{figure}
[htp]
\begin{figure}
[htp]
\centering
\centering
\includegraphics
[scale=0.2]
{
./Chapter12/Figures/dog-hat.jpg
}
\includegraphics
[scale=0.2]
{
./Chapter12/Figures/dog-hat.jpg
}
\caption
{
戴帽子的狗
}
\caption
{
戴帽子的狗
(
{
\color
{
red
}
这个图是不是也要换
}
)
}
\label
{
fig:12-20
}
\label
{
fig:12-20
}
\end{figure}
\end{figure}
%----------------------------------------------
%----------------------------------------------
...
@@ -930,7 +920,6 @@ a (\vectorn{\emph{s}},\vectorn{\emph{h}}) = \left\{ \begin{array}{ll}
...
@@ -930,7 +920,6 @@ a (\vectorn{\emph{s}},\vectorn{\emph{h}}) = \left\{ \begin{array}{ll}
%----------------------------------------------------------------------------------------
%----------------------------------------------------------------------------------------
% NEW SUB-SECTION
% NEW SUB-SECTION
%----------------------------------------------------------------------------------------
%----------------------------------------------------------------------------------------
\vspace
{
-1.5em
}
\subsection
{
训练
}
\subsection
{
训练
}
\parinterval
第九章已经介绍了神经网络的训练方法。其中最常用的是基于梯度的方法,即:使用一定量样本进行神经网络的前向计算,之后进行反向计算,并得到所有参数的梯度信息,再使用下面的规则进行参数更新:
\parinterval
第九章已经介绍了神经网络的训练方法。其中最常用的是基于梯度的方法,即:使用一定量样本进行神经网络的前向计算,之后进行反向计算,并得到所有参数的梯度信息,再使用下面的规则进行参数更新:
...
...
编写
预览
Markdown
格式
0%
重试
或
添加新文件
添加附件
取消
您添加了
0
人
到此讨论。请谨慎行事。
请先完成此评论的编辑!
取消
请
注册
或者
登录
后发表评论