Skip to content
项目
群组
代码片段
帮助
当前项目
正在载入...
登录 / 注册
切换导航面板
M
mtbookv2
概览
Overview
Details
Activity
Cycle Analytics
版本库
Repository
Files
Commits
Branches
Tags
Contributors
Graph
Compare
Charts
问题
0
Issues
0
列表
Board
标记
里程碑
合并请求
0
Merge Requests
0
CI / CD
CI / CD
流水线
作业
日程表
图表
维基
Wiki
代码片段
Snippets
成员
Collapse sidebar
Close sidebar
活动
图像
聊天
创建新问题
作业
提交
Issue Boards
Open sidebar
NiuTrans
mtbookv2
Commits
32d655c7
Commit
32d655c7
authored
Jan 05, 2021
by
zengxin
Browse files
Options
Browse Files
Download
Email Patches
Plain Diff
10
parent
8331cd1a
隐藏空白字符变更
内嵌
并排
正在显示
1 个修改的文件
包含
8 行增加
和
8 行删除
+8
-8
Chapter10/chapter10.tex
+8
-8
没有找到文件。
Chapter10/chapter10.tex
查看文件 @
32d655c7
...
...
@@ -415,7 +415,7 @@ NMT & 21.7 & 18.7 & -13.7 \\
\parinterval
显然,根据上下文中提到的“没/吃饭”、“很/饿”,最佳的答案是“吃饭”或者“吃东西”。也就是,对序列中某个位置的答案进行预测时需要记忆当前时刻之前的序列信息,因此,循环神经网络应运而生。实际上循环神经网络有着极为广泛的应用,例如语音识别、语言建模以及即将要介绍的神经机器翻译。
\parinterval
{
\chapternine
}
已经对循环神经网络的基本知识进行过介绍,这里再回顾一下。简单来说,循环神经网络由循环单元组成。对于序列中的任意时刻,都有一个循环单元与之对应,它会融合当前时刻的输入和上一时刻循环单元的输出,生成当前时刻的输出。这样每个时刻的信息都会被传递到下一时刻,这也间接达到了记录历史信息的目的。比如,对于序列
$
\seq
{
x
}
=
\{
x
_
1
,
x
_
2
,..., x
_
m
\}
$
,循环神经网络会按顺序输出一个序列
$
\seq
{
h
}
=
\{
\mathbi
{
h
}_
1
,
\mathbi
{
h
}_
2
,...,
\mathbi
{
h
}_
m
\}
$
,其中
$
\mathbi
{
h
}_
i
$
表示
$
i
$
时刻循环神经网络的输出(通常为一个向量)。
\parinterval
{
\chapternine
}
已经对循环神经网络的基本知识进行过介绍,这里再回顾一下。简单来说,循环神经网络由循环单元组成。对于序列中的任意时刻,都有一个循环单元与之对应,它会融合当前时刻的输入和上一时刻循环单元的输出,生成当前时刻的输出。这样每个时刻的信息都会被传递到下一时刻,这也间接达到了记录历史信息的目的。比如,对于序列
$
\seq
{
x
}
=
\{
x
_
1
,
..., x
_
m
\}
$
,循环神经网络会按顺序输出一个序列
$
\seq
{
h
}
=
\{
\mathbi
{
h
}_
1
,...,
\mathbi
{
h
}_
m
\}
$
,其中
$
\mathbi
{
h
}_
i
$
表示
$
i
$
时刻循环神经网络的输出(通常为一个向量)。
\parinterval
图
\ref
{
fig:10-8
}
展示了一个循环神经网络处理序列问题的实例。当前时刻循环单元的输入由上一个时刻的输出和当前时刻的输入组成,因此也可以理解为,网络当前时刻计算得到的输出是由之前的序列共同决定的,即网络在不断地传递信息的过程中记忆了历史信息。以最后一个时刻的循环单元为例,它在对“开始”这个单词的信息进行处理时,参考了之前所有词(“<sos>
\
让
\
我们”)的信息。
...
...
@@ -445,14 +445,14 @@ NMT & 21.7 & 18.7 & -13.7 \\
\label
{
eq:10-1
}
\end{eqnarray}
\noindent
这里,用
$
\seq
{{
x
}}
=
\{
x
_
1
,
x
_
2
,..., x
_
m
\}
$
表示输入的源语言单词序列,
$
\seq
{{
y
}}
=
\{
y
_
1
,y
_
2
,..., y
_
n
\}
$
表示生成的目标语言单词序列。由于神经机器翻译在生成译文时采用的是自左向右逐词生成的方式,并在翻译每个单词时考虑已经生成的翻译结果,因此对
$
\funp
{
P
}
(
\seq
{{
y
}}
|
\seq
{{
x
}}
)
$
的求解可以转换为下式:
\noindent
这里,用
$
\seq
{{
x
}}
=
\{
x
_
1
,
..., x
_
m
\}
$
表示输入的源语言单词序列,
$
\seq
{{
y
}}
=
\{
y
_
1
,..., y
_
n
\}
$
表示生成的目标语言单词序列。由于神经机器翻译在生成译文时采用的是自左向右逐词生成的方式,并在翻译每个单词时考虑已经生成的翻译结果,因此对
$
\funp
{
P
}
(
\seq
{{
y
}}
|
\seq
{{
x
}}
)
$
的求解可以转换为下式:
\begin{eqnarray}
\funp
{
P
}
(
\seq
{{
y
}}
|
\seq
{{
x
}}
)
&
=
&
\prod
_{
j=1
}^{
n
}
\funp
{
P
}
( y
_
j |
\seq
{{
y
}}_{
<j
}
,
\seq
{{
x
}}
)
\label
{
eq:10-2
}
\end{eqnarray}
\vspace
{
-0.5em
}
\noindent
其中,
$
\seq
{{
y
}}_{
<j
}$
表示目标语言第
$
j
$
个位置之前已经生成的译文单词序列。
$
\funp
{
P
}
(
y
_
j |
\seq
{{
y
}}_{
<j
}
,
\seq
{{
x
}}
)
$
可以被解释为:根据源语言句子
$
\seq
{{
x
}}
$
和已生成的目标语言译文片段
$
\seq
{{
y
}}_{
<j
}
=
\{
y
_
1
,
y
_
2
,
..., y
_{
j
-
1
}
\}
$
,生成第
$
j
$
个目标语言单词
$
y
_
j
$
的概率。
\noindent
其中,
$
\seq
{{
y
}}_{
<j
}$
表示目标语言第
$
j
$
个位置之前已经生成的译文单词序列。
$
\funp
{
P
}
(
y
_
j |
\seq
{{
y
}}_{
<j
}
,
\seq
{{
x
}}
)
$
可以被解释为:根据源语言句子
$
\seq
{{
x
}}
$
和已生成的目标语言译文片段
$
\seq
{{
y
}}_{
<j
}
=
\{
y
_
1
,..., y
_{
j
-
1
}
\}
$
,生成第
$
j
$
个目标语言单词
$
y
_
j
$
的概率。
\parinterval
求解
$
\funp
{
P
}
(
y
_
j |
\seq
{{
y
}}_{
<j
}
,
\seq
{{
x
}}
)
$
有三个关键问题(图
\ref
{
fig:10-10
}
):
...
...
@@ -490,7 +490,7 @@ $\funp{P}({y_j | \mathbi{s}_{j-1} ,y_{j-1},\mathbi{C}})$由Softmax实现,Softm
%----------------------------------------------
\parinterval
输入层(词嵌入)和输出层(Softmax)的内容已在
{
\chapternine
}
进行了介绍,因此这里的核心内容是设计循环神经网络结构,即设计循环单元的结构。至今,研究人员已经提出了很多优秀的循环单元结构。其中循环神经网络(RNN)
是最原始的循环单元结构。在RNN中,对于序列
$
\seq
{{
x
}}
=
\{
\mathbi
{
x
}_
1
,
\mathbi
{
x
}_
2
,
...,
\mathbi
{
x
}_
m
\}
$
,每个时刻
$
t
$
都对应一个循环单元,它的输出是一个向量
$
\mathbi
{
h
}_
t
$
,可以被描述为:
是最原始的循环单元结构。在RNN中,对于序列
$
\seq
{{
x
}}
=
\{
\mathbi
{
x
}_
1
,...,
\mathbi
{
x
}_
m
\}
$
,每个时刻
$
t
$
都对应一个循环单元,它的输出是一个向量
$
\mathbi
{
h
}_
t
$
,可以被描述为:
\begin{eqnarray}
\mathbi
{
h
}_
t
&
=
&
f(
\mathbi
{
x
}_
t
\mathbi
{
U
}
+
\mathbi
{
h
}_{
t-1
}
\mathbi
{
W
}
+
\mathbi
{
b
}
)
\label
{
eq:10-5
}
...
...
@@ -719,13 +719,13 @@ $\funp{P}({y_j | \mathbi{s}_{j-1} ,y_{j-1},\mathbi{C}})$由Softmax实现,Softm
\parinterval
神经机器翻译中,注意力机制的核心是:针对不同目标语言单词生成不同的上下文向量。这里,可以将注意力机制看做是一种对接收到的信息的加权处理。对于更重要的信息赋予更高的权重即更高的关注度,对于贡献度较低的信息分配较低的权重,弱化其对结果的影响。这样,
$
\mathbi
{
C
}_
j
$
可以包含更多对当前目标语言位置有贡献的源语言片段的信息。
\parinterval
根据这种思想,上下文向量
$
\mathbi
{
C
}_
j
$
被定义为对不同时间步编码器输出的状态序列
$
\{
\mathbi
{
h
}_
1
,
\mathbi
{
h
}_
2
,
...,
\mathbi
{
h
}_
m
\}
$
进行加权求和,如下式:
\parinterval
根据这种思想,上下文向量
$
\mathbi
{
C
}_
j
$
被定义为对不同时间步编码器输出的状态序列
$
\{
\mathbi
{
h
}_
1
,...,
\mathbi
{
h
}_
m
\}
$
进行加权求和,如下式:
\begin{eqnarray}
\mathbi
{
C
}_
j
&
=
&
\sum
_{
i
}
\alpha
_{
i,j
}
\mathbi
{
h
}_
i
\label
{
eq:10-16
}
\end{eqnarray}
\noindent
其中,
$
\alpha
_{
i,j
}$
是
{
\small\sffamily\bfseries
{
注意力权重
}}
\index
{
注意力权重
}
(Attention Weight)
\index
{
Attention Weight
}
,它表示目标语言第
$
j
$
个位置与源语言第
$
i
$
个位置之间的相关性大小。这里,将每个时间步编码器的输出
$
\mathbi
{
h
}_
i
$
看作源语言位置
$
i
$
的表示结果。进行翻译时,解码器可以根据当前的位置
$
j
$
,通过控制不同
$
\mathbi
{
h
}_
i
$
的权重得到
$
\mathbi
{
C
}_
j
$
,使得对目标语言位置
$
j
$
贡献大的
$
\mathbi
{
h
}_
i
$
对
$
\mathbi
{
C
}_
j
$
的影响增大。也就是说,
$
\mathbi
{
C
}_
j
$
实际上就是
\{
${
\mathbi
{
h
}_
1
,
\mathbi
{
h
}_
2
,
...,
\mathbi
{
h
}_
m
}$
\}
的一种组合,只不过不同的
$
\mathbi
{
h
}_
i
$
会根据对目标端的贡献给予不同的权重。图
\ref
{
fig:10-19
}
展示了上下文向量
$
\mathbi
{
C
}_
j
$
的计算过程。
\noindent
其中,
$
\alpha
_{
i,j
}$
是
{
\small\sffamily\bfseries
{
注意力权重
}}
\index
{
注意力权重
}
(Attention Weight)
\index
{
Attention Weight
}
,它表示目标语言第
$
j
$
个位置与源语言第
$
i
$
个位置之间的相关性大小。这里,将每个时间步编码器的输出
$
\mathbi
{
h
}_
i
$
看作源语言位置
$
i
$
的表示结果。进行翻译时,解码器可以根据当前的位置
$
j
$
,通过控制不同
$
\mathbi
{
h
}_
i
$
的权重得到
$
\mathbi
{
C
}_
j
$
,使得对目标语言位置
$
j
$
贡献大的
$
\mathbi
{
h
}_
i
$
对
$
\mathbi
{
C
}_
j
$
的影响增大。也就是说,
$
\mathbi
{
C
}_
j
$
实际上就是
\{
${
\mathbi
{
h
}_
1
,...,
\mathbi
{
h
}_
m
}$
\}
的一种组合,只不过不同的
$
\mathbi
{
h
}_
i
$
会根据对目标端的贡献给予不同的权重。图
\ref
{
fig:10-19
}
展示了上下文向量
$
\mathbi
{
C
}_
j
$
的计算过程。
%----------------------------------------------
\begin{figure}
[htp]
...
...
@@ -945,7 +945,7 @@ L_{\textrm{ce}}(\mathbi{y},\hat{\mathbi{y}}) &=& - \sum_{k=1}^{|V|} \mathbi{y}[k
\label
{
eq:10-25
}
\end{eqnarray}
\noindent
其中
$
\mathbi
{
y
}
[
k
]
$
和
$
\hat
{
\mathbi
{
y
}}
[
k
]
$
分别表示向量
$
\mathbi
{
y
}$
和
$
\hat
{
\mathbi
{
y
}}$
的第
$
k
$
维,
$
|V|
$
表示输出向量的维度(等于词表大小)。假设有
$
n
$
个训练样本,模型输出的概率分布为
$
\mathbi
{
Y
}
=
\{
\mathbi
{
y
}_
1
,
\mathbi
{
y
}_
2
,...,
\mathbi
{
y
}_
n
\}
$
,标准答案的分布
$
\widehat
{
\mathbi
{
Y
}}
=
\{
\hat
{
\mathbi
{
y
}}_
1
,
\hat
{
\mathbi
{
y
}}_
2
,...,
\hat
{
\mathbi
{
y
}}_
n
\}
$
。这个训练样本集合上的损失函数可以被定义为:
\noindent
其中
$
\mathbi
{
y
}
[
k
]
$
和
$
\hat
{
\mathbi
{
y
}}
[
k
]
$
分别表示向量
$
\mathbi
{
y
}$
和
$
\hat
{
\mathbi
{
y
}}$
的第
$
k
$
维,
$
|V|
$
表示输出向量的维度(等于词表大小)。假设有
$
n
$
个训练样本,模型输出的概率分布为
$
\mathbi
{
Y
}
=
\{
\mathbi
{
y
}_
1
,
...,
\mathbi
{
y
}_
n
\}
$
,标准答案的分布
$
\widehat
{
\mathbi
{
Y
}}
=
\{
\hat
{
\mathbi
{
y
}}_
1
,...,
\hat
{
\mathbi
{
y
}}_
n
\}
$
。这个训练样本集合上的损失函数可以被定义为:
\begin{eqnarray}
L(
\mathbi
{
Y
}
,
\widehat
{
\mathbi
{
Y
}}
)
&
=
&
\sum
_{
j=1
}^
n L
_{
\textrm
{
ce
}}
(
\mathbi
{
y
}_
j,
\hat
{
\mathbi
{
y
}}_
j)
\label
{
eq:10-26
}
...
...
@@ -1187,7 +1187,7 @@ L(\mathbi{Y},\widehat{\mathbi{Y}}) &=& \sum_{j=1}^n L_{\textrm{ce}}(\mathbi{y}_j
\subsubsection
{
2. 束搜索
}
\vspace
{
0.5em
}
\parinterval
束搜索是一种启发式图搜索算法。相比于全搜索,它可以减少搜索所占用的空间和时间,在每一步扩展的时候,剪掉一些质量比较差的结点,保留下一些质量较高的结点。具体到机器翻译任务,对于每一个目标语言位置,束搜索选择了概率最大的前
$
k
$
个单词进行扩展(其中
$
k
$
叫做束宽度,或简称为束宽)。如图
\ref
{
fig:10-31
}
所示,假设
\{
$
y
_
1
,
y
_
2
,
..., y
_
n
$
\}
表示生成的目标语言序列,且
$
k
=
3
$
,则束搜索的具体过程为:在预测第一个位置时,可以通过模型得到
$
y
_
1
$
的概率分布,选取概率最大的前3个单词作为候选结果(假设分别为“have”, “has”, “it”)。在预测第二个位置的单词时,模型针对已经得到的三个候选结果(“have”, “has”, “it”)计算第二个单词的概率分布。因为
$
y
_
2
$
对应
$
|V|
$
种可能,总共可以得到
$
3
\times
|V|
$
种结果。然后从中选取使序列概率
$
\funp
{
P
}
(
y
_
2
,y
_
1
|
\seq
{{
x
}}
)
$
最大的前三个
$
y
_
2
$
作为新的输出结果,这样便得到了前两个位置的top-3译文。在预测其他位置时也是如此,不断重复此过程直到推断结束。可以看到,束搜索的搜索空间大小与束宽度有关,也就是:束宽度越大,搜索空间越大,更有可能搜索到质量更高的译文,但同时搜索会更慢。束宽度等于3,意味着每次只考虑三个最有可能的结果,贪婪搜索实际上便是束宽度为1的情况。在神经机器翻译系统实现中,一般束宽度设置在4~8之间。
\parinterval
束搜索是一种启发式图搜索算法。相比于全搜索,它可以减少搜索所占用的空间和时间,在每一步扩展的时候,剪掉一些质量比较差的结点,保留下一些质量较高的结点。具体到机器翻译任务,对于每一个目标语言位置,束搜索选择了概率最大的前
$
k
$
个单词进行扩展(其中
$
k
$
叫做束宽度,或简称为束宽)。如图
\ref
{
fig:10-31
}
所示,假设
\{
$
y
_
1
,..., y
_
n
$
\}
表示生成的目标语言序列,且
$
k
=
3
$
,则束搜索的具体过程为:在预测第一个位置时,可以通过模型得到
$
y
_
1
$
的概率分布,选取概率最大的前3个单词作为候选结果(假设分别为“have”, “has”, “it”)。在预测第二个位置的单词时,模型针对已经得到的三个候选结果(“have”, “has”, “it”)计算第二个单词的概率分布。因为
$
y
_
2
$
对应
$
|V|
$
种可能,总共可以得到
$
3
\times
|V|
$
种结果。然后从中选取使序列概率
$
\funp
{
P
}
(
y
_
2
,y
_
1
|
\seq
{{
x
}}
)
$
最大的前三个
$
y
_
2
$
作为新的输出结果,这样便得到了前两个位置的top-3译文。在预测其他位置时也是如此,不断重复此过程直到推断结束。可以看到,束搜索的搜索空间大小与束宽度有关,也就是:束宽度越大,搜索空间越大,更有可能搜索到质量更高的译文,但同时搜索会更慢。束宽度等于3,意味着每次只考虑三个最有可能的结果,贪婪搜索实际上便是束宽度为1的情况。在神经机器翻译系统实现中,一般束宽度设置在4~8之间。
%----------------------------------------------
\begin{figure}
[htp]
...
...
编写
预览
Markdown
格式
0%
重试
或
添加新文件
添加附件
取消
您添加了
0
人
到此讨论。请谨慎行事。
请先完成此评论的编辑!
取消
请
注册
或者
登录
后发表评论