Skip to content
项目
群组
代码片段
帮助
当前项目
正在载入...
登录 / 注册
切换导航面板
M
mtbookv2
概览
Overview
Details
Activity
Cycle Analytics
版本库
Repository
Files
Commits
Branches
Tags
Contributors
Graph
Compare
Charts
问题
0
Issues
0
列表
Board
标记
里程碑
合并请求
0
Merge Requests
0
CI / CD
CI / CD
流水线
作业
日程表
图表
维基
Wiki
代码片段
Snippets
成员
Collapse sidebar
Close sidebar
活动
图像
聊天
创建新问题
作业
提交
Issue Boards
Open sidebar
NiuTrans
mtbookv2
Commits
4c823f98
Commit
4c823f98
authored
Sep 17, 2020
by
xiaotong
Browse files
Options
Browse Files
Download
Email Patches
Plain Diff
wording (sec 10, attention)
parent
2c87dee5
显示空白字符变更
内嵌
并排
正在显示
2 个修改的文件
包含
29 行增加
和
39 行删除
+29
-39
Chapter10/Figures/figure-query-model-corresponding-to-attention-mechanism.tex
+9
-17
Chapter10/chapter10.tex
+20
-22
没有找到文件。
Chapter10/Figures/figure-query-model-corresponding-to-attention-mechanism.tex
查看文件 @
4c823f98
\begin{tikzpicture}
\begin{scope}
\tikzstyle
{
rnode
}
= [draw,minimum width=3.5em,minimum height=1.2em]
\node
[rnode,anchor=south west,fill=red!20!white] (value1) at (0,0)
{
\scriptsize
{$
\vectorn
{
h
}
(
\textrm
{
“你”
}
)
$}}
;
\node
[rnode,anchor=south west,fill=red!20!white] (value2) at ([xshift=1em]value1.south east)
{
\scriptsize
{$
\vectorn
{
h
}
(
\textrm
{
“什么”
}
)
$}}
;
\node
[rnode,anchor=south west,fill=red!20!white] (value3) at ([xshift=1em]value2.south east)
{
\scriptsize
{$
\vectorn
{
h
}
(
\textrm
{
“也”
}
)
$}}
;
\node
[rnode,anchor=south west,fill=red!20!white] (value4) at ([xshift=1em]value3.south east)
{
\scriptsize
{$
\vectorn
{
h
}
(
\textrm
{
“没”
}
)
$}}
;
\node
[rnode,anchor=south west,fill=red!20!white] (value1) at (0,0)
{
\scriptsize
{$
\vectorn
{
h
}
(
\textrm
{
你
}
)
$}}
;
\node
[rnode,anchor=south west,fill=red!20!white] (value2) at ([xshift=1em]value1.south east)
{
\scriptsize
{$
\vectorn
{
h
}
(
\textrm
{
什么
}
)
$}}
;
\node
[rnode,anchor=south west,fill=red!20!white] (value3) at ([xshift=1em]value2.south east)
{
\scriptsize
{$
\vectorn
{
h
}
(
\textrm
{
也
}
)
$}}
;
\node
[rnode,anchor=south west,fill=red!20!white] (value4) at ([xshift=1em]value3.south east)
{
\scriptsize
{$
\vectorn
{
h
}
(
\textrm
{
没
}
)
$}}
;
\node
[rnode,anchor=south west,fill=green!20!white] (key1) at ([yshift=0.2em]value1.north west)
{
\scriptsize
{$
\vectorn
{
h
}
(
\textrm
{
“你”
}
)
$}}
;
\node
[rnode,anchor=south west,fill=green!20!white] (key2) at ([yshift=0.2em]value2.north west)
{
\scriptsize
{$
\vectorn
{
h
}
(
\textrm
{
“什么”
}
)
$}}
;
\node
[rnode,anchor=south west,fill=green!20!white] (key3) at ([yshift=0.2em]value3.north west)
{
\scriptsize
{$
\vectorn
{
h
}
(
\textrm
{
“也”
}
)
$}}
;
\node
[rnode,anchor=south west,fill=green!20!white] (key4) at ([yshift=0.2em]value4.north west)
{
\scriptsize
{$
\vectorn
{
h
}
(
\textrm
{
“没”
}
)
$}}
;
\node
[rnode,anchor=south west,fill=green!20!white] (key1) at ([yshift=0.2em]value1.north west)
{
\scriptsize
{$
\vectorn
{
h
}
(
\textrm
{
你
}
)
$}}
;
\node
[rnode,anchor=south west,fill=green!20!white] (key2) at ([yshift=0.2em]value2.north west)
{
\scriptsize
{$
\vectorn
{
h
}
(
\textrm
{
什么
}
)
$}}
;
\node
[rnode,anchor=south west,fill=green!20!white] (key3) at ([yshift=0.2em]value3.north west)
{
\scriptsize
{$
\vectorn
{
h
}
(
\textrm
{
也
}
)
$}}
;
\node
[rnode,anchor=south west,fill=green!20!white] (key4) at ([yshift=0.2em]value4.north west)
{
\scriptsize
{$
\vectorn
{
h
}
(
\textrm
{
没
}
)
$}}
;
\node
[rnode,anchor=east] (query) at ([xshift=-2em]key1.west)
{
\scriptsize
{$
\vectorn
{
s
}
(
\textrm
{
“you”
}
)
$}}
;
\node
[rnode,anchor=east] (query) at ([xshift=-2em]key1.west)
{
\scriptsize
{$
\vectorn
{
s
}
(
\textrm
{
you
}
)
$}}
;
\node
[anchor=east] (querylabel) at ([xshift=-0.2em]query.west)
{
\scriptsize
{
query
}}
;
\draw
[->] ([yshift=1pt,xshift=6pt]query.north) .. controls +(90:1em) and +(90:1em) .. ([yshift=1pt]key1.north);
...
...
Chapter10/chapter10.tex
查看文件 @
4c823f98
...
...
@@ -395,7 +395,7 @@ NMT & 21.7 & 18.7 & -13.7 \\
\end{table}
%----------------------------------------------
\parinterval
可以说循环神经网络和注意力机制构成了当时神经机器翻译的标准框架。例如,2016年出现的GNMT(Google Neural Machine Translation)系统就是由多层循环神经网络(长短时记忆模型)以及注意力机制搭建,且在当时展示出很出色的性能
\upcite
{
Wu2016GooglesNM
}
。其中的很多技术也都为其它神经机器翻译系统的研发提供了很好的依据。
\parinterval
可以说循环神经网络和注意力机制构成了当时神经机器翻译的标准框架。例如,2016年出现的GNMT(Google
's
Neural Machine Translation)系统就是由多层循环神经网络(长短时记忆模型)以及注意力机制搭建,且在当时展示出很出色的性能
\upcite
{
Wu2016GooglesNM
}
。其中的很多技术也都为其它神经机器翻译系统的研发提供了很好的依据。
\parinterval
下面将会从基于循环神经网络的翻译模型入手,介绍神经机器翻译的基本方法。之后,会对注意力机制进行介绍,同时也会介绍其在GNMT系统中的应用。
...
...
@@ -652,7 +652,7 @@ $\funp{P}({y_j | \vectorn{\emph{s}}_{j-1} ,y_{j-1},\vectorn{\emph{C}}})$由Softm
\section
{
注意力机制
}
\label
{
sec:10.4
}
\parinterval
前面提到的GNMT系统就使用了注意力机制,那么注意力机制究竟是什么?回顾一下
{
\chaptertwo
}
提到的一个观点:世界上
事物之间的联系不是均匀
的,有些事物之间的联系会很强,而其他的联系可能很弱。自然语言也完美地契合了这个观点。比如,再重新看一下前面提到的根据上下文补全缺失单词的例子,
\parinterval
前面提到的GNMT系统就使用了注意力机制,那么注意力机制究竟是什么?回顾一下
{
\chaptertwo
}
提到的一个观点:世界上
不同事物之间的相关性是不一样
的,有些事物之间的联系会很强,而其他的联系可能很弱。自然语言也完美地契合了这个观点。比如,再重新看一下前面提到的根据上下文补全缺失单词的例子,
\vspace
{
0.8em
}
\centerline
{
中午
\
没
\
吃饭
\
,
\
又
\
刚
\
打
\
了
\
一
\
下午
\
篮球
\
,
\
我
\
现在
\
很
\
饿
\
,
\
我
\
想
\underline
{
\quad
\quad
\quad
}
。
}
...
...
@@ -660,9 +660,7 @@ $\funp{P}({y_j | \vectorn{\emph{s}}_{j-1} ,y_{j-1},\vectorn{\emph{C}}})$由Softm
\noindent
之所以能想到在横线处填“吃饭”、“吃东西”很有可能是因为看到了“没/吃饭”、 “很/饿”等关键信息。也就是这些关键的片段对预测缺失的单词起着关键性作用。而预测“吃饭”与前文中的“ 中午”、“又”之间的联系似乎不那么紧密。也就是说,在形成 “吃饭”的逻辑时,在潜意识里会更注意“没/吃饭”、“很饿”等关键信息。也就是我们的关注度并不是均匀地分布在整个句子上的。
\parinterval
这个现象可以用注意力机制进行解释。注意力机制的概念来源于生物学的一些现象:当待接收的信息过多时,人类会选择性地关注部分信息而忽略其他信息。它在人类的视觉、听觉、嗅觉等方面均有体现,当我们在感受事物时,大脑会自动过滤或衰减部分信息,仅关注其中少数几个部分。例如,当看到图
\ref
{
fig:12-20
}
时,往往不是“均匀地”看图像中的所有区域,可能最先注意到的是大狗头上戴的帽子,然后才会关注图片中其他的部分。
\parinterval
那么注意力机制和神经机器翻译又有什么关系呢?它如何解决神经机器翻译的问题呢?下面就一起来看一看。
\parinterval
这个现象可以用注意力机制进行解释。注意力机制的概念来源于生物学的一些现象:当待接收的信息过多时,人类会选择性地关注部分信息而忽略其他信息。它在人类的视觉、听觉、嗅觉等方面均有体现,当我们在感受事物时,大脑会自动过滤或衰减部分信息,仅关注其中少数几个部分。例如,当看到图
\ref
{
fig:12-20
}
时,往往不是“均匀地”看图像中的所有区域,可能最先注意到的是大狗头上戴的帽子,然后才会关注图片中其他的部分。那注意力机制是如何解决神经机器翻译的问题呢?下面就一起来看一看。
%----------------------------------------------
\begin{figure}
[htp]
...
...
@@ -688,7 +686,7 @@ $\funp{P}({y_j | \vectorn{\emph{s}}_{j-1} ,y_{j-1},\vectorn{\emph{C}}})$由Softm
\vspace
{
0.5em
}
\end{itemize}
\parinterval
更直观的,如图
\ref
{
fig:12-21
}
,目标语言中的“very long”仅依赖于源
文
中的“很长”。这时如果将所有源语言编码成一个固定的实数向量,“很长”的信息就很可能被其他词的信息淹没掉。
\parinterval
更直观的,如图
\ref
{
fig:12-21
}
,目标语言中的“very long”仅依赖于源
语言
中的“很长”。这时如果将所有源语言编码成一个固定的实数向量,“很长”的信息就很可能被其他词的信息淹没掉。
%----------------------------------------------
\begin{figure}
[htp]
...
...
@@ -701,13 +699,13 @@ $\funp{P}({y_j | \vectorn{\emph{s}}_{j-1} ,y_{j-1},\vectorn{\emph{C}}})$由Softm
\parinterval
显然,以上问题的根本原因在于所使用的表示模型还比较“弱”。因此需要一个更强大的表示模型,在生成目标语言单词时能够有选择地获取源语言句子中更有用的部分。更准确的说,对于要生成的目标语单词,相关性更高的源语言片段应该在源语言句子的表示中体现出来,而不是将所有的源语言单词一视同仁。在神经机器翻译中引入注意力机制正是为了达到这个目的
\upcite
{
bahdanau2014neural,DBLP:journals/corr/LuongPM15
}
。实际上,除了机器翻译,注意力机制也被成功地应用于图像处理、语音识别、自然语言处理等其他任务。而正是注意力机制的引入,使得包括机器翻译在内很多自然语言处理系统得到了飞跃发展。
\parinterval
神经机器翻译中的注意力机制并不复杂。对于每个目标语言单词
$
y
_
j
$
,系统生成一个源语言表示向量
$
\vectorn
{
\emph
{{
C
}}}_
j
$
与之对应,
$
\vectorn
{
\emph
{
C
}}_
j
$
会包含生成
$
y
_
j
$
所需的源语言的信息,或者说
$
\vectorn
{
\emph
{
C
}}_
j
$
是一种包含目标语言单词与源语言单词对应关系的源语言表示。相比用一个静态的表示
$
\vectorn
{
\emph
{
C
}}$
,注意机制使用的是动态的表示
$
\vectorn
{
\emph
{
C
}}_
j
$
。
$
\vectorn
{
\emph
{
C
}}_
j
$
也被称作对于目标语言位置
$
j
$
的
上下文向量。图
\ref
{
fig:12-22
}
对比了未引入注意力机制和引入了注意力机制的编码器-
解码器结构。可以看出,在注意力模型中,对于每一个目标单词的生成,都会额外引入一个单独的上下文向量参与运算。
\parinterval
神经机器翻译中的注意力机制并不复杂。对于每个目标语言单词
$
y
_
j
$
,系统生成一个源语言表示向量
$
\vectorn
{
\emph
{{
C
}}}_
j
$
与之对应,
$
\vectorn
{
\emph
{
C
}}_
j
$
会包含生成
$
y
_
j
$
所需的源语言的信息,或者说
$
\vectorn
{
\emph
{
C
}}_
j
$
是一种包含目标语言单词与源语言单词对应关系的源语言表示。相比用一个静态的表示
$
\vectorn
{
\emph
{
C
}}$
,注意机制使用的是动态的表示
$
\vectorn
{
\emph
{
C
}}_
j
$
。
$
\vectorn
{
\emph
{
C
}}_
j
$
也被称作对于目标语言位置
$
j
$
的
{
\small\bfnew
{
上下文向量
}}
\index
{
上下文向量
}
(Context Vector
\index
{
Context Vector
}
)。图
\ref
{
fig:12-22
}
对比了未引入注意力机制和引入了注意力机制的编码器-
解码器结构。可以看出,在注意力模型中,对于每一个目标单词的生成,都会额外引入一个单独的上下文向量参与运算。
%----------------------------------------------
\begin{figure}
[htp]
\centering
\input
{
./Chapter12/Figures/figure-encoder-decoder-with-attention
}
\caption
{
(a)不使用和(b)使用
注意力机制的翻译模型对比
}
\caption
{
不使用(a)和使用(b)
注意力机制的翻译模型对比
}
\label
{
fig:12-22
}
\end{figure}
%----------------------------------------------
...
...
@@ -718,7 +716,7 @@ $\funp{P}({y_j | \vectorn{\emph{s}}_{j-1} ,y_{j-1},\vectorn{\emph{C}}})$由Softm
\subsection
{
上下文向量的计算
}
\label
{
sec:12.1.3
}
\parinterval
那么注意力机制是如何针对不同
单词生成不同的上下文向量呢?这里,可以将注意力机制看做是一种对接收到的信息的加权处理。对于更重要的信息赋予更高的权重即更高的关注度,对于贡献度较低的信息分配较低的权重,弱化其对结果的影响。这样,
$
\vectorn
{
\emph
{
C
}}_
j
$
可以包含更多对当前目标语言位置有贡献的源语言片段的信息。
\parinterval
神经机器翻译中,注意力机制的核心是:针对不同目标语言
单词生成不同的上下文向量呢?这里,可以将注意力机制看做是一种对接收到的信息的加权处理。对于更重要的信息赋予更高的权重即更高的关注度,对于贡献度较低的信息分配较低的权重,弱化其对结果的影响。这样,
$
\vectorn
{
\emph
{
C
}}_
j
$
可以包含更多对当前目标语言位置有贡献的源语言片段的信息。
\parinterval
根据这种思想,上下文向量
$
\vectorn
{
\emph
{
C
}}_
j
$
被定义为对不同时间步编码器输出的状态序列
$
\{
\vectorn
{
\emph
{
h
}}_
1
,
\vectorn
{
\emph
{
h
}}_
2
,...,
\vectorn
{
\emph
{
h
}}_
m
\}
$
进行加权求和,如下:
\begin{eqnarray}
...
...
@@ -741,13 +739,13 @@ $\funp{P}({y_j | \vectorn{\emph{s}}_{j-1} ,y_{j-1},\vectorn{\emph{C}}})$由Softm
\begin{itemize}
\vspace
{
0.5em
}
\item
使用目标语言上一时刻循环单元的输出
$
\vectorn
{
\emph
{
s
}}_{
j
-
1
}$
与源语言第
$
i
$
个位置的表示
$
\vectorn
{
\emph
{
h
}}_
i
$
之间的相关性,其用来表示目标语言位置
$
j
$
对源语言位置
$
i
$
的关注程度,记为
$
\beta
_{
i,j
}$
,由函数
$
\textrm
{
a
}
(
\cdot
)
$
实现:
\item
使用目标语言上一时刻循环单元的输出
$
\vectorn
{
\emph
{
s
}}_{
j
-
1
}$
与源语言第
$
i
$
个位置的表示
$
\vectorn
{
\emph
{
h
}}_
i
$
之间的相关性,其用来表示目标语言位置
$
j
$
对源语言位置
$
i
$
的关注程度,记为
$
\beta
_{
i,j
}$
,由函数
$
a
(
\cdot
)
$
实现:
\begin{eqnarray}
\beta
_{
i,j
}
= a(
\vectorn
{
\emph
{
s
}}_{
j-1
}
,
\vectorn
{
\emph
{
h
}}_
i)
\label
{
eq:12-23
}
\end{eqnarray}
$
a
(
\cdot
)
$
可以被看作是目标语言表示和源语言表示的一种“统一化”,即把源语言和目标语言表示映射在同一个语义空间,进而语义相近的内容有更大的相似性。该函数有多种计算方式,比如,向量乘、向量夹角、单
词
神经网络等,数学表达如下:
$
a
(
\cdot
)
$
可以被看作是目标语言表示和源语言表示的一种“统一化”,即把源语言和目标语言表示映射在同一个语义空间,进而语义相近的内容有更大的相似性。该函数有多种计算方式,比如,向量乘、向量夹角、单
层
神经网络等,数学表达如下:
\begin{eqnarray}
a (
\vectorn
{
\emph
{
s
}}
,
\vectorn
{
\emph
{
h
}}
) =
\left\{
\begin{array}
{
ll
}
\vectorn
{
\emph
{
s
}}
\vectorn
{
\emph
{
h
}}^{
\textrm
{
T
}}
&
\textrm
{
向量乘
}
\\
...
...
@@ -783,7 +781,7 @@ a (\vectorn{\emph{s}},\vectorn{\emph{h}}) = \left\{ \begin{array}{ll}
\vspace
{
0.5em
}
\end{itemize}
\parinterval
图
\ref
{
fig:12-25
}
展示了一个上下文向量的计算过程实例。首先,计算目标语言第一个单词“Have”与源语言中的所有单词的相关性,即注意力权重,对应图中第一列
$
\alpha
_{
i,
1
}$
,则当前时刻所使用的上下文向量
$
\vectorn
{
\emph
{
C
}}_
1
=
\sum
_{
i
=
1
}^
8
\alpha
_{
i,
1
}
\vectorn
{
\emph
{
h
}}_
i
$
;然后,计算第二个单词“you”的注意力权重对应第二列
$
\alpha
_{
i,
2
}$
,其上下文向量
$
\vectorn
{
\emph
{
C
}}_
2
=
\sum
_{
i
=
1
}^
8
\alpha
_{
i,
2
}
\vectorn
{
\emph
{
h
}}_
i
$
,以此类推,可以得到任意目标语言位置
$
j
$
的上下文向量
$
\vectorn
{
\emph
{
C
}}_
j
$
。很容易看出,不同目标语言单词的上下文向量对应的源语言词的权重
$
\alpha
_{
i,j
}$
是不同的,不同的注意力权重为不同位置赋予了不同
重要性,对应了注意力机制的思想
。
\parinterval
图
\ref
{
fig:12-25
}
展示了一个上下文向量的计算过程实例。首先,计算目标语言第一个单词“Have”与源语言中的所有单词的相关性,即注意力权重,对应图中第一列
$
\alpha
_{
i,
1
}$
,则当前时刻所使用的上下文向量
$
\vectorn
{
\emph
{
C
}}_
1
=
\sum
_{
i
=
1
}^
8
\alpha
_{
i,
1
}
\vectorn
{
\emph
{
h
}}_
i
$
;然后,计算第二个单词“you”的注意力权重对应第二列
$
\alpha
_{
i,
2
}$
,其上下文向量
$
\vectorn
{
\emph
{
C
}}_
2
=
\sum
_{
i
=
1
}^
8
\alpha
_{
i,
2
}
\vectorn
{
\emph
{
h
}}_
i
$
,以此类推,可以得到任意目标语言位置
$
j
$
的上下文向量
$
\vectorn
{
\emph
{
C
}}_
j
$
。很容易看出,不同目标语言单词的上下文向量对应的源语言词的权重
$
\alpha
_{
i,j
}$
是不同的,不同的注意力权重为不同位置赋予了不同
的重要性
。
%----------------------------------------------
\begin{figure}
[htp]
...
...
@@ -794,7 +792,7 @@ a (\vectorn{\emph{s}},\vectorn{\emph{h}}) = \left\{ \begin{array}{ll}
\end{figure}
%----------------------------------------------
\parinterval
在
\ref
{
sec:10.3.1
}
节中,
使用
公式
\ref
{
eq:10-5
}
描述了目标语言单词生成概率
$
\funp
{
P
}
(
y
_
j |
\vectorn
{
\emph
{
y
}}_{
<j
}
,
\vectorn
{
\emph
{
x
}}
)
$
。在引入注意力机制后,不同时刻的上下文向量
$
\vectorn
{
\emph
{
C
}}_
j
$
替换了传统模型中固定的句子表示
$
\vectorn
{
\emph
{
C
}}$
。描述如下:
\parinterval
在
\ref
{
sec:10.3.1
}
节中,公式
\ref
{
eq:10-5
}
描述了目标语言单词生成概率
$
\funp
{
P
}
(
y
_
j |
\vectorn
{
\emph
{
y
}}_{
<j
}
,
\vectorn
{
\emph
{
x
}}
)
$
。在引入注意力机制后,不同时刻的上下文向量
$
\vectorn
{
\emph
{
C
}}_
j
$
替换了传统模型中固定的句子表示
$
\vectorn
{
\emph
{
C
}}$
。描述如下:
\begin{eqnarray}
\funp
{
P
}
(y
_
j |
\vectorn
{
\emph
{
y
}}_{
<j
}
,
\vectorn
{
\emph
{
x
}}
)
\equiv
\funp
{
P
}
(y
_
j |
\vectorn
{
\emph
{
s
}}_{
j-1
}
,y
_{
j-1
}
,
\vectorn
{
\emph
{
C
}}_
j )
\label
{
eq:12-26
}
...
...
@@ -810,8 +808,8 @@ a (\vectorn{\emph{s}},\vectorn{\emph{h}}) = \left\{ \begin{array}{ll}
\label
{
tab:12-7
}
\begin{tabular}
{
l | l
}
\rule
{
0pt
}{
13pt
}
引入注意力之前
&
引入注意力之后
\\
\hline
\rule
{
0pt
}{
16pt
}
$
\textrm
{
“have”
}
=
\argmax
_{
y
_
1
}
\funp
{
P
}
(
y
_
1
|
\vectorn
{
\emph
{
C
}}
, y
_
0
)
$
&$
\textrm
{
“have”
}
=
\argmax
_{
y
_
1
}
\funp
{
P
}
(
y
_
1
|
\vectorn
{
\emph
{
C
}}_
1
, y
_
0
)
$
\\
\rule
{
0pt
}{
16pt
}
$
\textrm
{
“you”
}
=
\argmax
_{
y
_
2
}
\funp
{
P
}
(
y
_
2
|
\vectorn
{
\emph
{
s
}}_
1
, y
_
1
)
$
&$
\textrm
{
“you”
}
=
\argmax
_{
y
_
2
}
\funp
{
P
}
(
y
_
2
|
\vectorn
{
\emph
{
s
}}_
1
,
\vectorn
{
\emph
{
C
}}_
2
, y
_
1
)
$
\\
\rule
{
0pt
}{
16pt
}
$
\textrm
{
have
}
=
\argmax
_{
y
_
1
}
\funp
{
P
}
(
y
_
1
|
\vectorn
{
\emph
{
C
}}
, y
_
0
)
$
&$
\textrm
{
have
}
=
\argmax
_{
y
_
1
}
\funp
{
P
}
(
y
_
1
|
\vectorn
{
\emph
{
C
}}_
1
, y
_
0
)
$
\\
\rule
{
0pt
}{
16pt
}
$
\textrm
{
you
}
=
\argmax
_{
y
_
2
}
\funp
{
P
}
(
y
_
2
|
\vectorn
{
\emph
{
s
}}_
1
, y
_
1
)
$
&$
\textrm
{
you
}
=
\argmax
_{
y
_
2
}
\funp
{
P
}
(
y
_
2
|
\vectorn
{
\emph
{
s
}}_
1
,
\vectorn
{
\emph
{
C
}}_
2
, y
_
1
)
$
\\
\end{tabular}
\end{table}
%----------------------------------------------
...
...
@@ -825,7 +823,7 @@ a (\vectorn{\emph{s}},\vectorn{\emph{h}}) = \left\{ \begin{array}{ll}
\vspace
{
0.5em
}
\parinterval
从前面的描述可以看出,注意力机制在机器翻译中就是要回答一个问题:给定一个目标语言位置
$
j
$
和一系列源语言的不同位置上的表示
\{
${
\vectorn
{
\emph
{
h
}}_
i
}$
\}
,如何得到一个新的表示
$
\hat
{
\vectorn
{
\emph
{
h
}}}$
,使得它与目标语言位置
$
j
$
对应得最好?
\parinterval
那么,如何理解这个过程?注意力机制的本质又是什么呢?换一个角度来看,实际上,目标语言位置
$
j
$
本质上
是一个查询,我们希望从源语言端找到与之最匹配的源语言位置,并返回相应的表示结果。为了描述这个问题,可以建立一个查询系统。假设有一个库,里面包含若干个
$
\mathrm
{
key
}$
-
$
\mathrm
{
value
}$
单元,其中
$
\mathrm
{
key
}$
代表这个单元的索引关键字,
$
\mathrm
{
value
}$
代表这个单元的值。比如,对于学生信息系统,
$
\mathrm
{
key
}$
可以是学号,
$
\mathrm
{
value
}$
可以是学生的身高。当输入一个查询
$
\mathrm
{
query
}$
,我们希望这个系统返回与之最匹配的结果。也就是,希望找到匹配的
$
\mathrm
{
key
}$
,并输出其对应的
$
\mathrm
{
value
}$
。比如,当查询某个学生的身高信息时,可以输入学生的学号,之后在库中查询与这个学号相匹配的记录,并把这个记录中的
$
\mathrm
{
value
}$
(即身高)作为结果返回。
\parinterval
那么,如何理解这个过程?注意力机制的本质又是什么呢?换一个角度来看,实际上,目标语言位置
$
j
$
可以被看作
是一个查询,我们希望从源语言端找到与之最匹配的源语言位置,并返回相应的表示结果。为了描述这个问题,可以建立一个查询系统。假设有一个库,里面包含若干个
$
\mathrm
{
key
}$
-
$
\mathrm
{
value
}$
单元,其中
$
\mathrm
{
key
}$
代表这个单元的索引关键字,
$
\mathrm
{
value
}$
代表这个单元的值。比如,对于学生信息系统,
$
\mathrm
{
key
}$
可以是学号,
$
\mathrm
{
value
}$
可以是学生的身高。当输入一个查询
$
\mathrm
{
query
}$
,我们希望这个系统返回与之最匹配的结果。也就是,希望找到匹配的
$
\mathrm
{
key
}$
,并输出其对应的
$
\mathrm
{
value
}$
。比如,当查询某个学生的身高信息时,可以输入学生的学号,之后在库中查询与这个学号相匹配的记录,并把这个记录中的
$
\mathrm
{
value
}$
(即身高)作为结果返回。
\parinterval
图
\ref
{
fig:12-26
}
展示了一个这样的查询系统。里面包含四个
$
\mathrm
{
key
}$
-
$
\mathrm
{
value
}$
单元,当输入查询
$
\mathrm
{
query
}$
,就把
$
\mathrm
{
query
}$
与这四个
$
\mathrm
{
key
}$
逐个进行匹配,如果完全匹配就返回相应的
$
\mathrm
{
value
}$
。在图中的例子中,
$
\mathrm
{
query
}$
和
$
\mathrm
{
key
}_
3
$
是完全匹配的(因为都是横纹),因此系统返回第三个单元的值,即
$
\mathrm
{
value
}_
3
$
。当然,如果库中没有与
$
\mathrm
{
query
}$
匹配的
$
\mathrm
{
key
}$
,则返回一个空结果。
...
...
@@ -846,7 +844,7 @@ a (\vectorn{\emph{s}},\vectorn{\emph{h}}) = \left\{ \begin{array}{ll}
\noindent
也就是说所有的
$
\mathrm
{
value
}_
i
$
都会对查询结果有贡献,只是贡献度不同罢了。可以通过设计
$
\alpha
_
i
$
来捕捉
$
\mathrm
{
key
}$
和
$
\mathrm
{
query
}$
之间的相关性,以达到相关度越大的
$
\mathrm
{
key
}$
所对应的
$
\mathrm
{
value
}$
对结果的贡献越大。
\parinterval
重新回到神经机器翻译问题上来。这种基于模糊匹配的查询模型可以很好的满足对注意力建模的要求。实际上,公式
\ref
{
eq:12-27
}
中的
$
\alpha
_
i
$
就是前面提到的注意力权重,它可以由注意力函数
a(
$
\cdot
$
)
计算得到。这样,
$
\overline
{
\mathrm
{
value
}}$
就是得到的上下文向量,它包含了所有
\{
$
\vectorn
{
\emph
{
h
}}_
i
$
\}
的信息,只是不同
$
\vectorn
{
\emph
{
h
}}_
i
$
的贡献度不同罢了。图
\ref
{
fig:12-27
}
展示了将基于模糊匹配的查询模型应用于注意力机制的实例。
\parinterval
重新回到神经机器翻译问题上来。这种基于模糊匹配的查询模型可以很好的满足对注意力建模的要求。实际上,公式
\ref
{
eq:12-27
}
中的
$
\alpha
_
i
$
就是前面提到的注意力权重,它可以由注意力函数
$
a
(
\cdot
)
$
计算得到。这样,
$
\overline
{
\mathrm
{
value
}}$
就是得到的上下文向量,它包含了所有
\{
$
\vectorn
{
\emph
{
h
}}_
i
$
\}
的信息,只是不同
$
\vectorn
{
\emph
{
h
}}_
i
$
的贡献度不同罢了。图
\ref
{
fig:12-27
}
展示了将基于模糊匹配的查询模型应用于注意力机制的实例。
%----------------------------------------------
\begin{figure}
[htp]
...
...
@@ -870,17 +868,17 @@ a (\vectorn{\emph{s}},\vectorn{\emph{h}}) = \left\{ \begin{array}{ll}
\label
{
eq:12-29
}
\end{equation}
从这个观点看,注意力机制实际上是得到了一个变量(
$
\mathrm
{
value
}$
)的期望。当然,严格意义上说,
$
\alpha
_
i
$
并不是从概率角度定义的,
这里也并不是要追求严格的统计学意义。不过这确实说明了,往往看似简单的模型背后的数学原理可能会很深刻
。
从这个观点看,注意力机制实际上是得到了一个变量(
$
\mathrm
{
value
}$
)的期望。当然,严格意义上说,
$
\alpha
_
i
$
并不是从概率角度定义的,
在实际应用中也并不必须追求严格的统计学意义
。
%----------------------------------------------------------------------------------------
% NEW SUB-SECTION 10.3.5
%----------------------------------------------------------------------------------------
\subsection
{
实例
-
GNMT
}
\subsection
{
实例
-
GNMT
}
\vspace
{
0.5em
}
\parinterval
循环神经网络在机器翻译中有很多成功的应用,比如、RNNSearch
\upcite
{
bahdanau2014neural
}
、Nematus
\upcite
{
DBLP:journals/corr/SennrichFCBHHJL17
}
等系统就被很多研究者作为实验系统。在众多基于循环神经网络的系统中,G
oogle's Neural Machine Translation System(GNMT)系统是非常成功的一个
\upcite
{
Wu2016GooglesNM
}
。GNMT是谷歌2016年发布的神经机器翻译系统。当时,神经机器翻译有三个弱点:训练和推理速度较慢、在翻译稀有单词上缺乏鲁棒性和有时无法完整翻译源语言句子中的所有单词。GNMT的提出有效的缓解了上述问题
。
\parinterval
循环神经网络在机器翻译中有很多成功的应用,比如、RNNSearch
\upcite
{
bahdanau2014neural
}
、Nematus
\upcite
{
DBLP:journals/corr/SennrichFCBHHJL17
}
等系统就被很多研究者作为实验系统。在众多基于循环神经网络的系统中,G
NMT系统是非常成功的一个
\upcite
{
Wu2016GooglesNM
}
。GNMT是谷歌2016年发布的神经机器翻译系统
。
\parinterval
GNMT使用了编码器-解码器结构,构建了一个8层的深度网络,每层网络均由LSTM组成,且在编码器-解码器之间使用了多层注意力连接。其结构如图
\ref
{
fig:10-35
}
,编码器只有最下面2层为双向LSTM。GNMT在束搜索中也加入了长度惩罚和覆盖度因子来确保输出高质量的翻译结果
(公式
\ref
{
eq:10-41
}
)
。
\parinterval
GNMT使用了编码器-解码器结构,构建了一个8层的深度网络,每层网络均由LSTM组成,且在编码器-解码器之间使用了多层注意力连接。其结构如图
\ref
{
fig:10-35
}
,编码器只有最下面2层为双向LSTM。GNMT在束搜索中也加入了长度惩罚和覆盖度因子来确保输出高质量的翻译结果。
\vspace
{
0.5em
}
%----------------------------------------------
...
...
@@ -892,7 +890,7 @@ a (\vectorn{\emph{s}},\vectorn{\emph{h}}) = \left\{ \begin{array}{ll}
\end{figure}
%----------------------------------------------
\parinterval
实际上,GNMT的主要贡献在于集成了多种优秀的技术,而且在大规模数据上证明了神经机器翻译的有效性。在引入注意力机制之前,神经机器翻译在较大规模的任务上的性能弱于统计机器翻译。加入注意力机制和深层网络后,神经机器翻译性能有了很大的提升。在英德和英法的任务中,GNMT的BLEU值不仅超过了当时优秀的神经机器翻译系统RNNSearch和LSTM(6层),还超过了当时处于领导地位的基于短语的统计机器翻译系统(PBMT)(表
\ref
{
tab:10-10
}
)。相比
谷歌的基于短语的系统,在人工评价中,该模型
能将翻译错误平均减少了60
\%
。这一结果也充分表明了神经机器翻译带来的巨大性能提升。
\parinterval
实际上,GNMT的主要贡献在于集成了多种优秀的技术,而且在大规模数据上证明了神经机器翻译的有效性。在引入注意力机制之前,神经机器翻译在较大规模的任务上的性能弱于统计机器翻译。加入注意力机制和深层网络后,神经机器翻译性能有了很大的提升。在英德和英法的任务中,GNMT的BLEU值不仅超过了当时优秀的神经机器翻译系统RNNSearch和LSTM(6层),还超过了当时处于领导地位的基于短语的统计机器翻译系统(PBMT)(表
\ref
{
tab:10-10
}
)。相比
基于短语的统计机器翻译系统,在人工评价中,GNMT
能将翻译错误平均减少了60
\%
。这一结果也充分表明了神经机器翻译带来的巨大性能提升。
%----------------------------------------------
\begin{table}
[htp]
...
...
编写
预览
Markdown
格式
0%
重试
或
添加新文件
添加附件
取消
您添加了
0
人
到此讨论。请谨慎行事。
请先完成此评论的编辑!
取消
请
注册
或者
登录
后发表评论