Skip to content
项目
群组
代码片段
帮助
当前项目
正在载入...
登录 / 注册
切换导航面板
M
mtbookv2
概览
Overview
Details
Activity
Cycle Analytics
版本库
Repository
Files
Commits
Branches
Tags
Contributors
Graph
Compare
Charts
问题
0
Issues
0
列表
Board
标记
里程碑
合并请求
0
Merge Requests
0
CI / CD
CI / CD
流水线
作业
日程表
图表
维基
Wiki
代码片段
Snippets
成员
Collapse sidebar
Close sidebar
活动
图像
聊天
创建新问题
作业
提交
Issue Boards
Open sidebar
NiuTrans
mtbookv2
Commits
0714800c
Commit
0714800c
authored
Mar 09, 2021
by
孟霞
Browse files
Options
Browse Files
Download
Plain Diff
合并分支 'mengxia' 到 'caorunzhe'
14编辑修改 查看合并请求
!1058
parents
9efc1b10
1466c358
隐藏空白字符变更
内嵌
并排
正在显示
2 个修改的文件
包含
66 行增加
和
67 行删除
+66
-67
Chapter14/Figures/figure-comparison-of-different-attention-method.tex
+20
-20
Chapter14/chapter14.tex
+46
-47
没有找到文件。
Chapter14/Figures/figure-comparison-of-different-attention-method.tex
查看文件 @
0714800c
...
...
@@ -23,11 +23,11 @@
\node
[attnnode,anchor=south]
(attn11) at ([yshift=0.1
\hnode
]layer11.south)
{}
;
\node
[anchor=north west,inner sep=4pt,font=\small]
() at (attn11.north west)
{
注意力
}
;
\node
[anchor=south,inner sep=0pt]
(out11) at ([yshift=0.3
\hseg
]attn11.north)
{$
\cdots
$}
;
\node
[thinnode,anchor=south west,thick,draw=dblue,text=black]
(q11) at ([xshift=0.1
\wseg
,yshift=0.2
\hseg
]attn11.south west)
{$
Q
^
n
$}
;
\node
[thinnode,anchor=south,thick,draw=orange,text=black]
(k11) at ([yshift=0.2
\hseg
]attn11.south)
{$
K
^
n
$}
;
\node
[thinnode,anchor=south east,thick,draw=purple,text=black]
(v11) at ([xshift=-0.1
\wseg
,yshift=0.2
\hseg
]attn11.south east)
{$
V
^
n
$}
;
\node
[fatnode,anchor=south,thick,draw]
(s11) at ([xshift=0.5
\wseg
,yshift=0.8
\hseg
]q11.north east)
{$
S
^
n
\!
=
\!
S
(
Q
^
n
\!\cdot\!
K
^
n
)
$}
;
\node
[fatnode,anchor=south,thick,draw]
(a11) at ([xshift=0.45
\wseg
,yshift=1.3
\hseg
+0.6
\hnode
]k11.north east)
{$
A
^
n
\!
=
\!
S
^
n
\!\cdot\!
V
$}
;
\node
[thinnode,anchor=south west,thick,draw=dblue,text=black]
(q11) at ([xshift=0.1
\wseg
,yshift=0.2
\hseg
]attn11.south west)
{$
{
\mathbi
Q
}
^
n
$}
;
\node
[thinnode,anchor=south,thick,draw=orange,text=black]
(k11) at ([yshift=0.2
\hseg
]attn11.south)
{$
{
\mathbi
K
}
^
n
$}
;
\node
[thinnode,anchor=south east,thick,draw=purple,text=black]
(v11) at ([xshift=-0.1
\wseg
,yshift=0.2
\hseg
]attn11.south east)
{$
{
\mathbi
V
}
^
n
$}
;
\node
[fatnode,anchor=south,thick,draw]
(s11) at ([xshift=0.5
\wseg
,yshift=0.8
\hseg
]q11.north east)
{$
{
\mathbi
S
}^
n
\!
=
\!
{
\mathbi
S
}
(
{
\mathbi
Q
}^
n
\!\cdot\!
{
\mathbi
K
}
^
n
)
$}
;
\node
[fatnode,anchor=south,thick,draw]
(a11) at ([xshift=0.45
\wseg
,yshift=1.3
\hseg
+0.6
\hnode
]k11.north east)
{$
{
\mathbi
A
}^
n
\!
=
\!
{
\mathbi
S
}^
n
\!\cdot\!
{
\mathbi
V
}
$}
;
\begin{scope}
[fill=black!100]
\draw
[-latex',thick,draw=black!100]
(q11.north) .. controls +(north:0.5
\hseg
) and +(south:0.8
\hseg
) .. (s11.south);
\draw
[-latex',thick,draw=black!100]
(k11.north) .. controls +(north:0.5
\hseg
) and +(south:0.8
\hseg
) .. (s11.south);
...
...
@@ -43,11 +43,11 @@
\node
[attnnode,anchor=south]
(attn12) at ([yshift=0.1
\hnode
]layer12.south)
{}
;
\node
[anchor=north west,inner sep=4pt,font=\small]
() at (attn12.north west)
{
注意力
}
;
\node
[anchor=south,inner sep=0pt]
(out12) at ([yshift=0.3
\hseg
]attn12.north)
{$
\cdots
$}
;
\node
[thinnode,anchor=south west,thick,draw=dblue!40,text=black!40]
(q12) at ([xshift=0.1
\wseg
,yshift=0.2
\hseg
]attn12.south west)
{$
Q
^
n
$}
;
\node
[thinnode,anchor=south,thick,draw=orange!40,text=black!40]
(k12) at ([yshift=0.2
\hseg
]attn12.south)
{$
K
^
n
$}
;
\node
[thinnode,anchor=south east,thick,draw=purple,text=black]
(v12) at ([xshift=-0.1
\wseg
,yshift=0.2
\hseg
]attn12.south east)
{$
V
^
n
$}
;
\node
[fatnode,anchor=south,thick,densely dashed,draw]
(s12) at ([xshift=0.5
\wseg
,yshift=0.8
\hseg
]q12.north east)
{$
S
^
n
\!
=
\!
S
^
m
$}
;
\node
[fatnode,anchor=south,thick,draw]
(a12) at ([xshift=0.45
\wseg
,yshift=1.3
\hseg
+0.6
\hnode
]k12.north east)
{$
A
^
n
\!
=
\!
S
^
n
\!\cdot\!
V
$}
;
\node
[thinnode,anchor=south west,thick,draw=dblue!40,text=black!40]
(q12) at ([xshift=0.1
\wseg
,yshift=0.2
\hseg
]attn12.south west)
{$
{
\mathbi
Q
}
^
n
$}
;
\node
[thinnode,anchor=south,thick,draw=orange!40,text=black!40]
(k12) at ([yshift=0.2
\hseg
]attn12.south)
{$
{
\mathbi
K
}
^
n
$}
;
\node
[thinnode,anchor=south east,thick,draw=purple,text=black]
(v12) at ([xshift=-0.1
\wseg
,yshift=0.2
\hseg
]attn12.south east)
{$
{
\mathbi
V
}
^
n
$}
;
\node
[fatnode,anchor=south,thick,densely dashed,draw]
(s12) at ([xshift=0.5
\wseg
,yshift=0.8
\hseg
]q12.north east)
{$
{
\mathbi
S
}^
n
\!
=
\!
{
\mathbi
S
}
^
m
$}
;
\node
[fatnode,anchor=south,thick,draw]
(a12) at ([xshift=0.45
\wseg
,yshift=1.3
\hseg
+0.6
\hnode
]k12.north east)
{$
{
\mathbi
A
}^
n
\!
=
\!
{
\mathbi
S
}^
n
\!\cdot\!
{
\mathbi
V
}
$}
;
\begin{scope}
[fill=black!40]
\draw
[-latex',thick,draw=black!40]
(q12.north) .. controls +(north:0.5
\hseg
) and +(south:0.8
\hseg
) .. (s12.south);
\draw
[-latex',thick,draw=black!40]
(k12.north) .. controls +(north:0.5
\hseg
) and +(south:0.8
\hseg
) .. (s12.south);
...
...
@@ -63,11 +63,11 @@
\node
[attnnode,anchor=south]
(attn13) at ([yshift=0.1
\hnode
]layer13.south)
{}
;
\node
[anchor=north west,inner sep=4pt,font=\small]
() at (attn13.north west)
{
注意力
}
;
\node
[anchor=south,inner sep=0pt]
(out13) at ([yshift=0.3
\hseg
]attn13.north)
{$
\cdots
$}
;
\node
[thinnode,anchor=south west,thick,draw=dblue!40,text=black!40]
(q13) at ([xshift=0.1
\wseg
,yshift=0.2
\hseg
]attn13.south west)
{$
Q
^
n
$}
;
\node
[thinnode,anchor=south,thick,draw=orange!40,text=black!40]
(k13) at ([yshift=0.2
\hseg
]attn13.south)
{$
K
^
n
$}
;
\node
[thinnode,anchor=south east,thick,draw=purple!40,text=black!40]
(v13) at ([xshift=-0.1
\wseg
,yshift=0.2
\hseg
]attn13.south east)
{$
V
^
n
$}
;
\node
[fatnode,anchor=south,thick,draw=black!40,text=black!40]
(s13) at ([xshift=0.5
\wseg
,yshift=0.8
\hseg
]q13.north east)
{$
S
^
n
$}
;
\node
[fatnode,anchor=south,thick,densely dashed,draw]
(a13) at ([xshift=0.45
\wseg
,yshift=1.3
\hseg
+0.6
\hnode
]k13.north east)
{$
A
^
n
\!
=
\!
A
^
m
$}
;
\node
[thinnode,anchor=south west,thick,draw=dblue!40,text=black!40]
(q13) at ([xshift=0.1
\wseg
,yshift=0.2
\hseg
]attn13.south west)
{$
{
\mathbi
Q
}
^
n
$}
;
\node
[thinnode,anchor=south,thick,draw=orange!40,text=black!40]
(k13) at ([yshift=0.2
\hseg
]attn13.south)
{$
{
\mathbi
K
}
^
n
$}
;
\node
[thinnode,anchor=south east,thick,draw=purple!40,text=black!40]
(v13) at ([xshift=-0.1
\wseg
,yshift=0.2
\hseg
]attn13.south east)
{$
{
\mathbi
V
}
^
n
$}
;
\node
[fatnode,anchor=south,thick,draw=black!40,text=black!40]
(s13) at ([xshift=0.5
\wseg
,yshift=0.8
\hseg
]q13.north east)
{$
{
\mathbi
S
}
^
n
$}
;
\node
[fatnode,anchor=south,thick,densely dashed,draw]
(a13) at ([xshift=0.45
\wseg
,yshift=1.3
\hseg
+0.6
\hnode
]k13.north east)
{$
{
\mathbi
A
}^
n
\!
=
\!
{
\mathbi
A
}
^
m
$}
;
\begin{scope}
[fill=black!40]
\draw
[-latex',thick,draw=black!40]
(q13.north) .. controls +(north:0.5
\hseg
) and +(south:0.8
\hseg
) .. (s13.south);
\draw
[-latex',thick,draw=black!40]
(k13.north) .. controls +(north:0.5
\hseg
) and +(south:0.8
\hseg
) .. (s13.south);
...
...
@@ -87,11 +87,11 @@
\node
[anchor=north west,inner sep=4pt,font=\small]
() at (attn
\i\j
.north west)
{
注意力
}
;
\node
[anchor=south,inner sep=0pt]
(out
\i\j
) at ([yshift=0.3
\hseg
]attn
\i\j
.north)
{$
\cdots
$}
;
\node
[thinnode,anchor=south west,thick,draw=dblue!\q,text=black]
(q
\i\j
) at ([xshift=0.1
\wseg
,yshift=0.2
\hseg
]attn
\i\j
.south west)
{$
Q
^
m
$}
;
\node
[thinnode,anchor=south,thick,draw=orange!\q,text=black]
(k
\i\j
) at ([yshift=0.2
\hseg
]attn
\i\j
.south)
{$
K
^
m
$}
;
\node
[thinnode,anchor=south east,thick,draw=purple!\s,text=black]
(v
\i\j
) at ([xshift=-0.1
\wseg
,yshift=0.2
\hseg
]attn
\i\j
.south east)
{$
V
^
m
$}
;
\node
[fatnode,anchor=south,thick,draw=black!\s]
(s
\i\j
) at ([xshift=0.45
\wseg
,yshift=0.8
\hseg
]q
\i\j
.north east)
{$
S
^
m
\!
=
\!
S
(
Q
^
m
\!\cdot\!
K
^
m
)
$}
;
\node
[fatnode,anchor=south,thick,draw=black!80]
(a
\i\j
) at ([xshift=0.45
\wseg
,yshift=1.3
\hseg
+0.6
\hnode
]k
\i\j
.north east)
{$
A
^
m
\!
=
\!
S
^
m
\!\cdot\!
V
$}
;
\node
[thinnode,anchor=south west,thick,draw=dblue!\q,text=black]
(q
\i\j
) at ([xshift=0.1
\wseg
,yshift=0.2
\hseg
]attn
\i\j
.south west)
{$
{
\mathbi
Q
}
^
m
$}
;
\node
[thinnode,anchor=south,thick,draw=orange!\q,text=black]
(k
\i\j
) at ([yshift=0.2
\hseg
]attn
\i\j
.south)
{$
{
\mathbi
K
}
^
m
$}
;
\node
[thinnode,anchor=south east,thick,draw=purple!\s,text=black]
(v
\i\j
) at ([xshift=-0.1
\wseg
,yshift=0.2
\hseg
]attn
\i\j
.south east)
{$
{
\mathbi
V
}
^
m
$}
;
\node
[fatnode,anchor=south,thick,draw=black!\s]
(s
\i\j
) at ([xshift=0.45
\wseg
,yshift=0.8
\hseg
]q
\i\j
.north east)
{$
{
\mathbi
S
}^
m
\!
=
\!
{
\mathbi
S
}
(
{
\mathbi
Q
}^
m
\!\cdot\!
{
\mathbi
K
}
^
m
)
$}
;
\node
[fatnode,anchor=south,thick,draw=black!80]
(a
\i\j
) at ([xshift=0.45
\wseg
,yshift=1.3
\hseg
+0.6
\hnode
]k
\i\j
.north east)
{$
{
\mathbi
A
}^
m
\!
=
\!
{
\mathbi
S
}^
m
\!\cdot\!
{
\mathbi
V
}
$}
;
\begin{scope}
[fill=black!
\q
]
\draw
[-latex',thick,draw=black!\t]
(q
\i\j
.north) .. controls +(north:0.5
\hseg
) and +(south:0.8
\hseg
) .. (s
\i\j
.south);
\draw
[-latex',thick,draw=black!\t]
(k
\i\j
.north) .. controls +(north:0.5
\hseg
) and +(south:0.8
\hseg
) .. (s
\i\j
.south);
...
...
Chapter14/chapter14.tex
查看文件 @
0714800c
...
...
@@ -31,7 +31,7 @@
\vspace
{
0.5em
}
\item
神经机器翻译的基本问题,如推断方向、译文长度控制等。
\vspace
{
0.5em
}
\item
神经机器翻译的推断加速方法,如轻量模型、非自回归模型等。
\item
神经机器翻译的推断加速方法,如轻量模型、非自回归
翻译
模型等。
\vspace
{
0.5em
}
\item
多模型集成推断。
\vspace
{
0.5em
}
...
...
@@ -61,25 +61,25 @@
\begin{itemize}
\vspace
{
0.5em
}
\item
{
\small\sffamily\bfseries
{
预测模块
}}
,它根据已经生成的部分译文和源语言信息,预测下一个要生成的译文单词的概率分布
\footnote
{
在统计机器翻译中,
翻译的每一步
也可以同时预测若干个连续的单词,即短语。在神经机器翻译中也有类似于生成短语的方
\item
{
\small\sffamily\bfseries
{
预测模块
}}
,它根据已经生成的部分译文和源语言信息,预测下一个要生成的译文单词的概率分布
\footnote
{
在统计机器翻译中,也可以同时预测若干个连续的单词,即短语。在神经机器翻译中也有类似于生成短语的方
法,但是主流的方法还是按单词为单位进行生成。
}
。因此预测模块实际上就是一个模型打分装置;
\vspace
{
0.5em
}
\item
{
\small\sffamily\bfseries
{
搜索模块
}}
,它会利用预测结果,对当前的翻译假设进行打分,并根据模型得分对翻译假设进行排序和剪枝。
\vspace
{
0.5em
}
\end{itemize}
\parinterval
预测模块是由模型决定的,而搜索模块可以与模型无关。也就是说,不同的模型可以共享同一个搜索模块完成推断。比如,对于基于循环神经网络的模型,预测模块需要读入前一个状态的信息和前一个位置的译文单词,然后预测当前位置单词的概率分布;对于Transformer,预测模块需要对前面的所有位置做注意力运算,之后预测当前位置单词的概率分布。不过,这两个模型都可以使用同一个搜索模块。图
\ref
{
fig:14-1
}
给出了
这种架构的
示意图。
\parinterval
预测模块是由模型决定的,而搜索模块可以与模型无关。也就是说,不同的模型可以共享同一个搜索模块完成推断。比如,对于基于循环神经网络的模型,预测模块需要读入前一个状态的信息和前一个位置的译文单词,然后预测当前位置单词的概率分布;对于Transformer,预测模块需要对前面的所有位置做注意力运算,之后预测当前位置单词的概率分布。不过,这两个模型都可以使用同一个搜索模块。图
\ref
{
fig:14-1
}
给出了
神经机器翻译推断系统的结构
示意图。
%----------------------------------------------
\begin{figure}
[htp]
\centering
\input
{
./Chapter14/Figures/figure-main-module
}
\caption
{
神经机器翻译推断系统结构
}
\caption
{
神经机器翻译推断系统
的
结构
}
\label
{
fig:14-1
}
\end{figure}
%----------------------------------------------
\parinterval
这是一个非常通用的框架,同样适用于统计机器翻译模型。因此,神经机器翻译推断中的很多问题与统计机器翻译是一致的,比如:束搜索的宽度、解码终止条件等等。
\parinterval
这是一个非常通用的
结构
框架,同样适用于统计机器翻译模型。因此,神经机器翻译推断中的很多问题与统计机器翻译是一致的,比如:束搜索的宽度、解码终止条件等等。
\parinterval
一般来说,设计机器翻译推断系统需要考虑三个因素:搜索的准确性、搜索的时延、搜索所需要的存储。通常,准确性是研究人员最关心的问题,比如可以通过增大搜索空间来找到模型得分更高的结果。而搜索的时延和存储消耗是实践中必须要考虑的问题,比如可以设计更小的模型和更高效的推断方法来提高系统的可用性。
...
...
@@ -89,7 +89,7 @@
\vspace
{
0.5em
}
\item
搜索的基本问题在神经机器翻译中有着特殊的现象。比如,在统计机器翻译中,减少搜索错误是提升翻译品质的一种手段。但是神经机器翻译中,简单的减少搜索错误可能无法带来性能的提升,甚至会造成翻译品质的下降
\upcite
{
li-etal-2018-simple,Stahlberg2019OnNS
}
;
\vspace
{
0.5em
}
\item
搜索的时延很高,系统实际部署的成本很高。与统计机器翻译系统不同的是,神经机器翻译依赖大量的浮点运算。这导致神经机器翻译系统的推断会比统计机器翻译系统慢很多。虽然可以使用GPU来提高神经机器翻译的推断速度,但是也大大增加了成本;
\item
搜索的时延很高,系统实际部署的成本很高。与统计机器翻译系统不同的是,神经机器翻译
系统
依赖大量的浮点运算。这导致神经机器翻译系统的推断会比统计机器翻译系统慢很多。虽然可以使用GPU来提高神经机器翻译的推断速度,但是也大大增加了成本;
\vspace
{
0.5em
}
\item
神经机器翻译在优化过程中容易陷入局部最优,单模型的表现并不稳定。由于神经机器翻译优化的目标函数非常不光滑,每次训练得到的模型往往只是一个局部最优解。在新数据上使用这个局部最优模型进行推断时,模型的表现可能不稳定。
\vspace
{
0.5em
}
...
...
@@ -146,11 +146,11 @@
\subsection
{
译文长度控制
}
\parinterval
机器翻译推断的一个特点是译文长度需要额外的机制进行控制
\upcite
{
Kikuchi2016ControllingOL,Takase2019PositionalET,Murray2018CorrectingLB,Sountsov2016LengthBI
}
。这是因为机器翻译在建模时仅考虑了将训练样本(即标准答案)上的损失最小化,但是推断的时候会看到从未见过的样本,
而且这些未见样本占据了样本空间的绝大多数
。该问题会导致的一个现象是:直接使用训练好的模型会翻译出长度短得离谱的译文。神经机器翻译模型使用单词概率的乘积表示整个句子的翻译概率,它天然就倾向生成短译文,因为概率为大于0小于1的常数,短译文会使用更少的概率因式相乘,倾向于得到更高的句子得分,而模型只关心每个目标语言位置是否被正确预测,对于译文长度没有考虑。统计机器翻译模型中也存在译文长度不合理的问题,解决该问题的常见策略是在推断过程中引入译文长度控制机制
\upcite
{
Koehn2007Moses
}
。神经机器翻译也借用了类似的思想来控制译文长度,有以下几种方法:
\parinterval
机器翻译推断的一个特点是译文长度需要额外的机制进行控制
\upcite
{
Kikuchi2016ControllingOL,Takase2019PositionalET,Murray2018CorrectingLB,Sountsov2016LengthBI
}
。这是因为机器翻译在建模时仅考虑了将训练样本(即标准答案)上的损失最小化,但是推断的时候会看到从未见过的样本,
甚至样本空间中的绝大多数都是未见样本
。该问题会导致的一个现象是:直接使用训练好的模型会翻译出长度短得离谱的译文。神经机器翻译模型使用单词概率的乘积表示整个句子的翻译概率,它天然就倾向生成短译文,因为概率为大于0小于1的常数,短译文会使用更少的概率因式相乘,倾向于得到更高的句子得分,而模型只关心每个目标语言位置是否被正确预测,对于译文长度没有考虑。统计机器翻译模型中也存在译文长度不合理的问题,解决该问题的常见策略是在推断过程中引入译文长度控制机制
\upcite
{
Koehn2007Moses
}
。神经机器翻译也借用了类似的思想来控制译文长度,有以下几种方法:
\begin{itemize}
\vspace
{
0.5em
}
\item
{
\small\sffamily\bfseries
{
长度惩罚因子
}}
。用译文长度来归一化翻译概率是最常用的方法:对于源语言句子
$
\seq
{
x
}$
和译文句子
$
\seq
{
y
}$
,模型得分
$
\textrm
{
score
}
(
\seq
{
x
}
,
\seq
{
y
}
)
$
的值会随着译文
$
\seq
{
y
}$
的长度增大而减小。为了避免此现象,可以引入一个长度惩罚
函数
$
\textrm
{
lp
}
(
\seq
{
y
}
)
$
,并定义模型得分如公式
\eqref
{
eq:14-12
}
所示:
\item
{
\small\sffamily\bfseries
{
长度惩罚因子
}}
。用译文长度来归一化翻译概率是最常用的方法:对于源语言句子
$
\seq
{
x
}$
和译文句子
$
\seq
{
y
}$
,模型得分
$
\textrm
{
score
}
(
\seq
{
x
}
,
\seq
{
y
}
)
$
的值会随着译文
$
\seq
{
y
}$
的长度增大而减小。为了避免此现象,可以引入一个长度惩罚
因子
$
\textrm
{
lp
}
(
\seq
{
y
}
)
$
,并定义模型得分如公式
\eqref
{
eq:14-12
}
所示:
\begin{eqnarray}
\textrm
{
score
}
(
\seq
{
x
}
,
\seq
{
y
}
)
&
=
&
\frac
{
\log
\funp
{
P
}
(
\seq
{
y
}
\vert\seq
{
x
}
)
}{
\textrm
{
lp
}
(
\seq
{
y
}
)
}
\label
{
eq:14-12
}
...
...
@@ -189,7 +189,7 @@ b &=& \omega_{\textrm{high}}\cdot |\seq{x}| \label{eq:14-4}
\label
{
eq:14-6
}
\end{eqnarray}
\noindent
其中,
$
\textrm
{
cp
}
(
\seq
{
x
}
,
\seq
{
y
}
)
$
表示覆盖度模型,它度量了译文对源语言每个单词的覆盖程度。
$
\textrm
{
cp
}
(
\seq
{
x
}
,
\seq
{
y
}
)
$
的定义中,
$
\beta
$
是一需要自行设置的超参数,
$
a
_{
ij
}$
表示源语言第
$
i
$
个位置与译文 第
$
j
$
个位置的注意力权重,这样
$
\sum
\limits
_{
j
}^{
|
\seq
{
y
}
|
}
a
_{
ij
}$
就可以用来衡量源语言第
$
i
$
个单词中的信息被翻译的程度,如果它大于1,
表明翻译多了;如果小于1,表明翻译少了
。公式
\eqref
{
eq:14-6
}
会惩罚那些欠翻译的翻译假设。对覆盖度模型的一种改进形式是
\upcite
{
li-etal-2018-simple
}
:
\noindent
其中,
$
\textrm
{
cp
}
(
\seq
{
x
}
,
\seq
{
y
}
)
$
表示覆盖度模型,它度量了译文对源语言每个单词的覆盖程度。
$
\textrm
{
cp
}
(
\seq
{
x
}
,
\seq
{
y
}
)
$
的定义中,
$
\beta
$
是一需要自行设置的超参数,
$
a
_{
ij
}$
表示源语言第
$
i
$
个位置与译文 第
$
j
$
个位置的注意力权重,这样
$
\sum
\limits
_{
j
}^{
|
\seq
{
y
}
|
}
a
_{
ij
}$
就可以用来衡量源语言第
$
i
$
个单词中的信息被翻译的程度,如果它大于1,
则表明出现了过翻译问题;如果小于1,则表明出现了欠翻译问题
。公式
\eqref
{
eq:14-6
}
会惩罚那些欠翻译的翻译假设。对覆盖度模型的一种改进形式是
\upcite
{
li-etal-2018-simple
}
:
\begin{eqnarray}
\textrm
{
cp
}
(
\seq
{
x
}
,
\seq
{
y
}
)
&
=
&
\sum
_{
i=1
}^{
|
\seq
{
x
}
|
}
\log
(
\textrm
{
max
}
(
\sum
_{
j
}^{
|
\seq
{
y
}
|
}
a
_{
ij
}
,
\beta
))
\label
{
eq:14-7
}
...
...
@@ -219,7 +219,7 @@ b &=& \omega_{\textrm{high}}\cdot |\seq{x}| \label{eq:14-4}
\subsection
{
译文多样性
}
\parinterval
机器翻译系统的输出并不仅限于单个译文。很多情况下,需要多个译文。比如,译文重排序中通常就需要系统的
$
n
$
-best输出,在交互式机器翻译中也往往需要提供多个译文供用户选择
\upcite
{
Peris2017InteractiveNM,Peris2018ActiveLF
}
。但是,无论是统计机器翻译还是神经机器翻译,都面临一个同样的问题:
$
n
$
-best输出中的译文十分相似。实例
\ref
{
eg:14-1
}
就展示了一个神经机器翻译输出的多个翻译结果,可以看到这些译文的区别很小。这个问题也被看做是机器翻译缺乏译文多样性的问题
\upcite
{
Gimpel2013ASE,Li2016MutualIA,DBLP:conf/emnlp/DuanLXZ09,DBLP:conf/acl/XiaoZZW10,xiao2013bagging
}
。
\parinterval
机器翻译系统的输出并不仅限于单个译文。很多情况下,需要多个译文。比如,译文重排序中通常就需要系统的
$
n
$
-best输出,在交互式机器翻译中也往往需要提供多个译文供用户选择
\upcite
{
Peris2017InteractiveNM,Peris2018ActiveLF
}
。但是,无论是统计机器翻译还是神经机器翻译,都面临一个同样的问题:
$
n
$
-best输出中的译文十分相似。实例
\ref
{
eg:14-1
}
就展示了一个神经机器翻译
系统
输出的多个翻译结果,可以看到这些译文的区别很小。这个问题也被看做是机器翻译缺乏译文多样性的问题
\upcite
{
Gimpel2013ASE,Li2016MutualIA,DBLP:conf/emnlp/DuanLXZ09,DBLP:conf/acl/XiaoZZW10,xiao2013bagging
}
。
\begin{example}
源语言句子:我们/期待/安理会/尽早/就此/作出/决定/ 。
...
...
@@ -251,7 +251,7 @@ b &=& \omega_{\textrm{high}}\cdot |\seq{x}| \label{eq:14-4}
\parinterval
机器翻译的错误分为两类:搜索错误和模型错误。搜索错误是指由于搜索算法的限制,即使潜在的搜索空间中有更好的解,模型也无法找到。比较典型的例子是,在对搜索结果进行剪枝的时候,如果剪枝过多,找到的结果很有可能不是最优的,这时就出现了搜索错误。而模型错误则是指由于模型学习能力的限制,即使搜索空间中存在最优解,模型也无法将该解排序在前面。
\parinterval
在统计机器翻译中,搜索错误可以通过减少剪枝进行缓解。比较简单的方式是增加搜索束宽度,这往往会带来一定的性能提升
\upcite
{
Xiao2016ALA
}
。也可以对搜索问题进行单独建模,以保证学习到的模型出现更少的搜索错误
\upcite
{
Liu2014SearchAwareTF,Yu2013MaxViolationPA
}
。但是,在神经机器翻译中,这个问题却表现出不同的现象:在很多神经机器翻译系统中,随着搜索束的增大,系统的BLEU
不升反降。图
\ref
{
fig:14-3
}
展示了神经机器翻译系统中BLEU随搜索束大小的变化曲线,这里为了使该图更加规整直观,横坐标处将束大小进行了取对数操作
。这个现象与传统的常识是相违背的,因此也有一些研究尝试解释这个现象
\upcite
{
Stahlberg2019OnNS,Niehues2017AnalyzingNM
}
。
\parinterval
在统计机器翻译中,搜索错误可以通过减少剪枝进行缓解。比较简单的方式是增加搜索束宽度,这往往会带来一定的性能提升
\upcite
{
Xiao2016ALA
}
。也可以对搜索问题进行单独建模,以保证学习到的模型出现更少的搜索错误
\upcite
{
Liu2014SearchAwareTF,Yu2013MaxViolationPA
}
。但是,在神经机器翻译中,这个问题却表现出不同的现象:在很多神经机器翻译系统中,随着搜索束的增大,系统的BLEU
值不升反降。图
\ref
{
fig:14-3
}
展示了神经机器翻译系统中BLEU值随搜索束大小的变化曲线,这里为了使该图更加规整直观,横坐标处对束大小取对数
。这个现象与传统的常识是相违背的,因此也有一些研究尝试解释这个现象
\upcite
{
Stahlberg2019OnNS,Niehues2017AnalyzingNM
}
。
%----------------------------------------------------------------------
\begin{figure}
[htp]
...
...
@@ -281,7 +281,7 @@ b &=& \omega_{\textrm{high}}\cdot |\seq{x}| \label{eq:14-4}
\parinterval
神经机器翻译需要对输入和输出的单词进行分布式表示。但是,由于真实的词表通常很大,因此计算并保存这些单词的向量表示会消耗较多的计算和存储资源。特别是对于基于Softmax 的输出层,大词表的计算十分耗时。虽然可以通过BPE 和限制词汇表规模的方法降低输出层计算的负担
\upcite
{
DBLP:conf/acl/SennrichHB16a
}
,但是为了获得可接受的翻译品质,词汇表也不能过小,因此输出层的计算代价仍然很高。
\parinterval
通过改变输出层的结构,可以一定程度上缓解这个问题
\upcite
{
DBLP:conf/acl/JeanCMB15
}
。一种比较简单的方法是对可能输出的单词进行筛选,即词汇选择。这里,可以利用类似于统计机器翻译的翻译表,获得每个源语言单词最可能的译文。在翻译过程中,利用注意力机制找到每个目标语言位置对应的源语言位置,之后获得这些源语言单词最可能的翻译候选。之后,
Softmax 只需要在这个有限的翻译候选单词集合上进行计算,
大大降低了输出层的计算量。尤其对于CPU 上的系统,这个方法往往会带来明显的速度提升。图
\ref
{
fig:14-4
}
对比了标准Softmax与词汇选择方法中的Softmax。
\parinterval
通过改变输出层的结构,可以一定程度上缓解这个问题
\upcite
{
DBLP:conf/acl/JeanCMB15
}
。一种比较简单的方法是对可能输出的单词进行筛选,即词汇选择。这里,可以利用类似于统计机器翻译的翻译表,获得每个源语言单词最可能的译文。在翻译过程中,利用注意力机制找到每个目标语言位置对应的源语言位置,之后获得这些源语言单词最可能的翻译候选。之后,
只需要在这个有限的翻译候选单词集合上进行Softmax计算,此方法
大大降低了输出层的计算量。尤其对于CPU 上的系统,这个方法往往会带来明显的速度提升。图
\ref
{
fig:14-4
}
对比了标准Softmax与词汇选择方法中的Softmax。
%----------------------------------------------
\begin{figure}
[htp]
...
...
@@ -302,7 +302,7 @@ b &=& \omega_{\textrm{high}}\cdot |\seq{x}| \label{eq:14-4}
\parinterval
消除不必要的计算是加速机器翻译系统的另一种方法。比如,在统计机器翻译时代,假设重组就是一种典型的避免冗余计算的手段(见
{
\chapterseven
}
)。在神经机器翻译中,消除冗余计算的一种简单有效的方法是对解码器的注意力结果进行缓存。以Transformer为例,在生成每个译文时,Transformer 模型会对当前位置之前的所有位置进行自注意力操作,但是这些计算里只有和当前位置相关的计算是“新” 的,前面位置之间的注意力结果已经在之前的解码步骤里计算过,因此可以对其进行缓存。
\parinterval
此外,由于Transformer 模型较为复杂,还存在很多冗余。比如,Transformer 的每一层会包含自注意力机制、层正则化、残差连接、前馈神经网络等多种不同的结构
。同时
,不同结构之间还会包含一些线性变换。多层Transformer模型会更加复杂。但是,这些层可能在做相似的事情,甚至有些计算根本就是重复的。图
\ref
{
fig:14-5
}
中展示了解码器自注意力和编码-解码注意力中不同层的注意力权重的相似性,这里的相似性利用Jensen-Shannon散度进行度量
\upcite
{
61115
}
。可以看到,自注意力中,2-6层之间的注意力权重的分布非常相似。编码-解码注意力也有类似的现象,临近的层之间有非常相似的注意力权重。这个现象说明:在多层神经网络中有些计算是冗余的,因此很自然的想法是消除这些冗余使得机器翻译变得更“轻”。
\parinterval
此外,由于Transformer 模型较为复杂,还存在很多冗余。比如,Transformer 的每一层会包含自注意力机制、层正则化、残差连接、前馈神经网络等多种不同的结构,不同结构之间还会包含一些线性变换。多层Transformer模型会更加复杂。但是,这些层可能在做相似的事情,甚至有些计算根本就是重复的。图
\ref
{
fig:14-5
}
中展示了解码器自注意力和编码-解码注意力中不同层的注意力权重的相似性,这里的相似性利用Jensen-Shannon散度进行度量
\upcite
{
61115
}
。可以看到,自注意力中,2-6层之间的注意力权重的分布非常相似。编码-解码注意力也有类似的现象,临近的层之间有非常相似的注意力权重。这个现象说明:在多层神经网络中有些计算是冗余的,因此很自然的想法是消除这些冗余使得机器翻译变得更“轻”。
%----------------------------------------------
\begin{figure}
[htp]
...
...
@@ -337,7 +337,7 @@ b &=& \omega_{\textrm{high}}\cdot |\seq{x}| \label{eq:14-4}
\parinterval
比较简单的做法是把解码器的网络变得更“浅”、更“窄”。所谓浅网络是指使用更少的层构建神经网络,比如,使用3 层,甚至1 层网络的Transformer 解码器。所谓窄网络是指将网络中某些层中神经元的数量减少。不过,直接训练这样的小模型会造成翻译品质下降。这时会考虑使用知识蒸馏等技术来提升小模型的品质(见
{
\chapterthirteen
}
)。
\parinterval
化简Transformer 解码器的神经网络也可以提高推断速度。比如,可以使用平均注意力机制代替原始Transformer 中的自注意力机制
\upcite
{
DBLP:journals/corr/abs-1805-00631
}
,也可以使用运算更轻的卷积操作代替注意力模块
\upcite
{
Wu2019PayLA
}
。前面提到的基于共享注意力机制的模型也是一种典型的轻量模型
\upcite
{
Xiao2019SharingAW
}
。这些方法本质上也是对注意力模型结构的优化,这类思想在近几年也受到了很多关注
\upcite
{
Kitaev2020ReformerTE,Katharopoulos2020TransformersAR,DBLP:journals/corr/abs-2006-04768
}
,在
{
\chapterfifteen
}
也会有进一步讨论。
\parinterval
化简Transformer 解码器的神经网络也可以提高推断速度。比如,可以使用平均注意力机制代替原始Transformer
模型
中的自注意力机制
\upcite
{
DBLP:journals/corr/abs-1805-00631
}
,也可以使用运算更轻的卷积操作代替注意力模块
\upcite
{
Wu2019PayLA
}
。前面提到的基于共享注意力机制的模型也是一种典型的轻量模型
\upcite
{
Xiao2019SharingAW
}
。这些方法本质上也是对注意力模型结构的优化,这类思想在近几年也受到了很多关注
\upcite
{
Kitaev2020ReformerTE,Katharopoulos2020TransformersAR,DBLP:journals/corr/abs-2006-04768
}
,在
{
\chapterfifteen
}
也会有进一步讨论。
\parinterval
此外,使用异构神经网络也是一种平衡精度和速度的有效方法。在很多研究中发现,基于Transformer 的编码器对翻译品质的影响更大,而解码器的作用会小一些。因此,一种想法是使用速度更快的解码器结构,比如,用基于循环神经网络的解码器代替Transformer模型中基于注意力机制的解码器
\upcite
{
Chen2018TheBO
}
。这样,既能发挥Transformer 在编码上的优势,同时也能利用循环神经网络在解码器速度上的优势。使用类似的思想,也可以用卷积神经网络等结构进行解码器的设计。
...
...
@@ -376,7 +376,7 @@ b &=& \omega_{\textrm{high}}\cdot |\seq{x}| \label{eq:14-4}
\subsection
{
低精度运算
}
\parinterval
降低运算强度也是计算密集型任务的加速手段之一。标准的神经机器翻译系统大多基于单精度浮点运算。从计算机的硬件发展看,单精度浮点运算还是很“重” 的。当计算能容忍一些精度损失的时候,可以考虑
降低运算精度来达到加速的目的。比如:
\parinterval
降低运算强度也是计算密集型任务的加速手段之一。标准的神经机器翻译系统大多基于单精度浮点运算。从计算机的硬件发展看,单精度浮点运算还是很“重” 的。当计算能容忍一些精度损失的时候,可以考虑
使用以下方法降低运算精度来达到加速的目的。
\begin{itemize}
\vspace
{
0.5em
}
...
...
@@ -398,7 +398,7 @@ b &=& \omega_{\textrm{high}}\cdot |\seq{x}| \label{eq:14-4}
\end{tabular}
\label
{
tab:14-3
}
\end{table}
\footnotetext
{
表中比较了几种通用数据类型的乘法运算速度,不同硬件和架构上不同类型的数据的计算速度略有不同。总体来看整型数据
类型
和浮点型数据相比具有显著的计算速度优势,INT4相比于FP32数据类型的计算最高能达到8倍的速度提升。
}
\footnotetext
{
表中比较了几种通用数据类型的乘法运算速度,不同硬件和架构上不同类型的数据的计算速度略有不同。总体来看整型数据和浮点型数据相比具有显著的计算速度优势,INT4相比于FP32数据类型的计算最高能达到8倍的速度提升。
}
%--------------------------------------
\parinterval
实际上,低精度运算的另一个好处是可以减少模型存储的体积。比如,如果要把机器翻译模型作为软件的一部分打包存储,这时可以考虑用低精度的方式保存模型参数,使用时再恢复成原始精度的参数。值得注意的是,参数的离散化表示(比如整型表示)的一个极端例子是
{
\small\sffamily\bfseries
{
二值神经网络
}}
\index
{
二值神经网络
}
(Binarized Neural Networks)
\index
{
Binarized Neural Networks
}
\upcite
{
DBLP:conf/nips/HubaraCSEB16
}
,即只用−1和+1 表示神经网络的每个参数
\footnote
{
也存在使用0或1表示神经网络参数的二值神经网络。
}
。二值化可以被看作是一种极端的量化手段。不过,这类方法还没有在机器翻译中得到大规模验证。
...
...
@@ -409,7 +409,7 @@ b &=& \omega_{\textrm{high}}\cdot |\seq{x}| \label{eq:14-4}
\sectionnewpage
\section
{
非自回归翻译
}
\parinterval
目前大多数神经机器翻译模型都使用自左向右逐词生成译文的策略,即第
$
j
$
个目标语言单词的生成依赖于先前生成的
$
j
-
1
$
个词。这种翻译方式也被称作
{
\small\sffamily\bfseries
{
自回归解码
}}
\index
{
自回归解码
}
(Autoregressive Decoding)
\index
{
Autoregressive Decoding
}
。虽然以Transformer为代表的模型使得训练过程高度并行化,加快了训练速度。但由于推断过程自回归的特性,模型无法同时生成译文中的所有单词,导致模型的推断过程非常缓慢,这对于神经机器翻译的实际应用是个很大的挑战。因此,如何设计一个在训练和推断阶段都能够并行化的模型是目前研究的热点之一。
\parinterval
目前大多数神经机器翻译模型都使用自左向右逐词生成译文的策略,即第
$
j
$
个目标语言单词的生成依赖于先前生成的
$
j
-
1
$
个词。这种翻译方式也被称作
{
\small\sffamily\bfseries
{
自回归解码
}}
\index
{
自回归解码
}
(Autoregressive Decoding)
\index
{
Autoregressive Decoding
}
。虽然以Transformer为代表的模型使得训练过程高度并行化,加快了训练速度。但由于推断过程自回归的特性,模型无法同时生成译文中的所有单词,导致模型的推断过程非常缓慢,这对于神经机器翻译的实际应用是个很大的挑战。因此,如何设计一个在训练和推断阶段都能够并行化
进行
的模型是目前研究的热点之一。
%----------------------------------------------------------------------------------------
% NEW SUBSUB-SECTION
...
...
@@ -417,7 +417,7 @@ b &=& \omega_{\textrm{high}}\cdot |\seq{x}| \label{eq:14-4}
\subsection
{
自回归 vs 非自回归
}
\parinterval
目前主流的神经机器翻译的推断是一种
{
\small\sffamily\bfseries
{
自回归翻译
}}
\index
{
自回归翻译
}
(Autoregressive Translation)
\index
{
Autoregressive Translation
}
过程。所谓自回归是一种描述时间序列生成的方式:对于目标序列
$
\seq
{
y
}
=
\{
y
_
1
,
\dots
,y
_
n
\}
$
,如果
$
j
$
时刻状态
$
y
_
j
$
的生成依赖于之前的状态
$
\{
y
_
1
,
\dots
,y
_{
j
-
1
}
\}
$
,而且
$
y
_
j
$
与
$
\{
y
_
1
,
\dots
,y
_{
j
-
1
}
\}
$
构成线性关系,那么称目标序列
$
\seq
{
y
}$
的生成过程是自回归的。神经机器翻译借用了这个概念,但是并不要求
$
y
_
j
$
与
$
\{
y
_
1
,
\dots
,y
_{
j
-
1
}
\}
$
构成线性关系,
\ref
{
sec:14-2-1
}
节提到的自左向右翻译模型和自右向左翻译模型都属于自回归翻译模型。自回归模型在机器翻译任务上也有很好的表现,特别是配合束搜索往往能够有效地寻找近似最优译文。但是,由于解码器的每个步骤必须顺序地而不是并行地运行,自回归翻译模型会阻碍不同译文单词生成的并行化。特别是在GPU 上,翻译的自回归性会大大降低计算的并行度和设备利用率。
\parinterval
目前主流的神经机器翻译的推断是一种
{
\small\sffamily\bfseries
{
自回归翻译
}}
\index
{
自回归翻译
}
(Autoregressive Translation)
\index
{
Autoregressive Translation
}
过程。所谓自回归是一种描述时间序列生成的方式:对于目标序列
$
\seq
{
y
}
=
\{
y
_
1
,
\dots
,y
_
n
\}
$
,如果
$
j
$
时刻状态
$
y
_
j
$
的生成依赖于之前的状态
$
\{
y
_
1
,
\dots
,y
_{
j
-
1
}
\}
$
,而且
$
y
_
j
$
与
$
\{
y
_
1
,
\dots
,y
_{
j
-
1
}
\}
$
构成线性关系,那么称目标序列
$
\seq
{
y
}$
的生成过程是自回归的。神经机器翻译借用了这个概念,但是并不要求
$
y
_
j
$
与
$
\{
y
_
1
,
\dots
,y
_{
j
-
1
}
\}
$
构成线性关系,
\ref
{
sec:14-2-1
}
节提到的自左向右翻译模型和自右向左翻译模型都属于自回归翻译模型。自回归
翻译
模型在机器翻译任务上也有很好的表现,特别是配合束搜索往往能够有效地寻找近似最优译文。但是,由于解码器的每个步骤必须顺序地而不是并行地运行,自回归翻译模型会阻碍不同译文单词生成的并行化。特别是在GPU 上,翻译的自回归性会大大降低计算的并行度和设备利用率。
\parinterval
对于这个问题,研究人员也考虑移除翻译的自回归性,进行
{
\small\sffamily\bfseries
{
非自回归翻译
}}
\index
{
非自回归翻译
}
(Non-Autoregressive Translation,NAT)
\index
{
Non-Autoregressive Translation
}
\upcite
{
Gu2017NonAutoregressiveNM
}
。一个简单的非自回归翻译模型将问题建模为公式
\eqref
{
eq:14-9
}
:
\begin{eqnarray}
...
...
@@ -433,7 +433,7 @@ b &=& \omega_{\textrm{high}}\cdot |\seq{x}| \label{eq:14-4}
\subsection
{
非自回归翻译模型的结构
}
\parinterval
在介绍非自回归
模型的具体结构之前,先来看看如何实现一个简单的非自回归翻译模型。这里用标准的Transformer来举例。首先为了一次性生成所有的词,需要丢弃解码器对未来信息屏蔽的矩阵,从而去掉模型的自回归性。此外,还要考虑生成译文的长度。在自回归模型中,每步的输入是上一步解码出的结果,当预测到终止符<eos>时,序列的生成就自动停止了,然而非自回归
模型却没有这样的特性,因此还需要一个长度预测器来预测出其长度,之后再用这个长度得到每个位置的表示,将其作为解码器的输入,进而完成整个序列的生成。
\parinterval
在介绍非自回归
翻译模型的具体结构之前,先来看看如何实现一个简单的非自回归翻译模型。这里用标准的Transformer来举例。首先为了一次性生成所有的词,需要丢弃解码器对未来信息屏蔽的矩阵,从而去掉模型的自回归性。此外,还要考虑生成译文的长度。在自回归翻译模型中,每步的输入是上一步解码出的结果,当预测到终止符<eos>时,序列的生成就自动停止了,然而非自回归翻译
模型却没有这样的特性,因此还需要一个长度预测器来预测出其长度,之后再用这个长度得到每个位置的表示,将其作为解码器的输入,进而完成整个序列的生成。
%----------------------------------------------------------------------
\begin{figure}
[htp]
...
...
@@ -444,30 +444,29 @@ b &=& \omega_{\textrm{high}}\cdot |\seq{x}| \label{eq:14-4}
\end{figure}
%----------------------------------------------------------------------
\parinterval
图
\ref
{
fig:14-12
}
对比了自回归翻译模型和简单的非自回归翻译模型。可以看到这种自回归翻译模型可以一次性生成完整的译文。不过,高并行性也带来了翻译品质的下降。
比如,在IWSLT 英德等数据上的BLEU[
\%
] 值只有个位数,而现在最好的自回归模型已经能够达到30左右的BLEU得分。这是因为每个位置词的预测只依赖于源语言句子
$
\seq
{
x
}$
,使得预测不准确。需要注意的是,图
\ref
{
fig:14-12
}
(b)中将位置编码作为非自回归模型解码器的输入只是一个最简单的例子,在真实的系统中,非自回归解码器的输入一般是拷贝的
源语言句子词嵌入与位置编码的融合。
\parinterval
图
\ref
{
fig:14-12
}
对比了自回归翻译模型和简单的非自回归翻译模型。可以看到这种自回归翻译模型可以一次性生成完整的译文。不过,高并行性也带来了翻译品质的下降。
例如,对于IWSLT英德等数据,非自回归翻译模型的BLEU值只有个位数,而现在最好的自回归模型的BLEU值已经能够达到30左右。这是因为每个位置词的预测只依赖于源语言句子
$
\seq
{
x
}$
,使得预测不准确。需要注意的是,图
\ref
{
fig:14-12
}
(b)中将位置编码作为非自回归翻译模型解码器的输入只是一个最简单的例子,在真实的系统中,非自回归解码器的输入一般是复制编码器端的输入,即
源语言句子词嵌入与位置编码的融合。
\parinterval
完全独立地对每个词建模,会出现什么问题呢?来看一个例子,将汉语句子“干/得/好/!”翻译成英文,可以翻译成“Good job !”或者“Well done !”。假设生成这两种翻译的概率是相等的,即一半的概率是“Good job !”,另一半的概率是“Well done !”。由于非自回归模型的条件独立性假设,推断时第一个词“Good”和“Well”的概率是差不多大的,如果第二个词“job”和“done”的概率也差不多大,会使得模型生成出“Good done !”或者“Well job !”这样错误的翻译,如图
\ref
{
fig:14-13
}
所示。这便是影响句子质量的关键问题,称之为
{
\small\sffamily\bfseries
{
多峰问题
}}
\index
{
多峰问题
}
(Multimodality Problem)
\index
{
Multimodality Problem
}
\upcite
{
Gu2017NonAutoregressiveNM
}
。如何有效处理非自回归模型中的多峰问题 是提升非自回归模型质量的关键。
\parinterval
完全独立地对每个词建模,会出现什么问题呢?来看一个例子,将汉语句子“干/得/好/!”翻译成英文,可以翻译成“Good job !”或者“Well done !”。假设生成这两种翻译的概率是相等的,即一半的概率是“Good job !”,另一半的概率是“Well done !”。由于非自回归翻译模型的条件独立性假设,推断时第一个词“Good”和“Well”的概率是差不多大的,如果第二个词“job”和“done”的概率也差不多大,会使得模型生成出“Good done !”或者“Well job !”这样错误的翻译,如图
\ref
{
fig:14-13
}
所示。这便是影响句子质量的关键问题,称之为
{
\small\sffamily\bfseries
{
多峰问题
}}
\index
{
多峰问题
}
(Multimodality Problem)
\index
{
Multimodality Problem
}
\upcite
{
Gu2017NonAutoregressiveNM
}
。如何有效处理非自回归翻译模型中的多峰问题 是提升非自回归翻译模型质量的关键。
%----------------------------------------------------------------------
\begin{figure}
[htp]
\centering
\input
{
./Chapter14/Figures/figure-multi-modality
}
\caption
{
非自回归模型中的多峰问题
}
\caption
{
非自回归
翻译
模型中的多峰问题
}
\label
{
fig:14-13
}
\end{figure}
%----------------------------------------------------------------------
\parinterval
因此,非自回归翻译的研究大多集中在针对以上问题的求解。有三个角度:使用繁衍率预测译文长度、使用句子级知识蒸馏来降低学习难度、使用自回归模型进行翻译候选打分。下面将依次对这些方法进行介绍。
\parinterval
因此,非自回归翻译的研究大多集中在针对以上问题的求解。有三个角度:使用繁衍率预测译文长度、使用句子级知识蒸馏来降低学习难度、使用自回归
翻译
模型进行翻译候选打分。下面将依次对这些方法进行介绍。
%----------------------------------------------------------------------------------------
% NEW SUBSUB-SECTION
%----------------------------------------------------------------------------------------
\subsubsection
{
1. 基于繁衍率的非自回归模型
}
\subsubsection
{
1. 基于繁衍率的非自回归
翻译
模型
}
\parinterval
图
\ref
{
fig:14-14
}
给出了基于繁衍率的Transformer非自回归模型的结构
\upcite
{
Gu2017NonAutoregressiveNM
}
,由三个模块组成:编码器,解码器,繁衍率预测器。类似于标准的Transformer模型,这里编码器和解码器都完全由前馈神经网络和多头注意力模块组成。唯一的不同是解码器中新增了位置注意力模块(图
\ref
{
fig:14-14
}
中被红色虚线框住的模块),用于更好的捕捉目标语言端的位置信息。
\parinterval
图
\ref
{
fig:14-14
}
给出了基于繁衍率的Transformer非自回归
翻译
模型的结构
\upcite
{
Gu2017NonAutoregressiveNM
}
,由三个模块组成:编码器,解码器,繁衍率预测器。类似于标准的Transformer模型,这里编码器和解码器都完全由前馈神经网络和多头注意力模块组成。唯一的不同是解码器中新增了位置注意力模块(图
\ref
{
fig:14-14
}
中被红色虚线框住的模块),用于更好的捕捉目标语言端的位置信息。
\parinterval
繁衍率预测器的一个作用是预测整个译文句子的长度,以便并行地生成所有译文单词。可以通过对每个源语言单词计算繁衍率来估计最终译文的长度。具体来说,繁衍率指的是:根据每个源语言单词预测出其对应的目标语言单词的个数(见
\chaptersix
),如图
\ref
{
fig:14-14
}
所示,翻译过程中英语单词“We”对应一个汉语单词“我们”,其繁衍率为1。于是,可以得到源语言句子对应的繁衍率序列(图
\ref
{
fig:14-14
}
中的数字1
\
1
\
2
\
0
\
1),最终译文长度则由源语言单词的繁衍率之和决定。之后将源语言单词按该繁衍率序列进行拷贝,在图中的例子中,将“We”、“totally”、“.”拷贝一次,将"accept"、“it”分别拷贝两次和零次,就得到了最终解码器的输入“We totally accept accept .”。在模型训练阶段,繁衍率序列可以通过外部词对齐工具得到, 用于之后训练繁衍率预测器。但由于外部词对齐系统会出现错误,因此在模型收敛之后,可以对繁衍率预测器进行额外的微调。
...
...
@@ -475,7 +474,7 @@ b &=& \omega_{\textrm{high}}\cdot |\seq{x}| \label{eq:14-4}
\begin{figure}
[htp]
\centering
\input
{
./Chapter14/Figures/figure-reproduction-rate
}
\caption
{
基于繁衍率的非自回归模型
}
\caption
{
基于繁衍率的非自回归
翻译
模型
}
\label
{
fig:14-14
}
\end{figure}
%----------------------------------------------------------------------
...
...
@@ -490,15 +489,15 @@ b &=& \omega_{\textrm{high}}\cdot |\seq{x}| \label{eq:14-4}
\subsubsection
{
2. 句子级知识蒸馏
}
\parinterval
知识蒸馏的基本思路是把教师模型的知识传递给学生模型,让学生模型可以更好地学习(见
\chapterthirteen
)。通过这种方法,可以降低非自回归
模型的学习难度。具体来说,可以让自回归模型作为“教师”,非自回归模型作为“学生”。把自回归神经机器翻译模型生成的句子作为新的训练样本,送给非自回归机器翻译模型进行学习
\upcite
{
Lee2018DeterministicNN,Zhou2020UnderstandingKD,Guo2020FineTuningBC
}
。有研究发现自回归模型生成的结果的“确定性”更高,也就是不同句子中相同源语言片段翻译的多样性相对低一些
\upcite
{
Gu2017NonAutoregressiveNM
}
。虽然从人工翻译的角度看,这可能并不是理想的译文,但是使用这样的译文可以在一定程度上缓解多峰问题。因为,经过训练的自回归模型会始终将相同的源语言句子翻译成相同的译文。这样得到的数据集噪声更少,能够降低非自回归模型学习的难度。此外,相比人工标注的译文,自回归
模型输出的译文更容易让模型进行学习,这也是句子级知识蒸馏有效的原因之一。
\parinterval
知识蒸馏的基本思路是把教师模型的知识传递给学生模型,让学生模型可以更好地学习(见
\chapterthirteen
)。通过这种方法,可以降低非自回归
翻译模型的学习难度。具体来说,可以让自回归翻译模型作为“教师”,非自回归翻译模型作为“学生”。把自回归翻译模型生成的句子作为新的训练样本,送给非自回归翻译模型进行学习
\upcite
{
Lee2018DeterministicNN,Zhou2020UnderstandingKD,Guo2020FineTuningBC
}
。有研究发现自回归翻译模型生成的结果的“确定性”更高,也就是不同句子中相同源语言片段翻译的多样性相对低一些
\upcite
{
Gu2017NonAutoregressiveNM
}
。虽然从人工翻译的角度看,这可能并不是理想的译文,但是使用这样的译文可以在一定程度上缓解多峰问题。因为,经过训练的自回归翻译模型会始终将相同的源语言句子翻译成相同的译文。这样得到的数据集噪声更少,能够降低非自回归翻译模型学习的难度。此外,相比人工标注的译文,自回归翻译
模型输出的译文更容易让模型进行学习,这也是句子级知识蒸馏有效的原因之一。
%----------------------------------------------------------------------------------------
% NEW SUBSUB-SECTION
%----------------------------------------------------------------------------------------
\subsubsection
{
3.自回归模型打分
}
\subsubsection
{
3.自回归
翻译
模型打分
}
\parinterval
通过采样不同的繁衍率序列,可以得到多个不同的翻译候选。之后,把这些不同的译文再交给自回归
模型来评分,选择一个最好的结果作为最终的翻译结果。通常,这种方法能够很有效地提升非自回归翻译模型的译文质量,并且保证较高的推断速度
\upcite
{
Gu2017NonAutoregressiveNM,Wei2019ImitationLF,Guo2019NonAutoregressiveNM,Wang2019NonAutoregressiveMT,Ma2019FlowSeqNC
}
。但是,缺点是需要同时部署自回归和非自回归
两套系统。
\parinterval
通过采样不同的繁衍率序列,可以得到多个不同的翻译候选。之后,把这些不同的译文再交给自回归
翻译模型来评分,选择一个最好的结果作为最终的翻译结果。通常,这种方法能够很有效地提升非自回归翻译模型的译文质量,并且保证较高的推断速度
\upcite
{
Gu2017NonAutoregressiveNM,Wei2019ImitationLF,Guo2019NonAutoregressiveNM,Wang2019NonAutoregressiveMT,Ma2019FlowSeqNC
}
。但是,缺点是需要同时部署自回归翻译和非自回归翻译
两套系统。
%----------------------------------------------------------------------------------------
% NEW SUBSECTION
...
...
@@ -506,11 +505,11 @@ b &=& \omega_{\textrm{high}}\cdot |\seq{x}| \label{eq:14-4}
\subsection
{
更好的训练目标
}
\parinterval
虽然非自回归翻译可以显著提升翻译速度,但是很多情况下其翻译质量还是低于传统的自回归翻译
\upcite
{
Gu2017NonAutoregressiveNM,Kaiser2018FastDI,Guo2020FineTuningBC
}
。因此,很多工作致力于缩小自回归
模型和非自回归
模型的性能差距
\upcite
{
Ran2020LearningTR,Tu2020ENGINEEI,Shu2020LatentVariableNN
}
。
\parinterval
虽然非自回归翻译可以显著提升翻译速度,但是很多情况下其翻译质量还是低于传统的自回归翻译
\upcite
{
Gu2017NonAutoregressiveNM,Kaiser2018FastDI,Guo2020FineTuningBC
}
。因此,很多工作致力于缩小自回归
翻译模型和非自回归翻译
模型的性能差距
\upcite
{
Ran2020LearningTR,Tu2020ENGINEEI,Shu2020LatentVariableNN
}
。
\parinterval
一种直接的方法是层级知识蒸馏
\upcite
{
Li2019HintBasedTF
}
。由于自回归
模型和非自回归模型的结构相差不大,因此可以将翻译质量更高的自回归模型作为“教师”,通过给非自回归模型提供监督信号,使其逐块地学习前者的分布。研究人员发现了两点非常有意思的现象:1)非自回归模型容易出现“重复翻译”的现象,这些相邻的重复单词所对应的位置的隐藏状态非常相似。2)非自回归模型的注意力分布比自回归模型的分布更加尖锐。这两点发现启发了研究人员使用自回归模型中的隐层状态和注意力矩阵等中间表示来指导非自回归模型的学习过程。可以计算两个模型隐层状态的距离以及注意力矩阵的KL散度
\footnote
{
KL散度即相对熵。
}
,将它们作为额外的损失指导非自回归模型的训练。类似的做法也出现在基于模仿学习的方法中
\upcite
{
Wei2019ImitationLF
}
,它也可以被看作是对自回归模型不同层行为的模拟。不过,基于模仿学习的方法会使用更复杂的模块来完成自回归模型对非自回归模型的指导,比如,在自回归模型和非自回归模型中都使用一个额外的神经网络,用于传递自回归模型提供给非自回归
模型的层级监督信号。
\parinterval
一种直接的方法是层级知识蒸馏
\upcite
{
Li2019HintBasedTF
}
。由于自回归
翻译模型和非自回归翻译模型的结构相差不大,因此可以将翻译质量更高的自回归翻译模型作为“教师”,通过给非自回归翻译模型提供监督信号,使其逐块地学习前者的分布。研究人员发现了两点非常有意思的现象:1)非自回归翻译模型容易出现“重复翻译”的现象,这些相邻的重复单词所对应的位置的隐藏状态非常相似。2)非自回归翻译模型的注意力分布比自回归翻译模型的分布更加尖锐。这两点发现启发了研究人员使用自回归翻译模型中的隐层状态和注意力矩阵等中间表示来指导非自回归翻译模型的学习过程。可以计算两个模型隐层状态的距离以及注意力矩阵的KL散度
\footnote
{
KL散度即相对熵。
}
,将它们作为额外的损失指导非自回归翻译模型的训练。类似的做法也出现在基于模仿学习的方法中
\upcite
{
Wei2019ImitationLF
}
,它也可以被看作是对自回归翻译模型不同层行为的模拟。不过,基于模仿学习的方法会使用更复杂的模块来完成自回归翻译模型对非自回归翻译模型的指导,比如,在自回归翻译模型和非自回归翻译模型中都使用一个额外的神经网络,用于传递自回归翻译模型提供给非自回归翻译
模型的层级监督信号。
\parinterval
此外,也可以使用基于正则化因子的方法
\upcite
{
Wang2019NonAutoregressiveMT
}
。非自回归
模型的翻译结果中存在着两种非常严重的错误:重复翻译和不完整的翻译。重复翻译问题是因为解码器隐层状态中相邻的两个位置过于相似,因此翻译出来的单词也一样。对于不完整翻译,即欠翻译问题,通常是由于非自回归模型在翻译的过程中丢失了一些源语言句子的信息。针对这两个问题,可以通过在相邻隐层状态间添加相似度约束来计算一个重构损失。具体实践时,对于翻译
$
\seq
{
x
}
\to\seq
{
y
}$
,通过一个反向的自回归
模型再将
$
\seq
{
y
}$
翻译成
$
\seq
{
x'
}$
,最后计算
$
\seq
{
x
}$
与
$
\seq
{
x'
}$
的差异性作为损失。
\parinterval
此外,也可以使用基于正则化因子的方法
\upcite
{
Wang2019NonAutoregressiveMT
}
。非自回归
翻译模型的翻译结果中存在着两种非常严重的错误:重复翻译和不完整的翻译。重复翻译问题是因为解码器隐层状态中相邻的两个位置过于相似,因此翻译出来的单词也一样。对于不完整翻译,即欠翻译问题,通常是由于非自回归翻译模型在翻译的过程中丢失了一些源语言句子的信息。针对这两个问题,可以通过在相邻隐层状态间添加相似度约束来计算一个重构损失。具体实践时,对于翻译
$
\seq
{
x
}
\to\seq
{
y
}$
,通过一个反向的自回归翻译
模型再将
$
\seq
{
y
}$
翻译成
$
\seq
{
x'
}$
,最后计算
$
\seq
{
x
}$
与
$
\seq
{
x'
}$
的差异性作为损失。
%----------------------------------------------------------------------------------------
...
...
@@ -519,7 +518,7 @@ b &=& \omega_{\textrm{high}}\cdot |\seq{x}| \label{eq:14-4}
\subsection
{
引入自回归模块
}
\parinterval
非自回归翻译消除了序列生成过程中不同位置预测结果间的依赖,在每个位置都进行独立的预测,但这反而会导致翻译质量显著下降,因为缺乏不同单词间依赖关系的建模。因此,也有研究聚焦于在非自回归模型中添加一些自回归组件。
\parinterval
非自回归翻译消除了序列生成过程中不同位置预测结果间的依赖,在每个位置都进行独立的预测,但这反而会导致翻译质量显著下降,因为缺乏不同单词间依赖关系的建模。因此,也有研究聚焦于在非自回归
翻译
模型中添加一些自回归组件。
\parinterval
一种做法是将句法信息作为目标语言句子的框架
\upcite
{
Akoury2019SyntacticallyST
}
。具体来说,先自回归地预测出一个目标语言的句法块序列,将句法块作为序列信息的抽象,然后根据句法块序列非自回归地生成所有目标语言单词。如图
\ref
{
fig:14-21
}
所示,该模型由一个编码器和两个解码器组成。其中编码器和第一个解码器与标准的Transformer模型相同,用来自回归地预测句法树信息;第二个解码器将第一个解码器的句法信息作为输入,之后再非自回归地生成整个译文。在训练过程中,通过使用外部句法分析器获得对句法预测任务的监督信号。虽然可以简单地让模型预测整个句法树,但是这种方法会显著增加自回归步骤的数量,从而增大时间开销。因此,为了维持句法信息与解码时间的平衡,这里预测一些由句法标记和子树大小组成的块标识符(如VP3)而不是整个句法树。关于基于句法的神经机器翻译模型在
{
\chapterfifteen
}
还会有进一步讨论。
...
...
@@ -527,12 +526,12 @@ b &=& \omega_{\textrm{high}}\cdot |\seq{x}| \label{eq:14-4}
\begin{figure}
[htp]
\centering
\input
{
./Chapter14/Figures/figure-syntax
}
\caption
{
基于句法结构的非自回归模型
}
\caption
{
基于句法结构的非自回归
翻译
模型
}
\label
{
fig:14-21
}
\end{figure}
%----------------------------------------------
\parinterval
另一种做法是半自回归地生成译文
\upcite
{
Wang2018SemiAutoregressiveNM
}
。如图
\ref
{
fig:14-20
}
所示,自回归
模型从左到右依次生成译文,具有“最强”的自回归性;而非自回归模型完全独立的生成每个译文单词,具有“最弱”的自回归性;半自回归模型则是将整个译文分成
$
k
$
个块,在块内执行非自回归解码,在块间则执行自回归的解码,能够在每个时间步并行产生多个连续的单词。通过调整块的大小,半自回归
模型可以灵活的调整为自回归翻译(当
$
k
$
等于1)和非自回归翻译(当
$
k
$
大于等于最大的译文长度)。
\parinterval
另一种做法是半自回归地生成译文
\upcite
{
Wang2018SemiAutoregressiveNM
}
。如图
\ref
{
fig:14-20
}
所示,自回归
翻译模型从左到右依次生成译文,具有“最强”的自回归性;而非自回归翻译模型完全独立的生成每个译文单词,具有“最弱”的自回归性;半自回归翻译模型则是将整个译文分成
$
k
$
个块,在块内执行非自回归解码,在块间则执行自回归的解码,能够在每个时间步并行产生多个连续的单词。通过调整块的大小,半自回归翻译
模型可以灵活的调整为自回归翻译(当
$
k
$
等于1)和非自回归翻译(当
$
k
$
大于等于最大的译文长度)。
%----------------------------------------------
\begin{figure}
[htp]
...
...
@@ -543,13 +542,13 @@ b &=& \omega_{\textrm{high}}\cdot |\seq{x}| \label{eq:14-4}
\end{figure}
%----------------------------------------------
\parinterval
还有一种做法引入了轻量级的自回归调序模块
\upcite
{
Ran2019GuidingNN
}
。为了解决非自回归
模型解码搜索空间过大的问题,可以使用调序技术在相对较少的翻译候选上进行自回归模型的计算。如图
\ref
{
fig:14-22
}
所示,该方法对源语言句子进行重新排列转换成由源语言单词组成但位于目标语言结构中的伪译文,然后将伪译文进一步转换成目标语言以获得最终的翻译。其中,这个调序模块可以是一个轻量自回归
模型,例如,一层的循环神经网络。
\parinterval
还有一种做法引入了轻量级的自回归调序模块
\upcite
{
Ran2019GuidingNN
}
。为了解决非自回归
翻译模型解码搜索空间过大的问题,可以使用调序技术在相对较少的翻译候选上进行自回归翻译模型的计算。如图
\ref
{
fig:14-22
}
所示,该方法对源语言句子进行重新排列转换成由源语言单词组成但位于目标语言结构中的伪译文,然后将伪译文进一步转换成目标语言以获得最终的翻译。其中,这个调序模块可以是一个轻量自回归翻译
模型,例如,一层的循环神经网络。
%----------------------------------------------------------------------
\begin{figure}
[htp]
\centering
\input
{
./Chapter14/Figures/figure-reranking
}
\caption
{
引入调序模块的非自回归模型
}
\caption
{
引入调序模块的非自回归
翻译
模型
}
\label
{
fig:14-22
}
\end{figure}
%----------------------------------------------------------------------
...
...
@@ -560,7 +559,7 @@ b &=& \omega_{\textrm{high}}\cdot |\seq{x}| \label{eq:14-4}
\subsection
{
基于迭代精化的非自回归翻译模型
}
\parinterval
如果一次
并行生成整个序列,往往很难捕捉单词之间的关系,而且即便生成了错误的译文单词,这类方法也无法修改。针对这些问题,也可以使用迭代式的生成方式
\upcite
{
Lee2018DeterministicNN,Ghazvininejad2019MaskPredictPD,Kasai2020NonAutoregressiveMT
}
。这种方法放弃了一次生成最终的译文句子,而是将解码出的译文再重新送给解码器,在每次迭代中来改进之前生成的译文单词,可以理解为句子级的自回归
模型。这样做的好处在于,每次迭代的过程中可以利用已经生成的部分翻译结果,来指导其它部分的生成。
\parinterval
如果一次
性并行地生成整个译文序列,往往很难捕捉单词之间的关系,而且即便生成了错误的译文单词,这类方法也无法修改。针对这些问题,也可以使用迭代式的生成方式
\upcite
{
Lee2018DeterministicNN,Ghazvininejad2019MaskPredictPD,Kasai2020NonAutoregressiveMT
}
。这种方法放弃了一次生成最终的译文句子,而是将解码出的译文再重新送给解码器,在每次迭代中来改进之前生成的译文单词,可以理解为句子级的自回归翻译
模型。这样做的好处在于,每次迭代的过程中可以利用已经生成的部分翻译结果,来指导其它部分的生成。
\parinterval
图
\ref
{
fig:14-18
}
展示了这种方法的简单示例。它拥有一个编码器和
$
N
$
个解码器。编码器首先预测出译文的长度,然后将输入
$
\seq
{
x
}$
按照长度复制出
$
\seq
{
x'
}$
作为第一个解码器的输入,之后生成
$
\seq
{
y
}^{
[
1
]
}$
作为第一轮迭代的输出。接下来再把
$
\seq
{
y
}^{
[
1
]
}$
输入给第二个解码器,然后输出
$
\seq
{
y
}^{
[
2
]
}$
,以此类推。那么迭代到什么时候结束呢?一种简单的做法是提前制定好迭代次数,这种方法能够自主地对生成句子的质量和效率进行平衡。另一种称之为“自适应”的方法,具体是通过计算当前生成的句子与上一次生成句子之间的变化量来判断是否停止,例如,使用杰卡德相似系数作为变化量函数
\footnote
{
杰卡德相似系数是衡量有限样本集之间的相似性与差异性的一种指标,杰卡德相似系数值越大,样本相似度越高。
}
。另外,需要说明的是,图
\ref
{
fig:14-18
}
中是使用多个解码器的一种逻辑示意。真实的系统仅需要一个解码器,并运行多次,就达到了迭代精化的目的。
...
...
@@ -573,7 +572,7 @@ b &=& \omega_{\textrm{high}}\cdot |\seq{x}| \label{eq:14-4}
\end{figure}
%----------------------------------------------
\parinterval
除了使用上一个步骤的输出,当前解码器的输入还可以使用了添加噪声的正确目标语言句子
\upcite
{
Lee2018DeterministicNN
}
。另外,对于译文长度的预测,也可以使用编码器的输出单独训练一个独立的长度预测模块,这种方法也推广到了目前大多数非自回归模型上。
\parinterval
除了使用上一个步骤的输出,当前解码器的输入还可以使用了添加噪声的正确目标语言句子
\upcite
{
Lee2018DeterministicNN
}
。另外,对于译文长度的预测,也可以使用编码器的输出单独训练一个独立的长度预测模块,这种方法也推广到了目前大多数非自回归
翻译
模型上。
\parinterval
另一种方法借鉴了BERT的思想
\upcite
{
devlin2019bert
}
,称为Mask-Predict
\upcite
{
Ghazvininejad2019MaskPredictPD
}
。类似于BERT中的<CLS>标记,该方法在源语言句子的最前面加上了一个特殊符号<LEN>作为输入,用来预测目标句的长度
$
n
$
。之后,将特殊符<Mask>(与BERT中的<Mask>有相似的含义)复制
$
n
$
次作为解码器的输入,然后用非自回归的方式生成所有的译文单词。这样生成的翻译可能是比较差的,因此可以将第一次生成的这些词中不确定(即生成概率比较低)的一些词“擦”掉,依据剩余的译文单词以及源语言句子重新进行预测,不断迭代,直到满足停止条件为止。图
\ref
{
fig:14-19
}
给出了一个示例。
...
...
@@ -650,15 +649,15 @@ b &=& \omega_{\textrm{high}}\cdot |\seq{x}| \label{eq:14-4}
\vspace
{
0.5em
}
\item
改变模型宽度和深度,即用不同层数或者不同隐藏层大小得到多个模型;
\vspace
{
0.5em
}
\item
使用不同的参数进行初始化,即
用不同的随机种子初始化参数
训练多个模型;
\item
使用不同的参数进行初始化,即
使用不同的随机种子初始化参数,
训练多个模型;
\vspace
{
0.5em
}
\item
不同模型(局部)架构的调整,比如,使用不同的位置编码模型
\upcite
{
Shaw2018SelfAttentionWR
}
、多层融合模型
\upcite
{
WangLearning
}
等;
\vspace
{
0.5em
}
\item
利用不同数量以及不同数据增强方式产生的伪数据训练模型
\upcite
{
zhang-EtAl:2020:WMT
}
;
\vspace
{
0.5em
}
\item
利用多分支多通道的模型,
不同分支可能有不同结构,
使得模型能有更好的表示能力
\upcite
{
zhang-EtAl:2020:WMT
}
;
\item
利用多分支多通道的模型,使得模型能有更好的表示能力
\upcite
{
zhang-EtAl:2020:WMT
}
;
\vspace
{
0.5em
}
\item
利用预训练
进行参数共享之后微调的模型
。
\item
利用预训练
方法进行参数共享,然后对模型进行微调
。
\vspace
{
0.5em
}
\end{itemize}
...
...
@@ -697,7 +696,7 @@ b &=& \omega_{\textrm{high}}\cdot |\seq{x}| \label{eq:14-4}
\sectionnewpage
\section
{
小结与拓展阅读
}
\parinterval
推断系统(或解码系统)是神经机器翻译的重要组成部分。在神经机器翻译研究中,单独针对推断问题开展的讨论并不多见。更多的工作是将其与实践结合,常见于开源系统、评测比赛中。但是,从应用的角度看,研发高效的推断系统是机器翻译能够被大规模使用的前提。本章也从神经机器翻译推断的基本问题出发,重点探讨了推断系统的效率、非自回归翻译、多模型集成等问题。但是,由于推断
问题
涉及的问题十分广泛,因此本章也无法对其进行全面覆盖。关于神经机器翻译模型推断还有以下若干研究方向值得关注:
\parinterval
推断系统(或解码系统)是神经机器翻译的重要组成部分。在神经机器翻译研究中,单独针对推断问题开展的讨论并不多见。更多的工作是将其与实践结合,常见于开源系统、评测比赛中。但是,从应用的角度看,研发高效的推断系统是机器翻译能够被大规模使用的前提。本章也从神经机器翻译推断的基本问题出发,重点探讨了推断系统的效率、非自回归翻译、多模型集成等问题。但是,由于推断
阶段
涉及的问题十分广泛,因此本章也无法对其进行全面覆盖。关于神经机器翻译模型推断还有以下若干研究方向值得关注:
\begin{itemize}
\vspace
{
0.5em
}
...
...
@@ -705,11 +704,11 @@ b &=& \omega_{\textrm{high}}\cdot |\seq{x}| \label{eq:14-4}
\vspace
{
0.5em
}
\item
推断系统也可以受益于更加高效的神经网络结构。这方面工作集中在结构化剪枝、减少模型的冗余计算、低秩分解等方向。结构化剪枝中的代表性工作是LayerDrop
\upcite
{
DBLP:conf/iclr/FanGJ20,DBLP:conf/emnlp/WangXZ20,DBLP:journals/corr/abs-2002-02925
}
,这类方法在训练时随机选择部分子结构,在推断时根据输入来选择模型中的部分层进行计算,而跳过其余层,达到加速的目的。有关减少冗余计算的研究主要集中在改进注意力机制上,本章已经有所介绍。低秩分解则针对词向量或者注意力的映射矩阵进行改进,例如词频自适应表示
\upcite
{
DBLP:conf/iclr/BaevskiA19
}
,词频越高则对应的向量维度越大,反之则越小,或者层数越高注意力映射矩阵维度越小
\upcite
{
DBLP:journals/corr/abs-2006-04768,DBLP:journals/corr/abs-1911-12385,DBLP:journals/corr/abs-1906-09777,DBLP:conf/nips/YangLSL19
}
。在实践中比较有效的是较深的编码器与较浅的解码器结合的方式,极端情况下解码器仅使用1层神经网络即可取得与多层神经网络相媲美的翻译品质,从而极大地提升翻译效率
\upcite
{
DBLP:journals/corr/abs-2006-10369,DBLP:conf/aclnmt/HuLLLLWXZ20,DBLP:journals/corr/abs-2010-02416
}
。在
{
\chapterfifteen
}
还会进一步对高效神经机器翻译的模型结构进行讨论。
\vspace
{
0.5em
}
\item
在对机器翻译推断系统进行实际部署时,对存储的消耗也是需要考虑的因素。因此如何让模型变得更小也是研发人员所关注的方向。当前的模型压缩方法主要可以分为几类:剪枝、量化、知识蒸馏和轻量方法,其中轻量方法
主要是基
于更轻量模型结构的设计,这类方法已经在本章进行了介绍。剪枝主要包括权重大小剪枝
\upcite
{
Han2015LearningBW,Lee2019SNIPSN,Frankle2019TheLT,Brix2020SuccessfullyAT
}
、 面向多头注意力的剪枝
\upcite
{
Michel2019AreSH,DBLP:journals/corr/abs-1905-09418
}
、网络层以及其他结构剪枝等
\upcite
{
Liu2017LearningEC,Liu2019RethinkingTV
}
,还有一些方法也通过在训练期间采用正则化的方式来提升剪枝能力
\upcite
{
DBLP:conf/iclr/FanGJ20
}
。量化方法主要通过截断浮点数来减少模型的存储大小,使其仅使用几个比特位的数字表示方法便能存储整个模型,虽然会导致舍入误差,但压缩效果显著
\upcite
{
DBLP:journals/corr/abs-1906-00532,Cheong2019transformersZ,Banner2018ScalableMF,Hubara2017QuantizedNN
}
。一些方法利用知识蒸馏手段还将Transformer模型蒸馏成如LSTMs 等其他各种推断速度更快的结构
\upcite
{
Hinton2015Distilling,Munim2019SequencelevelKD,Tang2019DistillingTK
}
。
\item
在对机器翻译推断系统进行实际部署时,对存储的消耗也是需要考虑的因素。因此如何让模型变得更小也是研发人员所关注的方向。当前的模型压缩方法主要可以分为几类:剪枝、量化、知识蒸馏和轻量方法,其中轻量方法
的研究重点集中
于更轻量模型结构的设计,这类方法已经在本章进行了介绍。剪枝主要包括权重大小剪枝
\upcite
{
Han2015LearningBW,Lee2019SNIPSN,Frankle2019TheLT,Brix2020SuccessfullyAT
}
、 面向多头注意力的剪枝
\upcite
{
Michel2019AreSH,DBLP:journals/corr/abs-1905-09418
}
、网络层以及其他结构剪枝等
\upcite
{
Liu2017LearningEC,Liu2019RethinkingTV
}
,还有一些方法也通过在训练期间采用正则化的方式来提升剪枝能力
\upcite
{
DBLP:conf/iclr/FanGJ20
}
。量化方法主要通过截断浮点数来减少模型的存储大小,使其仅使用几个比特位的数字表示方法便能存储整个模型,虽然会导致舍入误差,但压缩效果显著
\upcite
{
DBLP:journals/corr/abs-1906-00532,Cheong2019transformersZ,Banner2018ScalableMF,Hubara2017QuantizedNN
}
。一些方法利用知识蒸馏手段还将Transformer模型蒸馏成如LSTMs 等其他各种推断速度更快的结构
\upcite
{
Hinton2015Distilling,Munim2019SequencelevelKD,Tang2019DistillingTK
}
。
\vspace
{
0.5em
}
\item
目前的翻译模型使用交叉熵损失作为优化函数,这在自回归
模型上取得了非常优秀的性能。交叉熵是一个严格的损失函数,每个预测错误的单词所对应的位置都会受到惩罚,即使是编辑距离很小的输出序列
\upcite
{
Ghazvininejad2020AlignedCE
}
。自回归模型会很大程度上避免这种惩罚,因为当前位置的单词是根据先前生成的词得到的,然而非自回归模型无法获得这种信息。如果在预测时漏掉一个单词,就可能会将正确的单词放在错误的位置上。为此,一些研究工作通过改进损失函数来提高非自回归模型的性能。一种做法使用一种新的交叉熵函数
\upcite
{
Ghazvininejad2020AlignedCE
}
,它通过忽略绝对位置、关注相对顺序和词汇匹配来为非自回归
模型提供更精确的训练信号。另外,也可以使用基于
$
n
$
-gram的训练目标
\upcite
{
Shao2020MinimizingTB
}
来最小化模型与参考译文之间的
$
n
$
-gram差异。该训练目标在
$
n
$
-gram 的层面上评估预测结果,因此能够建模目标序列单词之间的依赖关系。
\item
目前的翻译模型使用交叉熵损失作为优化函数,这在自回归
翻译模型上取得了非常优秀的性能。交叉熵是一个严格的损失函数,每个预测错误的单词所对应的位置都会受到惩罚,即使是编辑距离很小的输出序列
\upcite
{
Ghazvininejad2020AlignedCE
}
。自回归翻译模型会很大程度上避免这种惩罚,因为当前位置的单词是根据先前生成的词得到的,然而非自回归翻译模型无法获得这种信息。如果在预测时漏掉一个单词,就可能会将正确的单词放在错误的位置上。为此,一些研究工作通过改进损失函数来提高非自回归翻译模型的性能。一种做法使用一种新的交叉熵函数
\upcite
{
Ghazvininejad2020AlignedCE
}
,它通过忽略绝对位置、关注相对顺序和词汇匹配来为非自回归翻译
模型提供更精确的训练信号。另外,也可以使用基于
$
n
$
-gram的训练目标
\upcite
{
Shao2020MinimizingTB
}
来最小化模型与参考译文之间的
$
n
$
-gram差异。该训练目标在
$
n
$
-gram 的层面上评估预测结果,因此能够建模目标序列单词之间的依赖关系。
\vspace
{
0.5em
}
\item
自回归
模型解码时,当前位置单词的生成依赖于先前生成的单词,已生成的单词提供了较强的目标端上下文信息。与自回归模型相比,非自回归模型的解码器需要在信息更少的情况下执行翻译任务。一些研究工作通过将条件随机场引入非自回归模型中来对序列依赖进行建模
\upcite
{
Ma2019FlowSeqNC
}
。也有工作引入了词嵌入转换矩阵来将源语言端的词嵌入转换为目标语言端的词嵌入来为解码器提供更好的输入
\upcite
{
Guo2019NonAutoregressiveNM
}
。此外,研究人员也提出了轻量级的调序模块来显式地建模调序信息,以指导非自回归
模型的推断
\upcite
{
Ran2019GuidingNN
}
。
\item
自回归
翻译模型解码时,当前位置单词的生成依赖于先前生成的单词,已生成的单词提供了较强的目标端上下文信息。与自回归翻译模型相比,非自回归翻译模型的解码器需要在信息更少的情况下执行翻译任务。一些研究工作通过将条件随机场引入非自回归翻译模型中来对序列依赖进行建模
\upcite
{
Ma2019FlowSeqNC
}
。也有工作引入了词嵌入转换矩阵来将源语言端的词嵌入转换为目标语言端的词嵌入来为解码器提供更好的输入
\upcite
{
Guo2019NonAutoregressiveNM
}
。此外,研究人员也提出了轻量级的调序模块来显式地建模调序信息,以指导非自回归翻译
模型的推断
\upcite
{
Ran2019GuidingNN
}
。
\vspace
{
0.5em
}
\end{itemize}
...
...
编写
预览
Markdown
格式
0%
重试
或
添加新文件
添加附件
取消
您添加了
0
人
到此讨论。请谨慎行事。
请先完成此评论的编辑!
取消
请
注册
或者
登录
后发表评论