Skip to content
项目
群组
代码片段
帮助
当前项目
正在载入...
登录 / 注册
切换导航面板
M
mtbookv2
概览
Overview
Details
Activity
Cycle Analytics
版本库
Repository
Files
Commits
Branches
Tags
Contributors
Graph
Compare
Charts
问题
0
Issues
0
列表
Board
标记
里程碑
合并请求
0
Merge Requests
0
CI / CD
CI / CD
流水线
作业
日程表
图表
维基
Wiki
代码片段
Snippets
成员
Collapse sidebar
Close sidebar
活动
图像
聊天
创建新问题
作业
提交
Issue Boards
Open sidebar
NiuTrans
mtbookv2
Commits
ce15a6eb
Commit
ce15a6eb
authored
Jan 05, 2021
by
xiaotong
Browse files
Options
Browse Files
Download
Email Patches
Plain Diff
wording (sec 14)
parent
4c79cd5d
显示空白字符变更
内嵌
并排
正在显示
1 个修改的文件
包含
15 行增加
和
18 行删除
+15
-18
Chapter14/chapter14.tex
+15
-18
没有找到文件。
Chapter14/chapter14.tex
查看文件 @
ce15a6eb
...
...
@@ -432,18 +432,18 @@ b &=& \omega_{\textrm{high}}\cdot |\seq{x}| \label{eq:14-4}
\parinterval
在介绍非自回归模型的具体结构之前,先来看看如何实现一个简单的非自回归翻译模型。这里用标准的Transformer来举例。首先为了一次性生成所有的词,需要丢弃解码器对未来信息屏蔽的矩阵,从而去掉模型的自回归性。此外,还要考虑生成译文的长度。自回归模型每步的输入是上一步解码出的结果,当预测到终止符<eos>时,序列的生成就自动停止了,然而非自回归模型却没有这样的特性,因此还需要一个长度预测器来预测出其长度,之后再用这个长度得到每个位置的表示,进而完成整个序列的生成。
\parinterval
图
\ref
{
fig:14-12
}
对比了自回归翻译模型和简单的非自回归翻译模型。可以看到这种自回归翻译模型可以一次性生成完整的译文
,但质量很低
。比如,在IWSLT 英德等数据上的BLEU[
\%
] 值只有个位数,而现在最好的自回归模型已经能够达到30左右的BLEU得分。这是因为每个位置词的预测只依赖于源语言句子
$
\seq
{
x
}$
,使得预测不准确。
\parinterval
图
\ref
{
fig:14-12
}
对比了自回归翻译模型和简单的非自回归翻译模型。可以看到这种自回归翻译模型可以一次性生成完整的译文
。不过,高并行性也带来了翻译品质的下降
。比如,在IWSLT 英德等数据上的BLEU[
\%
] 值只有个位数,而现在最好的自回归模型已经能够达到30左右的BLEU得分。这是因为每个位置词的预测只依赖于源语言句子
$
\seq
{
x
}$
,使得预测不准确。
%----------------------------------------------------------------------
\begin{figure}
[htp]
\centering
\input
{
./Chapter14/Figures/figure-non-autoregressive
}
\caption
{
一个简单的非自回归
模型
}
\caption
{
自回归翻译模型 vs 非自回归翻译
模型
}
\label
{
fig:14-12
}
\end{figure}
%----------------------------------------------------------------------
\parinterval
完全独立地对每个词建模,会出现什么问题呢?来看一个例子,将汉语句子“干/得/好/!”翻译成英文,可以翻译成“Good job !”或者“Well done !”。假设生成这两种翻译的概率是相等的,即一半的概率是“Good job !”,另一半的概率是“Well done !”。由于非自回归模型的条件独立性假设,推断时第一个词“Good”和“Well”的概率是差不多大的,
第二个词“job”和“done”的概率差不多大的
,会使得模型生成出“Good done !”或者“Well job !”这样错误的翻译,如图
\ref
{
fig:14-13
}
所示。这便是影响句子质量的关键问题,称之为
{
\small\sffamily\bfseries
{
多峰问题
}}
\index
{
多峰问题
}
(Multi-modality Problem)
\index
{
Multi-modality Problem
}
\upcite
{
Gu2017NonAutoregressiveNM
}
。如何有效处理非自回归模型中的多峰问题 是提升非自回归模型质量的关键。
\parinterval
完全独立地对每个词建模,会出现什么问题呢?来看一个例子,将汉语句子“干/得/好/!”翻译成英文,可以翻译成“Good job !”或者“Well done !”。假设生成这两种翻译的概率是相等的,即一半的概率是“Good job !”,另一半的概率是“Well done !”。由于非自回归模型的条件独立性假设,推断时第一个词“Good”和“Well”的概率是差不多大的,
如果第二个词“job”和“done”的概率也差不多大
,会使得模型生成出“Good done !”或者“Well job !”这样错误的翻译,如图
\ref
{
fig:14-13
}
所示。这便是影响句子质量的关键问题,称之为
{
\small\sffamily\bfseries
{
多峰问题
}}
\index
{
多峰问题
}
(Multi-modality Problem)
\index
{
Multi-modality Problem
}
\upcite
{
Gu2017NonAutoregressiveNM
}
。如何有效处理非自回归模型中的多峰问题 是提升非自回归模型质量的关键。
%----------------------------------------------------------------------
\begin{figure}
[htp]
...
...
@@ -454,7 +454,7 @@ b &=& \omega_{\textrm{high}}\cdot |\seq{x}| \label{eq:14-4}
\end{figure}
%----------------------------------------------------------------------
\parinterval
因此,非自回归翻译
方面
的研究大多集中在针对以上问题的求解。有三个角度:使用繁衍率预测译文长度、使用句子级知识蒸馏来降低学习难度、使用自回归模型进行翻译候选打分。下面将依次对这些方法进行介绍。
\parinterval
因此,非自回归翻译的研究大多集中在针对以上问题的求解。有三个角度:使用繁衍率预测译文长度、使用句子级知识蒸馏来降低学习难度、使用自回归模型进行翻译候选打分。下面将依次对这些方法进行介绍。
%----------------------------------------------------------------------------------------
% NEW SUBSUB-SECTION
...
...
@@ -462,9 +462,9 @@ b &=& \omega_{\textrm{high}}\cdot |\seq{x}| \label{eq:14-4}
\subsubsection
{
1. 基于繁衍率的非自回归模型
}
\parinterval
图
\ref
{
fig:14-14
}
给出了基于繁衍率的Transformer非自回归模型的结构
\upcite
{
Gu2017NonAutoregressiveNM
}
,由三个模块组成:编码器,解码器,繁衍率预测器
,其中解码器中新增了位置注意力模块。与自回归翻译模型类似,Transformer模型的编码器和解码器都完全由前馈神经网络和多头注意力模块组成。在推断开始之前,非自回归模型需要知道译文的长度,以便并行生成所有单词。更重要的是,非自回归模型需要一次性生成出所有的译文单词,因此不能像自回归模型那样用已生成的词作为第一个解码器层的输入
。
\parinterval
图
\ref
{
fig:14-14
}
给出了基于繁衍率的Transformer非自回归模型的结构
\upcite
{
Gu2017NonAutoregressiveNM
}
,由三个模块组成:编码器,解码器,繁衍率预测器
。类似于标准的Transformer模型,这里编码器和解码器都完全由前馈神经网络和多头注意力模块组成。唯一的不同是解码器中新增了位置注意力模块,用于更好的捕捉目标语言端的位置信息
。
\parinterval
那么非自回归模型解码器的输入是什么呢?如果完全省略第一个解码器层的输入,或者仅使用位置嵌入,将会导致性能非常差。这里使用繁衍率来解决这个问题,繁衍率指的是:根据每个源语言单词预测出其对应的目标语言单词的个数(见
\chaptersix
),如图
\ref
{
fig:14-14
}
所示,翻译过程中英语单词“We”对应一个汉语单词“我们”,其繁衍率为1。翻译过程取决于繁衍率序列(图
\ref
{
fig:14-14
}
中的数字1
\
1
\
2
\
0
\
1),最终译文长度则由源语言单词的繁衍率之和决定。这个繁衍率序列可以通过外部词对齐工具得到, 来训练这个繁衍率预测器。但由于外部词对齐系统会出现错误,因此在模型收敛之后,需要在繁衍率预测器上加一个强化学习的损失来进行
微调。
\parinterval
繁衍率预测器的一个作用是预测整个译文句子的长度,以便并行生成所有译文单词。可以通过对每个源语言单词计算繁衍率来估计最终译文的长度。具体来说,繁衍率指的是:根据每个源语言单词预测出其对应的目标语言单词的个数(见
\chaptersix
),如图
\ref
{
fig:14-14
}
所示,翻译过程中英语单词“We”对应一个汉语单词“我们”,其繁衍率为1。于是,可以得到源语言句子对应的繁衍率序列(图
\ref
{
fig:14-14
}
中的数字1
\
1
\
2
\
0
\
1),最终译文长度则由源语言单词的繁衍率之和决定。在模型训练阶段,繁衍率序列可以通过外部词对齐工具得到, 之后训练繁衍率预测器。但由于外部词对齐系统会出现错误,因此在模型收敛之后,可以对繁衍率预测器进行额外的
微调。
%----------------------------------------------------------------------
\begin{figure}
[htp]
...
...
@@ -475,7 +475,9 @@ b &=& \omega_{\textrm{high}}\cdot |\seq{x}| \label{eq:14-4}
\end{figure}
%----------------------------------------------------------------------
\parinterval
另外,在每个解码器层中还新增了额外的位置注意力模块,该模块与Transformer模型的其它部分中使用的多头注意力机制相同。其仍然基于
$
\mathbi
{
Q
}$
、
$
\mathbi
{
K
}$
、
$
\mathbi
{
V
}$
之间的计算(见
{
\chaptertwelve
}
),只是把位置编码作为
$
\mathbi
{
Q
}$
和
$
\mathbi
{
K
}$
, 解码器端上一层的输出作为
$
\mathbi
{
V
}$
。这种方法提供了更强的位置信息。
\parinterval
实际上,使用繁衍率的另一个好处在于可以缓解多峰问题。因为,繁衍率本身可以看作是模型的一个隐变量。使用这个隐变量本质上是在对可能的译文空间进行剪枝,因为只有一部分译文满足给定的繁衍率序列。从这个角度说,在翻译率的作用下,不同单词译文组合的情况变少了,因此多峰问题也就被缓解了。
\parinterval
另外,在每个解码器层中还新增了额外的位置注意力模块,该模块与其它部分中使用的多头注意力机制相同。其仍然基于
$
\mathbi
{
Q
}$
、
$
\mathbi
{
K
}$
、
$
\mathbi
{
V
}$
之间的计算(见
{
\chaptertwelve
}
),只是把位置编码作为
$
\mathbi
{
Q
}$
和
$
\mathbi
{
K
}$
, 解码器端前一层的输出作为
$
\mathbi
{
V
}$
。这种方法提供了更强的位置信息。
%----------------------------------------------------------------------------------------
% NEW SUBSUB-SECTION
...
...
@@ -483,7 +485,7 @@ b &=& \omega_{\textrm{high}}\cdot |\seq{x}| \label{eq:14-4}
\subsubsection
{
2. 句子级知识蒸馏
}
\parinterval
知识蒸馏的基本思路是把教师模型的知识传递给学生模型,让学生模型可以更好地学习(见
\chapterthirteen
)。通过这种方法,可以降低非自回归模型的学习难度。具体来说,可以让自回归模型作为“教师”,非自回归模型作为“学生”。把自回归神经机器翻译模型生成的句子作为新的训练样本,送给非自回归机器翻译模型进行学习
\upcite
{
Gu2017NonAutoregressiveNM,Lee2018DeterministicNN,Zhou2020UnderstandingKD,Guo2020FineTuningBC
}
。这种方式能够一定程度上缓解多峰问题。因为,经过训练的自回归模型会始终将相同的源语言句子翻译成相同的译文。这样得到的数据集噪声更少,能够降低非自回归模型学习的难度
。
\parinterval
知识蒸馏的基本思路是把教师模型的知识传递给学生模型,让学生模型可以更好地学习(见
\chapterthirteen
)。通过这种方法,可以降低非自回归模型的学习难度。具体来说,可以让自回归模型作为“教师”,非自回归模型作为“学生”。把自回归神经机器翻译模型生成的句子作为新的训练样本,送给非自回归机器翻译模型进行学习
\upcite
{
Lee2018DeterministicNN,Zhou2020UnderstandingKD,Guo2020FineTuningBC
}
。有研究发现自回归模型生成的结果的“确定性”更高,也就是不同句子中相同源语言片段翻译的多样性相对低一些
\upcite
{
Gu2017NonAutoregressiveNM
}
。虽然从人工翻译的角度看,这可能并不是理想的译文,但是使用这样的译文可以在一定程度上缓解多峰问题。因为,经过训练的自回归模型会始终将相同的源语言句子翻译成相同的译文。这样得到的数据集噪声更少,能够降低非自回归模型学习的难度。此外,相比人工标注的译文,自回归模型输出的译文更容易让模型进行学习,这也是句子级知识蒸馏有效的原因之一
。
%----------------------------------------------------------------------------------------
% NEW SUBSUB-SECTION
...
...
@@ -499,17 +501,12 @@ b &=& \omega_{\textrm{high}}\cdot |\seq{x}| \label{eq:14-4}
\subsection
{
更好的训练目标
}
\parinterval
虽然非自回归翻译可以显著提升翻译速度,但是很多情况下其翻译质量还是低于传统的自回归翻译
\upcite
{
Gu2017NonAutoregressiveNM,Kaiser2018FastDI,Guo2020FineTuningBC
}
。因此,很多工作致力于缩小自回归模型和非自回归模型的性能差距
\upcite
{
Ran2020LearningTR,Tu2020ENGINEEI,Shu2020LatentVariableNN
}
。其中一些通过修改训练目标来达到提升非自回归翻译品质的目的,例如:
\parinterval
虽然非自回归翻译可以显著提升翻译速度,但是很多情况下其翻译质量还是低于传统的自回归翻译
\upcite
{
Gu2017NonAutoregressiveNM,Kaiser2018FastDI,Guo2020FineTuningBC
}
。因此,很多工作致力于缩小自回归模型和非自回归模型的性能差距
\upcite
{
Ran2020LearningTR,Tu2020ENGINEEI,Shu2020LatentVariableNN
}
。
\parinterval
一种直接的方法是层级知识蒸馏
\upcite
{
Li2019HintBasedTF
}
。由于自回归模型和非自回归模型的结构相差不大,因此可以将翻译质量更高的自回归模型作为“教师”,通过给非自回归模型提供监督信号,使其逐块地学习前者的分布。研究人员发现了两点非常有意思的现象:1)非自回归模型容易出现“重复翻译”的现象,这些相邻的重复单词所对应的位置的隐藏状态非常相似。2)非自回归模型的注意力分布比自回归模型的分布更加尖锐。这两点发现启发了研究人员使用自回归模型中的隐层状态来指导非自回归模型学习。可以计算两个模型隐层状态的距离以及注意力矩阵的KL散度
\footnote
{
KL散度即相对熵。
}
,将它们作为额外的损失指导非自回归模型的训练。类似的做法也出现在基于模仿学习的方法中
\upcite
{
Wei2019ImitationLF
}
,它也可以被看作是对自回归模型不同层行为的模拟。不过,基于模仿学习的方法会使用更复杂的模块来完成自回归模型对非自回归模型的指导,比如,在非自回归模型中使用一个额外的神经网络,用于接收自回归模型的层级监督信号。
\parinterval
此外,也可以使用基于正则化因子的方法
\upcite
{
Wang2019NonAutoregressiveMT
}
。非自回归模型的翻译结果中存在着两种非常严重的错误:重复翻译和不完整的翻译。重复翻译问题是因为解码器隐层状态中相邻的两个位置过于相似,因此翻译出来的单词也一样。对于不完整翻译,或者说欠翻译,通常将其归咎于非自回归模型在翻译的过程中丢失了一些源语言句子的信息。针对这两个问题,可以通过在相邻隐层状态间添加相似度约束来计算一个重构损失。具体实践时,对于翻译
$
\seq
{
x
}
\to\seq
{
y
}$
,通过一个反向的自回归模型再将
$
\seq
{
y
}$
翻译成
$
\seq
{
x'
}$
,最后计算
$
\seq
{
x
}$
与
$
\seq
{
x'
}$
的差异性作为损失。
\begin{itemize}
\vspace
{
0.5em
}
\item
基于层级知识蒸馏的方法
\upcite
{
Li2019HintBasedTF
}
。由于自回归模型和非自回归模型的结构相差不大,因此可以将翻译质量更高的自回归模型作为“教师”,通过给非自回归模型提供监督信号,使其逐块地学习前者的分布。研究人员发现了两点非常有意思的现象:1)非自回归模型容易出现“重复翻译”的现象,这些相邻的重复单词所对应的位置的隐藏状态非常相似。2)非自回归模型的注意力分布比自回归模型的分布更加尖锐。这两点发现启发了研究人员使用自回归模型中的隐层状态来指导非自回归模型学习。通过计算两个模型隐层状态的距离以及注意力矩阵的KL散度
\footnote
{
KL散度即相对熵。
}
作为额外的损失来帮助非自回归模型的训练过程。
\vspace
{
0.5em
}
\item
基于模仿学习的方法
\upcite
{
Wei2019ImitationLF
}
。这种观点认为非自回归模型可以从性能优越的自回归模型中学得知识。
{
\small\bfnew
{
模仿学习
}}
\index
{
模仿学习
}
(Imitation Learning
\index
{
Imitation Learning
}
)是强化学习中的一个概念,即从专家那里学习正确的行为,与监督学习很相似
\upcite
{
Ho2016ModelFreeIL,Ho2016GenerativeAI,Duan2017OneShotIL
}
。与其不同的是,模仿学习不是照搬专家的行为,而是学习专家为什么要那样做。换句话说,学习的不是专家的镜像,而是一个专家的行为分布。这里,可以将自回归模型作为专家,非自回归模型学习不同时间步和不同层的解码状态,最后将模仿学习的损失与交叉熵损失加权求和后作为最终的优化目标。
\vspace
{
0.5em
}
\item
基于正则化因子的方法
\upcite
{
Wang2019NonAutoregressiveMT
}
。非自回归模型的翻译结果中存在着两种非常严重的错误:重复翻译和不完整的翻译。第一种问题是因为解码器隐层状态中相邻的两个位置过于相似,因此翻译出来的单词也一样。对于第二个问题,通常将其归咎于非自回归模型在翻译的过程中丢失了一些源语言句子的信息,从而造成了翻译效果的下降。针对这两个问题,可以通过在相邻隐层状态间添加相似度约束来计算一个重构损失。具体实践时,通常将正在进行的翻译
$
\seq
{
x
}
\to\seq
{
y
}$
,通过利用一个反向的自回归模型再将
$
\seq
{
y
}$
翻译成
$
\seq
{
x'
}$
,最后计算
$
\seq
{
x
}$
与
$
\seq
{
x'
}$
的差异性作为损失。
\vspace
{
0.5em
}
\end{itemize}
%----------------------------------------------------------------------------------------
% NEW SUBSECTION
...
...
编写
预览
Markdown
格式
0%
重试
或
添加新文件
添加附件
取消
您添加了
0
人
到此讨论。请谨慎行事。
请先完成此评论的编辑!
取消
请
注册
或者
登录
后发表评论