Skip to content
项目
群组
代码片段
帮助
当前项目
正在载入...
登录 / 注册
切换导航面板
M
mtbookv2
概览
Overview
Details
Activity
Cycle Analytics
版本库
Repository
Files
Commits
Branches
Tags
Contributors
Graph
Compare
Charts
问题
0
Issues
0
列表
Board
标记
里程碑
合并请求
0
Merge Requests
0
CI / CD
CI / CD
流水线
作业
日程表
图表
维基
Wiki
代码片段
Snippets
成员
Collapse sidebar
Close sidebar
活动
图像
聊天
创建新问题
作业
提交
Issue Boards
Open sidebar
NiuTrans
mtbookv2
Commits
20619f29
Commit
20619f29
authored
Mar 10, 2021
by
曹润柘
Browse files
Options
Browse Files
Download
Plain Diff
合并分支 'caorunzhe' 到 'master'
Caorunzhe 查看合并请求
!1063
parents
61ae2cad
c303d0b7
显示空白字符变更
内嵌
并排
正在显示
3 个修改的文件
包含
21 行增加
和
21 行删除
+21
-21
Chapter16/chapter16.tex
+9
-9
Chapter17/Figures/figure-layer.tex
+2
-2
Chapter17/chapter17.tex
+10
-10
没有找到文件。
Chapter16/chapter16.tex
查看文件 @
20619f29
...
...
@@ -154,7 +154,7 @@
%----------------------------------------------------------------------------------------
\subsection
{
基于语言模型的方法
}
\parinterval
除了构造双语数据进行数据增强,直接利用单语数据也是机器翻译中的常用方法。通常,单语数据会被用于训练语言模型(见
{
\chaptertwo
}
)。对于机器翻译系统,使用语言模型也是一件十分自然的事情,在目标语言端,语言模型可以帮助系统选择更加流畅的译文;在源语言端,语言模型也可以用于句子编码,进而更好地生成句子的表示结果。在传统方法中,语言模型更多地被使用在目标语言端。不过,近些年来随着预训练技术的发展,语言模型也被使用在神经机器翻译的编码器端。下面将从语言模型在
解码器端的融合、预训练词嵌入、预训练编码器
和多任务学习四方面介绍基于语言模型的单语数据使用方法。
\parinterval
除了构造双语数据进行数据增强,直接利用单语数据也是机器翻译中的常用方法。通常,单语数据会被用于训练语言模型(见
{
\chaptertwo
}
)。对于机器翻译系统,使用语言模型也是一件十分自然的事情,在目标语言端,语言模型可以帮助系统选择更加流畅的译文;在源语言端,语言模型也可以用于句子编码,进而更好地生成句子的表示结果。在传统方法中,语言模型更多地被使用在目标语言端。不过,近些年来随着预训练技术的发展,语言模型也被使用在神经机器翻译的编码器端。下面将从语言模型在
目标语言端的融合、预训练词嵌入、预训练模型
和多任务学习四方面介绍基于语言模型的单语数据使用方法。
%----------------------------------------------------------------------------------------
% NEW SUB-SUB-SECTION
...
...
@@ -181,7 +181,7 @@
\parinterval
神经机器翻译模型所使用的编码器-解码器框架天然就包含了对输入(源语言)和输出(目标语言)进行表示学习的过程。在编码端,需要学习一种分布式表示来表示源语言句子的信息,这种分布式表示可以包含序列中每个位置的表示结果(见
{
\chapternine
}
)。从结构上看,神经机器翻译所使用的编码器与语言模型无异,或者说神经机器翻译的编码器其实就是一个源语言的语言模型。唯一的区别在于,神经机器翻译的编码器并不直接输出源语言句子的生成概率,而传统语言模型是建立在序列生成任务上的。既然神经机器翻译的编码器可以与解码器一起在双语数据上联合训练,那为什么不使用更大规模的数据单独对编码器进行训练呢?或者说,直接使用一个预先训练好的编码器,与机器翻译的解码器配合完成翻译过程。
\parinterval
实现上述想法的一种手段是
{
\small\sffamily\bfnew
{
预训练
}}
\index
{
预训练
}
(Pre-training)
\index
{
Pre-training
}
\upcite
{
DBLP:conf/nips/DaiL15,Peters2018DeepCW,radford2018improving,devlin2019bert
}
。预训练的做法相当于将句子的表示学习任务从目标任务中分离出来,这样可以利用额外的更大规模的数据进行学习。常用的一种方法是使用语言建模等方式在大规模单语数据上进行训练,
来得到神经机器翻译模型中的一部分(比如词嵌入和编码器等)的模型
参数初始值。然后,神经机器翻译模型在双语数据上进行
{
\small\sffamily\bfnew
{
微调
}}
\index
{
微调
}
(Fine-tuning)
\index
{
Fine-tuning
}
,以得到最终的翻译模型。
\parinterval
实现上述想法的一种手段是
{
\small\sffamily\bfnew
{
预训练
}}
\index
{
预训练
}
(Pre-training)
\index
{
Pre-training
}
\upcite
{
DBLP:conf/nips/DaiL15,Peters2018DeepCW,radford2018improving,devlin2019bert
}
。预训练的做法相当于将句子的表示学习任务从目标任务中分离出来,这样可以利用额外的更大规模的数据进行学习。常用的一种方法是使用语言建模等方式在大规模单语数据上进行训练,
得到神经机器翻译模型中的部分模型(如词嵌入和编码器等)的
参数初始值。然后,神经机器翻译模型在双语数据上进行
{
\small\sffamily\bfnew
{
微调
}}
\index
{
微调
}
(Fine-tuning)
\index
{
Fine-tuning
}
,以得到最终的翻译模型。
\parinterval
词嵌入可以被看作是对每个独立单词进行的表示学习的结果,在自然语言处理的众多任务中都扮演着重要角色
\upcite
{
DBLP:conf/icml/CollobertW08,2011Natural,DBLP:journals/corr/abs-1901-09069
}
。到目前为止已经有大量的词嵌入学习方法被提出(见
{
\chapternine
}
),因此可以直接应用这些方法在海量的单语数据上训练得到词嵌入,用来初始化神经机器翻译模型的词嵌入参数矩阵
\upcite
{
DBLP:conf/aclwat/NeishiSTIYT17,2018When
}
。
...
...
@@ -257,7 +257,7 @@
\end{figure}
%----------------------------------------------
\parinterval
此外,
也可以
利用多任务学习的思想来训练多到一模型(多个编码器、单个解码器)、一到多模型(单个编码器、多个解码器)和多到多模型(多个编码器、多个解码器),从而借助单语数据或其他数据来使编码器或解码器训练得更加充分
\upcite
{
DBLP:journals/corr/LuongLSVK15
}
,任务的形式包括翻译任务、句法分析任务、图像分类等。另外一种策略是利用多任务学习的思想同时训练多个语言的翻译任务
\upcite
{
DBLP:conf/acl/DongWHYW15,DBLP:journals/tacl/JohnsonSLKWCTVW17
}
,同样包括多到一翻译(多个语种到一个语种)、一到多翻译(一个语种到多个语种)以及多到多翻译(多个语种到多个语种),这种方法可以利用多种语言的训练数据进行学习,具有较大的潜力,逐渐受到了研究人员们的关注,具体内容可以参考
\ref
{
multilingual-translation-model
}
节。
\parinterval
此外,
一种策略是
利用多任务学习的思想来训练多到一模型(多个编码器、单个解码器)、一到多模型(单个编码器、多个解码器)和多到多模型(多个编码器、多个解码器),从而借助单语数据或其他数据来使编码器或解码器训练得更加充分
\upcite
{
DBLP:journals/corr/LuongLSVK15
}
,任务的形式包括翻译任务、句法分析任务、图像分类等。另外一种策略是利用多任务学习的思想同时训练多个语言的翻译任务
\upcite
{
DBLP:conf/acl/DongWHYW15,DBLP:journals/tacl/JohnsonSLKWCTVW17
}
,同样包括多到一翻译(多个语种到一个语种)、一到多翻译(一个语种到多个语种)以及多到多翻译(多个语种到多个语种),这种方法可以利用多种语言的训练数据进行学习,具有较大的潜力,逐渐受到了研究人员们的关注,具体内容可以参考
\ref
{
multilingual-translation-model
}
节。
%----------------------------------------------------------------------------------------
% NEW SECTION 16.2
...
...
@@ -472,7 +472,7 @@
\parinterval
另外,使用多语言单模型系统进行零资源翻译的一个优势在于,它可以最大程度上利用其它语言的数据。还是以上面提到法语到德语的零资源翻译任务为例,除了使用法语到英语、英语到德语的数据之外,所有法语到其它语言、其它语言到德语的数据都是有价值的,这些数据可以强化对法语句子的表示能力,同时强化对德语句子的生成能力。这个优点也是
\ref
{
sec:pivot-based-translation
}
节所介绍的传统基于枢轴语言方法所不具备的。
\parinterval
不过,多语言单模型系统经常面临脱靶翻译问题,即把源语言翻译成错误的目标语言,比如要求翻译成英语,结果却是汉语或者英语夹杂其他语言的字符。这是因为多语言单模型系统对所有语言都使用一样的参数,导致
不同语言字符混合时不容易让模型进行区分
。针对这个问题,可以在原来共享参数的基础上为每种语言添加额外的独立的参数,使得每种语言拥有足够的建模能力,以便于更好地完成特定语言的翻译
\upcite
{
DBLP:conf/acl/ZhangWTS20,DBLP:journals/corr/abs-2010-11125
}
。
\parinterval
不过,多语言单模型系统经常面临脱靶翻译问题,即把源语言翻译成错误的目标语言,比如要求翻译成英语,结果却是汉语或者英语夹杂其他语言的字符。这是因为多语言单模型系统对所有语言都使用一样的参数,导致
模型不容易区分出来不同语言字符混合的句子属于哪种语言
。针对这个问题,可以在原来共享参数的基础上为每种语言添加额外的独立的参数,使得每种语言拥有足够的建模能力,以便于更好地完成特定语言的翻译
\upcite
{
DBLP:conf/acl/ZhangWTS20,DBLP:journals/corr/abs-2010-11125
}
。
%----------------------------------------------------------------------------------------
% NEW SECTION 16.4
...
...
@@ -569,7 +569,7 @@
%----------------------------------------------------------------------------------------
\subsubsection
{
2. 健壮性问题
}
\parinterval
目前很多无监督词典归纳方法在相似语言对比如英-法、英-德上已经取得不错的结果,然而在远距离语言对比如英-中,英-日上的性能仍然很差
\upcite
{
DBLP:conf/emnlp/VulicGRK19,A2020Li
}
。研发健壮的无监督词典归纳方法仍然存在挑战。
这有多个层面的原因
:
\parinterval
目前很多无监督词典归纳方法在相似语言对比如英-法、英-德上已经取得不错的结果,然而在远距离语言对比如英-中,英-日上的性能仍然很差
\upcite
{
DBLP:conf/emnlp/VulicGRK19,A2020Li
}
。研发健壮的无监督词典归纳方法仍然存在挑战。
因此研发健壮的无监督词典归纳方法仍然面临许多挑战
:
\begin{itemize}
\vspace
{
0.5em
}
...
...
@@ -613,7 +613,7 @@
\parinterval
经过上述的无监督模型调优后,就获得了一个效果更好的翻译模型。这时候,可以使用这个翻译模型去产生质量更高的数据,再用这些数据来继续对翻译模型进行调优,如此反复迭代一定次数后停止。这个方法也被称为
{
\small\bfnew
{
迭代优化
}}
\index
{
迭代优化
}
(Iterative Refinement
\index
{
Iterative Refinement
}
)
\upcite
{
DBLP:conf/emnlp/ArtetxeLA18
}
。
\parinterval
迭代优化也会带来另外一个问题:在每一次迭代中都会产生新的模型,应该什么时候停止生成新模型,挑选哪一个模型呢?因为在无监督的场景当中,没有任何真实的双语数据可以使用,所以无法使用监督学习里的校验集来对每个模型进行检验并筛选。另外,即使有很少量的双语数据(比如数百条双语句对),直接在上面挑选模型和调整超参数会导致过拟合问题,使得最后结果越来越差。一个经验上非常高效的模型选择方法是:事先从训练集里挑选一部分句子作为校验集不参与训练,再使用当前的模型把这些句子翻译过去之后再翻译回来(源语言
$
\to
$
目标语言
$
\to
$
源语言,或者目标语言
$
\to
$
源语言
$
\to
$
目标语言),得到的结果跟原始的结果计算BLEU,得分越高则效果越好。这种方法已被证明跟使用大规模双语校验集的结果是高度相关的
\upcite
{
DBLP:conf/emnlp/LampleOCDR18
}
。
\parinterval
迭代优化也会带来另外一个问题:在每一次迭代中都会产生新的模型,应该什么时候停止生成新模型,挑选哪一个模型呢?因为在无监督的场景当中,没有任何真实的双语数据可以使用,所以无法使用监督学习里的校验集来对每个模型进行检验并筛选。另外,即使有很少量的双语数据(比如数百条双语句对),直接在上面挑选模型和调整超参数会导致过拟合问题,使得最后结果越来越差。一个经验上非常高效的模型选择方法是:事先从训练集里挑选一部分句子作为校验集不参与训练,再使用当前的模型把这些句子翻译过去之后再翻译回来(源语言
$
\to
$
目标语言
$
\to
$
源语言,或者目标语言
$
\to
$
源语言
$
\to
$
目标语言),得到的结果跟原始的结果计算BLEU
的值
,得分越高则效果越好。这种方法已被证明跟使用大规模双语校验集的结果是高度相关的
\upcite
{
DBLP:conf/emnlp/LampleOCDR18
}
。
%----------------------------------------------------------------------------------------
% NEW SUB-SECTION
...
...
@@ -669,7 +669,7 @@
%----------------------------------------------------------------------------------------
\subsubsection
{
4. 其它问题
}
\parinterval
一般可以认为,在生成的伪数据上优化模型会使模型变得更好,这时候对这个更好的模型使用数据增强的手段(如回译等)就可以生成更好的训练数据。这样的一个数据优化过程依赖于一个假设:模型经过优化后会生成比原始数据更好的数据。而在数据优化和参数优化的共同影响下,模型非常容易拟合数据中的简单模式,使得模型倾向产生包含这种简单模式的数据,造成模型对这种类型数据过拟合的现象。一个常见的问题就是模型对任何输入都输出相同的译文,这时候翻译模型无法产生任何有意义的结果,也就是,数据优化产生的数据里无论什么目标语言对应的源语言都是同一个句子。这种情况下翻译模型虽然能降低损失,但是它不能学会任何源语言跟目标语言之间的对应关系,也就无法进行正确翻译。这个现象也反映出无监督机器翻译训练的脆弱性。
\parinterval
一般可以认为,在生成的伪数据上优化模型会使模型变得更好,这时候对这个更好的模型使用数据增强的手段(如回译等)就可以生成更好的训练数据。这样的一个数据优化过程依赖于一个假设:模型经过优化后会生成比原始数据更好的数据。而在数据优化和参数优化的共同影响下,模型非常容易拟合数据中的简单模式,使得模型倾向产生包含这种简单模式的数据,造成模型对这种类型数据过拟合的现象。一个常见的问题就是模型对任何输入都输出相同的译文,这时候翻译模型无法产生任何有意义的结果,也就是,数据优化产生的数据里无论什么目标语言对应的源语言都是同一个句子。这种情况下翻译模型虽然能降低
过拟合现象造成的
损失,但是它不能学会任何源语言跟目标语言之间的对应关系,也就无法进行正确翻译。这个现象也反映出无监督机器翻译训练的脆弱性。
\parinterval
比较常见的解决方案是在双语数据对应的目标函数外增加一个语言模型的目标函数。因为,在初始阶段,由于数据中存在大量不通顺的句子,额外的语言模型目标函数能把部分句子纠正过来,使得模型逐渐生成更好的数据
\upcite
{
DBLP:conf/emnlp/LampleOCDR18
}
。这个方法在实际应用中非常有效,尽管目前还没有太多理论上的支持。
...
...
@@ -699,7 +699,7 @@
\noindent
{
\small\bfnew
{
2)语言模型的使用
}}
\parinterval
无监督神经机器翻译的一个重要部分就是来自语言模型的目标函数。因为翻译模型本质上是在完成文本生成任务,所以只有文本生成类型的语言模型建模方法才可以应用到无监督神经机器翻译里。比如,给定前文预测下一词就是一个典型的自回归生成任务(见
{
\chaptertwo
}
),因此可以
运
用到无监督神经机器翻译里。但是,目前在预训练里流行的BERT等模型是掩码语言模型
\upcite
{
devlin2019bert
}
,不能直接在无监督神经机器翻译里使用。
\parinterval
无监督神经机器翻译的一个重要部分就是来自语言模型的目标函数。因为翻译模型本质上是在完成文本生成任务,所以只有文本生成类型的语言模型建模方法才可以应用到无监督神经机器翻译里。比如,给定前文预测下一词就是一个典型的自回归生成任务(见
{
\chaptertwo
}
),因此可以
应
用到无监督神经机器翻译里。但是,目前在预训练里流行的BERT等模型是掩码语言模型
\upcite
{
devlin2019bert
}
,不能直接在无监督神经机器翻译里使用。
\parinterval
另外一个在无监督神经机器翻译中比较常见的语言模型目标函数则是降噪自编码器。它也是文本生成类型的语言模型建模方法。对于一个句子
$
\seq
{
x
}$
,首先使用一个噪声函数
$
\seq
{
x
}
'
=
\mathrm
{
noise
}
(
\seq
{
x
}
)
$
来对
$
\seq
{
x
}$
注入噪声,产生一个质量较差的句子
$
\seq
{
x
}
'
$
。然后,让模型学习如何从
$
\seq
{
x
}
'
$
还原出
$
\seq
{
x
}$
。这样的目标函数比预测下一词更贴近翻译任务,因为它是一个序列到序列的映射,并且输入、输出两个序列在语义上是等价的。这里之所以采用
$
\seq
{
x
}
'
$
而不是
$
\seq
{
x
}$
自己来预测
$
\seq
{
x
}$
,是因为模型可以通过简单的复制输入作为输出来完成从
$
\seq
{
x
}$
预测
$
\seq
{
x
}$
的任务,很难学到有价值的信息。并且在输入中注入噪声会让模型更加健壮,因此模型可以学会如何利用句子中噪声以外的信息来得到正确的输出。通常来说,噪声函数有三种形式,如表
\ref
{
tab:16-1
}
所示。
%----------------------------------------------
...
...
@@ -813,7 +813,7 @@
%----------------------------------------------------------------------------------------
\subsubsection
{
1. 多目标学习
}
\parinterval
在使用多领域数据时,混合多个相差较大的领域数据进行训练会使单个领域的翻译性能下降
\upcite
{
DBLP:conf/eacl/NegriTFBF17
}
。 为了解决这一问题,可以对所有训练数据的来源领域进行区分,一个比较典型的做法是在使用多领域数据训练时,在神经机器翻译模型的编码器顶部中添加一个判别器
\upcite
{
britz2017effective
}
,该判别器使用源语言句子
$
x
$
的编码器表示作为输入,预测句子所属的领域标签
$
d
$
,如图
\ref
{
fig:16-21
}
所示。为了使预测领域标签
$
d
$
的正确概率
$
\funp
{
P
(
d|
\mathbi
{
H
}
)
}$
最大(其中
$
\mathbi
{
H
}$
为编码器的隐藏状态),模型在训练过程中最小化如下损失函数
$
\funp
{
L
}_{
\rm
{
disc
}}$
:
\parinterval
在使用多领域数据时,混合多个相差较大的领域数据进行训练会使单个领域的翻译性能下降
\upcite
{
DBLP:conf/eacl/NegriTFBF17
}
。 为了解决这一问题,可以对所有训练数据的来源领域进行区分,一个比较典型的做法是在使用多领域数据训练时,在神经机器翻译模型的编码器顶部中添加一个判别器
\upcite
{
britz2017effective
}
,该判别器使用源语言句子
$
x
$
的编码器表示作为输入,预测句子所属的领域标签
$
d
$
,如图
\ref
{
fig:16-21
}
所示。为了使预测领域标签
$
d
$
的正确概率
$
\funp
{
P
(
d|
\mathbi
{
H
}
)
}$
最大(其中
$
\mathbi
{
H
}$
为编码器的隐藏状态),模型在训练过程中
应该
最小化如下损失函数
$
\funp
{
L
}_{
\rm
{
disc
}}$
:
\begin{eqnarray}
\funp
{
L
}_{
\rm
{
disc
}}&
=
&
-
\log\funp
{
P
}
(d|
\mathbi
{
H
}
)
...
...
Chapter17/Figures/figure-layer.tex
查看文件 @
20619f29
...
...
@@ -63,9 +63,9 @@
\draw
[->,thick]
([yshift=0.1em]n1.135) .. controls ([xshift=-2em]n1.130) and ([xshift=2em]qw.0) .. ([xshift=0.1em]qw.0);
\draw
[->,thick]
([yshift=0.1em]n1.120) .. controls ([xshift=-2em,yshift=1em]n1.120) and ([xshift=3em]qs.0) .. ([xshift=0.1em]qs.0);
\draw
[->,thick]
([yshift=0.1em]n1.90) node[yshift=0.5em,right]
{$
{
\mathbi
{
h
}}_
{
\textrm
{
t
}}
$}
-- ([yshift=-0.1em]sigma.-90);
\draw
[->,thick]
([yshift=0.1em]n1.90) node[yshift=0.5em,right]
{$
{
\mathbi
{
h
}}_
t
$}
-- ([yshift=-0.1em]sigma.-90);
\draw
[->,thick]
([yshift=0.1em]sigma.90) -- ([yshift=-0.1em]n2.-90);
\draw
[->,thick]
([yshift=0.1em]n2.90) -- node[right]
{$
\widetilde
{
\mathbi
{
h
}}_
{
\textrm
{
t
}}
$}
([yshift=2em]n2.90);
\draw
[->,thick]
([yshift=0.1em]n2.90) -- node[right]
{$
\widetilde
{
\mathbi
{
h
}}_
t
$}
([yshift=2em]n2.90);
\draw
[decorate,decoration={brace, mirror},gray, thick]
([yshift=-2em]hh.-180) -- node[font=
\footnotesize
,text=black,below]
{
前几个句子
}
([yshift=-2em]box2.0);
\draw
[decorate,decoration={brace, mirror},gray, thick]
([yshift=-2em]box3.-180) -- node[font=
\footnotesize
,text=black,below]
{
当前句子
}
([yshift=-2em]box3.0);
...
...
Chapter17/chapter17.tex
查看文件 @
20619f29
...
...
@@ -435,7 +435,7 @@
\subsection
{
篇章级翻译的挑战
}
\parinterval
“篇章”在这里是指一系列连续的段落或句子所构成的整体,
其中各个句子间从形式和内容上
都具有一定的连贯性和一致性
\upcite
{
jurafsky2000speech
}
。这些联系主要体现在衔接以及连贯两个方面。其中衔接体现在显性的语言成分和结构上,包括篇章中句子间的语法和词汇的联系,而连贯体现在各个句子之间的逻辑和语义的联系上。因此,篇章级翻译就是要将这些上下文之间的联系考虑在内,从而生成比句子级翻译更连贯和准确的翻译结果。实例
\ref
{
eg:17-1
}
就展示了一个使用篇章信息进行机器翻译的实例。
\parinterval
“篇章”在这里是指一系列连续的段落或句子所构成的整体,
从形式和内容上,篇章中的各个句子间
都具有一定的连贯性和一致性
\upcite
{
jurafsky2000speech
}
。这些联系主要体现在衔接以及连贯两个方面。其中衔接体现在显性的语言成分和结构上,包括篇章中句子间的语法和词汇的联系,而连贯体现在各个句子之间的逻辑和语义的联系上。因此,篇章级翻译就是要将这些上下文之间的联系考虑在内,从而生成比句子级翻译更连贯和准确的翻译结果。实例
\ref
{
eg:17-1
}
就展示了一个使用篇章信息进行机器翻译的实例。
\begin{example}
上下文句子:我/上周/针对/这个/问题/做出/解释/并/咨询/了/他的/意见/。
...
...
@@ -453,7 +453,7 @@
\parinterval
正是这种上下文现象的多样性,使评价篇章级翻译模型的性能变得相对困难。目前篇章级机器翻译主要针对一些常见的上下文现象进行优化,比如代词翻译、省略、连接和词汇衔接等,而
{
\chapterfour
}
介绍的BLEU等通用自动评价指标通常对这些上下文依赖现象不敏感,因此篇章级翻译需要采用一些专用方法来对这些具体现象进行评价。
\parinterval
在统计机器翻译时代就已经有大量的研究工作专注于篇章信息的建模,这些工作大多针对某一具体的上下文现象,比如,篇章结构
\upcite
{
DBLP:conf/anlp/MarcuCW00,foster2010translating,DBLP:conf/eacl/LouisW14
}
、代词回指
\upcite
{
DBLP:conf/iwslt/HardmeierF10,DBLP:conf/wmt/NagardK10,DBLP:conf/eamt/LuongP16,
}
、词汇衔接
\upcite
{
tiedemann2010context,DBLP:conf/emnlp/GongZZ11,DBLP:conf/ijcai/XiongBZLL13,xiao2011document
}
和篇章连接词
\upcite
{
DBLP:conf/sigdial/MeyerPZC11,DBLP:conf/hytra/MeyerP12,
}
等。区别于篇章级统计机器翻译,篇章级神经机器翻译不需要针对某一具体的上下文现象构造相应的特征,而是通过翻译模型从上下文句子中抽取并融合上下文信息。通常情况下,篇章级机器翻译可以采用局部建模的手段将前一句或者周围几句作为上下文送入模型。
针对需要长距离上下文的情况
,也可以使用全局建模的手段直接从篇章的所有句子中提取上下文信息。近几年多数研究工作都在探索更有效的局部建模或全局建模方法,主要包括改进输入
\upcite
{
DBLP:conf/discomt/TiedemannS17,DBLP:conf/naacl/BawdenSBH18,DBLP:conf/wmt/GonzalesMS17,DBLP:journals/corr/abs-1910-07481
}
、多编码器结构
\upcite
{
DBLP:journals/corr/JeanLFC17,DBLP:journals/corr/abs-1805-10163,DBLP:conf/emnlp/ZhangLSZXZL18
}
、层次结构
\upcite
{
DBLP:conf/naacl/MarufMH19,DBLP:conf/acl/HaffariM18,DBLP:conf/emnlp/YangZMGFZ19,DBLP:conf/ijcai/ZhengYHCB20
}
以及基于缓存的方法
\upcite
{
DBLP:conf/coling/KuangXLZ18,DBLP:journals/tacl/TuLSZ18
}
等。
\parinterval
在统计机器翻译时代就已经有大量的研究工作专注于篇章信息的建模,这些工作大多针对某一具体的上下文现象,比如,篇章结构
\upcite
{
DBLP:conf/anlp/MarcuCW00,foster2010translating,DBLP:conf/eacl/LouisW14
}
、代词回指
\upcite
{
DBLP:conf/iwslt/HardmeierF10,DBLP:conf/wmt/NagardK10,DBLP:conf/eamt/LuongP16,
}
、词汇衔接
\upcite
{
tiedemann2010context,DBLP:conf/emnlp/GongZZ11,DBLP:conf/ijcai/XiongBZLL13,xiao2011document
}
和篇章连接词
\upcite
{
DBLP:conf/sigdial/MeyerPZC11,DBLP:conf/hytra/MeyerP12,
}
等。区别于篇章级统计机器翻译,篇章级神经机器翻译不需要针对某一具体的上下文现象构造相应的特征,而是通过翻译模型从上下文句子中抽取并融合上下文信息。通常情况下,篇章级机器翻译可以采用局部建模的手段将前一句或者周围几句作为上下文送入模型。
如果篇章翻译中需要利用长距离的上下文信息
,也可以使用全局建模的手段直接从篇章的所有句子中提取上下文信息。近几年多数研究工作都在探索更有效的局部建模或全局建模方法,主要包括改进输入
\upcite
{
DBLP:conf/discomt/TiedemannS17,DBLP:conf/naacl/BawdenSBH18,DBLP:conf/wmt/GonzalesMS17,DBLP:journals/corr/abs-1910-07481
}
、多编码器结构
\upcite
{
DBLP:journals/corr/JeanLFC17,DBLP:journals/corr/abs-1805-10163,DBLP:conf/emnlp/ZhangLSZXZL18
}
、层次结构
\upcite
{
DBLP:conf/naacl/MarufMH19,DBLP:conf/acl/HaffariM18,DBLP:conf/emnlp/YangZMGFZ19,DBLP:conf/ijcai/ZhengYHCB20
}
以及基于缓存的方法
\upcite
{
DBLP:conf/coling/KuangXLZ18,DBLP:journals/tacl/TuLSZ18
}
等。
\parinterval
此外,篇章级机器翻译面临的另外一个挑战是数据稀缺。篇章级机器翻译所需要的双语数据需要保留篇章边界,数量相比于句子级双语数据要少很多。除了在之前提到的端到端方法中采用预训练或者参数共享的手段(见
{
\chaptersixteen
}
),也可以采用新的建模手段来缓解数据稀缺问题。这类方法通常将篇章级翻译流程进行分离:先训练一个句子级的翻译模型,再通过一些额外的模块来引入上下文信息。比如,在句子级翻译模型的推断过程中,通过在目标端结合篇章级语言模型引入上下文信息
\upcite
{
DBLP:conf/discomt/GarciaCE19,DBLP:journals/tacl/YuSSLKBD20,DBLP:journals/corr/abs-2010-12827
}
,或者基于句子级的翻译结果,使用两阶段解码等手段引入上下文信息,进而对句子级翻译结果进行修正
\upcite
{
DBLP:conf/aaai/XiongH0W19,DBLP:conf/acl/VoitaST19,DBLP:conf/emnlp/VoitaST19
}
。
...
...
@@ -465,7 +465,7 @@
\parinterval
BLEU等自动评价指标能够在一定程度上反映译文的整体质量,但是并不能有效地评估篇章级翻译模型的性能。这是由于很多标准测试集中需要篇章上下文的情况相对较少。而且,
$
n
$
-gram的匹配很难检测到一些具体的语言现象,这使得研究人员很难通过BLEU得分来判断篇章级翻译模型的效果。
\parinterval
为此,研究人员总结了机器翻译任务中存在的上下文现象,并基于此设计了相应的自动评价指标。比如针对篇章中代词的翻译问题,首先借助词对齐工具确定源语言中的代词在译文和参考答案中的对应位置,然后通过计算译文中代词的准确率和召回率等指标对代词翻译质量进行评价
\upcite
{
DBLP:conf/iwslt/HardmeierF10,DBLP:conf/discomt/WerlenP17
}
。针对篇章中的词汇衔接,使用
{
\small\sffamily\bfseries
{
词汇链
}}
\index
{
词汇链
}
(Lexical Chain
\index
{
Lexical Chain
}
)
\footnote
{
词汇链指篇章中语义相关的词所构成的序列。
}
等
来获取能够反映词汇衔接质量的分数,然后通过加权的方式与常规的BLEU或METEOR等指标结合在一起
\upcite
{
DBLP:conf/emnlp/WongK12,DBLP:conf/discomt/GongZZ15
}
。针对篇章中的连接词,使用候选词典和词对齐工具对源文中连接词的正确翻译结果进行计数,计算其准确率
\upcite
{
DBLP:conf/cicling/HajlaouiP13
}
。
\parinterval
为此,研究人员总结了机器翻译任务中存在的上下文现象,并基于此设计了相应的自动评价指标。比如针对篇章中代词的翻译问题,首先借助词对齐工具确定源语言中的代词在译文和参考答案中的对应位置,然后通过计算译文中代词的准确率和召回率等指标对代词翻译质量进行评价
\upcite
{
DBLP:conf/iwslt/HardmeierF10,DBLP:conf/discomt/WerlenP17
}
。针对篇章中的词汇衔接,使用
{
\small\sffamily\bfseries
{
词汇链
}}
\index
{
词汇链
}
(Lexical Chain
\index
{
Lexical Chain
}
)
\footnote
{
词汇链指篇章中语义相关的词所构成的序列。
}
来获取能够反映词汇衔接质量的分数,然后通过加权的方式与常规的BLEU或METEOR等指标结合在一起
\upcite
{
DBLP:conf/emnlp/WongK12,DBLP:conf/discomt/GongZZ15
}
。针对篇章中的连接词,使用候选词典和词对齐工具对源文中连接词的正确翻译结果进行计数,计算其准确率
\upcite
{
DBLP:conf/cicling/HajlaouiP13
}
。
\parinterval
除了直接对译文打分,也有一些工作针对特有的上下文现象手工构造了相应的测试套件用于评价翻译质量。测试套件中每一个测试样例都包含一个正确翻译的结果,以及多个错误结果,一个理想的翻译模型应该对正确的翻译结果评价最高,排名在所有错误结果之上,此时就可以根据模型是否能挑选出正确翻译结果来评估其性能。这种方法可以很好地衡量翻译模型在某一特定上下文现象上的处理能力,比如词义消歧
\upcite
{
DBLP:conf/wmt/RiosMS18
}
、代词翻译
\upcite
{
DBLP:conf/naacl/BawdenSBH18,DBLP:conf/wmt/MullerRVS18
}
和一些衔接问题
\upcite
{
DBLP:conf/acl/VoitaST19
}
等。但是该方法也存在使用范围受限于测试集的语种和规模的缺点,因此扩展性较差。
...
...
@@ -484,7 +484,7 @@
\end{eqnarray}
其中,
$
\seq
{
X
}$
和
$
\seq
{
Y
}$
分别为源语言篇章和目标语言篇章,
$
X
_
i
$
和
$
Y
_
i
$
分别为源语言篇章和目标语言篇章中的第
$
i
$
个句子,
$
T
$
表示篇章中句子的数目。为了简化问题,这里假设源语言和目标语言具有相同的句子数目
$
T
$
,而且两个篇章间句子是顺序对应的。
$
D
_
i
$
表示翻译第
$
i
$
个句子时所对应的上下文句子集合,理想情况下,
$
D
_
i
$
中包含源语言篇章和目标语言篇章中所有除第
$
i
$
句之外的句子,但实践中通常仅使用其中的部分句子作为上下文。
\parinterval
上下文范围的选取是篇章级神经机器翻译需要着重考虑的问题,比如上下文句子的多少
\upcite
{
agrawal2018contextual,Werlen2018DocumentLevelNM,DBLP:conf/naacl/MarufMH19
}
,是否考虑目标端上下文句子
\upcite
{
DBLP:conf/discomt/TiedemannS17,agrawal2018contextual
}
等。此外,不同的上下文范围也对应着不同的建模方法,接下来将对一些典型的方法进行介绍,包括改进输入
\upcite
{
DBLP:conf/discomt/TiedemannS17,DBLP:conf/naacl/BawdenSBH18,DBLP:conf/wmt/GonzalesMS17,DBLP:journals/corr/abs-1910-07481
}
、多编码器模型
\upcite
{
DBLP:journals/corr/JeanLFC17,DBLP:journals/corr/abs-1805-10163,DBLP:conf/emnlp/ZhangLSZXZL18
}
、层次结构模型
\upcite
{
DBLP:conf/emnlp/WangTWL17,DBLP:conf/emnlp/TanZXZ19,Werlen2018DocumentLevelNM
}
以及基于缓存的方法
\upcite
{
DBLP:conf/coling/KuangXLZ18,DBLP:journals/tacl/TuLSZ18
}
。
\parinterval
上下文范围的选取是篇章级神经机器翻译需要着重考虑的问题,比如上下文句子的多少
\upcite
{
agrawal2018contextual,Werlen2018DocumentLevelNM,DBLP:conf/naacl/MarufMH19
}
,是否考虑目标端上下文句子
\upcite
{
DBLP:conf/discomt/TiedemannS17,agrawal2018contextual
}
等。此外,不同的上下文范围也对应着不同的建模方法,接下来将对一些典型的方法进行介绍,包括改进输入
形式
\upcite
{
DBLP:conf/discomt/TiedemannS17,DBLP:conf/naacl/BawdenSBH18,DBLP:conf/wmt/GonzalesMS17,DBLP:journals/corr/abs-1910-07481
}
、多编码器结构
\upcite
{
DBLP:journals/corr/JeanLFC17,DBLP:journals/corr/abs-1805-10163,DBLP:conf/emnlp/ZhangLSZXZL18
}
、层次结构模型
\upcite
{
DBLP:conf/emnlp/WangTWL17,DBLP:conf/emnlp/TanZXZ19,Werlen2018DocumentLevelNM
}
以及基于缓存的方法
\upcite
{
DBLP:conf/coling/KuangXLZ18,DBLP:journals/tacl/TuLSZ18
}
。
%----------------------------------------------------------------------------------------
% NEW SUBSUB-SECTION
...
...
@@ -492,7 +492,7 @@
\subsubsection
{
1. 输入形式
}
\parinterval
一种简单的方法是直接复用传统的序列到序列模型,将篇章中待翻译句子与其上下文句子拼接后作为模型输入。如实例
\ref
{
eg:17-3-1
}
所示,这种做法不需要改动模型结构,操作简单,适用于大多数神经机器翻译系统
\upcite
{
DBLP:conf/discomt/TiedemannS17,agrawal2018contextual,DBLP:conf/discomt/ScherrerTL19
}
。但是由于过长的序列会导致模型难以训练,通常只会选取局部的上下文句子进行拼接,比如只拼接源语言端前一句或者周围几句
\upcite
{
DBLP:conf/discomt/TiedemannS17
}
。此外,也可以引入目标语言端的上下文
\upcite
{
DBLP:conf/naacl/BawdenSBH18,agrawal2018contextual,DBLP:conf/discomt/ScherrerTL19
}
,在解码时
拼接目标语言端上下文和当前句
同样会带来一定的性能提升。但是过大的窗口会造成推断速度的下降
\upcite
{
agrawal2018contextual
}
,因此通常只考虑前一个目标语言句子。
\parinterval
一种简单的方法是直接复用传统的序列到序列模型,将篇章中待翻译句子与其上下文句子拼接后作为模型输入。如实例
\ref
{
eg:17-3-1
}
所示,这种做法不需要改动模型结构,操作简单,适用于大多数神经机器翻译系统
\upcite
{
DBLP:conf/discomt/TiedemannS17,agrawal2018contextual,DBLP:conf/discomt/ScherrerTL19
}
。但是由于过长的序列会导致模型难以训练,通常只会选取局部的上下文句子进行拼接,比如只拼接源语言端前一句或者周围几句
\upcite
{
DBLP:conf/discomt/TiedemannS17
}
。此外,也可以引入目标语言端的上下文
\upcite
{
DBLP:conf/naacl/BawdenSBH18,agrawal2018contextual,DBLP:conf/discomt/ScherrerTL19
}
,在解码时
,将目标语言端的当前句与上下文拼接在一起,
同样会带来一定的性能提升。但是过大的窗口会造成推断速度的下降
\upcite
{
agrawal2018contextual
}
,因此通常只考虑前一个目标语言句子。
\begin{example}
传统模型训练输入:
...
...
@@ -527,7 +527,7 @@
\end{eqnarray}
其中,
$
\mathbi
{
h
}$
为Query(查询),
$
\mathbi
{
h
}^{
\textrm
{
pre
}}$
为Key(键)和Value(值)。然后通过门控机制将待翻译句子中每个位置的编码表示和该位置对应的上下文信息进行融合,具体方式如下:
\begin{eqnarray}
\lambda
_{
t
}&
=
&
\sigma
(
\mathbi
{
W
}_{
\lambda
}
[
\mathbi
{
h
}_{
t
}
;
\mathbi
{
d
}_{
t
}
]
+
\mathbi
{
b
}_{
\lambda
}
)
\lambda
_{
t
}&
=
&
\sigma
(
[
\mathbi
{
h
}_{
t
}
;
\mathbi
{
d
}_{
t
}
]
\mathbi
{
W
}_{
\lambda
}
+
\mathbi
{
b
}_{
\lambda
}
)
\label
{
eq:17-3-5
}
\\
\widetilde
{
\mathbi
{
h
}_{
t
}}&
=
&
\lambda
_{
t
}
\mathbi
{
h
}_{
t
}
+(1-
\lambda
_{
t
}
)
\mathbi
{
d
}_{
t
}
\label
{
eq:17-3-4
}
...
...
@@ -568,9 +568,9 @@
\parinterval
为了增强模型的表示能力,层次注意力中并未直接使用当前句子第
$
t
$
个位置的编码表示
$
\mathbi
{
h
}_{
t
}$
作为注意力操作的Query(查询),而是通过两个线性变换分别获取词级注意力和句子级注意力的查询
$
\mathbi
{
q
}_{
w
}$
和
$
\mathbi
{
q
}_{
s
}$
,定义如公式
\eqref
{
eq:17-3-6
}
\eqref
{
eq:17-3-8
}
,其中
${
\mathbi
W
}_
w
$
、
${
\mathbi
W
}_
s
$
、
${
\mathbi
b
}_
w
$
、
${
\mathbi
b
}_
s
$
分别是两个线性变换的权重和偏置。
\begin{eqnarray}
\mathbi
{
q
}_{
w
}&
=
&
{
\mathbi
W
}_
w
\mathbi
{
h
}_
t
+
{
\mathbi
b
}_
w
\mathbi
{
q
}_{
w
}&
=
&
\mathbi
{
h
}_
t
{
\mathbi
W
}_
w
+
{
\mathbi
b
}_
w
\label
{
eq:17-3-6
}
\\
\mathbi
{
q
}_{
s
}&
=
&
{
\mathbi
W
}_
s
\mathbi
{
h
}_
t
+
{
\mathbi
b
}_
s
\mathbi
{
q
}_{
s
}&
=
&
\mathbi
{
h
}_
t
{
\mathbi
W
}_
s
+
{
\mathbi
b
}_
s
\label
{
eq:17-3-8
}
\end{eqnarray}
...
...
@@ -586,7 +586,7 @@
\noindent
其中,
$
\textrm
{
WordAttention
}
(
\cdot
)
$
和
$
\textrm
{
SentAttention
}
(
\cdot
)
$
都是标准的自注意力模型。在得到最终的上下文信息
$
\mathbi
{
d
}$
后,模型同样采用门控机制(如公式
\eqref
{
eq:17-3-4
}
和公式
\eqref
{
eq:17-3-5
}
)与
$
\mathbi
{
h
}$
进行融合来得到一个上下文相关的当前句子表示
$
\widetilde
{
\mathbi
{
h
}}$
。
\parinterval
通过层次注意力,模型可以在词级和句子级两个维度从多个句子中提取更充分的上下文信息,除了
用于编码器,也可以用于解码器来获取目标语言的上下文信息。基于层次注意力,为了进一步编码整个篇章的上下文信息,研究人员提出选择性注意力来对篇章中整体上下文进行有选择的
信息提取
\upcite
{
DBLP:conf/naacl/MarufMH19
}
。此外,也有研究人员使用循环神经网络
\upcite
{
DBLP:conf/emnlp/WangTWL17
}
、 记忆网络
\upcite
{
DBLP:conf/acl/HaffariM18
}
、胶囊网络
\upcite
{
DBLP:conf/emnlp/YangZMGFZ19
}
和片段级相对注意力
\upcite
{
DBLP:conf/ijcai/ZhengYHCB20
}
等结构来对多个上下文句子进行上下文信息提取。
\parinterval
通过层次注意力,模型可以在词级和句子级两个维度从多个句子中提取更充分的上下文信息,除了
使用编码器,也可以使用解码器来获取目标语言的上下文信息。为了进一步编码整个篇章的上下文信息,研究人员提出选择性注意力来对篇章的整体上下文有选择地进行
信息提取
\upcite
{
DBLP:conf/naacl/MarufMH19
}
。此外,也有研究人员使用循环神经网络
\upcite
{
DBLP:conf/emnlp/WangTWL17
}
、 记忆网络
\upcite
{
DBLP:conf/acl/HaffariM18
}
、胶囊网络
\upcite
{
DBLP:conf/emnlp/YangZMGFZ19
}
和片段级相对注意力
\upcite
{
DBLP:conf/ijcai/ZhengYHCB20
}
等结构来对多个上下文句子进行上下文信息提取。
%----------------------------------------------------------------------------------------
% NEW SUBSUB-SECTION
...
...
@@ -639,7 +639,7 @@
\sectionnewpage
\section
{
小结及拓展阅读
}
\parinterval
使用更多的上下文进行机器翻译建模是极具潜力的研究方向,
包括多模态翻译在内的多个领域
也非常活跃。有许多问题值得进一步思考与讨论:
\parinterval
使用更多的上下文进行机器翻译建模是极具潜力的研究方向,
在包括多模态翻译在内的多个领域中
也非常活跃。有许多问题值得进一步思考与讨论:
\begin{itemize}
\vspace
{
0.5em
}
...
...
编写
预览
Markdown
格式
0%
重试
或
添加新文件
添加附件
取消
您添加了
0
人
到此讨论。请谨慎行事。
请先完成此评论的编辑!
取消
请
注册
或者
登录
后发表评论