Skip to content
项目
群组
代码片段
帮助
当前项目
正在载入...
登录 / 注册
切换导航面板
M
mtbookv2
概览
Overview
Details
Activity
Cycle Analytics
版本库
Repository
Files
Commits
Branches
Tags
Contributors
Graph
Compare
Charts
问题
0
Issues
0
列表
Board
标记
里程碑
合并请求
0
Merge Requests
0
CI / CD
CI / CD
流水线
作业
日程表
图表
维基
Wiki
代码片段
Snippets
成员
Collapse sidebar
Close sidebar
活动
图像
聊天
创建新问题
作业
提交
Issue Boards
Open sidebar
NiuTrans
mtbookv2
Commits
a14e8d6a
Commit
a14e8d6a
authored
Dec 01, 2020
by
xiaotong
Browse files
Options
Browse Files
Download
Email Patches
Plain Diff
wording (sec 16, dual learning)
parent
2040d61b
隐藏空白字符变更
内嵌
并排
正在显示
1 个修改的文件
包含
20 行增加
和
19 行删除
+20
-19
Chapter16/chapter16.tex
+20
-19
没有找到文件。
Chapter16/chapter16.tex
查看文件 @
a14e8d6a
...
...
@@ -301,14 +301,15 @@ g_{t}& = & \sigma (w^{T}s_{t}^{TM} + b)
\section
{
双向翻译模型
}
\parinterval
目前,我们提到的机器翻译系统主要是通过双语数据,训练一种语言到另外一种语言的翻译。但实际上,机器翻译是一种双向任务。对于给定的双语数据,可以同时学习源语言到目标语言和目标语言到源语言的翻译模型。那么,两个方向的翻译模型能否联合起来,相辅相成呢?下面从双向训练和对偶学习两方面对双向翻译模型进行介绍。
\parinterval
机器翻译主要是通过双语数据训练一种语言到另外一种语言的翻译。显然这是一种双向任务。对于给定的双语数据,可以同时学习源语言到目标语言和目标语言到源语言的翻译模型。那么,两个方向的翻译模型能否联合起来,相辅相成呢?下面从双向训练和对偶学习两方面对双向翻译模型进行介绍。这些方法大量使用在低资源翻译系统中,比如,可以用双向翻译模型反复迭代构造伪数据。
%----------------------------------------------------------------------------------------
% NEW SUBSUB-SECTION
%----------------------------------------------------------------------------------------
\subsection
{
双向训练
}
\parinterval
回顾神经机器翻译系统的建模过程,给定一个互译的句对
$
(
\seq
{
x
}
,
\seq
{
y
}
)
$
,一个从源语言句子
$
\seq
{
x
}$
到目标语言句子
$
\seq
{
y
}$
的翻译被表示为求条件概率
$
\funp
{
P
}
(
\seq
{
y
}
|
\seq
{
x
}
)
$
的问题。类似地,一个从目标语言句子
$
\seq
{
y
}$
到源语言句子
$
\seq
{
x
}$
的翻译可以表示为
$
\funp
{
P
}
(
\seq
{
x
}
|
\seq
{
y
}
)
$
。通常来说,神经机器翻译的训练一次只得到一个方向的模型,也就是
$
\funp
{
P
}
(
\seq
{
y
}
|
\seq
{
x
}
)
$
或者
$
\funp
{
P
}
(
\seq
{
x
}
|
\seq
{
y
}
)
$
。这意味着
$
\funp
{
P
}
(
\seq
{
y
}
|
\seq
{
x
}
)
$
和
$
\funp
{
P
}
(
\seq
{
x
}
|
\seq
{
y
}
)
$
之间是互相独立的。
$
\funp
{
P
}
(
\seq
{
y
}
|
\seq
{
x
}
)
$
和
$
\funp
{
P
}
(
\seq
{
x
}
|
\seq
{
y
}
)
$
是否真的没有关系呢?比如,
$
\seq
{
x
}$
和
$
\seq
{
y
}$
是相同大小的向量,且
$
\seq
{
x
}$
到
$
\seq
{
y
}$
的变换是一个线性变换,也就是与一个方阵
$
\seq
{
W
}$
做矩阵乘法:
\parinterval
回顾神经机器翻译系统的建模过程,给定一个互译的句对
$
(
\seq
{
x
}
,
\seq
{
y
}
)
$
,一个从源语言句子
$
\seq
{
x
}$
到目标语言句子
$
\seq
{
y
}$
的翻译被表示为求条件概率
$
\funp
{
P
}
(
\seq
{
y
}
|
\seq
{
x
}
)
$
的问题。类似地,一个从目标语言句子
$
\seq
{
y
}$
到源语言句子
$
\seq
{
x
}$
的翻译可以表示为
$
\funp
{
P
}
(
\seq
{
x
}
|
\seq
{
y
}
)
$
。通常来说,神经机器翻译的训练一次只得到一个方向的模型,也就是
$
\funp
{
P
}
(
\seq
{
y
}
|
\seq
{
x
}
)
$
或者
$
\funp
{
P
}
(
\seq
{
x
}
|
\seq
{
y
}
)
$
。这意味着
$
\funp
{
P
}
(
\seq
{
y
}
|
\seq
{
x
}
)
$
和
$
\funp
{
P
}
(
\seq
{
x
}
|
\seq
{
y
}
)
$
之间是互相独立的。
$
\funp
{
P
}
(
\seq
{
y
}
|
\seq
{
x
}
)
$
和
$
\funp
{
P
}
(
\seq
{
x
}
|
\seq
{
y
}
)
$
是否真的没有关系呢?比如,
假设
$
\seq
{
x
}$
和
$
\seq
{
y
}$
是相同大小的向量,且
$
\seq
{
x
}$
到
$
\seq
{
y
}$
的变换是一个线性变换,也就是与一个方阵
$
\seq
{
W
}$
做矩阵乘法:
\begin{eqnarray}
\seq
{
y
}
&
=
&
\seq
{
x
}
\cdot
\seq
{
W
}
...
...
@@ -319,13 +320,13 @@ g_{t}& = & \sigma (w^{T}s_{t}^{TM} + b)
\parinterval
这个例子说明
$
\funp
{
P
}
(
\seq
{
y
}
|
\seq
{
x
}
)
$
和
$
\funp
{
P
}
(
\seq
{
x
}
|
\seq
{
y
}
)
$
直觉上应当存在联系。当然,
$
\seq
{
x
}$
和
$
\seq
{
y
}$
之间是否存在简单的线性变换关系并没有结论,但是上面的例子给出了一种对源语言句子和目标语言句子进行相互转化的思路。实际上,研究人员已经通过一些数学技巧用目标函数来把
$
\funp
{
P
}
(
\seq
{
y
}
|
\seq
{
x
}
)
$
和
$
\funp
{
P
}
(
\seq
{
x
}
|
\seq
{
y
}
)
$
联系起来,这样训练神经机器翻译系统一次就可以同时得到两个方向的翻译模型,使得训练变得更加高效
\upcite
{
Hassan2018AchievingHP,DBLP:conf/aaai/Zhang0LZC18,DBLP:conf/wmt/SunJXHWW19
}
。双向联合训练的基本思想是:使用两个方向的翻译模型对单语数据进行解码,之后用解码后的翻译与原始的单语数据作为训练语料,通过多次迭代更新两个方向上的机器翻译模型。
\parinterval
图
\ref
{
fig:16-1-fk
}
给出了一个双向训练的详细流程,
这里只展示了前两轮迭代。在第一次迭代开始之前,首先使用双语数据对两个初始翻译模型执行预训练。为了保持一致性,这里称之为第0轮迭代。在第一轮迭代中,首先使用这两个翻译模型
$
M
_{
x
\rightarrow
y
}^{
0
}$
和
$
M
_{
y
\rightarrow
x
}^{
0
}$
翻译单语数据
$
X
=
\{
x
^{
(
s
)
}
\}
$
和
$
Y
=
\{
y
^{
(
t
)
}
\}
$
后得到伪训练数据集
$
X'
=
\{
x
^{
(
s
)
}
,y
_{
0
}^{
s
}
\}
$
与
$
Y'
=
\{
x
^{
(
t
)
}
,y
_{
0
}^{
t
}
\}
$
。然后,模型
$
M
_{
x
\rightarrow
y
}^{
1
}$
和
$
M
_{
y
\rightarrow
x
}^{
1
}$
使用上面的两个伪训练集和原始双语数据混合进行训练并执行参数更新。第二轮迭代继续重复上述过程,使用更新参数后的翻译模型
$
M
_{
x
\rightarrow
y
}^{
1
}$
和
$
M
_{
y
\rightarrow
x
}^{
1
}$
得到更为准确的伪数据集
$
X'
=
\{
x
^{
(
s
)
}
,y
_{
1
}^{
s
}
\}
$
和
$
Y'
=
\{
x
^{
(
t
)
}
,y
_{
1
}^{
t
}
\}
$
。从而,使得第二次迭代后的翻译模型
$
M
_{
x
\rightarrow
y
}^{
2
}$
和
$
M
_{
y
\rightarrow
x
}^{
2
}$
取得更高的性能
。
\parinterval
图
\ref
{
fig:16-1-fk
}
给出了一个双向训练的详细流程,
其中
$
M
_{
x
\rightarrow
y
}^{
k
}$
表示第
$
k
$
轮得到的
$
x
$
到
$
y
$
的翻译模型,
$
M
_{
y
\rightarrow
x
}^{
k
}$
表示第
$
k
$
轮得到的
$
y
$
到
$
x
$
的翻译模型。这里只展示了前两轮迭代。在第一次迭代开始之前,首先使用双语数据对两个初始翻译模型执行预训练。为了保持一致性,这里称之为第0 轮迭代。在第一轮迭代中,首先使用这两个翻译模型
$
M
_{
x
\rightarrow
y
}^{
0
}$
和
$
M
_{
y
\rightarrow
x
}^{
0
}$
翻译单语数据
$
X
=
\{
x
_
i
\}
$
和
$
Y
=
\{
y
_
i
\}
$
后得到译文
$
\{\hat
{
y
}_
i
^{
0
}
\}
$
和
$
\{
\hat
{
x
}_
i
^{
0
}
\}
$
。进一步,构建伪训练数据集
$
\{
x
_
i,
\hat
{
y
}_
i
^{
0
}
\}
$
与
$
\{
\hat
{
x
}_
i
^{
0
}
,y
_
i
\}
$
。然后,模型
$
M
_{
x
\rightarrow
y
}^{
1
}$
和
$
M
_{
y
\rightarrow
x
}^{
1
}$
使用上面的两个伪训练集和原始双语数据混合进行训练并执行参数更新,即用
$
\{
x
_
i,
\hat
{
y
}_
i
^{
0
}
\}
\bigcup
\{
x
_
i,y
_
i
\}
$
训练
$
M
_{
x
\rightarrow
y
}^{
1
}$
,用
$
\{
y
_
i,
\hat
{
x
}_
i
^{
0
}
\}
\bigcup
\{
y
_
i,x
_
i
\}
$
训练
$
M
_{
y
\rightarrow
x
}^{
1
}$
。第二轮迭代继续重复上述过程,使用更新参数后的翻译模型
$
M
_{
x
\rightarrow
y
}^{
1
}$
和
$
M
_{
y
\rightarrow
x
}^{
1
}$
得到新的伪数据集
$
\{
x
_
i,
\hat
{
y
}_
i
^{
1
}
\}
$
与
$
\{
\hat
{
x
}_
i
^{
1
}
,y
_
i
\}
$
。然后,进一步得到翻译模型
$
M
_{
x
\rightarrow
y
}^{
2
}$
和
$
M
_{
y
\rightarrow
x
}^{
2
}$
。这种方式本质上也是一种自学习的过程,通过逐步生成更好的伪数据提升模型质量
。
%----------------------------------------------
\begin{figure}
[h]
\centering
\includegraphics
[scale=0.7]
{
Chapter16/Figures/figure-the-iterative-process-of-bidirectional-training.jpg
}
\caption
{
双向训练的迭代过程
}
\caption
{
双向训练的迭代过程
(
{
\color
{
red
}
图需要修改!
}
)
}
\label
{
fig:16-1-fk
}
\end{figure}
%----------------------------------------------
...
...
@@ -357,7 +358,7 @@ g_{t}& = & \sigma (w^{T}s_{t}^{TM} + b)
\label
{
eq:16-8-xc
}
\end{eqnarray}
\parinterval
通过该正则化项,我们将互为对偶的两个任务放在一块学习,通过任务对偶性加强监督学习的过程,就是有监督对偶学习
\upcite
{
DBLP:conf/icml/XiaQCBYL17,qin2020dual
}
。这里,
$
\funp
{
P
}
(
\seq
{
x
}
)
$
和
$
\funp
{
P
}
(
\seq
{
y
}
)
$
这两个语言模型是预先训练好的,并不参与翻译模型的训练。可以看到,对于单独的一个模型来说,其目标函数增加了与另外一个方向的模型相关的项。这样的形式与L1/L2正则化非常类似(
{
\red
{
引用正则化一节
}
}
),因此可以把这个方法看作是一种任务特定的正则化的手段(由翻译任务本身的性质所启发而来)。有监督对偶学习实际上要优化下面这个损失函数:
\parinterval
通过该正则化项,我们将互为对偶的两个任务放在一块学习,通过任务对偶性加强监督学习的过程,就是有监督对偶学习
\upcite
{
DBLP:conf/icml/XiaQCBYL17,qin2020dual
}
。这里,
$
\funp
{
P
}
(
\seq
{
x
}
)
$
和
$
\funp
{
P
}
(
\seq
{
y
}
)
$
这两个语言模型是预先训练好的,并不参与翻译模型的训练。可以看到,对于单独的一个模型来说,其目标函数增加了与另外一个方向的模型相关的项。这样的形式与L1/L2正则化非常类似(
见
{
\chapternine
}
),因此可以把这个方法看作是一种任务特定的正则化的手段(由翻译任务本身的性质所启发而来)。有监督对偶学习实际上要优化下面这个损失函数:
\begin{eqnarray}
\mathcal
{
L
}
&
=
&
\log
{
\funp
{
P
}
(
\seq
{
y
}
|
\seq
{
x
}
)
}
+
\log
{
\funp
{
P
}
(
\seq
{
x
}
|
\seq
{
y
}
)
}
+
\mathcal
{
L
}_{
\rm
{
dual
}}
\label
{
eq:16-2-fk
}
...
...
@@ -371,20 +372,11 @@ g_{t}& = & \sigma (w^{T}s_{t}^{TM} + b)
\subsubsection
{
2. 无监督对偶学习
}
\parinterval
如上一节所述,有监督的对偶学习需要使用双语数据来训练两个翻译模型。幸运的是,存在大量的单语数据可供我们使用。因此,如何使用这些单语数据来提升翻译模型的性能是一个关键问题。
\parinterval
无监督对偶学习为我们提供了一个思路
\upcite
{
qin2020dual
}
。假设目前有两个比较弱的翻译模型,一个原始任务模型f将源语言句子
$
\seq
{
x
}$
翻译成目标语言句子
$
\seq
{
y
}$
和一个对偶任务模型g将目标语言句子
$
\seq
{
y
}$
翻译成源语言句子
$
\seq
{
x
}$
。翻译模型可由有限的双语训练或者使用无监督机器翻译的方法得到。如图
\ref
{
fig:16-10-xc
}
所示,无监督对偶学习的做法是,先通过原始任务模型f将一个源语言单语句子
$
s
_
x
$
翻译为目标语言句子
$
s
_
y
$
。由于没有参考译文,我们无法判断
$
s
_
y
$
的正确性。但通过语言模型,可以判断这个句子是否通顺、符合语法规范,这些信息可用来评估翻译模型f的翻译流畅性。随后,再通过对偶任务模型g将目标语言句子
$
s
_
y
$
再翻译为源语言句子
$
s
_
x
^{
'
}$
。如果模型f和g的翻译性能较好,那么
$
s
_
x
^{
'
}$
和
$
s
_
x
$
会十分相似。通过计算二者的
{
\small\bfnew
{
重构损失
}}
(reconstruction loss),就可以优化模型f和g的参数。经过多次迭代,两个翻译模型都能从大量的无标注单语数据上进行学习并达到不错的性能。
\parinterval
如上一节所述,有监督的对偶学习需要使用双语数据来训练两个翻译模型。幸运的是,存在大量的单语数据可供使用。因此,如何使用这些单语数据来提升翻译模型的性能是一个关键问题。
%----------------------------------------------
\begin{figure}
[htp]
\centering
\includegraphics
[scale=0.4]
{
./Chapter16/Figures/figure-unsupervised-dual-learning-process.jpg
}
\caption
{
无监督对偶学习流程
}
\label
{
fig:16-10-xc
}
\end{figure}
%----------------------------------------------
\parinterval
无监督对偶学习为我们提供了一个思路
\upcite
{
qin2020dual
}
。假设目前有两个比较弱的翻译模型,一个原始任务模型f将源语言句子
$
\seq
{
x
}$
翻译成目标语言句子
$
\seq
{
y
}$
和一个对偶任务模型g将目标语言句子
$
\seq
{
y
}$
翻译成源语言句子
$
\seq
{
x
}$
。翻译模型可由有限的双语训练或者使用无监督机器翻译的方法得到。如图
\ref
{
fig:16-10-xc
}
所示,无监督对偶学习的做法是,先通过原始任务模型
$
f
$
将一个源语言单语句子
$
x
$
翻译为目标语言句子
$
y
$
。由于没有参考译文,我们无法判断
$
y
$
的正确性。但通过语言模型,可以判断这个句子是否通顺、符合语法规范,这些信息可用来评估翻译模型
$
f
$
的翻译流畅性。随后,再通过对偶任务模型
$
g
$
将目标语言句子
$
y
$
再翻译为源语言句子
$
x
^{
'
}$
。如果模型
$
f
$
和
$
g
$
的翻译性能较好,那么
$
x
^{
'
}$
和
$
x
$
会十分相似。通过计算二者的
{
\small\bfnew
{
重构损失
}}
(Reconstruction Loss),就可以优化模型
$
f
$
和
$
g
$
的参数。这个过程可以多次迭代,从大量的无标注单语数据上不断提升性能。
\parinterval
从
概率角度来看待这个问题,如果在有监督对偶学习对联合分布P(y|x)建模的基础上把y看作一个隐变量,那么可以得到边缘分布P(x),也就是关于x
的语言模型:
\parinterval
从
统计建模的角度看,如果在有监督对偶学习对联合分布
$
\funp
{
P
}
(
y|x
)
$
建模的基础上把
$
y
$
看作一个隐变量,那么可以得到边缘分布
$
\funp
{
P
}
(
x
)
$
,也就是关于
$
x
$
的语言模型:
\begin{eqnarray}
\funp
{
P
}
(
\seq
{
x
}
)
&
=
&
\sum
_{
\seq
{
y
}}
\funp
{
P
}
(
\seq
{
x
}
,
\seq
{
y
}
)
\nonumber
\\
&
=
&
\sum
_{
\seq
{
y
}}
\funp
{
P
}
(
\seq
{
x
}
|
\seq
{
y
}
)
\funp
{
P
}
(
\seq
{
y
}
|
\seq
{
x
}
)
...
...
@@ -393,6 +385,15 @@ g_{t}& = & \sigma (w^{T}s_{t}^{TM} + b)
\parinterval
公式
\ref
{
eq:16-9-xc
}
假设
$
\funp
{
P
}
(
\seq
{
x
}
|
\seq
{
y
}
)=
\funp
{
P
}
(
\seq
{
x
}
|
\seq
{
x
}
,
\seq
{
y
}
)
$
。这个假设显然是成立的,因为当知道一个句子的译文时,并不需要知道它的源文就可以把它翻译回去。如果直接优化(最大化)公式
\ref
{
eq:16-9-xc
}
右侧,相当于对这个等式
$
\funp
{
P
}
(
\seq
{
x
}
|
\seq
{
y
}
)
$
和
$
\funp
{
P
}
(
\seq
{
y
}
|
\seq
{
x
}
)
$
施加了
{
\small\sffamily\bfnew
{
循环一致性
}}
\index
{
循环一致性
}
(Circle Consistency)
\index
{
Circle Consistency
}
的约束
\upcite
{
DBLP:conf/iccv/ZhuPIE17
}
,也就是对于一个句子
$
\seq
{
x
}$
,通过
$
\funp
{
P
}
(
\seq
{
y
}
|
\seq
{
x
}
)
$
把它翻译成
$
\seq
{
y
}$
后,根据
$
\funp
{
P
}
(
\seq
{
x
}
|
\seq
{
y
}
)
$
应该能重新翻译出
$
\seq
{
x
}$
,如图
\ref
{
fig:16-10-xc
}
所示。公式
\ref
{
eq:16-9-xc
}
给出了同时优化
$
\funp
{
P
}
(
\seq
{
x
}
|
\seq
{
y
}
)
$
和
$
\funp
{
P
}
(
\seq
{
y
}
|
\seq
{
x
}
)
$
的一个目标函数形式。这个目标函数的一个额外的好处是它本质上是在学习一个由
$
\funp
{
P
}
(
\seq
{
x
}
|
\seq
{
y
}
)
$
和
$
\funp
{
P
}
(
\seq
{
y
}
|
\seq
{
x
}
)
$
组成的语言模型
$
\funp
{
P
}
(
\seq
{
x
}
)
$
,而
$
\funp
{
P
}
(
\seq
{
x
}
)
$
的学习依赖于单语数据,这意味着这个目标函数可以很自然地直接使用大量单语数据来同时训练两个翻译模型。相同的结论可以推广到
$
\funp
{
P
}
(
\seq
{
y
}
)
$
上
\upcite
{
DBLP:conf/nips/HeXQWYLM16
}
。
%----------------------------------------------
\begin{figure}
[htp]
\centering
\includegraphics
[scale=0.4]
{
./Chapter16/Figures/figure-unsupervised-dual-learning-process.jpg
}
\caption
{
无监督对偶学习流程(
{
\color
{
red
}
图要改!
}
)
}
\label
{
fig:16-10-xc
}
\end{figure}
%----------------------------------------------
\parinterval
但是直接使用公式
\ref
{
eq:16-9-xc
}
作为目标函数需要解决两个问题:
\begin{itemize}
...
...
@@ -400,7 +401,7 @@ g_{t}& = & \sigma (w^{T}s_{t}^{TM} + b)
\item
计算公式
\ref
{
eq:16-9-xc
}
要枚举所有可能的隐变量
$
\seq
{
y
}$
的取值,也就是所有可能产生的目标语句子,而这是不可能的,因此一般会通过平均多个随机产生的
$
\seq
{
y
}$
对应的损失来近似真正的目标函数值;
\vspace
{
0.5em
}
\item
从公式
\ref
{
eq:16-9-xc
}
可以看到,在
$
\funp
{
P
}
(
\seq
{
x
}
)
$
上计算完目标函数值后,得到的梯度首先传递给
$
\funp
{
P
}
(
\seq
{
x
}
|
\seq
{
y
}
)
$
,然后通过
$
\funp
{
P
}
(
\seq
{
x
}
|
\seq
{
y
}
)
$
传递给
$
\funp
{
P
}
(
\seq
{
y
}
|
\seq
{
x
}
)
$
。由于
$
\funp
{
P
}
(
\seq
{
x
}
|
\seq
{
y
}
)
$
的输入
$
\seq
{
y
}$
由
$
\funp
{
P
}
(
\seq
{
y
}
|
\seq
{
x
}
)
$
采样得到,而采样操作不可导,导致梯度的传播在
$
\funp
{
P
}
(
\seq
{
y
}
|
\seq
{
x
}
)
$
的输出处断开了,因此
$
\funp
{
P
}
(
\seq
{
y
}
|
\seq
{
x
}
)
$
接收不到任何梯度来进行更新。常见的解决方案是使用策略梯度
\upcite
{
DBLP:conf/nips/SuttonMSM99
}
。策略梯度的基本思想如下:如果
我们在执行某个动作之后,获得了一个不错的反馈,那么我们会
调整策略来增加这个状态下执行该动作的概率;反之,如果采取某个动作后获得了一个负反馈,就需要调整策略来降低这个状态下执行该动作的概率。在算法的实现上,首先对两个翻译模型求梯度,然后在策略调整时选择将梯度加到模型上(获得正反馈)或者减去该梯度(获得负反馈)。
\item
从公式
\ref
{
eq:16-9-xc
}
可以看到,在
$
\funp
{
P
}
(
\seq
{
x
}
)
$
上计算完目标函数值后,得到的梯度首先传递给
$
\funp
{
P
}
(
\seq
{
x
}
|
\seq
{
y
}
)
$
,然后通过
$
\funp
{
P
}
(
\seq
{
x
}
|
\seq
{
y
}
)
$
传递给
$
\funp
{
P
}
(
\seq
{
y
}
|
\seq
{
x
}
)
$
。由于
$
\funp
{
P
}
(
\seq
{
x
}
|
\seq
{
y
}
)
$
的输入
$
\seq
{
y
}$
由
$
\funp
{
P
}
(
\seq
{
y
}
|
\seq
{
x
}
)
$
采样得到,而采样操作不可导,导致梯度的传播在
$
\funp
{
P
}
(
\seq
{
y
}
|
\seq
{
x
}
)
$
的输出处断开了,因此
$
\funp
{
P
}
(
\seq
{
y
}
|
\seq
{
x
}
)
$
接收不到任何梯度来进行更新。常见的解决方案是使用策略梯度
\upcite
{
DBLP:conf/nips/SuttonMSM99
}
。策略梯度的基本思想如下:如果
在执行某个动作之后,获得了一个不错的反馈,那么可以
调整策略来增加这个状态下执行该动作的概率;反之,如果采取某个动作后获得了一个负反馈,就需要调整策略来降低这个状态下执行该动作的概率。在算法的实现上,首先对两个翻译模型求梯度,然后在策略调整时选择将梯度加到模型上(获得正反馈)或者减去该梯度(获得负反馈)。
\vspace
{
0.5em
}
\end{itemize}
...
...
@@ -428,7 +429,7 @@ g_{t}& = & \sigma (w^{T}s_{t}^{TM} + b)
% NEW SUB-SECTION
%----------------------------------------------------------------------------------------
\subsection
{
基于枢轴语的方法
}
\subsection
{
基于枢轴语
言
的方法
}
\parinterval
传统的多语言翻译中,广泛使用的是
{
\small\bfnew
{
基于枢轴语言的翻译
}}
(Pivot-based Translation)
\upcite
{
DBLP:conf/emnlp/KimPPKN19
}
。在这种方法中,会使用一种数据丰富语言作为
{
\small\bfnew
{
中介语言
}}
或者
{
\small\bfnew
{
枢轴语言
}}
(Pivot Language),之后让源语言和目标语言向枢轴语言进行翻译。这样,通过资源丰富的中介语言将源语言和目标语言桥接在一起,达到解决源语言-目标语言双语数据缺乏的问题。比如,想要得到泰语到波兰语的翻译,可以通过英语做枢轴语言。通过“泰语
$
\to
$
英语
$
\to
$
波兰语”的翻译过程完成泰语到波兰语的转换。
...
...
编写
预览
Markdown
格式
0%
重试
或
添加新文件
添加附件
取消
您添加了
0
人
到此讨论。请谨慎行事。
请先完成此评论的编辑!
取消
请
注册
或者
登录
后发表评论