Skip to content
项目
群组
代码片段
帮助
当前项目
正在载入...
登录 / 注册
切换导航面板
M
mtbookv2
概览
Overview
Details
Activity
Cycle Analytics
版本库
Repository
Files
Commits
Branches
Tags
Contributors
Graph
Compare
Charts
问题
0
Issues
0
列表
Board
标记
里程碑
合并请求
0
Merge Requests
0
CI / CD
CI / CD
流水线
作业
日程表
图表
维基
Wiki
代码片段
Snippets
成员
Collapse sidebar
Close sidebar
活动
图像
聊天
创建新问题
作业
提交
Issue Boards
Open sidebar
NiuTrans
mtbookv2
Commits
a6a8e910
Commit
a6a8e910
authored
Jan 15, 2021
by
曹润柘
Browse files
Options
Browse Files
Download
Plain Diff
合并分支 'caorunzhe' 到 'master'
Caorunzhe 查看合并请求
!919
parents
46947162
df534c62
隐藏空白字符变更
内嵌
并排
正在显示
4 个修改的文件
包含
66 行增加
和
54 行删除
+66
-54
Chapter13/Figures/figure-difference-between-word-level-and-sequence-level-in-knowledge-distillation.tex
+11
-3
Chapter13/Figures/figure-unk-of-bpe.tex
+2
-2
Chapter13/chapter13.tex
+44
-40
Chapter17/chapter17.tex
+9
-9
没有找到文件。
Chapter13/Figures/figure-difference-between-word-level-and-sequence-level-in-knowledge-distillation.tex
查看文件 @
a6a8e910
...
...
@@ -13,6 +13,7 @@
\coordinate
(topright) at ([shift=
{
(0.25cm,0.25cm)
}
]prob11.center);
\node
[draw,fit=(prob11) (prob21) (prob31) (prob41) (prob51) (topright) (bottomleft)] (prob1)
{}
;
\end{pgfonlayer}
% \node [anchor=center] (word11) at ([yshift=0.7cm]prob11.center) {I};
% Column 2
\node
[prob,minimum size=0.1cm,anchor=center] (prob12) at ([xshift=1cm]prob11.center)
{}
;
...
...
@@ -25,6 +26,7 @@
\coordinate
(topright) at ([shift=
{
(0.25cm,0.25cm)
}
]prob12.center);
\node
[draw,fit=(prob12) (prob22) (prob32) (prob42) (prob52) (topright) (bottomleft)] (prob2)
{}
;
\end{pgfonlayer}
% \node [anchor=center] (word12) at ([yshift=0.68cm]prob12.center) {am};
% Column 3
\node
[prob,minimum size=0.1cm,anchor=center] (prob13) at ([xshift=1cm]prob12.center)
{}
;
...
...
@@ -37,6 +39,7 @@
\coordinate
(topright) at ([shift=
{
(0.25cm,0.25cm)
}
]prob13.center);
\node
[draw,fit=(prob13) (prob23) (prob33) (prob43) (prob53) (topright) (bottomleft)] (prob3)
{}
;
\end{pgfonlayer}
% \node [anchor=center] (word13) at ([yshift=0.7cm]prob13.center) {fine};
% Column 4
\node
[prob,minimum size=0.5cm,anchor=center] (prob14) at ([xshift=1cm]prob13.center)
{$
.
8
$}
;
...
...
@@ -49,9 +52,10 @@
\coordinate
(topright) at ([shift=
{
(0.25cm,0.25cm)
}
]prob14.center);
\node
[draw,fit=(prob14) (prob24) (prob34) (prob44) (prob54) (topright) (bottomleft)] (prob4)
{}
;
\end{pgfonlayer}
% \node [anchor=center] (word14) at ([yshift=0.68cm]prob14.center) {$\langle$eos$\rangle$};
% Label
\draw
[decorate,decoration=
{
brace
}
] ([
yshift=0.1cm]prob1.north west) to node [midway,above,font=
\small
]
{
学习目标(Teacher输出)
}
([yshift=0.1cm]prob4.nor
th east);
\draw
[decorate,decoration=
{
brace
}
] ([
xshift=0.1cm]prob4.north east) to node [midway,right,font=
\small
,align=center]
{
教师
\\
模型
\\
输出
\\
分布
}
([xshift=0.1cm]prob4.sou
th east);
% Vocab
\node
[word,anchor=center] () at ([xshift=-0.9cm]prob11.center)
{$
\langle
$
eos
$
\rangle
$}
;
...
...
@@ -84,7 +88,7 @@
\node
[word,anchor=north] () at ([xshift=2.1cm,yshift=-0.5cm]ns.south)
{
(a)
\
Word-level
}
;
\end{scope}
\begin{scope}
[xshift=2.
5
in]
\begin{scope}
[xshift=2.
7
in]
% Column 1
\node
[prob,minimum size=0.1cm] (prob11) at (0,0)
{}
;
\node
[prob,minimum size=0.5cm,anchor=center] (prob21) at ([yshift=-0.5cm]prob11.center)
{$
1
.
$}
;
...
...
@@ -96,6 +100,7 @@
\coordinate
(topright) at ([shift=
{
(0.25cm,0.25cm)
}
]prob11.center);
\node
[draw,fit=(prob11) (prob21) (prob31) (prob41) (prob51) (topright) (bottomleft)] (prob1)
{}
;
\end{pgfonlayer}
\node
[anchor=center] (word11) at ([yshift=0.7cm]prob11.center)
{
I
}
;
% Column 2
\node
[prob,minimum size=0.1cm,anchor=center] (prob12) at ([xshift=1cm]prob11.center)
{}
;
...
...
@@ -108,6 +113,7 @@
\coordinate
(topright) at ([shift=
{
(0.25cm,0.25cm)
}
]prob12.center);
\node
[draw,fit=(prob12) (prob22) (prob32) (prob42) (prob52) (topright) (bottomleft)] (prob2)
{}
;
\end{pgfonlayer}
\node
[anchor=center] (word12) at ([yshift=0.68cm]prob12.center)
{
am
}
;
% Column 3
\node
[prob,minimum size=0.1cm,anchor=center] (prob13) at ([xshift=1cm]prob12.center)
{}
;
...
...
@@ -120,6 +126,7 @@
\coordinate
(topright) at ([shift=
{
(0.25cm,0.25cm)
}
]prob13.center);
\node
[draw,fit=(prob13) (prob23) (prob33) (prob43) (prob53) (topright) (bottomleft)] (prob3)
{}
;
\end{pgfonlayer}
\node
[anchor=center] (word13) at ([yshift=0.68cm]prob13.center)
{
good
}
;
% Column 4
\node
[prob,minimum size=0.5cm,anchor=center] (prob14) at ([xshift=1cm]prob13.center)
{$
1
.
$}
;
...
...
@@ -132,9 +139,10 @@
\coordinate
(topright) at ([shift=
{
(0.25cm,0.25cm)
}
]prob14.center);
\node
[draw,fit=(prob14) (prob24) (prob34) (prob44) (prob54) (topright) (bottomleft)] (prob4)
{}
;
\end{pgfonlayer}
\node
[anchor=center] (word14) at ([yshift=0.68cm]prob14.center)
{$
\langle
$
eos
$
\rangle
$}
;
% Label
\draw
[decorate,decoration=
{
brace
}
] ([
yshift=0.1cm]prob1.north west) to node [midway,above,font=
\small
]
{
学习目标(Teacher输出)
}
([yshift=0.1cm]prob4.nor
th east);
\draw
[decorate,decoration=
{
brace
}
] ([
xshift=0.1cm]prob4.north east) to node [midway,right,font=
\small
,align=center]
{
教师
\\
模型
\\
输出
\\
译文
}
([xshift=0.1cm]prob4.sou
th east);
% Vocab
\node
[word,anchor=center] () at ([xshift=-0.9cm]prob11.center)
{$
\langle
$
eos
$
\rangle
$}
;
...
...
Chapter13/Figures/figure-unk-of-bpe.tex
查看文件 @
a6a8e910
...
...
@@ -7,7 +7,7 @@
\end{tabular}
}
;
\node
[font=\footnotesize,anchor=north]
(l1) at ([xshift=0em,yshift=-1em]top.south)
{
(a) 符号合并表
}
;
\node
[font=\scriptsize,anchor=west]
(n1) at ([xshift=-
6
em,yshift=-6em]top.west)
{
l
\
o
\
w
\
e
\
r
\
$
<
$
e
$
>
$}
;
\node
[font=\scriptsize,anchor=west]
(n1) at ([xshift=-
4.5
em,yshift=-6em]top.west)
{
l
\
o
\
w
\
e
\
r
\
$
<
$
e
$
>
$}
;
\node
[font=\scriptsize,anchor=west]
(n2) at ([xshift=2.6em]n1.east)
{
l
\
o
\
w
\
e
\
{
\red
r
$
<
$
e
$
>
$}}
;
\node
[font=\scriptsize,anchor=west]
(n3) at ([xshift=2.6em]n2.east)
{{
\red
lo
}
\
w
\
e
\
r
$
<
$
e
$
>
$}
;
\node
[font=\scriptsize,anchor=west]
(n4) at ([xshift=2.6em]n3.east)
{{
\red
low
}
\
e
\
r
$
<
$
e
$
>
$}
;
...
...
@@ -20,7 +20,7 @@
\node
[font=\scriptsize,anchor=west]
(t5) at ([xshift=0.8em]t4.east)
{{
\red
low
}
\
est
\
$
<
$
e
$
>
$}
;
\node
[font=\scriptsize,anchor=west]
(t6) at ([xshift=0.8em]t5.east)
{
low
\
{
\red
est
$
<
$
e
$
>
$}}
;
\node
[font=\footnotesize,anchor=north]
(l2) at ([xshift=
1.5
em,yshift=-1em]t3.south)
{
(b) 合并样例
}
;
\node
[font=\footnotesize,anchor=north]
(l2) at ([xshift=
2
em,yshift=-1em]t3.south)
{
(b) 合并样例
}
;
\draw
[->,thick]
(n1.east) -- (n2.west);
\draw
[->,thick]
(n2.east) -- (n3.west);
...
...
Chapter13/chapter13.tex
查看文件 @
a6a8e910
...
...
@@ -44,7 +44,7 @@
\sectionnewpage
\section
{
开放词表
}
\parinterval
对于神经机器翻译而言,
我们通常希望使用更大的词表完成模型训练。因为大词表可以覆盖更多的语言现象,使模型对不同的语言现象有更强的区分能力。但是,人类的语言表达方式是十分多样的,这也体现在单词的构成上,甚至我们都无法想象数据中存在的不同单词的数量。比如,在WMT、CCMT等评测数据上,英语词表大小都会在100万以上。当然,这里面也包括很多的数字和字母的混合,还有一些组合词。不过,如果不加限制,机器翻译所面对的词表将会很“大”。这也会导致模型参数量变大,模型训练变得极为困难。更严重的问题是,测试数据中的一些单词根本就没有在训练数据中出现过,这时会出现未登录词翻译问题(或OOV
问题),即系统无法对未见单词进行翻译。在神经机器翻译中,通常会考虑使用更小的翻译单元来缓解以上问题,因为小颗粒度的单元可以有效缓解数据稀疏问题。
\parinterval
对于神经机器翻译而言,
研究人员通常希望使用更大的词表完成模型训练。因为大词表可以覆盖更多的语言现象,使模型对不同的语言现象有更强的区分能力。但是,人类的语言表达方式是十分多样的,这也体现在单词的构成上,甚至人们都无法想象数据中存在的不同单词的数量。比如,在WMT、CCMT等评测数据上,英语词表大小都会在100万以上。当然,这里面也包括很多的数字和字母的混合,还有一些组合词。不过,如果不加限制,机器翻译所面对的词表将会很“大”。这也会导致模型参数量变大,模型训练变得极为困难。更严重的问题是,测试数据中的一些单词根本就没有在训练数据中出现过,这时会出现未登录词翻译问题(即OOV
问题),即系统无法对未见单词进行翻译。在神经机器翻译中,通常会考虑使用更小的翻译单元来缓解以上问题,因为小颗粒度的单元可以有效缓解数据稀疏问题。
%----------------------------------------------------------------------------------------
% NEW SUB-SECTION
...
...
@@ -62,7 +62,7 @@
\vspace
{
0.5em
}
\end{itemize}
\parinterval
理想情况下,机器翻译应该是一个
{
\small\bfnew
{
开放词表
}}
\index
{
开放词表
}
(Open Vocabulary)
\index
{
Open Vocabulary
}
的翻译任务。也就是,无论测试数据中包含什么样的词,机器翻译系统都应该能够正常翻译。但是,现实的情况是即使不断扩充词表,也不可能覆盖所有可能的单词。这个问题在使用受限词表时会更加严重,因为低频词和未见过的词都会被看作未登录词。这时会将这些单词用<UNK>代替。通常,数据中<UNK>的数量会直接影响翻译性能,过多的<UNK>会造成欠翻译、结构混乱等问题。因此神经机器翻译需要额外的机制解决大词表和未登录词问题。
\parinterval
理想情况下,机器翻译应该是一个
{
\small\bfnew
{
开放词表
}}
\index
{
开放词表
}
(Open Vocabulary)
\index
{
Open Vocabulary
}
的翻译任务。也就是,无论测试数据中包含什么样的词,机器翻译系统都应该能够正常翻译。但是,现实的情况是即使不断扩充词表,也不可能覆盖所有可能的单词。这个问题在使用受限词表时会更加严重,因为低频词和未见过的词都会被看作未登录词。这时会将这些单词用
符号
<UNK>代替。通常,数据中<UNK>的数量会直接影响翻译性能,过多的<UNK>会造成欠翻译、结构混乱等问题。因此神经机器翻译需要额外的机制解决大词表和未登录词问题。
%----------------------------------------------------------------------------------------
% NEW SUB-SECTION
...
...
@@ -70,13 +70,13 @@
\subsection
{
子词
}
\parinterval
一种解决开放词表翻译问题的
方法
是改造输出层结构
\upcite
{
garcia-martinez2016factored,DBLP:conf/acl/JeanCMB15
}
,比如,替换原始的Softmax层,用更加高效的神经网络结构进行超大规模词表上的预测。不过,模型结构和训练方法的调整使得系统开发与调试的工作量增加,并且这类方法仍然无法解决未登录词问题,因此在实用系统中并不常用。
\parinterval
一种解决开放词表翻译问题的
思路
是改造输出层结构
\upcite
{
garcia-martinez2016factored,DBLP:conf/acl/JeanCMB15
}
,比如,替换原始的Softmax层,用更加高效的神经网络结构进行超大规模词表上的预测。不过,模型结构和训练方法的调整使得系统开发与调试的工作量增加,并且这类方法仍然无法解决未登录词问题,因此在实用系统中并不常用。
\parinterval
另一种思路是不改变机器翻译系统,而是从数据处理的角度来缓解未登录词问题。既然使用单词会带来数据稀疏问题,那么自然会想到使用更小的单元。比如,把字符作为最小的翻译单元
\footnote
{
汉语里的字符可以被看作是汉字。
}
\ \dash
\
也就是基于字符的翻译模型
\upcite
{
DBLP:journals/tacl/LeeCH17
}
。以英语为例,只需要构造一个包含26个英语字母、数字和一些特殊符号的字符表,便可以表示所有的单词。
\parinterval
但是字符级翻译也面临着新的问题
\ \dash\
使用字符增加了系统捕捉不同语言单元之间搭配的难度。假设平均一个单词由5个字符组成,系统所处理的序列长度便增大5倍。这使得具有独立意义的不同语言单元需要跨越更远的距离才能产生联系。此外,基于字符的方法也破坏了单词中天然存在的构词规律,或者说破坏了单词内字符的局部依赖。比如,英语单词“telephone”中的“tele”和“phone”都是有具体意义的词缀,但是如果把它们打散为字符就失去了这些含义。
\parinterval
那么有没有一种方式能够兼顾基于单词和基于字符方法的优点呢?常用的手段包括两种,一种是采用字词融合的方式构建词表,将未知单词转换为字符的序列并通过特殊的标记将其与普通的单词区分开来
\upcite
{
luong2016acl
_
hybrid
}
。而另一种方式是将单词切分为
{
\small\bfnew
{
子词
}}
\index
{
子词
}
(Sub-word)
\index
{
Sub-word
}
,它是介于单词和字符中间的一种语言单元表示形式。比如,将英语单词“doing”切分为“do”+“ing”。对于形态学丰富的语言来说,子词体现了一种具有独立意义的构词基本单元。如图
\ref
{
fig:13-2
}
,子词“do”和“new”
在
可以用于组成其他不同形态的单词。
\parinterval
那么有没有一种方式能够兼顾基于单词和基于字符方法的优点呢?常用的手段包括两种,一种是采用字词融合的方式构建词表,将未知单词转换为字符的序列并通过特殊的标记将其与普通的单词区分开来
\upcite
{
luong2016acl
_
hybrid
}
。而另一种方式是将单词切分为
{
\small\bfnew
{
子词
}}
\index
{
子词
}
(Sub-word)
\index
{
Sub-word
}
,它是介于单词和字符中间的一种语言单元表示形式。比如,将英语单词“doing”切分为“do”+“ing”。对于形态学丰富的语言来说,子词体现了一种具有独立意义的构词基本单元。如图
\ref
{
fig:13-2
}
,子词“do”和“new”可以用于组成其他不同形态的单词。
%----------------------------------------------
\begin{figure}
[htp]
...
...
@@ -107,15 +107,15 @@
\subsection
{
双字节编码
}
\parinterval
字节对编码或双字节编码(BPE)是一种常用的子词词表构建方法。BPE方法最早用于数据压缩,该方法将数据中常见的连续字符串替换为一个不存在的字符,之后通过构建一个替换关系的对应表,对压缩后的数据进行还原
\upcite
{
Gage1994ANA
}
。机器翻译借用了这种思想,把子词切分看作是学习对自然语言句子进行压缩编码表示的问题
\upcite
{
DBLP:conf/acl/SennrichHB16a
}
。其目的是,保证编码
后的结果(即子词切分)
占用的字节尽可能少。这样,子词单元会尽可能被不同单词复用,同时又不会因为使用过小的单元造成子词切分序列过长。
\parinterval
字节对编码或双字节编码(BPE)是一种常用的子词词表构建方法。BPE方法最早用于数据压缩,该方法将数据中常见的连续字符串替换为一个不存在的字符,之后通过构建一个替换关系的对应表,对压缩后的数据进行还原
\upcite
{
Gage1994ANA
}
。机器翻译借用了这种思想,把子词切分看作是学习对自然语言句子进行压缩编码表示的问题
\upcite
{
DBLP:conf/acl/SennrichHB16a
}
。其目的是,保证编码
(即子词切分)后的结果
占用的字节尽可能少。这样,子词单元会尽可能被不同单词复用,同时又不会因为使用过小的单元造成子词切分序列过长。
\parinterval
图
\ref
{
fig:13-3
}
给出了BPE算法执行的实例。其中预先设定的合并表的大小为10。在得到了符号合并表后,便需要对用字符表示的单词进行合并,得到以子词形式表示的文本。首先,将单词切分为以字符表示的符号序列,并在尾部加上终结符(为了便于理解图
\ref
{
fig:13-3
}
中没有包含终结符)。然后按照符号合并表的顺序依次遍历,如果存在相同
的2-gram符号组合,则对其进行合并,直至遍历结束。图
\ref
{
fig:13-4
}
给出了一个使用字符合并表对单词进行子词切分的实例。红色单元为每次合并后得到的新符号,直至无法合并,或遍历结束,得到最终的合并结果。其中每一个单元为一个子词。
\parinterval
使用BPE算法进行子词切分包含两个步骤。首先,通过统计的方法构造符号合并表,图
\ref
{
fig:13-3
}
给出了BPE算法中符号合并表的构造过程。在得到了符号合并表后,使用符号合并表对用字符表示的单词进行合并,得到以子词形式表示的文本。BPE算法最开始将单词切分为以字符表示的符号序列,并在尾部加上终结符(为了便于理解,图
\ref
{
fig:13-3
}
中没有包含终结符)。然后按照符号合并表的顺序依次遍历,找到存在于符号合并表
的2-gram符号组合,则对其进行合并,直至遍历结束。图
\ref
{
fig:13-4
}
给出了一个使用字符合并表对单词进行子词切分的实例。红色单元为每次合并后得到的新符号,直至无法合并,或遍历结束,得到最终的合并结果。其中每一个单元为一个子词。
%----------------------------------------------
\begin{figure}
[htp]
\centering
\input
{
./Chapter13/Figures/figure-bpe
}
\caption
{
BPE
算法运行实例
}
\caption
{
BPE
算法中符号合并表的生成过程
}
\label
{
fig:13-3
}
\end{figure}
%----------------------------------------------
...
...
@@ -131,9 +131,9 @@
\parinterval
使用BPE方法后,翻译模型的输出也是子词序列,因此需要对最终得到的翻译结果进行子词还原,即将子词形式表达的单元重新组合为原本的单词。这一步操作也十分简单,只需要不断的将每个子词向后合并,直至遇到表示单词边界的结束符,便得到了一个完整的单词。
\parinterval
使用BPE方法的策略有很多。不仅可以单独对源语言和目标语言句子进行子词的切分,也可以联合两种语言,共同进行子词切分,被称作
{
\small\bfnew
{
双字节联合编码
}}
\index
{
双字节联合编码
}
(Joint-BPE
\index
{
Joint-BPE
}
)
\upcite
{
DBLP:conf/acl/SennrichHB16a
}
。 相比于单语BPE,Joint-BPE可以增加两种语言子词切分的一致性。对于相似语系中的语言,如英语和德语,常使用Joint-BPE 的方法联合构建词表。而对于汉语和英语这些差异比较大的语种,则需要独立
的
进行子词切分。
\parinterval
使用BPE方法的策略有很多。不仅可以单独对源语言和目标语言句子进行子词的切分,也可以联合两种语言,共同进行子词切分,被称作
{
\small\bfnew
{
双字节联合编码
}}
\index
{
双字节联合编码
}
(Joint-BPE
\index
{
Joint-BPE
}
)
\upcite
{
DBLP:conf/acl/SennrichHB16a
}
。 相比于单语BPE,Joint-BPE可以增加两种语言子词切分的一致性。对于相似语系中的语言,如英语和德语,常使用Joint-BPE 的方法联合构建词表。而对于汉语和英语这些差异比较大的语种,则需要独立
地
进行子词切分。
\parinterval
BPE还有很多变种方法。比如,可以设计更合理的符号合并优先级。这种方法的出发点在于,在不考虑优先级的情况下,在对一个单词用同一个合并表切分子词时,可能存在多种结果。如hello,可以被切分为“hell”和“o”,也可以
分割为“h” 和“ello”。 这种切分的多样性可以用来提高神经机器翻译系统的健壮性
\upcite
{
DBLP:conf/acl/Kudo18
}
。此外,尽管BPE被命名为字节对编码,但是在实践中该方法一般处理的是Unicode编码,而不是字节。因此在预训练模型GPT2 中,
也探索了字节级别的BPE,这种方法在机器翻译、自动问答等任务中取得了很好的效果
\upcite
{
radford2019language
}
。
\parinterval
BPE还有很多变种方法。比如,可以设计更合理的符号合并优先级。这种方法的出发点在于,在不考虑优先级的情况下,在对一个单词用同一个合并表切分子词时,可能存在多种结果。如hello,可以被切分为“hell”和“o”,也可以
被切分为“h” 和“ello”。 这种切分方式的多样性可以用来提高神经机器翻译系统的健壮性
\upcite
{
DBLP:conf/acl/Kudo18
}
。此外,尽管BPE也被命名为字节对编码,但是在实践中该方法一般处理的是Unicode编码,而不是字节。相应的,在预训练模型GPT2 中
也探索了字节级别的BPE,这种方法在机器翻译、自动问答等任务中取得了很好的效果
\upcite
{
radford2019language
}
。
%----------------------------------------------------------------------------------------
% NEW SUB-SECTION
...
...
@@ -164,7 +164,7 @@
\sectionnewpage
\section
{
正则化
}
\label
{
subsection-13.2
}
\parinterval
正则化是机器学习中的经典技术,通常用于缓解过拟合问题。正则化的概念源自线性代数和代数几何。在实践中,它更多的是指对
{
\small\bfnew
{
反问题
}}
\index
{
反问题
}
(The Inverse Problem)
\index
{
Inverse Problem
}
的一种求解方式。假设输入
$
x
$
和输出
$
y
$
之间存在一种映射
$
f
$
\parinterval
正则化是机器学习中的经典技术,通常用于缓解过拟合问题。正则化的概念源自线性代数和代数几何。在实践中,它更多的是指对
{
\small\bfnew
{
反问题
}}
\index
{
反问题
}
(The Inverse Problem)
\index
{
Inverse Problem
}
的一种求解方式。假设输入
$
x
$
和输出
$
y
$
之间存在一种映射
$
f
$
:
\begin{eqnarray}
y
&
=
&
f(x)
\label
{
eq:13-1
}
...
...
@@ -172,7 +172,7 @@ y &=& f(x)
\noindent
反问题是指:当观测到
$
y
$
时,能否求出
$
x
$
。反问题对应了很多实际问题,比如,可以把
$
y
$
看作经过美化的图片,
$
x
$
看作原始的图片,反问题就对应了图片还原。机器翻译的训练也是一种反问题,因为可以把
$
y
$
看作是正确的译文,
$
x
$
看作是输入句子或者模型参数
\footnote
{
在训练中,如果把源语言句子看作是不变的量,这时函数
$
f
(
\cdot
)
$
的输入只有模型参数。
}
。
\parinterval
理想的情况下,
我们
希望反问题的解是
{
\small\bfnew
{
适定的
}}
\index
{
适定的
}
(Well-posed)
\index
{
Well-posed
}
。所谓适定解,需要满足三个条件:解是存在的、解是唯一的、解是稳定的(即
$
y
$
微小的变化会导致
$
x
$
微小的变化,也被称作解连续)。所有不存在唯一稳定解的问题都被称作
{
\small\bfnew
{
不适定问题
}}
\index
{
不适定问题
}
(Ill-posed Problem)
\index
{
Ill-posed Problem
}
。对于机器学习问题,解的存在性比较容易理解。解的唯一性大多由问题决定。比如,如果把描述问题的函数
$
f
(
\cdot
)
$
看作一个
$
n
\times
n
$
矩阵
$
\mathbi
{
A
}$
,
$
x
$
和
$
y
$
都看作是
$
n
$
维向量。那么
$
x
$
不唯一的原因在于
$
\mathbi
{
A
}$
不满秩(非奇异矩阵)。不过,存在性和唯一性并不会对机器学习方法造成太大困扰,因为在实践中往往会找到近似的解。
\parinterval
理想的情况下,
研究人员
希望反问题的解是
{
\small\bfnew
{
适定的
}}
\index
{
适定的
}
(Well-posed)
\index
{
Well-posed
}
。所谓适定解,需要满足三个条件:解是存在的、解是唯一的、解是稳定的(即
$
y
$
微小的变化会导致
$
x
$
微小的变化,也被称作解连续)。所有不存在唯一稳定解的问题都被称作
{
\small\bfnew
{
不适定问题
}}
\index
{
不适定问题
}
(Ill-posed Problem)
\index
{
Ill-posed Problem
}
。对于机器学习问题,解的存在性比较容易理解。解的唯一性大多由问题决定。比如,如果把描述问题的函数
$
f
(
\cdot
)
$
看作一个
$
n
\times
n
$
矩阵
$
\mathbi
{
A
}$
,
$
x
$
和
$
y
$
都看作是
$
n
$
维向量。那么
$
x
$
不唯一的原因在于
$
\mathbi
{
A
}$
不满秩(非奇异矩阵)。不过,存在性和唯一性并不会对机器学习方法造成太大困扰,因为在实践中往往会找到近似的解。
\parinterval
但是,解的稳定性却给神经机器翻译带来了很大的挑战。因为神经机器翻译模型非常复杂,里面存在大量的矩阵乘法和非线性变换。这导致
$
f
(
\cdot
)
$
往往是不稳定的,也就是说,神经机器翻译中输出
$
y
$
的微小变化会导致输入
$
x
$
的巨大变化。比如,在系统研发中经常会发现,即使训练样本发生很小的变化,模型训练得到的参数都会有非常明显的区别。不仅如此,在神经机器翻译模型中,稳定性训练还面临两方面问题:
...
...
@@ -203,7 +203,7 @@ y &=& f(x)
\noindent
其中,
$
\mathbi
{
w
}$
是模型参数,
$
L
(
\mathbi
{
w
}
)
$
是损失函数,
$
R
(
\mathbi
{
w
}
)
$
是正则项,
$
\lambda
$
是正则项的系数,用于控制正则化对训练影响的程度。
$
R
(
\mathbi
{
w
}
)
$
通常也可以被看作是一种先验,因为在数据不充分且存在噪声的情况下,可以根据一些先验知识让模型偏向正确的方向一些,而不是一味地根据受噪声影响的不准确的
$
L
(
\mathbi
{
w
}
)
$
进行优化。相应的,引入正则化后的模型可以获得更好的
{
\small\bfnew
{
泛化
}}
\index
{
泛化
}
(Generalization)
\index
{
Generalization
}
能力,即模型在新的未见数据上表现会更好。
\parinterval
实践中已经证明,正则化方法有助于使得像神经机器翻译模型这样复杂模型获得稳定的模型参数。甚至有些情况下,如果不引入正则化,训练得到的翻译模型根本无法使用。此外,正则化方法不仅可以用于提高模型的泛化能力,也可以作为干预模型学习的一种手段,比如,可以将一些先验知识作为正则项约束机器翻译模型的学习。类似的手段在本书后续的内容中也会
得到
使用。
\parinterval
实践中已经证明,正则化方法有助于使得像神经机器翻译模型这样复杂模型获得稳定的模型参数。甚至有些情况下,如果不引入正则化,训练得到的翻译模型根本无法使用。此外,正则化方法不仅可以用于提高模型的泛化能力,也可以作为干预模型学习的一种手段,比如,可以将一些先验知识作为正则项约束机器翻译模型的学习。类似的手段在本书后续的内容中也会
被
使用。
%----------------------------------------------------------------------------------------
% NEW SUB-SECTION
...
...
@@ -245,7 +245,7 @@ R(\mathbi{w}) & = & ({\Vert{\mathbi{w}}\Vert}_2)^2 \\
\label
{
eq:13-5
}
\end{eqnarray}
\noindent
这里,
$
\alpha
$
表示一个系数,用于控制分布
$
\mathbi
{
q
}$
的重要性。
\noindent
这里,
$
\alpha
$
表示一个系数,用于控制分布
$
\mathbi
{
q
}$
的重要性
,
$
\mathbi
{
y
}_{
j
}^{
ls
}$
表示使用标签平滑后的学习目标
。
\parinterval
标签平滑实际上定义了一种“软”标签,使得所有标签都可以分到一些概率。一方面可以缓解数据中噪声的影响,另一方面目标分布会更合理(显然,真实的分布不应该是One-hot分布)。图
\ref
{
fig:13-6
}
展示了标签平滑前后的损失函数计算结果的对比。
...
...
@@ -266,7 +266,7 @@ R(\mathbi{w}) & = & ({\Vert{\mathbi{w}}\Vert}_2)^2 \\
\subsection
{
Dropout
}
\parinterval
神经机器翻译模型是一种典型的多层神经网络模型。每一层都包含若干神经元,负责接收前一层所有神经元的输出,之后进行诸如乘法、加法等变换操作,并有选择地使用非线性的激活函数,最终得到当前层每个神经元的输出。从模型最终预测的角度看,每个神经元都在参与最终的预测。理想的情况下,
我们
希望每个神经元都能相互独立的做出“贡献”。这样的模型会更加健壮,因为即使一部分神经元不能正常工作,其它神经元仍然可以独立做出合理的预测。但是,随着每一层神经元数量的增加以及网络结构的复杂化,神经元之间会出现
{
\small\bfnew
{
相互适应
}}
\index
{
相互适应
}
(Co-Adaptation)
\index
{
Co-Adaptation
}
的现象。所谓相互适应是指,一个神经元对输出的贡献与同一层其它神经元的行为是相关的,也就是说这个神经元已经适应到它周围的“环境”中。
\parinterval
神经机器翻译模型是一种典型的多层神经网络模型。每一层都包含若干神经元,负责接收前一层所有神经元的输出,之后进行诸如乘法、加法等变换操作,并有选择地使用非线性的激活函数,最终得到当前层每个神经元的输出。从模型最终预测的角度看,每个神经元都在参与最终的预测。理想的情况下,
研究人员
希望每个神经元都能相互独立的做出“贡献”。这样的模型会更加健壮,因为即使一部分神经元不能正常工作,其它神经元仍然可以独立做出合理的预测。但是,随着每一层神经元数量的增加以及网络结构的复杂化,神经元之间会出现
{
\small\bfnew
{
相互适应
}}
\index
{
相互适应
}
(Co-Adaptation)
\index
{
Co-Adaptation
}
的现象。所谓相互适应是指,一个神经元对输出的贡献与同一层其它神经元的行为是相关的,也就是说这个神经元已经适应到它周围的“环境”中。
\parinterval
相互适应的好处在于神经网络可以处理更加复杂的问题,因为联合使用两个神经元要比单独使用每个神经元的表示能力强。这也类似于传统机器学习任务中往往会设计一些高阶特征,比如自然语言序列标注中对2-gram和3-gram的使用。不过另一方面,相互适应会导致模型变得更加“脆弱”。因为相互适应的神经元可以更好的描述训练数据中的现象,但是在测试数据上,由于很多现象是未见的,细微的扰动会导致神经元无法适应。具体体现出来就是过拟合问题。
...
...
@@ -281,7 +281,7 @@ R(\mathbi{w}) & = & ({\Vert{\mathbi{w}}\Vert}_2)^2 \\
\end{figure}
%----------------------------------------------
\parinterval
具体实现时,可以设置一个参数
$
p
\in
(
0
,
1
)
$
。在每次参数更新所使用的前向和反向计算中,每个神经元都以概率
$
p
$
停止工作。相当于每层神经网络会有以
$
p
$
为
比例
的神经元被“屏蔽”掉。每一次参数更新中会随机屏蔽不同的神经元,图
\ref
{
fig:13-8
}
给出了Dropout方法和传统方法计算方式的对比。其中,
$
x
_{
i
}^{
l
}$
代表第
$
l
$
层神经网络的第
$
i
$
个输入,
$
w
_{
i
}^{
l
}$
为输入所对应的权重,
$
b
^{
l
}$
表示第
$
l
$
层神经网络输入的偏置,
$
z
_{
i
}^{
l
+
1
}$
表示第
$
l
$
层神经网络的线性运算的结果,
$
f
(
\cdot
)
$
表示激活函数,
$
r
_{
j
}^{
l
}$
的值服从于参数为
$
1
-
p
$
的伯努利分布。
\parinterval
具体实现时,可以设置一个参数
$
p
\in
(
0
,
1
)
$
。在每次参数更新所使用的前向和反向计算中,每个神经元都以概率
$
p
$
停止工作。相当于每层神经网络会有以
$
p
$
为
概率
的神经元被“屏蔽”掉。每一次参数更新中会随机屏蔽不同的神经元,图
\ref
{
fig:13-8
}
给出了Dropout方法和传统方法计算方式的对比。其中,
$
x
_{
i
}^{
l
}$
代表第
$
l
$
层神经网络的第
$
i
$
个输入,
$
w
_{
i
}^{
l
}$
为输入所对应的权重,
$
b
^{
l
}$
表示第
$
l
$
层神经网络输入的偏置,
$
z
_{
i
}^{
l
+
1
}$
表示第
$
l
$
层神经网络的线性运算的结果,
$
f
(
\cdot
)
$
表示激活函数,
$
r
_{
j
}^{
l
}$
的值服从于参数为
$
1
-
p
$
的伯努利分布。
%----------------------------------------------
\begin{figure}
[htp]
...
...
@@ -294,7 +294,7 @@ R(\mathbi{w}) & = & ({\Vert{\mathbi{w}}\Vert}_2)^2 \\
\parinterval
对于新的样本,可以使用Dropout训练之后的模型对其进行推断,但是每个神经元的输出要乘以
$
1
-
p
$
,以保证每层神经元输出的期望和训练时是一样的。另一种常用的做法是,在训练时对每个神经元的输出乘以
$
\frac
{
1
}{
1
-
p
}$
,然后在推断时神经网络可以不经过任何调整就直接使用。
\parinterval
Dropout方法的另一种解释是,在训练中屏蔽掉一些神经元相当于从原始的神经网络中抽取出了一个子网络。这样,每次训练都在一个随机生成的子网络上进行,而不同子网络之间的参数是共享的。在推断时,则把所有的子网络集成到一起。这种思想也有一些
{
\small\bfnew
{
集成学习
}}
\index
{
集成学习
}
(Ensemble Learning)
\index
{
Ensemble Learning
}
的味道
。
只不过Dropout中子模型(或子网络)是在指数级空间中采样出来的。由于Dropout可以很好的缓解复杂神经模型的过拟合问题,因此也成为了大多数神经机器翻译系统的标配。
\parinterval
Dropout方法的另一种解释是,在训练中屏蔽掉一些神经元相当于从原始的神经网络中抽取出了一个子网络。这样,每次训练都在一个随机生成的子网络上进行,而不同子网络之间的参数是共享的。在推断时,则把所有的子网络集成到一起。这种思想也有一些
{
\small\bfnew
{
集成学习
}}
\index
{
集成学习
}
(Ensemble Learning)
\index
{
Ensemble Learning
}
的味道
,
只不过Dropout中子模型(或子网络)是在指数级空间中采样出来的。由于Dropout可以很好的缓解复杂神经模型的过拟合问题,因此也成为了大多数神经机器翻译系统的标配。
\parinterval
随着网络层数的增多,相互适应也会出现在不同层之间,甚至会出现在多头注意力机制的不同头之间。因此,Dropout方法也可以用于对模型局部结构的屏蔽,比如,对多层神经网络中的层进行屏蔽,即Layer Dropout。 特别是对于深层神经网络,Layer Dropout 也是一种有效的防止过拟合的方法。关于Layer Dropout的内容在
{
\chapterfifteen
}
还会有详细讨论。
...
...
@@ -306,7 +306,7 @@ R(\mathbi{w}) & = & ({\Vert{\mathbi{w}}\Vert}_2)^2 \\
\section
{
对抗样本训练
}
\label
{
sec:adversarial-examples
}
\parinterval
同其它基于神经网络的方法一样,提高
{
\small\bfnew
{
健壮性
}}
\index
{
健壮性
}
(Robustness)
\index
{
Robustness
}
也是神经机器翻译研发中需要关注的。比如,大容量模型可以很好
的
拟合训练数据,但是当测试样本与训练样本差异较大时,会导致很糟糕的翻译结果
\upcite
{
JMLR:v15:srivastava14a,DBLP:conf/amta/MullerRS20
}
。另一方面,实践中也发现,有些情况下即使输入中有微小的扰动,神经网络模型的输出也会产生巨大变化。或者说,神经网络模型在输入样本上容易受到
{
\small\bfnew
{
攻击
}}
\index
{
攻击
}
(Attack)
\index
{
Attack
}
\upcite
{
DBLP:conf/sp/Carlini017,DBLP:conf/cvpr/Moosavi-Dezfooli16,DBLP:conf/acl/ChengJM19
}
。表
\ref
{
tab:13-1
}
展示了一个神经机器翻译系统的翻译结果,可以看到,把输入句子中的单词“jumped”换成“sunk”会得到完全不同的译文。这时神经机器翻译系统就存在健壮性问题。
\parinterval
同其它基于神经网络的方法一样,提高
{
\small\bfnew
{
健壮性
}}
\index
{
健壮性
}
(Robustness)
\index
{
Robustness
}
也是神经机器翻译研发中需要关注的。比如,大容量模型可以很好
地
拟合训练数据,但是当测试样本与训练样本差异较大时,会导致很糟糕的翻译结果
\upcite
{
JMLR:v15:srivastava14a,DBLP:conf/amta/MullerRS20
}
。另一方面,实践中也发现,有些情况下即使输入中有微小的扰动,神经网络模型的输出也会产生巨大变化。或者说,神经网络模型在输入样本上容易受到
{
\small\bfnew
{
攻击
}}
\index
{
攻击
}
(Attack)
\index
{
Attack
}
\upcite
{
DBLP:conf/sp/Carlini017,DBLP:conf/cvpr/Moosavi-Dezfooli16,DBLP:conf/acl/ChengJM19
}
。表
\ref
{
tab:13-1
}
展示了一个神经机器翻译系统的翻译结果,可以看到,把输入句子中的单词“jumped”换成“sunk”会得到完全不同的译文。这时神经机器翻译系统就存在健壮性问题。
%----------------------------------------------
\begin{table}
[htp]
{
...
...
@@ -347,7 +347,7 @@ R(\mathbi{w}) & = & ({\Vert{\mathbi{w}}\Vert}_2)^2 \\
\noindent
其中,
$
(
\mathbi
{
x
}
',
\mathbi
{
y
}
)
$
为输入中含有扰动的对抗样本,函数
$
\funp
{
C
}
(
\cdot
)
$
为模型。公式
\eqref
{
eq:13-8
}
中
$
\Psi
(
\mathbi
{
x
}
,
\mathbi
{
x
}
'
)
$
表示扰动后的输入
$
\mathbi
{
x
}
'
$
和原输入
$
\mathbi
{
x
}$
之间的距离,
$
\varepsilon
$
表示扰动的受限范围。当模型对包含噪声的数据容易给出较差的结果时,往往意味着该模型的抗干扰能力差,因此可以利用对抗样本检测现有模型的健壮性
\upcite
{
DBLP:conf/emnlp/JiaL17
}
。同时,采用类似数据增强的方式将对抗样本混合至训练数据中,能够使模型得到稳定的预测能力,这种方式也被称为对抗训练
\upcite
{
DBLP:journals/corr/GoodfellowSS14,DBLP:conf/emnlp/BekoulisDDD18,DBLP:conf/naacl/YasunagaKR18
}
。
\parinterval
通过对抗样本训练来提升模型健壮性的首要问题是:如何生成对抗样本。通过当前模型
$
\funp
{
C
}$
和样本
$
(
\mathbi
{
x
}
,
\mathbi
{
y
}
)
$
,生成对抗样本的过程被称为
{
\small\bfnew
{
对抗攻击
}}
\index
{
对抗攻击
}
(Adversarial Attack)
\index
{
Adversarial Attack
}
。对抗攻击可以被分为黑盒攻击和白盒攻击。在白盒攻击中,攻击算法可以访问模型的完整信息,包括模型结构、网络参数、损失函数、激活函数、输入和输出数据等。黑盒攻击通常依赖启发式方法来生成对抗样本
\upcite
{
DBLP:conf/emnlp/JiaL17
}
,由于这种攻击方式不需要知道神经网络的详细信息,仅仅通过访问模型的输入和输出就可以达到攻击的目的。并且
在黑盒攻击中,
由于神经网络其本身便是一个黑盒模型,因此在神经网络的相关应用中黑盒攻击方法更加实用。
\parinterval
通过对抗样本训练来提升模型健壮性的首要问题是:如何生成对抗样本。通过当前模型
$
\funp
{
C
}$
和样本
$
(
\mathbi
{
x
}
,
\mathbi
{
y
}
)
$
,生成对抗样本的过程被称为
{
\small\bfnew
{
对抗攻击
}}
\index
{
对抗攻击
}
(Adversarial Attack)
\index
{
Adversarial Attack
}
。对抗攻击可以被分为黑盒攻击和白盒攻击。在白盒攻击中,攻击算法可以访问模型的完整信息,包括模型结构、网络参数、损失函数、激活函数、输入和输出数据等。黑盒攻击通常依赖启发式方法来生成对抗样本
\upcite
{
DBLP:conf/emnlp/JiaL17
}
,由于这种攻击方式不需要知道神经网络的详细信息,仅仅通过访问模型的输入和输出就可以达到攻击的目的。并且由于神经网络其本身便是一个黑盒模型,因此在神经网络的相关应用中黑盒攻击方法更加实用。
\parinterval
在神经机器翻译中,输入所包含的细小的扰动会使模型变得脆弱
\upcite
{
DBLP:conf/iclr/BelinkovB18
}
。但是,图像中的对抗攻击方法难以直接应用于自然语言处理任务,因为图像和文本数据之间存在着一定的差异。对计算机而言,以像素值等表示的图像数据本身就是连续的
\upcite
{
DBLP:conf/naacl/MichelLNP19
}
,而文本中的一个个单词本身离散的。简单替换这些离散的单词,可能会生成语法错误或者语义错误的句子。而且,简单替换单词产生的扰动过大,模型很容易判别。即使对词嵌入等连续表示的部分进行扰动,也会产生无法与词嵌入空间中的任何词匹配的向量
\upcite
{
Gong2018AdversarialTW
}
。针对这些问题,下面着重介绍神经机器翻译任务中如何有效生成、使用对抗样本。
...
...
@@ -390,9 +390,9 @@ R(\mathbi{w}) & = & ({\Vert{\mathbi{w}}\Vert}_2)^2 \\
\subsection
{
基于白盒攻击的方法
}
\parinterval
除了在单词级别增加扰动以外,还可以在模型内部增加扰动。一种简单的方法是在每一个词的词嵌入上,累加一个正
太分布的变量,之后将其作为模型的最终输入。同时,可以在训练目标中
增加额外的训练目标。比如,迫使模型在接收到被扰动的输入后,编码器能够生成与正常输入类似的表示,解码器输出正确的翻译结果
\upcite
{
DBLP:conf/acl/LiuTMCZ18
}
。
\parinterval
除了在单词级别增加扰动以外,还可以在模型内部增加扰动。一种简单的方法是在每一个词的词嵌入上,累加一个正
态分布的变量,之后将其作为模型的最终输入。同时,可以在训练阶段
增加额外的训练目标。比如,迫使模型在接收到被扰动的输入后,编码器能够生成与正常输入类似的表示,解码器输出正确的翻译结果
\upcite
{
DBLP:conf/acl/LiuTMCZ18
}
。
\parinterval
还可以根据机器翻译的具体问题增加扰动。例如,针对同音字错误问题,可以将单词的发音转换为一个包含
$
n
$
个发音单元的发音序列,如音素,音节等
。
并训练相应的嵌入矩阵将每一个发音单元转换为对应的向量表示。对发音序列中发音单元的嵌入表示进行平均后,得到当前单词的发音表示。最后将词嵌入与单词的发音表示进行加权求和,并将结果作为模型的输入
\upcite
{
DBLP:conf/acl/LiuMHXH19
}
。通过这种方式可以提高模型对同音异形词的处理能力。除了在词嵌入层增加扰动,也可以在编码器输出中引入额外的噪声,能起到与在层输入中增加扰动相类似的效果
\upcite
{
DBLP:conf/acl/LiLWJXZLL20
}
。
\parinterval
还可以根据机器翻译的具体问题增加扰动。例如,针对同音字错误问题,可以将单词的发音转换为一个包含
$
n
$
个发音单元的发音序列,如音素,音节等
,
并训练相应的嵌入矩阵将每一个发音单元转换为对应的向量表示。对发音序列中发音单元的嵌入表示进行平均后,得到当前单词的发音表示。最后将词嵌入与单词的发音表示进行加权求和,并将结果作为模型的输入
\upcite
{
DBLP:conf/acl/LiuMHXH19
}
。通过这种方式可以提高模型对同音异形词的处理能力。除了在词嵌入层增加扰动,也可以在编码器输出中引入额外的噪声,能起到与在层输入中增加扰动相类似的效果
\upcite
{
DBLP:conf/acl/LiLWJXZLL20
}
。
\parinterval
此外,对于训练样本
$
(
\mathbi
{
x
}
,
\mathbi
{
y
}
)
$
,还可以使用基于梯度的方法来生成对抗样本
$
(
\mathbi
{
x
}
',
\mathbi
{
y
}
'
)
$
。例如,可以利用替换词与原始单词词向量之间的差值,以及候选词的梯度之间的相似度来生成对抗样本
\upcite
{
DBLP:conf/acl/ChengJM19
}
。以源语言为例,生成
$
\mathbi
{
x
}
'
$
中第
$
i
$
个词的过程可以被描述如下:
\begin{eqnarray}
...
...
@@ -417,7 +417,7 @@ Loss_{\textrm{robust}}(\theta_{\textrm{mt}}) &=& \frac{1}{N}\sum_{(\mathbi{x},\
\label
{
eq:13-12
}
\end{eqnarray}
\parinterval
无论是黑盒方法还是白盒方法,本质上都是通过增加噪声使得模型训练更加健壮。类似的思想在很多机器学习方法中都有体现,比如,最大熵模型中使用高斯噪声就是常用的增加模型健壮性的手段之一
\upcite
{
chen1999gaussian
}
。从噪声信道模型的角度看(见
{
\chapterfive
}
),翻译过程也可以被理解为一种加噪和去噪的过程,不论这种噪声是天然存在于数据中的,还是人为添加的。除了对抗样本训练,机器翻译所使用的降噪自编码方法和基于重构的损失函数
\upcite
{
DBLP:conf/icml/VincentLBM08,tu2017neural
}
,也都体现了类似的思想。广义上,这些方法也可以被看作是利用“加噪+ 去噪”进行健壮性训练的方法。
\parinterval
无论是黑盒方法还是白盒方法,本质上都是通过增加噪声使得模型训练更加健壮。类似的思想在很多机器学习方法中都有体现,比如,
在
最大熵模型中使用高斯噪声就是常用的增加模型健壮性的手段之一
\upcite
{
chen1999gaussian
}
。从噪声信道模型的角度看(见
{
\chapterfive
}
),翻译过程也可以被理解为一种加噪和去噪的过程,不论这种噪声是天然存在于数据中的,还是人为添加的。除了对抗样本训练,机器翻译所使用的降噪自编码方法和基于重构的损失函数
\upcite
{
DBLP:conf/icml/VincentLBM08,tu2017neural
}
,也都体现了类似的思想。广义上,这些方法也可以被看作是利用“加噪+ 去噪”进行健壮性训练的方法。
%----------------------------------------------------------------------------------------
% NEW SECTION
...
...
@@ -436,11 +436,13 @@ Loss_{\textrm{robust}}(\theta_{\textrm{mt}}) &=& \frac{1}{N}\sum_{(\mathbi{x},\
\parinterval
极大似然估计已成为机器翻译乃至整个自然语言处理领域中使用最广泛的训练用目标函数。但是,使用极大似然估存在
{
\small\bfnew
{
曝光偏置
}}
\index
{
曝光偏置
}
(Exposure Bias
\index
{
Exposure Bias
}
)问题和训练-推断评价指标不一致问题,具体体现在如下两个方面。
\parinterval
曝光偏置问题:在训练过程中,模型使用标注数据进行训练,因此模型在预测下一个单词时,解码器的输入是正确的译文片段。也就是,预测第
$
j
$
个单词时,系统使用了标准答案
$
\{
{
y
}_
1
,...,
{
y
}_{
j
-
1
}
\}
$
作为历史信息。但是对新的句子进行翻译时,预测第
$
j
$
个单词时使用的是模型自己生成的前
$
j
-
1
$
个单词,即
$
\{\hat
{{
y
}}_
1
,...,
\hat
{{
y
}}_{
j
-
1
}
\}
$
。这意味着,训练时使用的输入数据(目标语言端)与真实翻译时的情况不符,如图
\ref
{
fig:13-9
}
所示。由于在训练过程中暴露于标注数据,因此模型也适应了标注数据,在推断阶段无法很好地适应模型自动生成的数据,这就是曝光偏置问题
\upcite
{
Bengio2015ScheduledSF,Ranzato2016SequenceLT
}
。
\begin{itemize}
\vspace
{
0.5em
}
\item
{
\small\bfnew
{
曝光偏置问题
}}
。在训练过程中,模型使用标注数据进行训练,因此模型在预测下一个单词时,解码器的输入是正确的译文片段。也就是,预测第
$
j
$
个单词时,系统使用了标准答案
$
\{
{
y
}_
1
,...,
{
y
}_{
j
-
1
}
\}
$
作为历史信息。但是对新的句子进行翻译时,预测第
$
j
$
个单词时使用的是模型自己生成的前
$
j
-
1
$
个单词,即
$
\{\hat
{{
y
}}_
1
,...,
\hat
{{
y
}}_{
j
-
1
}
\}
$
。这意味着,训练时使用的输入数据(目标语言端)与真实翻译时的情况不符,如图
\ref
{
fig:13-9
}
所示。由于在训练过程中暴露于标注数据,因此模型也适应了标注数据,在推断阶段无法很好地适应模型自动生成的数据,这就是曝光偏置问题
\upcite
{
Bengio2015ScheduledSF,Ranzato2016SequenceLT
}
。
\vspace
{
0.5em
}
%----------------------------------------------
\begin{figure}
[
htp
]
\begin{figure}
[
t
]
\centering
\input
{
./Chapter13/Figures/figure-exposure-bias
}
\caption
{
曝光偏置问题(基于循环神经网络的翻译模型)
}
...
...
@@ -448,7 +450,9 @@ Loss_{\textrm{robust}}(\theta_{\textrm{mt}}) &=& \frac{1}{N}\sum_{(\mathbi{x},\
\end{figure}
%----------------------------------------------
\parinterval
训练目标函数与任务评价指标不一致问题:在训练数据上使用极大似然估计,而在新数据上进行推断的时候,通常使用BLEU等外部评价指标来评价模型的性能。在机器翻译任务中,这个问题的一种体现是,训练数据上更低的困惑度不一定能带来BLEU的提升。更加理想的情况是,模型应该直接最大化性能评价指标,而不是训练集数据上的似然函数
\upcite
{
DBLP:conf/acl/ShenCHHWSL16
}
。但是很多模型性能评价指标不可微分,这使得我们无法直接利用基于梯度的方法来优化这些指标。
\item
{
\small\bfnew
{
训练目标函数与任务评价指标不一致问题
}}
。在训练数据上使用极大似然估计,而在新数据上进行推断的时候,通常使用BLEU等外部评价指标来评价模型的性能。在机器翻译任务中,这个问题的一种体现是,训练数据上更低的困惑度不一定能带来BLEU的提升。更加理想的情况是,模型应该直接最大化性能评价指标,而不是训练集数据上的似然函数
\upcite
{
DBLP:conf/acl/ShenCHHWSL16
}
。但是很多模型性能评价指标不可微分,这使得研究人员无法直接利用基于梯度的方法来优化这些指标。
\vspace
{
0.5em
}
\end{itemize}
%----------------------------------------------------------------------------------------
% NEW SUB-SECTION
...
...
@@ -497,7 +501,7 @@ Loss_{\textrm{robust}}(\theta_{\textrm{mt}}) &=& \frac{1}{N}\sum_{(\mathbi{x},\
\parinterval
调度采样解决曝光偏置的方法是,把模型前
$
j
-
1
$
步的预测结果作为输入,来预测第
$
j
$
步的输出。但是,如果模型预测的结果中有错误,再使用错误的结果预测未来的序列也会产生问题。解决这个问题就需要知道模型预测的好与坏,并在训练中有效的使用它们。如果生成好的结果,那么可以使用它进行模型训练,否则就不使用。生成对抗网络就是这样一种技术,它引入了一个额外的模型(判别器)来对原有模型(生成器)的生成结果进行评价,并根据评价结果同时训练两个模型。
\parinterval
在
\ref
{
sec:adversarial-examples
}
小节已经提到了生成对抗网络,这里稍微进行一些展开。 在机器翻译中,基于对抗神经网络的架构被命名为
{
\small\bfnew
{
对抗神经机器翻译
}}
\index
{
对抗神经机器翻译
}
(Adversarial-NMT)
\index
{
Adversarial-NMT
}
\upcite
{
DBLP:conf/acml/WuXTZQLL18
}
。这里,令
$
(
\seq
{
x
}
,
\seq
{
y
}
)
$
表示一个训练样本,令
$
\hat
{
\seq
{
y
}}$
表示神经机器翻译系统对源语言句子
$
\seq
{
x
}$
的翻译结果。此时,对抗神经机器翻译的总体框架可以表示为图
\ref
{
fig:13-11
}
,其中。绿色部分表示神经机器翻译模型
$
G
$
,该模型将源语言句子
$
\seq
{
x
}$
翻译为目标语言句子
$
\hat
{
\seq
{
y
}}$
。红色部分是对抗网络
$
D
$
,它的作用是判断目标语言句子是否是源语言句子
$
\seq
{
x
}$
的真实翻译。
$
G
$
和
$
D
$
相互对抗,同时生成翻译结果
$
\hat
{
\seq
{
y
}}$
来训练
$
D
$
,并生成奖励信号来
通过策略梯度训练
$
G
$
。
\parinterval
在
\ref
{
sec:adversarial-examples
}
小节已经提到了生成对抗网络,这里稍微进行一些展开。 在机器翻译中,基于对抗神经网络的架构被命名为
{
\small\bfnew
{
对抗神经机器翻译
}}
\index
{
对抗神经机器翻译
}
(Adversarial-NMT)
\index
{
Adversarial-NMT
}
\upcite
{
DBLP:conf/acml/WuXTZQLL18
}
。这里,令
$
(
\seq
{
x
}
,
\seq
{
y
}
)
$
表示一个训练样本,令
$
\hat
{
\seq
{
y
}}$
表示神经机器翻译系统对源语言句子
$
\seq
{
x
}$
的翻译结果。此时,对抗神经机器翻译的总体框架可以表示为图
\ref
{
fig:13-11
}
,其中。绿色部分表示神经机器翻译模型
$
G
$
,该模型将源语言句子
$
\seq
{
x
}$
翻译为目标语言句子
$
\hat
{
\seq
{
y
}}$
。红色部分是对抗网络
$
D
$
,它的作用是判断目标语言句子是否是源语言句子
$
\seq
{
x
}$
的真实翻译。
$
G
$
和
$
D
$
相互对抗,用
$
G
$
生成的翻译结果
$
\hat
{
\seq
{
y
}}$
来训练
$
D
$
,并生成奖励信号,再使用奖励信号
通过策略梯度训练
$
G
$
。
%----------------------------------------------
\begin{figure}
[htp]
...
...
@@ -528,7 +532,7 @@ Loss_{\textrm{robust}}(\theta_{\textrm{mt}}) &=& \frac{1}{N}\sum_{(\mathbi{x},\
\parinterval
最小风险训练的目标是找到模型参数
$
\hat
{
\theta
}_{
\textrm
{
MRT
}}
$
,满足如下公式:
\begin{eqnarray}
\hat
{
\theta
}_{
\textrm
{
MRT
}}
&
=
&
\argm
ax
_{
\theta
}
\{\funp
{
R
}
(
\theta
)
\}
\label
{
eq:13-13
}
\hat
{
\theta
}_{
\textrm
{
MRT
}}
&
=
&
\argm
in
_{
\theta
}
\{\funp
{
R
}
(
\theta
)
\}
\label
{
eq:13-13
}
\end{eqnarray}
\noindent
其中,
$
\funp
{
R
}
(
\theta
)
$
表示预期风险,通常用风险函数的期望表示。假设有
$
N
$
个训练样本
$
\{
(
x
^{
[
1
]
}
,y
^{
[
1
]
}
)
,...,
(
x
^{
[
N
]
}
,y
^{
[
N
]
}
)
\}
$
,
$
\funp
{
R
}
(
\theta
)
$
被定义如下:
...
...
@@ -602,7 +606,7 @@ Loss_{\textrm{robust}}(\theta_{\textrm{mt}}) &=& \frac{1}{N}\sum_{(\mathbi{x},\
\label
{
eq:13-19
}
\end{eqnarray}
\parinterval
这个等式也被称为
{
\small\bfnew
{
贝尔曼方程
}}
\index
{
贝尔曼方程
}
(Bellman Equation
\index
{
Bellman Equation
}
)
\upcite
{
sutton2018reinforcement
}
。它
告诉我们
$
j
-
1
$
时刻的动作价值函数
$
\funp
{
Q
}
(
\hat
{{
y
}}_
j;
\hat
{{
y
}}_{
1
\ldots
j
-
1
}
,
\seq
{
y
}
)
$
跟下一时刻
$
j
$
的动作价值函数
$
\funp
{
Q
}
(
a;
\hat
{{
y
}}_{
1
\ldots
j
}
,
\seq
{
y
}
)
$
之间的关系。因此可以很自然的使用等式右部作为等式左部
$
\funp
{
Q
}
(
\hat
{{
y
}}_
j;
\hat
{{
y
}}_{
1
\ldots
j
-
1
}
,
\seq
{
y
}
)
$
的等价形式。于是,可以定义
$
j
$
时刻动作价值函数为:
\parinterval
这个等式也被称为
{
\small\bfnew
{
贝尔曼方程
}}
\index
{
贝尔曼方程
}
(Bellman Equation
\index
{
Bellman Equation
}
)
\upcite
{
sutton2018reinforcement
}
。它
表达了
$
j
-
1
$
时刻的动作价值函数
$
\funp
{
Q
}
(
\hat
{{
y
}}_
j;
\hat
{{
y
}}_{
1
\ldots
j
-
1
}
,
\seq
{
y
}
)
$
跟下一时刻
$
j
$
的动作价值函数
$
\funp
{
Q
}
(
a;
\hat
{{
y
}}_{
1
\ldots
j
}
,
\seq
{
y
}
)
$
之间的关系。因此可以很自然的使用等式右部作为等式左部
$
\funp
{
Q
}
(
\hat
{{
y
}}_
j;
\hat
{{
y
}}_{
1
\ldots
j
-
1
}
,
\seq
{
y
}
)
$
的等价形式。于是,可以定义
$
j
$
时刻动作价值函数为:
\begin{eqnarray}
\funp
{
q
}_
j
&
=
&
\funp
{
r
}_
j(
\hat
{{
y
}}_
j;
\hat
{{
y
}}_{
1
\ldots
j-1
}
,
\seq
{
y
}
) +
\sum
_{
a
\in
A
}
\funp
{
p
}
(a|
\hat
{{
y
}}_{
1
\ldots
j
}
,
\seq
{
x
}
)
\tilde
{
\funp
{
Q
}}
(a;
\hat
{{
y
}}_{
1
\ldots
j
}
,
\seq
{
y
}
)
\label
{
eq:13-20
}
...
...
@@ -646,7 +650,7 @@ Loss_{\textrm{robust}}(\theta_{\textrm{mt}}) &=& \frac{1}{N}\sum_{(\mathbi{x},\
\sectionnewpage
\section
{
知识蒸馏
}
\label
{
subsection-7.5.3
}
\parinterval
理想的机器翻译系统应该是品质好、速度
块
、存储占用少。不过,为了追求更好的翻译品质,往往需要更大的模型,但是相应的翻译速度会降低,模型的体积会变大。在很多场景下,这样的模型无法直接使用。比如,Transformer-Big等“大”模型通常在专用GPU服务器上运行,在手机等受限环境下仍很难应用。
\parinterval
理想的机器翻译系统应该是品质好、速度
快
、存储占用少。不过,为了追求更好的翻译品质,往往需要更大的模型,但是相应的翻译速度会降低,模型的体积会变大。在很多场景下,这样的模型无法直接使用。比如,Transformer-Big等“大”模型通常在专用GPU服务器上运行,在手机等受限环境下仍很难应用。
\parinterval
另一方面,直接训练“小”模型的效果往往并不理想,其翻译品质与“大”模型相比仍有比较明显的差距。既然直接训练小模型无法达到很好的效果,一种有趣的想法是把“大”模型的知识传递给“小”模型。这类似于,教小孩子学习数学,是请一个权威数学家(数据中的标准答案)进行教学,而是会请一个小学数
学教师(“大”模型)来教小孩子。这就是知识蒸馏的基本思想。
...
...
@@ -760,7 +764,7 @@ L_{\textrm{seq}} = - \textrm{logP}_{\textrm{s}}(\hat{\seq{y}} | \seq{x})
\sectionnewpage
\section
{
基于样本价值的学习
}
\parinterval
当人在学习知识时,通常会遵循序渐进、由易到难的原则,这是一种很自然的学习策略。但是,当训练机器翻译模型时,通常是将全部的样本以随机的方式输入模型中进行学习,换句话说,就是让模型来平等地对待所有的训练样本。这种方式忽略了样本对于模型训练的“价值”,显然,更加理想的方式是优先使用价值高的样本对模型进行训练。围绕训练样本的价值差异产生了诸如数据选择、主动学习、课程学习等一系列的样本使用方法,这些学习策略本质上是在不同任务、不同背景、不同假设下,对如何高效
的
利用训练样本这一问题进行求解,本节即对这些技术进行介绍。
\parinterval
当人在学习知识时,通常会遵循序渐进、由易到难的原则,这是一种很自然的学习策略。但是,当训练机器翻译模型时,通常是将全部的样本以随机的方式输入模型中进行学习,换句话说,就是让模型来平等地对待所有的训练样本。这种方式忽略了样本对于模型训练的“价值”,显然,更加理想的方式是优先使用价值高的样本对模型进行训练。围绕训练样本的价值差异产生了诸如数据选择、主动学习、课程学习等一系列的样本使用方法,这些学习策略本质上是在不同任务、不同背景、不同假设下,对如何高效
地
利用训练样本这一问题进行求解,本节即对这些技术进行介绍。
%----------------------------------------------------------------------------------------
% NEW SUB-SECTION
...
...
@@ -782,17 +786,17 @@ L_{\textrm{seq}} = - \textrm{logP}_{\textrm{s}}(\hat{\seq{y}} | \seq{x})
\parinterval
当机器翻译系统应用于不同领域时,训练语料与所应用领域的相关性就显得非常重要
\upcite
{
DBLP:journals/mt/EetemadiLTR15,britz2017effective
}
。不同领域往往具有自己独特的属性,比如语言风格、句子结构、专业术语等,例如,“bank”这个英语单词,在金融领域通常被翻译为“银行”,而在计算机领域,一般被解释为“库”、“存储体”等。这也会导致,使用通用领域数据训练出来的模型在特定领域上的翻译效果往往不理想,这本质上是训练数据和测试数据的领域属性不匹配造成的。
\parinterval
一种解决办法是只使用特定领域的数据进行模型训练,然而这种数据往往比较稀缺。那能不能利用通用领域数据来帮助数据稀少的领域呢?这个研究方向被称为机器翻译的
{
\small\bfnew
{
领域适应
}}
\index
{
领域适应
}
(Domain Adaptation
\index
{
Domain Adaptation
}
),即从资源丰富的领域(称为
源领域, Source Domain)向资源稀缺的领域(称为目标领域, Target Domain
)迁移。这本身也对应着资源稀缺场景下的机器翻译问题,这类问题会在
{
\chaptersixteen
}
进行详细讨论。本章更加关注如何有效地利用训练样本以更好地适应目标领域。具体来说,可以使用
{
\small\bfnew
{
数据选择
}}
\index
{
数据选择
}
(Data Selection
\index
{
Selection
}
)从源领域训练数据中选择与目标领域更加相关的样本进行模型训练。这样做的一个好处是,源领域中混有大量与目标领域不相关的样本,数据选择可以有效降低这部分数据的比例,这样可以更加突出与领域相关样本的作用。
\parinterval
一种解决办法是只使用特定领域的数据进行模型训练,然而这种数据往往比较稀缺。那能不能利用通用领域数据来帮助数据稀少的领域呢?这个研究方向被称为机器翻译的
{
\small\bfnew
{
领域适应
}}
\index
{
领域适应
}
(Domain Adaptation
\index
{
Domain Adaptation
}
),即从资源丰富的领域(称为
{
\small\bfnew
{
源领域
}}
\index
{
源领域
}
, Source Domain
\index
{
Source Domain
}
)向资源稀缺的领域(称为
{
\small\bfnew
{
目标领域
}}
\index
{
目标领域
}
, Target Domain
\index
{
Target Domain
}
)迁移。这本身也对应着资源稀缺场景下的机器翻译问题,这类问题会在
{
\chaptersixteen
}
进行详细讨论。本章更加关注如何有效地利用训练样本以更好地适应目标领域。具体来说,可以使用
{
\small\bfnew
{
数据选择
}}
\index
{
数据选择
}
(Data Selection
\index
{
Selection
}
)从源领域训练数据中选择与目标领域更加相关的样本进行模型训练。这样做的一个好处是,源领域中混有大量与目标领域不相关的样本,数据选择可以有效降低这部分数据的比例,这样可以更加突出与领域相关样本的作用。
\parinterval
数据选择所要解决的核心问题是:给定一个目标领域/任务数据集(如,目标任务的开发集),如何衡量原始训练样本与目标领域/任务的相关性?主要方法可以分为以下几类:
\begin{itemize}
\vspace
{
0.5em
}
\item
基于
{
\small\bfnew
{
交叉熵差
}}
\index
{
交叉熵差
}
(Cross-entropy Difference
\index
{
Cross-entropy Difference
}
,CED)的方法
\upcite
{
DBLP:conf/emnlp/AxelrodHG11,DBLP:conf/wmt/AxelrodRHO15,DBLP:conf/emnlp/WangULCS17,DBLP:conf/iwslt/MansourWN11
}
。该方法在目标领域数据和通用数据上分别训练语言模型,然后用两个语言模型来给句子打分并做差,差越小说明句子与目标领域越相关。
\item
{
\small\bfnew
{
基于交叉熵差
}}
\index
{
交叉熵差
}
(Cross-entropy Difference
\index
{
Cross-entropy Difference
}
,CED)
{
\small\bfnew
{
的方法
}}
\upcite
{
DBLP:conf/emnlp/AxelrodHG11,DBLP:conf/wmt/AxelrodRHO15,DBLP:conf/emnlp/WangULCS17,DBLP:conf/iwslt/MansourWN11
}
。该方法在目标领域数据和通用数据上分别训练语言模型,然后用两个语言模型来给句子打分并做差,差越小说明句子与目标领域越相关。
\vspace
{
0.5em
}
\item
基于文本分类的方法
\upcite
{
DBLP:conf/conll/ChenH16,chen2016bilingual,DBLP:conf/aclnmt/ChenCFL17,DBLP:conf/wmt/DumaM17
}
。将问题转化为文本分类问题,先构造一个领域分类器,之后利用分类器对给定的句子进行领域分类,最后用输出的概率来打分,选择得分高的样本。
\item
{
\small\bfnew
{
基于文本分类的方法
}}
\upcite
{
DBLP:conf/conll/ChenH16,chen2016bilingual,DBLP:conf/aclnmt/ChenCFL17,DBLP:conf/wmt/DumaM17
}
。将问题转化为文本分类问题,先构造一个领域分类器,之后利用分类器对给定的句子进行领域分类,最后用输出的概率来打分,选择得分高的样本。
\vspace
{
0.5em
}
\item
基于
{
\small\bfnew
{
特征衰减算法
}}
\index
{
特征衰减算法
}
(Feature Decay Algorithms
\index
{
Feature Decay Algorithms
}
,FDA)的方法
\upcite
{
DBLP:conf/wmt/BiciciY11,poncelas2018feature,DBLP:conf/acl/SotoSPW20
}
。该算法基于特征匹配,试图从源领域中提取出一个句子集合,这些句子能够最大程度覆盖目标领域的语言特征。
\item
{
\small\bfnew
{
基于特征衰减算法
}}
\index
{
特征衰减算法
}
(Feature Decay Algorithms
\index
{
Feature Decay Algorithms
}
,FDA)
{
\small\bfnew
{
的方法
}}
\upcite
{
DBLP:conf/wmt/BiciciY11,poncelas2018feature,DBLP:conf/acl/SotoSPW20
}
。该算法基于特征匹配,试图从源领域中提取出一个句子集合,这些句子能够最大程度覆盖目标领域的语言特征。
\vspace
{
0.5em
}
\end{itemize}
...
...
@@ -826,7 +830,7 @@ L_{\textrm{seq}} = - \textrm{logP}_{\textrm{s}}(\hat{\seq{y}} | \seq{x})
\subsubsection
{
3. 主动学习
}
\parinterval
{
\small\bfnew
{
主动学习
}}
\index
{
主动学习
}
(Active Learning
\index
{
Active Learning
}
)也是一种数据选择策略。它最初的应用场景
式
是:标注大量的数据成本过高,因此希望优先标注对模型最有价值的数据,这样可以最大化模型学习的效率,同时降低数据标注的整体代价
\upcite
{
DBLP:conf/coling/ZhuWH08
}
。主动学习主要由五个部分组成,包括:未标注样本池、筛选策略、标注者、标注样本集、目标模型。在主动学习过程中,会根据当前的模型状态找到未标注样本池中最有价值的样本,之后送给标注者。标注结束后,会把标注的样本加入到标注样本集中,之后用这些标注的样本更新模型。之后,重复这个过程,直到到达某种收敛状态。
\parinterval
{
\small\bfnew
{
主动学习
}}
\index
{
主动学习
}
(Active Learning
\index
{
Active Learning
}
)也是一种数据选择策略。它最初的应用场景是:标注大量的数据成本过高,因此希望优先标注对模型最有价值的数据,这样可以最大化模型学习的效率,同时降低数据标注的整体代价
\upcite
{
DBLP:conf/coling/ZhuWH08
}
。主动学习主要由五个部分组成,包括:未标注样本池、筛选策略、标注者、标注样本集、目标模型。在主动学习过程中,会根据当前的模型状态找到未标注样本池中最有价值的样本,之后送给标注者。标注结束后,会把标注的样本加入到标注样本集中,之后用这些标注的样本更新模型。之后,重复这个过程,直到到达某种收敛状态。
\parinterval
主动学习的一个核心问题是:如何选择出那些最有价值的未标注样本?通常会假设模型认为最“难”的样本是最有价值的。具体实现有很多思路,例如,基于置信度的方法、基于分类错误的方法等等
\upcite
{
DBLP:journals/tslp/ZhuM12,DBLP:conf/coling/ZhuWYT08
}
。
...
...
@@ -839,11 +843,11 @@ L_{\textrm{seq}} = - \textrm{logP}_{\textrm{s}}(\hat{\seq{y}} | \seq{x})
\subsection
{
课程学习
}
\label
{
sec:curriculum-learning
}
\parinterval
{
\small\bfnew
{
课程学习
}}
\index
{
课程学习
}
(Curriculum Learning)
\index
{
Curriculum Learning
}
的基本思想是:先学习简单的、普适性的知识,然后逐渐增加难度,学习更复杂、更专业化的知识。在统计模型训练中,这种思想可以体现在让模型按照由“易”到
”难“ 的顺序对样本进行学习
\upcite
{
DBLP:conf/icml/BengioLCW09
}
,这本质上是一种样本使用策略。以神经机器翻译
翻译使用的随机梯度下降为例,在传统的方法中,所有训练样本都是随机呈现给模型的,换句话说,就是让模型平等地对待所有的训练样本,这忽略了数据样本的各种复杂性和当前模型的学习状态。所以模拟人类由易到难的学习过程就是一种很自然的想法,这样做的好处在于:
\parinterval
{
\small\bfnew
{
课程学习
}}
\index
{
课程学习
}
(Curriculum Learning)
\index
{
Curriculum Learning
}
的基本思想是:先学习简单的、普适性的知识,然后逐渐增加难度,学习更复杂、更专业化的知识。在统计模型训练中,这种思想可以体现在让模型按照由“易”到
“难”的顺序对样本进行学习
\upcite
{
DBLP:conf/icml/BengioLCW09
}
,这本质上是一种样本使用策略。以神经机器
翻译使用的随机梯度下降为例,在传统的方法中,所有训练样本都是随机呈现给模型的,换句话说,就是让模型平等地对待所有的训练样本,这忽略了数据样本的各种复杂性和当前模型的学习状态。所以模拟人类由易到难的学习过程就是一种很自然的想法,这样做的好处在于:
\begin{itemize}
\vspace
{
0.5em
}
\item
{
\small\bfnew
{
加速
机
模型训练
}}
。在达到相同的性能条件下,课程学习可以加速训练,减少训练迭代步数。
\item
{
\small\bfnew
{
加速模型训练
}}
。在达到相同的性能条件下,课程学习可以加速训练,减少训练迭代步数。
\vspace
{
0.5em
}
\item
{
\small\bfnew
{
使模型获得更好的泛化性能
}}
。即通过对简单样本的学习,让模型不至于过早进入拟合复杂样本的状态。
\vspace
{
0.5em
}
...
...
@@ -874,7 +878,7 @@ L_{\textrm{seq}} = - \textrm{logP}_{\textrm{s}}(\hat{\seq{y}} | \seq{x})
\parinterval
评估样本的难度和具体的任务相关,在神经机器翻译中,有很多种评估方法,可以利用语言学上的困难准则,比如句子长度、句子平均词频、句法树深度等
\upcite
{
DBLP:conf/naacl/PlataniosSNPM19,DBLP:conf/ranlp/KocmiB17
}
。这些准则本质上属于人类的先验知识,符合人类的直觉,但不一定和模型相匹配。对人类来说简单的句子对模型来说可能并不简单,所以研究人员也提出了基于模型的方法,比如:语言模型
\upcite
{
DBLP:conf/acl/WangCC19,DBLP:conf/naacl/ZhangSKMCD19
}
,或者神经机器翻译模型
\upcite
{
zhang2018empirical,DBLP:conf/coling/XuHJFWHJXZ20
}
都可以用于评价样本的难度。值得注意的是,利用神经机器翻译来打分的方法分为静态和动态两种。静态的方法是利用在小数据集上训练的、更小的翻译模型来打分
\upcite
{
zhang2018empirical
}
。动态的方法则是利用当前模型的状态来打分,这在广义上也叫作
{
\small\bfnew
{
自步学习
}}
\index
{
自步学习
}
(Self-paced Learning
\index
{
Self-paced Learning
}
),通常可以利用模型的训练误差或变化率等指标进行样本难度的估计
\upcite
{
DBLP:conf/coling/XuHJFWHJXZ20
}
。
\parinterval
虽然样本难度的度量在不同任务中有所不同,但课程规划通常与数据和任务无关。在各种场景中,大多数课程学习都利用了类似的调度策略。具体而言,调度策略可以分为预定义的和自动
两种。预定义的调度策略通常
按照难易程度排序好的样本划分为块,每个块中包含一定数量的难度相似的样本。然后按照“先易后难”的原则人工定义一个调度策略,比如,一种较为流行的方法是:在训练早期,模型只在简单块中进行采样,随着训练过程的进行,将下一个块的样本合并到当前训练子集中,继续训练,直到合并了整个数据块,即整个训练集可见为止,之后再继续训练直到收敛。这个过程如图
\ref
{
fig:13-16
}
所示。类似的还有一些其他变体,比如,训练到模型可见整个数据集之后,将最难的样本块复制并添加到训练集中,或者是将最容易的数据块逐渐删除,然后再添加回来等,这些方法的基本想法都是想让模型在具备一定的能力之后更多关注于困难样本。
\parinterval
虽然样本难度的度量在不同任务中有所不同,但课程规划通常与数据和任务无关。在各种场景中,大多数课程学习都利用了类似的调度策略。具体而言,调度策略可以分为预定义的和自动
的两种。预定义的调度策略通常将
按照难易程度排序好的样本划分为块,每个块中包含一定数量的难度相似的样本。然后按照“先易后难”的原则人工定义一个调度策略,比如,一种较为流行的方法是:在训练早期,模型只在简单块中进行采样,随着训练过程的进行,将下一个块的样本合并到当前训练子集中,继续训练,直到合并了整个数据块,即整个训练集可见为止,之后再继续训练直到收敛。这个过程如图
\ref
{
fig:13-16
}
所示。类似的还有一些其他变体,比如,训练到模型可见整个数据集之后,将最难的样本块复制并添加到训练集中,或者是将最容易的数据块逐渐删除,然后再添加回来等,这些方法的基本想法都是想让模型在具备一定的能力之后更多关注于困难样本。
%----------------------------------------------
\begin{figure}
[htp]
...
...
@@ -907,7 +911,7 @@ L_{\textrm{seq}} = - \textrm{logP}_{\textrm{s}}(\hat{\seq{y}} | \seq{x})
\vspace
{
0.5em
}
\end{itemize}
\parinterval
从某种程度上看,多领域、多语言机器翻译等都可以被看做是广义上的持续学习。在多领域神经机器翻译中,
我们期望一个在通用数据上学习的模型可以继续在新的领域有良好的表现。在多语言神经机器翻译中,我们期望一个模型可以支持更多语种的翻译,甚至当新的语言到来时不需要修改模型结构。以上这些问题在
{
\chaptersixteen
}
和
{
\chaptereighteen
}
中还会有详细讨论。
\parinterval
从某种程度上看,多领域、多语言机器翻译等都可以被看做是广义上的持续学习。在多领域神经机器翻译中,
研究人员期望一个在通用数据上学习的模型可以继续在新的领域有良好的表现。在多语言神经机器翻译中,研究人员期望一个模型可以支持更多语种的翻译,甚至当新的语言到来时不需要修改模型结构。以上这些问题在
{
\chaptersixteen
}
和
{
\chaptereighteen
}
中还会有详细讨论。
%----------------------------------------------------------------------------------------
% NEW SECTION
...
...
@@ -926,7 +930,7 @@ L_{\textrm{seq}} = - \textrm{logP}_{\textrm{s}}(\hat{\seq{y}} | \seq{x})
\item
此外,在机器翻译中,强化学习的应用也有很多,比如,MIXER算法用混合策略梯度和极大似然估计的目标函数来更新模型
\upcite
{
Ranzato2016SequenceLT
}
,DAgger
\upcite
{
DBLP:journals/jmlr/RossGB11
}
以及DAD
\upcite
{
DBLP:conf/aaai/VenkatramanHB15
}
等算法在训练过程之中逐渐让模型适应推断阶段的模式。此外,强化学习的效果目前还相当不稳定,研究人员提出了大量的方法来进行改善,比如降对动作价值函数
$
\funp
{
Q
}$
的估计的方差
\upcite
{
DBLP:conf/iclr/BahdanauBXGLPCB17,DBLP:conf/emnlp/NguyenDB17
}
、使用单语语料
\upcite
{
Sennrich2016ImprovingNM,DBLP:conf/emnlp/WuTQLL18
}
等等。
\vspace
{
0.5em
}
\item
从广义上说,大多数课程学习方法都是遵循由易到难的原则,然而在实践过程中人们逐渐赋予了课程学习更多的内涵,课程学习的含义早已超越了最原始的定义。一方面,课程学习可以与许多任务相结合,此时,评估准则并不一定总是样本的困难度,这取决于具体的任务。或者说,我们更关心的是样本带给模型的“价值”,而非简单的难易标准。另一方面,在一些任务或数据中,由易到难并不总是有效,有时困难优先反而会取得更好的效果
\upcite
{
DBLP:conf/medprai/SurendranathJ18,zhang2018empirical
}
。实际上这和
我们
的直觉不太符合,一种合理的解释是课程学习更适合标签噪声、离群值较多或者是目标任务困难的场景,能提高模型的健壮性和收敛速度,而困难优先的策略则更适合数据集干净的场景
\upcite
{
DBLP:conf/nips/ChangLM17
}
。
\item
从广义上说,大多数课程学习方法都是遵循由易到难的原则,然而在实践过程中人们逐渐赋予了课程学习更多的内涵,课程学习的含义早已超越了最原始的定义。一方面,课程学习可以与许多任务相结合,此时,评估准则并不一定总是样本的困难度,这取决于具体的任务。或者说,我们更关心的是样本带给模型的“价值”,而非简单的难易标准。另一方面,在一些任务或数据中,由易到难并不总是有效,有时困难优先反而会取得更好的效果
\upcite
{
DBLP:conf/medprai/SurendranathJ18,zhang2018empirical
}
。实际上这和
人类
的直觉不太符合,一种合理的解释是课程学习更适合标签噪声、离群值较多或者是目标任务困难的场景,能提高模型的健壮性和收敛速度,而困难优先的策略则更适合数据集干净的场景
\upcite
{
DBLP:conf/nips/ChangLM17
}
。
\vspace
{
0.5em
}
\end{itemize}
Chapter17/chapter17.tex
查看文件 @
a6a8e910
...
...
@@ -109,7 +109,7 @@
\parinterval
传统的语音识别模型和统计机器翻译相似,需要利用声学模型、语言模型和发音词典联合进行识别,系统较为复杂
\upcite
{
DBLP:journals/ftsig/GalesY07,DBLP:journals/taslp/MohamedDH12,DBLP:journals/spm/X12a
}
。而近些年来,随着神经网络的发展,基于神经网络的端到端语音识别模型逐渐受到关注,大大简化了训练流程
\upcite
{
DBLP:conf/nips/ChorowskiBSCB15,DBLP:conf/icassp/ChanJLV16
}
。目前的端到端语音识别模型主要基于序列到序列结构,编码器根据输入的声学特征进一步提取高级特征,解码器根据编码器提取的特征识别对应的文本。在后文中即将介绍的端到端语音翻译模型也是基于十分相似的结构。因此,从某种意义上说,语音识别和翻译所使用的端到端方法与神经机器翻译是一致的。
\parinterval
语音识别目前广泛使用基于Transformer的模型结构(见
{
\chaptertwelve
}
),如图
\ref
{
fig:17-5
}
所示。可以看出,相比文本翻译,模型结构上唯一的区别在于编码器的输入为声学特征,以及编码器底层会使用额外的卷积层来减小输入序列的长度。这是由于语音对应的特征序列过长,在计算注意力模型的时候,会占用大量的内存/显存,并增加训练时间。因此,一个常用的做法是在语音特征上进行两层步长为2的卷积操作,从而将输入序列的长度缩小为之前的1/4。通过大量的语音-标注平行数据对模型进行训练,可以得到高质量的语音识别模型。
\parinterval
语音识别目前广泛使用基于Transformer的模型结构(见
{
\chaptertwelve
}
),如图
\ref
{
fig:17-5
}
所示。可以看出,相比文本翻译,模型结构上唯一的区别在于编码器的输入为声学特征,以及编码器底层会使用额外的卷积层来减小输入序列的长度。这是由于语音对应的特征序列过长,在计算注意力模型的时候,会占用大量的内存/显存,并增加训练时间。因此,一个常用的做法是在语音特征上进行两层步长为2的卷积操作,从而将输入序列的长度缩小为之前的1/4。通过
使用
大量的语音-标注平行数据对模型进行训练,可以得到高质量的语音识别模型。
%----------------------------------------------------------------------------------------------------
\begin{figure}
[htp]
...
...
@@ -135,7 +135,7 @@
\vspace
{
0.5em
}
\item
{
\small\bfnew
{
错误传播问题
}}
。级联模型导致的一个很严重的问题在于,语音识别模型得到的文本如果存在错误,这些错误很可能在翻译过程中被放大,从而使最后翻译结果出现比较大的偏差。比如识别时在句尾少生成了个“吗”,会导致翻译模型将疑问句翻译为陈述句。
\vspace
{
0.5em
}
\item
{
\small\bfnew
{
翻译效率问题
}}
。由于语音识别模型和文本标注模型只能串行地计算,翻译效率相对较低,而实际很多场景中都需要低延时的翻译。
\item
{
\small\bfnew
{
翻译效率问题
}}
。由于语音识别模型和文本标注模型只能串行地计算,翻译效率相对较低,而实际很多场景中都需要
实现
低延时的翻译。
\vspace
{
0.5em
}
\item
{
\small\bfnew
{
语音中的副语言信息丢失
}}
。将语音识别为文本的过程中,语音中包含的语气、情感、音调等信息会丢失,而同一句话在不同的语气中表达的意思很可能是不同的。尤其是在实际应用中,由于语音识别结果通常并不包含标点,还需要额外的后处理模型将标点还原,也会带来额外的计算代价。
\vspace
{
0.5em
}
...
...
@@ -188,7 +188,7 @@
\parinterval
一种思路是进行多任务学习,让模型在训练过程中得到更多的监督信息。使用多个任务强化主任务(机器翻译),在本书的
{
\chapterfifteen
}
和
{
\chaptersixteen
}
也有所涉及。从这个角度说,机器翻译中很多问题的解决手段都是一致的。
\parinterval
语音翻译中多任务学习主要借助语音对应的标注信息,也就是源语言文本。
{
\small\bfnew
{
连接时序分类
}}
\index
{
连接时序分类
}
(Connectionist Temporal Classification,CTC)
\index
{
Connectionist Temporal Classification
}
\upcite
{
DBLP:conf/icml/GravesFGS06
}
是语音处理中最简单有效的一种多任务学习方法
\upcite
{
DBLP:journals/jstsp/WatanabeHKHH17,DBLP:conf/icassp/KimHW17
}
,也被广泛应用于文本识别任务中
\upcite
{
DBLP:journals/pami/ShiBY17
}
。CTC可以将输入序列的每一位置都对应到标注文本中,学习语音和文字之间的软对齐关系。
比如,对于下面的音频序列,CTC可以将每个位置分别对应到同一个词。需要注意的是,CTC会额外新增一个词
$
\epsilon
$
,类似于一个空白词,表示这个位置没有声音或者没有任何对应的预测结果。在对齐完成之后,将相同且连续的词合并,去除
$
\epsilon
$
,就可以得到预测结果,如图
\ref
{
fig:17-8
}
所示
。
\parinterval
语音翻译中多任务学习主要借助语音对应的标注信息,也就是源语言文本。
{
\small\bfnew
{
连接时序分类
}}
\index
{
连接时序分类
}
(Connectionist Temporal Classification,CTC)
\index
{
Connectionist Temporal Classification
}
\upcite
{
DBLP:conf/icml/GravesFGS06
}
是语音处理中最简单有效的一种多任务学习方法
\upcite
{
DBLP:journals/jstsp/WatanabeHKHH17,DBLP:conf/icassp/KimHW17
}
,也被广泛应用于文本识别任务中
\upcite
{
DBLP:journals/pami/ShiBY17
}
。CTC可以将输入序列的每一位置都对应到标注文本中,学习语音和文字之间的软对齐关系。
如图
\ref
{
fig:17-8
}
,对于下面的音频序列,CTC可以将每个位置分别对应到同一个词。需要注意的是,CTC会额外新增一个词
$
\epsilon
$
,类似于一个空白词,表示这个位置没有声音或者没有任何对应的预测结果。在对齐完成之后,将相同且连续的词合并,去除
$
\epsilon
$
,就可以得到预测结果
。
%----------------------------------------------------------------------------------------------------
\begin{figure}
[htp]
...
...
@@ -337,9 +337,9 @@
\parinterval
基于联合模型的方法通常是把翻译任务与其他视觉任务结合,进行联合训练。这种方法也可以被看做是一种多任务学习,只不过这里仅关注翻译和视觉任务。一种常见的方法是共享模型的部分参数来学习不同任务之间相似的部分,并通过特定的模块来学习每个任务特有的部分。
\parinterval
如图
\ref
{
fig:17-14
}
所示,图中
$
y
_{
<
}$
表示当前时刻之前的单词序列,可以将多模态机器翻译任务分解为两个子任务:机器翻译和图片生成
\upcite
{
DBLP:conf/ijcnlp/ElliottK17
}
。其中机器翻译作为主任务,图片生成作为子任务。这里的图片生成指的是从一个图片描述生成对应图片,对于图片生成任务在后面还会有描述。通过单个编码器对源语言数据进行建模,然后通过两个解码器(翻译解码器和图像解码器)来学习翻译任务和图像生成任务。顶层
任务学习每个任务的独立特征,底层共享参数层
能够学习到更丰富的文本表示。
\parinterval
如图
\ref
{
fig:17-14
}
所示,图中
$
y
_{
<
}$
表示当前时刻之前的单词序列,可以将多模态机器翻译任务分解为两个子任务:机器翻译和图片生成
\upcite
{
DBLP:conf/ijcnlp/ElliottK17
}
。其中机器翻译作为主任务,图片生成作为子任务。这里的图片生成指的是从一个图片描述生成对应图片,对于图片生成任务在后面还会有描述。通过单个编码器对源语言数据进行建模,然后通过两个解码器(翻译解码器和图像解码器)来学习翻译任务和图像生成任务。顶层
学习每个任务的独立特征,底层共享参数
能够学习到更丰富的文本表示。
\parinterval
另外在视觉问答领域有研究表明,在多模态任务中,不宜引入过多层的注意力机制,因为过深的模型会导致多模态模型的过拟合
\upcite
{
DBLP:conf/nips/LuYBP16
}
。这一方面是由于深
模型本身对数据的拟合能力,另一方面也是由于多模态任务的数据普遍较小
,容易造成复杂模型的过拟合。从另一角度来说,利用多任务学习的方式,提高模型的泛化能力,也是一种有效防止过拟合现象的方式。类似的思想,也大量使用在多模态自然语言处理任务中,例如图像描述生成、视觉问答等
\upcite
{
DBLP:conf/iccv/AntolALMBZP15
}
。
\parinterval
另外在视觉问答领域有研究表明,在多模态任务中,不宜引入过多层的注意力机制,因为过深的模型会导致多模态模型的过拟合
\upcite
{
DBLP:conf/nips/LuYBP16
}
。这一方面是由于深
层模型本身对数据的拟合能力较强,另一方面也是由于多模态任务的数据普遍较少
,容易造成复杂模型的过拟合。从另一角度来说,利用多任务学习的方式,提高模型的泛化能力,也是一种有效防止过拟合现象的方式。类似的思想,也大量使用在多模态自然语言处理任务中,例如图像描述生成、视觉问答等
\upcite
{
DBLP:conf/iccv/AntolALMBZP15
}
。
%----------------------------------------------------------------------------------------------------
\begin{figure}
[htp]
...
...
@@ -367,7 +367,7 @@
\end{figure}
%----------------------------------------------------------------------------------------------------
\parinterval
传统图像描述生成有两种范式:基于检索的方法和基于模板的方法。其中图
\ref
{
fig:17-15
}
(a)展示了一个基于检索的图像描述生成实例,这种方法在图像描述的候选中选择一个描述输出。但是,弊端是所选择的句子可能会和图像很大程度上不相符。而
\ref
{
fig:17-15
}
(b)展示的是一种基于模版的方法,这种方法需要在图像上提取视觉特征,然后把内容填在实现设计好的模板当中,这种方法的缺点是生成的图像描述过于呆板,“像是在一个模子中刻出来的”说的就是这个意思。近几年来 ,受到机器翻译领域等任务的启发,图像描述生成也开始大量使用编码器-解码器框架。这里会从基础的图像描述范式编码器-解码器框架展开
\upcite
{
DBLP:conf/cvpr/VinyalsTBE15,DBLP:conf/icml/XuBKCCSZB15
}
,并从编码器的改进和解码器的改进两个方面进行介绍。
\parinterval
传统图像描述生成有两种范式:基于检索的方法和基于模板的方法。其中图
\ref
{
fig:17-15
}
(a)展示了一个基于检索的图像描述生成实例,这种方法在图像描述的候选中选择一个描述输出。但是,弊端是所选择的句子可能会和图像很大程度上不相符。而
\ref
{
fig:17-15
}
(b)展示的是一种基于模版的方法,这种方法需要在图像上提取视觉特征,然后把内容填在实现设计好的模板当中,这种方法的缺点是生成的图像描述过于呆板,“像是在一个模子中刻出来的”说的就是这个意思。近几年来 ,受到机器翻译领域等任务的启发,图像描述生成
任务
也开始大量使用编码器-解码器框架。这里会从基础的图像描述范式编码器-解码器框架展开
\upcite
{
DBLP:conf/cvpr/VinyalsTBE15,DBLP:conf/icml/XuBKCCSZB15
}
,并从编码器的改进和解码器的改进两个方面进行介绍。
%----------------------------------------------------------------------------------------
% NEW SUBSUB-SECTION
...
...
@@ -375,7 +375,7 @@
\subsubsection
{
1. 基础框架
}
\parinterval
在编码器-解码器框架中,编码器将输入的图像转换为一种新的“表示”形式,这种“表示”包含了输入图像的所有信息。之后解码器把这种“表示”转换为自然语言描述。比如,可以通过卷积神经网络提取图像特征为一个向量表示。然后,利用长短时记忆网络(LSTM)解码生成文字描述,这个过程中与机器翻译的解码过程类似。这种建模方式存在与
\ref
{
sec:image-augmented-translation
}
描述一样的问题:生成的描述单词不一定需要所有的图像信息,将全局的图像信息送入模型中,可能会引入噪音。这时可以使用注意力机制来缓解该问题
\upcite
{
DBLP:conf/icml/XuBKCCSZB15
}
。
\parinterval
在编码器-解码器框架中,编码器将输入的图像转换为一种新的“表示”形式,这种“表示”包含了输入图像的所有信息。之后解码器把这种“表示”转换为自然语言描述。比如,可以通过卷积神经网络提取图像特征为一个向量表示。然后,利用长短时记忆网络(LSTM
s
)解码生成文字描述,这个过程中与机器翻译的解码过程类似。这种建模方式存在与
\ref
{
sec:image-augmented-translation
}
描述一样的问题:生成的描述单词不一定需要所有的图像信息,将全局的图像信息送入模型中,可能会引入噪音。这时可以使用注意力机制来缓解该问题
\upcite
{
DBLP:conf/icml/XuBKCCSZB15
}
。
%----------------------------------------------------------------------------------------
% NEW SUBSUB-SECTION
...
...
@@ -396,7 +396,7 @@
\end{figure}
%----------------------------------------------------------------------------------------------------
\parinterval
以上的方法大都是将图像中的实体、属性、场景等映射到文字上,并把这些信息显式地
添加
到编码器中。另一种方式,把图像中的语义特征隐式地引入编码中
\upcite
{
DBLP:conf/cvpr/ChenZXNSLC17
}
。例如,图像数据可以分解为三个通道(红、绿、蓝),简单来说,就是将图像的每一个像素点按照红色、绿色、蓝色分成三个部分,这样就将图像分成了三个通道。在很多图像中,不同通道伴随的特征是不一样的,可以将其作用于编码器。另一种方法是基于位置信息的编码增强。位置信息指的是图像中对象(物体)的位置。利用目标检测技术检测系统获得图中的对象和对应的特征,这样就确定了图中的对象位置。显然,这些信息可以加强编码器的表示能力
\upcite
{
DBLP:conf/eccv/YaoPLM18
}
。
\parinterval
以上的方法大都是将图像中的实体、属性、场景等映射到文字上,并把这些信息显式地
输入
到编码器中。另一种方式,把图像中的语义特征隐式地引入编码中
\upcite
{
DBLP:conf/cvpr/ChenZXNSLC17
}
。例如,图像数据可以分解为三个通道(红、绿、蓝),简单来说,就是将图像的每一个像素点按照红色、绿色、蓝色分成三个部分,这样就将图像分成了三个通道。在很多图像中,不同通道伴随的特征是不一样的,可以将其作用于编码器。另一种方法是基于位置信息的编码增强。位置信息指的是图像中对象(物体)的位置。利用目标检测技术检测系统获得图中的对象和对应的特征,这样就确定了图中的对象位置。显然,这些信息可以加强编码器的表示能力
\upcite
{
DBLP:conf/eccv/YaoPLM18
}
。
%----------------------------------------------------------------------------------------
% NEW SUBSUB-SECTION
...
...
@@ -418,7 +418,7 @@
\parinterval
在计算机视觉中,图像风格变换、图像超分辨率重建等任务,都可以被视为
{
\small\bfnew
{
图像到图像的翻译
}}
\index
{
图像到图像的翻译
}
(Image-to-Image Translation)
\index
{
Image-to-Image Translation
}
问题。与机器翻译类似,这些问题的共同目标是学习从一个对象到另一个对象的映射,只不过这里的对象是指图像,而非机器翻译中的文字。例如,给定物体的轮廓生成真实物体图片,或者给定白天照片生成夜晚的照片等。图像到图像的翻译有广阔的应用场景,如图片补全、风格迁移等。
{
\small\bfnew
{
文本到图像的翻译
}}
\index
{
文本到图像的翻译
}
(Text-to-Image Translation)
\index
{
Text-to-Image Translation
}
是指给定描述物体颜色和形状等细节的自然语言文字,生成对应的图像。该任务也可以看作是图像描述生成的逆任务。
\parinterval
无论是图像到图像的生成,还是文本到图像的生成,
也
可直接使用编码器-解码器框架进行实现。比如,在文本到图像生成中,可以使用机器翻译中的编码器对输入文本进行编码,之后用反卷积神经网络将编码结果转化为图像。近些年,图像生成类任务也取得了很大的进展,这主要得益于生成对抗网络的使用
\upcite
{
DBLP:conf/nips/GoodfellowPMXWOCB14,DBLP:journals/corr/abs-1908-06616,DBLP:conf/icml/ReedAYLSL16,DBLP:journals/corr/DashGALA17
}
。在
{
\chapterthirteen
}
已经介绍了生成对抗网络,而且图像生成也不是本书的重点,感兴趣的读者可以参考
{
\chapterthirteen
}
的内容或者自行查阅相关文献进行了解。
\parinterval
无论是图像到图像的生成,还是文本到图像的生成,
均
可直接使用编码器-解码器框架进行实现。比如,在文本到图像生成中,可以使用机器翻译中的编码器对输入文本进行编码,之后用反卷积神经网络将编码结果转化为图像。近些年,图像生成类任务也取得了很大的进展,这主要得益于生成对抗网络的使用
\upcite
{
DBLP:conf/nips/GoodfellowPMXWOCB14,DBLP:journals/corr/abs-1908-06616,DBLP:conf/icml/ReedAYLSL16,DBLP:journals/corr/DashGALA17
}
。在
{
\chapterthirteen
}
已经介绍了生成对抗网络,而且图像生成也不是本书的重点,感兴趣的读者可以参考
{
\chapterthirteen
}
的内容或者自行查阅相关文献进行了解。
%----------------------------------------------------------------------------------------
% NEW SECTION
...
...
编写
预览
Markdown
格式
0%
重试
或
添加新文件
添加附件
取消
您添加了
0
人
到此讨论。请谨慎行事。
请先完成此评论的编辑!
取消
请
注册
或者
登录
后发表评论