Skip to content
项目
群组
代码片段
帮助
当前项目
正在载入...
登录 / 注册
切换导航面板
M
mtbookv2
概览
Overview
Details
Activity
Cycle Analytics
版本库
Repository
Files
Commits
Branches
Tags
Contributors
Graph
Compare
Charts
问题
0
Issues
0
列表
Board
标记
里程碑
合并请求
0
Merge Requests
0
CI / CD
CI / CD
流水线
作业
日程表
图表
维基
Wiki
代码片段
Snippets
成员
Collapse sidebar
Close sidebar
活动
图像
聊天
创建新问题
作业
提交
Issue Boards
Open sidebar
NiuTrans
mtbookv2
Commits
3e1425bc
Commit
3e1425bc
authored
Jan 30, 2021
by
曹润柘
Browse files
Options
Browse Files
Download
Plain Diff
合并分支 'caorunzhe' 到 'master'
Caorunzhe 查看合并请求
!997
parents
df54d791
5c38b917
隐藏空白字符变更
内嵌
并排
正在显示
6 个修改的文件
包含
35 行增加
和
35 行删除
+35
-35
Chapter10/Figures/figure-example-of-context-vector-calculation-process.tex
+2
-2
Chapter13/chapter13.tex
+1
-1
Chapter14/chapter14.tex
+6
-7
Chapter15/chapter15.tex
+20
-20
Chapter16/chapter16.tex
+1
-1
Chapter17/chapter17.tex
+5
-4
没有找到文件。
Chapter10/Figures/figure-example-of-context-vector-calculation-process.tex
查看文件 @
3e1425bc
...
...
@@ -27,10 +27,10 @@
% alignment matrix
\begin{scope}
[scale=0.9,yshift=0.12in]
\foreach
\i
/
\j
/
\c
in
{
0/7/0.2, 1/7/0.45, 2/7/0.15, 3/7/0.15, 4/7/0.15, 5/7/0.15,
{
0/7/0.2
5
, 1/7/0.45, 2/7/0.15, 3/7/0.15, 4/7/0.15, 5/7/0.15,
0/6/0.35, 1/6/0.45, 2/6/0.15, 3/6/0.15, 4/6/0.15, 5/6/0.15,
0/5/0.25, 1/5/0.15, 2/5/0.15, 3/5/0.35, 4/5/0.15, 5/5/0.15,
0/4/0.15, 1/4/0.2
5
, 2/4/0.2, 3/4/0.30, 4/4/0.15, 5/4/0.15,
0/4/0.15, 1/4/0.2, 2/4/0.2, 3/4/0.30, 4/4/0.15, 5/4/0.15,
0/3/0.15, 1/3/0.15, 2/3/0.8, 3/3/0.25, 4/3/0.15, 5/3/0.25,
0/2/0.15, 1/2/0.15, 2/2/0.15, 3/2/0.15, 4/2/0.25, 5/2/0.3,
0/1/0.15, 1/1/0.15, 2/1/0.15, 3/1/0.15, 4/1/0.8, 5/1/0.15,
...
...
Chapter13/chapter13.tex
查看文件 @
3e1425bc
...
...
@@ -917,7 +917,7 @@ L_{\textrm{seq}} = - \textrm{logP}_{\textrm{s}}(\hat{\seq{y}} | \seq{x})
%----------------------------------------------------------------------------------------
\sectionnewpage
\section
{
小结及
深入
阅读
}
\section
{
小结及
拓展
阅读
}
\parinterval
本章以不同的角度讨论了神经机器翻译模型的训练问题。一方面,可以作为
{
\chapternine
}$
\sim
${
\chaptertwelve
}
内容的扩展,另一方面,也为本书后续章节的内容进行铺垫。从机器学习的角度看,本章介绍的很多内容并不仅仅使用在机器翻译中,大多数的内容同样适用于其它自然语言处理任务。此外,本章也讨论了许多与机器翻译相关的问题(如大词表),这又使得本章的内容具有机器翻译的特性。总的来说,模型训练是一个非常开放的问题,在后续章节中还会频繁涉及。同时,也有一些方向可以关注:
...
...
Chapter14/chapter14.tex
查看文件 @
3e1425bc
...
...
@@ -39,7 +39,6 @@
%----------------------------------------------------------------------------------------
% NEW SECTION
%----------------------------------------------------------------------------------------
\section
{
面临的挑战
}
\parinterval
神经机器翻译的推断是指:对于输入的源语言句子
$
\seq
{
x
}$
,使用已经训练好的模型找到最佳译文
$
\hat
{
\seq
{
y
}}$
的过程,其中
$
\hat
{
\seq
{
y
}}
=
\arg\max\limits
_{
\seq
{
y
}}
\funp
{
P
}
(
\seq
{
y
}
|
\seq
{
x
}
)
$
。这个过程也被称作解码。但是为了避免与神经机器翻译中编码器-解码器造成概念上的混淆,这里统一把翻译新句子的操作称作推断。以上这个过程是一个典型的搜索问题(见
{
\chaptertwo
}
),比如,可以使用贪婪搜索或者束搜索完成神经机器翻译的推断(见
{
\chapterten
}
)。
...
...
@@ -101,7 +100,7 @@
%----------------------------------------------------------------------------------------
% NEW SECTION
%----------------------------------------------------------------------------------------
\sectionnewpage
\section
{
基本问题
}
\label
{
sec:14-2
}
\parinterval
下面将就神经机器翻译推断中的若干基本问题进行讨论,包括:推断方向、译文长度控制、搜索终止条件、译文多样性、搜索错误五个方面。
...
...
@@ -269,7 +268,7 @@ b &=& \omega_{\textrm{high}}\cdot |\seq{x}| \label{eq:14-4}
%----------------------------------------------------------------------------------------
% NEW SECTION
%----------------------------------------------------------------------------------------
\sectionnewpage
\section
{
轻量模型
}
\label
{
sec:14-3
}
\parinterval
翻译速度和翻译精度之间的平衡是机器翻译系统研发中的常见问题。即使是以提升翻译品质为目标的任务(如用BLEU进行评价),也不得不考虑翻译速度的影响。比如,在很多任务中会构造伪数据,该过程涉及对大规模单语数据的翻译;无监督机器翻译中也会频繁地使用神经机器翻译系统构造训练数据。在这些情况下,如果翻译速度过慢会增大实验的周期。从应用的角度看,在很多场景下翻译速度甚至比翻译品质更重要。比如,在线翻译和一些小设备上的机器翻译系统都需要保证相对低的翻译时延,以满足用户体验的最基本要求。虽然,我们希望能有一套又好又快的翻译系统,但是现实的情况是:往往需要通过牺牲一些翻译品质来换取翻译速度的提升。下面就列举一些常用的神经机器翻译轻量模型和加速方法。这些方法通常应用在神经机器翻译的解码器上,因为相比编码器,解码器是推断过程中最耗时的部分。
...
...
@@ -407,7 +406,7 @@ b &=& \omega_{\textrm{high}}\cdot |\seq{x}| \label{eq:14-4}
%----------------------------------------------------------------------------------------
% NEW SECTION
%----------------------------------------------------------------------------------------
\sectionnewpage
\section
{
非自回归翻译
}
\parinterval
目前大多数神经机器翻译模型都使用自左向右逐词生成译文的策略,即第
$
j
$
个目标语言单词的生成依赖于先前生成的
$
j
-
1
$
个词。这种翻译方式也被称作
{
\small\sffamily\bfseries
{
自回归解码
}}
\index
{
自回归解码
}
(Autoregressive Decoding)
\index
{
Autoregressive Decoding
}
。虽然以Transformer为代表的模型使得训练过程高度并行化,加快了训练速度。但由于推断过程自回归的特性,模型无法同时生成译文中的所有单词,导致模型的推断过程非常缓慢,这对于神经机器翻译的实际应用是个很大的挑战。因此,如何设计一个在训练和推断阶段都能够并行化的模型是目前研究的热点之一。
...
...
@@ -590,7 +589,7 @@ b &=& \omega_{\textrm{high}}\cdot |\seq{x}| \label{eq:14-4}
%----------------------------------------------------------------------------------------
% NEW SECTION
%----------------------------------------------------------------------------------------
\sectionnewpage
\section
{
多模型集成
}
\label
{
sec:14-5
}
\parinterval
在机器学习领域,把多个模型融合成一个模型是提升系统性能的一种有效方法。比如,在经典的AdaBoost 方法中
\upcite
{
DBLP:journals/jcss/FreundS97
}
,用多个“弱” 分类器构建的“强” 分类器可以使模型在训练集上的分类错误率无限接近0。类似的思想也被应用到机器翻译中
\upcite
{
DBLP:conf/acl/XiaoZZW10,DBLP:conf/icassp/SimBGSW07,DBLP:conf/acl/RostiMS07,DBLP:conf/wmt/RostiZMS08
}
,被称为
{
\small\sffamily\bfseries
{
系统融合
}}
\index
{
系统融合
}
(System Combination)
\index
{
System Combination
}
。在各种机器翻译比赛中,系统融合已经成为经常使用的技术之一。由于许多模型融合方法都是在推断阶段完成,因此此类方法开发的代价较低。
...
...
@@ -695,8 +694,8 @@ b &=& \omega_{\textrm{high}}\cdot |\seq{x}| \label{eq:14-4}
%----------------------------------------------------------------------------------------
% NEW SECTION
%----------------------------------------------------------------------------------------
\section
{
小结与
扩
展阅读
}
\sectionnewpage
\section
{
小结与
拓
展阅读
}
\parinterval
推断系统(或解码系统)是神经机器翻译的重要组成部分。在神经机器翻译研究中,单独针对推断问题开展的讨论并不多见。更多的工作是将其与实践结合,常见于开源系统、评测比赛中。但是,从应用的角度看,研发高效的推断系统是机器翻译能够被大规模使用的前提。本章也从神经机器翻译推断的基本问题出发,重点探讨了推断系统的效率、非自回归翻译、多模型集成等问题。但是,由于推断问题涉及的问题十分广泛,因此本章也无法对其进行全面覆盖。关于神经机器翻译模型推断还有以下若干研究方向值得关注:
...
...
Chapter15/chapter15.tex
查看文件 @
3e1425bc
...
...
@@ -46,7 +46,7 @@
\parinterval
但是,Transformer模型中的自注意力机制本身并不具有这种性质,而且它直接忽略了输入单元之间的位置关系。虽然,Transformer中引入了基于正余弦函数的绝对位置编码(见
{
\chaptertwelve
}
),但是该方法仍然无法显性区分局部依赖与长距离依赖
\footnote
[1]
{
局部依赖指当前位置与局部的相邻位置之间的联系。
}
。
\parinterval
针对上述问题,研究人员
{
\red
尝试引入
}
“相对位置”
{
\red
信息
}
,对原有的“绝对位置”
{
\red
信息
}
进行补充,强化了局部依赖
\upcite
{
Dai2019TransformerXLAL,Shaw2018SelfAttentionWR
}
。此外,由于模型中每一层均存在自注意力机制计算,因此模型捕获位置信息的能力也逐渐减弱,这种现象在深层模型中尤为明显。而利用相对位置编码能够把位置信息显性加入到每一层的注意力机制的计算中,
{
\red
进而强化深层模型的位置表示能力
}
\upcite
{
li2020shallow
}
。图
\ref
{
fig:15-1
}
对比了Transformer中绝对位置编码和相对位置编码方法。
\parinterval
针对上述问题,研究人员
尝试引入“相对位置”信息,对原有的“绝对位置”信息进行补充,强化了局部依赖
\upcite
{
Dai2019TransformerXLAL,Shaw2018SelfAttentionWR
}
。此外,由于模型中每一层均存在自注意力机制计算,因此模型捕获位置信息的能力也逐渐减弱,这种现象在深层模型中尤为明显。而利用相对位置编码能够把位置信息显性加入到每一层的注意力机制的计算中,进而强化深层模型的位置表示能力
\upcite
{
li2020shallow
}
。图
\ref
{
fig:15-1
}
对比了Transformer中绝对位置编码和相对位置编码方法。
%----------------------------------------------
\begin{figure}
[htp]
...
...
@@ -134,21 +134,21 @@
\label
{
eq:15-12
}
\end{eqnarray}
\noindent
{
\red
这里使用
$
A
_{
ij
}^{
\rm
abs
}$
表示公式
\eqref
{
eq:15-12
}
中等式右侧的分子部分,并对其进行展开:
}
\noindent
这里使用
$
A
_{
ij
}^{
\rm
abs
}$
表示公式
\eqref
{
eq:15-12
}
中等式右侧的分子部分,并对其进行展开:
\begin{eqnarray}
A
_{
ij
}^{
\rm
abs
}
&
=
&
\underbrace
{
\mathbi
{
E
}_{
x
_
i
}
\mathbi
{
W
}_
Q
\mathbi
{
W
}_{
K
}^{
T
}
\mathbi
{
E
}_{
x
_
j
}^{
T
}}_{
\textrm
{
(a)
}}
+
\underbrace
{
\mathbi
{
E
}_{
x
_
i
}
\mathbi
{
W
}_
Q
\mathbi
{
W
}_{
K
}^{
T
}
\mathbi
{
U
}_{
j
}^{
T
}}_{
\textrm
{
(b)
}}
+
\nonumber
\\
&
&
\underbrace
{
\mathbi
{
U
}_
i
\mathbi
{
W
}_
Q
\mathbi
{
W
}_{
K
}^{
T
}
\mathbi
{
E
}_{
x
_
j
}^{
T
}}_{
\textrm
{
(c)
}}
+
\underbrace
{
\mathbi
{
U
}_
i
\mathbi
{
W
}_
Q
\mathbi
{
W
}_{
K
}^{
T
}
\mathbi
{
U
}_{
j
}^{
T
}}_{
\textrm
{
(d)
}}
\label
{
eq:15-13
}
\end{eqnarray}
\noindent
{
\red
其中,
${
\rm
abs
}$
代表使用绝对位置编码计算得到的
$
A
_{
ij
}$}
,
$
\mathbi
{
W
}_
Q
$
与
$
\mathbi
{
W
}_
K
$
表示线性变换矩阵。为了引入相对位置信息,可以将公式
\eqref
{
eq:15-13
}
修改为如下形式:
\noindent
其中,
${
\rm
abs
}$
代表使用绝对位置编码计算得到的
$
A
_{
ij
}$
,
$
\mathbi
{
W
}_
Q
$
与
$
\mathbi
{
W
}_
K
$
表示线性变换矩阵。为了引入相对位置信息,可以将公式
\eqref
{
eq:15-13
}
修改为如下形式:
\begin{eqnarray}
A
_{
ij
}^{
\rm
rel
}
&
=
&
\underbrace
{
\mathbi
{
E
}_{
x
_
i
}
\mathbi
{
W
}_
Q
\mathbi
{
W
}_{
K
}^{
T
}
\mathbi
{
E
}_{
x
_
j
}^{
T
}}_{
\textrm
{
(a)
}}
+
\underbrace
{
\mathbi
{
E
}_{
x
_
i
}
\mathbi
{
W
}_
Q
\mathbi
{
W
}_{
K
}^{
T
}
\mathbi
{
R
}_{
i-j
}^{
T
}}_{
\textrm
{
(b)
}}
+
\nonumber
\\
&
&
\underbrace
{
\mathbi
{
u
}
\mathbi
{
W
}_{
K,E
}^{
T
}
\mathbi
{
E
}_{
x
_
j
}^{
T
}}_{
\textrm
{
(c)
}}
+
\underbrace
{
\mathbi
{
v
}
\mathbi
{
W
}_{
K,R
}^{
T
}
\mathbi
{
R
}_{
i-j
}^{
T
}}_{
\textrm
{
(d)
}}
\label
{
eq:15-14
}
\end{eqnarray}
\noindent
其中,
$
A
_{
ij
}^{
\rm
rel
}$
为使用相对位置编码后位置
$
i
$
与
$
j
$
关系的表示结果,
{
\red
$
\mathbi
{
R
}$
是一个固定的正弦矩阵。不同于公式
\eqref
{
eq:15-13
}
,公式
\eqref
{
eq:15-14
}
对(c)中的
$
\mathbi
{
E
}_{
x
_
j
}^{
T
}$
与(d)中的
$
\mathbi
{
R
}_{
i
-
j
}^{
T
}$
采用了不同的映射矩阵,分别为
$
\mathbi
{
W
}_{
K,E
}^{
T
}$
和
$
\mathbi
{
W
}_{
K,R
}^{
T
}$
,这两项分别代表了键
$
\mathbi
{
K
}$
中的词嵌入表示和相对位置编码表示,并且由于此时只采用了相对位置编码,因此公式
\eqref
{
eq:15-14
}
在(c)与(d)部分使用了
$
\mathbi
{
u
}$
和
$
\mathbi
{
v
}$
两个可学习的矩阵代替
$
\mathbi
{
U
}_
i
\mathbi
{
W
}_
Q
$
与
$
\mathbi
{
U
}_
i
\mathbi
{
W
}_
Q
$
,即查询
$
\mathbi
{
Q
}$
中的绝对位置编码部分。此时
}
公式中各项的含义为:(a)表示位置
$
i
$
与位置
$
j
$
之间词嵌入的相关性,可以看作是基于内容的表示,(b)表示基于内容的位置偏置,(c)表示全局内容的偏置,(d)表示全局位置的偏置。公式
\eqref
{
eq:15-13
}
中的(a)、(b)两项与前面介绍的绝对位置编码一致
\upcite
{
Shaw2018SelfAttentionWR
}
,并针对相对位置编码引入了额外的线性变换矩阵。同时,这种方法兼顾了全局内容偏置和全局位置偏置,可以更好地利用正余弦函数的归纳偏置特性。
\noindent
其中,
$
A
_{
ij
}^{
\rm
rel
}$
为使用相对位置编码后位置
$
i
$
与
$
j
$
关系的表示结果,
$
\mathbi
{
R
}$
是一个固定的正弦矩阵。不同于公式
\eqref
{
eq:15-13
}
,公式
\eqref
{
eq:15-14
}
对(c)中的
$
\mathbi
{
E
}_{
x
_
j
}^{
T
}$
与(d)中的
$
\mathbi
{
R
}_{
i
-
j
}^{
T
}$
采用了不同的映射矩阵,分别为
$
\mathbi
{
W
}_{
K,E
}^{
T
}$
和
$
\mathbi
{
W
}_{
K,R
}^{
T
}$
,这两项分别代表了键
$
\mathbi
{
K
}$
中的词嵌入表示和相对位置编码表示,并且由于此时只采用了相对位置编码,因此公式
\eqref
{
eq:15-14
}
在(c)与(d)部分使用了
$
\mathbi
{
u
}$
和
$
\mathbi
{
v
}$
两个可学习的矩阵代替
$
\mathbi
{
U
}_
i
\mathbi
{
W
}_
Q
$
与
$
\mathbi
{
U
}_
i
\mathbi
{
W
}_
Q
$
,即查询
$
\mathbi
{
Q
}$
中的绝对位置编码部分。此时
公式中各项的含义为:(a)表示位置
$
i
$
与位置
$
j
$
之间词嵌入的相关性,可以看作是基于内容的表示,(b)表示基于内容的位置偏置,(c)表示全局内容的偏置,(d)表示全局位置的偏置。公式
\eqref
{
eq:15-13
}
中的(a)、(b)两项与前面介绍的绝对位置编码一致
\upcite
{
Shaw2018SelfAttentionWR
}
,并针对相对位置编码引入了额外的线性变换矩阵。同时,这种方法兼顾了全局内容偏置和全局位置偏置,可以更好地利用正余弦函数的归纳偏置特性。
\vspace
{
0.5em
}
\item
{
\small\bfnew
{
结构化位置编码
}}
\index
{
基于结构化位置编码
}
(Structural Position Representations)
\index
{
Structural Position Representations
}
\upcite
{
DBLP:conf/emnlp/WangTWS19a
}
。 例如,可以通过对输入句子进行依存句法分析得到句法树,根据叶子结点在句法树中的深度来表示其绝对位置,并在此基础上利用相对位置编码的思想计算节点之间的相对位置信息。
...
...
@@ -191,7 +191,7 @@ G_{ij} &=& - \frac{{(j - P_i)}^2}{2\sigma_i^2}
\label
{
eq:15-16
}
\end{eqnarray}
\noindent
其中,
$
\sigma
_
i
$
表示偏差,被定义为
{
\red
第
$
i
$
个词的
}
局部建模窗口大小
$
D
_
i
$
的一半,即
$
\sigma
_
i
=
\frac
{
D
_
i
}{
2
}$
。中心位置
$
P
_
i
$
和
{
\red
局部建模窗口
}
$
D
_
i
$
的计算方式如下:
\noindent
其中,
$
\sigma
_
i
$
表示偏差,被定义为
第
$
i
$
个词的局部建模窗口大小
$
D
_
i
$
的一半,即
$
\sigma
_
i
=
\frac
{
D
_
i
}{
2
}$
。中心位置
$
P
_
i
$
和局部建模窗口
$
D
_
i
$
的计算方式如下:
\begin{eqnarray}
\begin{pmatrix}
P
_
i
\\
D
_
i
\end{pmatrix}
&
=
&
m
\cdot
\textrm
{
Sigmoid
}
(
\begin{pmatrix}
p
_
i
\\
v
_
i
\end{pmatrix}
)
\label
{
eq:15-17
}
...
...
@@ -217,7 +217,7 @@ v_i &=& \mathbi{I}_d^T\textrm{Tanh}(\mathbi{W}_d\mathbi{Q}_i)
\label
{
fig:15-4
}
\end{figure}
%-------------------------------------------
{
\red
\noindent
于是,在计算第
$
i
$
个词对第
$
j
$
个词的相关系数时,通过超参数
$
\omega
$
控制实际的感受野为
$
j
-
\omega
,
\ldots
,j
+
\omega
$
,注意力计算中
$
\mathbi
{
e
}_{
ij
}$
的计算方式与公式
\eqref
{
eq:15-6
}
相同,权重
$
\alpha
_{
ij
}$
的具体计算公式为:
\begin{eqnarray}
\alpha
_{
ij
}
&
=
&
\frac
{
\exp
(
\mathbi
{
e
}_{
ij
}
)
}{
\sum
_{
k=j-
\omega
}^{
j+
\omega
}
\exp
(
\mathbi
{
e
}_{
ik
}
)
}
...
...
@@ -231,7 +231,7 @@ v_i &=& \mathbi{I}_d^T\textrm{Tanh}(\mathbi{W}_d\mathbi{Q}_i)
\end{eqnarray}
\noindent
其中,约束的具体作用范围会根据实际句长进行一定的裁剪,通过对不同的头设置不同的超参数来控制感受野的大小,最终实现多尺度局部建模。
}
\vspace
{
0.5em
}
\end{itemize}
...
...
@@ -277,9 +277,9 @@ v_i &=& \mathbi{I}_d^T\textrm{Tanh}(\mathbi{W}_d\mathbi{Q}_i)
\begin{itemize}
\vspace
{
0.5em
}
\item
{
\
red
{
\small\bfnew
{
基于权重的方法
}}}
\upcite
{
DBLP:journals/corr/abs-1711-02132
}
。其主要思想是在多头自注意力机制的基础上保留不同表示空间的特征。传统方法使用级联操作并通过线性映射矩阵来融合不同头之间的信息,而
{
\red
基于权重的
}
Transformer直接利用线性映射将维度为
$
d
_
k
$
的向量表示映射到
$
d
_{
\rm
model
}$
维的向量。之后,将这个
$
d
_{
\rm
model
}$
维向量分别送入每个分支中的前馈神经网络,最后对不同分支的输出进行线性加权。但是,这种模型的计算复杂度要大于标准的Transformer模型。
\item
{
\
small\bfnew
{
基于权重的方法
}}
\upcite
{
DBLP:journals/corr/abs-1711-02132
}
。其主要思想是在多头自注意力机制的基础上保留不同表示空间的特征。传统方法使用级联操作并通过线性映射矩阵来融合不同头之间的信息,而基于权重的
Transformer直接利用线性映射将维度为
$
d
_
k
$
的向量表示映射到
$
d
_{
\rm
model
}$
维的向量。之后,将这个
$
d
_{
\rm
model
}$
维向量分别送入每个分支中的前馈神经网络,最后对不同分支的输出进行线性加权。但是,这种模型的计算复杂度要大于标准的Transformer模型。
\vspace
{
0.5em
}
\item
{
\
red
{
\small\bfnew
{
基于多分支注意力的方法
}}}
\upcite
{
DBLP:journals/corr/abs-2006-10270
}
。不同于
{
\red
基于权重的
}
Transformer模型,多分支注意力模型直接利用每个分支独立地进行自注意力模型的计算(图
\ref
{
fig:15-6
}
)。同时为了避免结构相同的多个多头注意力机制之间的协同适应,这种模型使用Dropout方法在训练过程中以一定的概率随机地丢弃一些分支。
\item
{
\
small\bfnew
{
基于多分支注意力的方法
}}
\upcite
{
DBLP:journals/corr/abs-2006-10270
}
。不同于基于权重的
Transformer模型,多分支注意力模型直接利用每个分支独立地进行自注意力模型的计算(图
\ref
{
fig:15-6
}
)。同时为了避免结构相同的多个多头注意力机制之间的协同适应,这种模型使用Dropout方法在训练过程中以一定的概率随机地丢弃一些分支。
%----------------------------------------------
\begin{figure}
[htp]
...
...
@@ -291,7 +291,7 @@ v_i &=& \mathbi{I}_d^T\textrm{Tanh}(\mathbi{W}_d\mathbi{Q}_i)
%-------------------------------------------
\vspace
{
0.5em
}
\item
{
\
red
{
\small\bfnew
{
基于多单元的方法
}
}}
。例如,为了进一步加强不同分支的作用,基于多单元的Transformer模型进行了序列不同位置表示结果的交换,或使用不同的掩码策略对不同分支的输入进行扰动,保证分支间的多样性与互补性
\upcite
{
DBLP:conf/emnlp/YanMZ20
}
。本质上,所谓的多单元思想与集成学习十分相似,类似于在训练过程中同时训练多个编码器。此外,通过增大子单元之间的结构差异性也能够进一步增大分支之间的多样性
\upcite
{
李北2019面向神经机器翻译的集成学习方法分析
}
。
\item
{
\
small\bfnew
{
基于多单元的方法
}}
。例如,为了进一步加强不同分支的作用,基于多单元的Transformer模型进行了序列不同位置表示结果的交换,或使用不同的掩码策略对不同分支的输入进行扰动,保证分支间的多样性与互补性
\upcite
{
DBLP:conf/emnlp/YanMZ20
}
。本质上,所谓的多单元思想与集成学习十分相似,类似于在训练过程中同时训练多个编码器。此外,通过增大子单元之间的结构差异性也能够进一步增大分支之间的多样性
\upcite
{
李北2019面向神经机器翻译的集成学习方法分析
}
。
\vspace
{
0.5em
}
\end{itemize}
...
...
@@ -314,7 +314,7 @@ v_i &=& \mathbi{I}_d^T\textrm{Tanh}(\mathbi{W}_d\mathbi{Q}_i)
\parinterval
虽然Transformer模型完全摒弃了循环单元与卷积单元,仅通过位置编码来区分序列中的不同位置。但是,循环神经网络也非常适用于处理序列结构,且其结构成熟、易于优化。因此,有研究人员尝试将其与Transformer模型融合。这种方式一方面能够发挥循环神经网络简单高效的特点,另一方面也能够发挥Transformer模型在特征提取方面的优势,是一种非常值得探索的思路
\upcite
{
Chen2018TheBO
}
。
\parinterval
在Transformer模型中引入循环神经网络的一种方法是,对深层网络的不同层使用循环机制。早在残差网络提出时,研究人员已经开始尝试探讨残差网络成功背后的原因
\upcite
{
DBLP:conf/nips/VeitWB16,DBLP:journals/corr/GreffSS16,DBLP:conf/iclr/ChangMHTB18
}
。本质上,在卷积神经网络中引入残差连接后,神经网络从深度上隐性地利用了循环的特性。也就是,多层Transformer的不同层本身也可以被看作是一个处理序列,只是序列中不同位置(对应不同层)的模型参数独立,而非共享。Transformer编码器与解码器分别由
$
N
$
个结构相同但参数独立的
{
\red
层
}
堆叠而成,
{
\red
其中编码器包含2个子层,解码器包含3个子层
}
。同时,子层之间引入了残差连接保证了网络信息传递的高效性。因此,一个自然的想法是通过共享不同
{
\red
层
}
之间的参数,引入循环神经网络中的归纳偏置
\upcite
{
DBLP:conf/iclr/DehghaniGVUK19
}
。其中每层的权重是共享的,并引入了基于时序的编码向量用于显著区分不同深度下的时序信息,如图
\ref
{
fig:15-8
}
所示。在训练大容量预训练模型时同样也采取了共享层间参数的方式
\upcite
{
Lan2020ALBERTAL
}
。
\parinterval
在Transformer模型中引入循环神经网络的一种方法是,对深层网络的不同层使用循环机制。早在残差网络提出时,研究人员已经开始尝试探讨残差网络成功背后的原因
\upcite
{
DBLP:conf/nips/VeitWB16,DBLP:journals/corr/GreffSS16,DBLP:conf/iclr/ChangMHTB18
}
。本质上,在卷积神经网络中引入残差连接后,神经网络从深度上隐性地利用了循环的特性。也就是,多层Transformer的不同层本身也可以被看作是一个处理序列,只是序列中不同位置(对应不同层)的模型参数独立,而非共享。Transformer编码器与解码器分别由
$
N
$
个结构相同但参数独立的
层堆叠而成,其中编码器包含2个子层,解码器包含3个子层。同时,子层之间引入了残差连接保证了网络信息传递的高效性。因此,一个自然的想法是通过共享不同层
之间的参数,引入循环神经网络中的归纳偏置
\upcite
{
DBLP:conf/iclr/DehghaniGVUK19
}
。其中每层的权重是共享的,并引入了基于时序的编码向量用于显著区分不同深度下的时序信息,如图
\ref
{
fig:15-8
}
所示。在训练大容量预训练模型时同样也采取了共享层间参数的方式
\upcite
{
Lan2020ALBERTAL
}
。
%----------------------------------------------
\begin{figure}
[htp]
...
...
@@ -341,7 +341,7 @@ v_i &=& \mathbi{I}_d^T\textrm{Tanh}(\mathbi{W}_d\mathbi{Q}_i)
\vspace
{
0.5em
}
\item
分块注意力:顾名思义,就是将序列划分为固定大小的片段,注意力模型只在对应的片段内执行。这样,每一个片段内的注意力计算成本是固定的,可以大大降低处理长序列时的总体计算时间
\upcite
{
DBLP:conf/emnlp/QiuMLYW020,DBLP:conf/iclr/LiuSPGSKS18
}
。
\vspace
{
0.5em
}
\item
跨步注意力:该模型是一种稀疏的注意力机制,通常会设置一个固定的间隔,也就是说在计算注意力表示时,每隔固定数量的词后将下一个词纳入所需考虑的范围内,参与注意力的计算
\upcite
{
DBLP:journals/corr/abs-2004-05150
}
。和分片段进行注意力计算类似,
{
\red
假设最终参与注意力计算的间隔长度为
$
N
/
B
$
,每次参与注意力计算的单词数为
$
B
$
,那么注意力的计算复杂度将从
$
O
(
N
^
2
)
$
缩减为
$
O
(
N
/
B
\times
B
^
2
)
$
,即
$
O
(
NB
)
$}
。
\item
跨步注意力:该模型是一种稀疏的注意力机制,通常会设置一个固定的间隔,也就是说在计算注意力表示时,每隔固定数量的词后将下一个词纳入所需考虑的范围内,参与注意力的计算
\upcite
{
DBLP:journals/corr/abs-2004-05150
}
。和分片段进行注意力计算类似,
假设最终参与注意力计算的间隔长度为
$
N
/
B
$
,每次参与注意力计算的单词数为
$
B
$
,那么注意力的计算复杂度将从
$
O
(
N
^
2
)
$
缩减为
$
O
(
N
/
B
\times
B
^
2
)
$
,即
$
O
(
NB
)
$
。
\vspace
{
0.5em
}
\item
内存压缩注意力:这种方式的主要的思想是使用一些操作,如卷积、池化等对序列进行下采样,来缩短序列长度。例如,使用
{
\small\bfnew
{
跨步卷积
}}
\index
{
跨步卷积
}
(Stride Convolution)
\index
{
Stride Convolution
}
来减少Key和Value的数量,即减少表示序列长度的维度的大小,Query的数量保持不变,从而减少了注意力权重计算时的复杂度
\upcite
{
DBLP:conf/iclr/LiuSPGSKS18
}
。其具体的计算复杂度取决于跨步卷积时步幅的大小
$
K
$
,形式上可以理解为每
$
K
$
个单元做一次特征融合后,将关注的目标缩减为
$
N
/
K
$
,整体的计算复杂度为
$
N
^
2
/
K
$
。相比于使用前两种方式对局部进行注意力计算,该方式仍是对全局的建模。
\vspace
{
0.5em
}
...
...
@@ -353,7 +353,7 @@ v_i &=& \mathbi{I}_d^T\textrm{Tanh}(\mathbi{W}_d\mathbi{Q}_i)
\begin{itemize}
\vspace
{
0.5em
}
\item
Reformer模型在计算Key和Value时使用相同的线性映射,共享Key和Value的值
\upcite
{
Kitaev2020ReformerTE
}
,降低了自注意力机制的复杂度。进一步,Reformer引入了一种
{
\small\bfnew
{
局部哈希敏感注意力机制
}}
\index
{
局部哈希敏感注意力机制
}
(LSH Attention)
\index
{
LSH Attention
}
,其提高效率的方式和固定模式中的局部建模一致,减少注意力机制的计算范围。对于每一个Query,通过局部哈希敏感机制找出和其较为相关的Key,并进行注意力的计算。其基本思路就是距离相近的向量以较大的概率被哈希分配到一个桶内,距离较远的向量被分配到一个桶内的概率则较低。此外,Reformer中还采用了一种
{
\small\bfnew
{
可逆残差网络结构
}}
\index
{
可逆残差网络结构
}
(The Reversible Residual Network)
\index
{
The Reversible Residual Network
}
和分块计算前馈神经网络层的机制,即将前馈层的隐层维度拆分为多个块并独立的进行计算,最后进行拼接操作,得到前馈层的输出,这种方式大幅度减少了内存(显存)
{
\red
占用。
}
\item
Reformer模型在计算Key和Value时使用相同的线性映射,共享Key和Value的值
\upcite
{
Kitaev2020ReformerTE
}
,降低了自注意力机制的复杂度。进一步,Reformer引入了一种
{
\small\bfnew
{
局部哈希敏感注意力机制
}}
\index
{
局部哈希敏感注意力机制
}
(LSH Attention)
\index
{
LSH Attention
}
,其提高效率的方式和固定模式中的局部建模一致,减少注意力机制的计算范围。对于每一个Query,通过局部哈希敏感机制找出和其较为相关的Key,并进行注意力的计算。其基本思路就是距离相近的向量以较大的概率被哈希分配到一个桶内,距离较远的向量被分配到一个桶内的概率则较低。此外,Reformer中还采用了一种
{
\small\bfnew
{
可逆残差网络结构
}}
\index
{
可逆残差网络结构
}
(The Reversible Residual Network)
\index
{
The Reversible Residual Network
}
和分块计算前馈神经网络层的机制,即将前馈层的隐层维度拆分为多个块并独立的进行计算,最后进行拼接操作,得到前馈层的输出,这种方式大幅度减少了内存(显存)
占用。
\vspace
{
0.5em
}
\item
Routing Transformer通过聚类算法对序列中的不同单元进行分组,分别在组内进行自注意力机制的计算
\upcite
{
DBLP:journals/corr/abs-2003-05997
}
。首先是将Query和Key映射到聚类矩阵
$
\mathbi
{
S
}$
:
...
...
@@ -439,7 +439,7 @@ v_i &=& \mathbi{I}_d^T\textrm{Tanh}(\mathbi{W}_d\mathbi{Q}_i)
\label
{
eq:15-29
}
\end{eqnarray}
\parinterval
对比公式
\eqref
{
eq:15-28
}
和公式
\eqref
{
eq:15-29
}
可以看出,Pre-Norm结构直接把顶层的梯度
$
\frac
{
\partial
\textrm
{
Loss
}}{
\partial
\mathbi
{
x
}_
L
}$
传递给下层,并且如果将公式
\eqref
{
eq:15-29
}
右侧展开,可以发现
$
\frac
{
\partial
\textrm
{
Loss
}}{
\partial
\mathbi
{
x
}_
l
}$
中直接含有
$
\frac
{
\partial
\textrm
{
Loss
}}{
\partial
\mathbi
{
x
}_
L
}$
部分。这个性质弱化了梯度计算对模型深度
$
L
$
的依赖;而如公式
\eqref
{
eq:15-28
}
右侧所示,Post-Norm结构则包含一个与
$
L
$
相关的多项导数的积,伴随着
$
L
$
的增大更容易发生梯度消失和梯度爆炸问题。因此,Pre-Norm结构更适于堆叠多层神经网络的情况。比如,使用Pre-Norm 结构可以很轻松地训练一个30层(60个子层)编码器的Transformer网络,并带来可观的BLEU提升。这个结果相当于标准Transformer编码器深度的6倍,相对的,用Post-Norm结构训练深层网络的时候,训练结果很不稳定,当编码器深度超过12层后很难完成有效训练
\upcite
{
WangLearning
}
,尤其是在低精度设备环境下损失函数
{
\red
更容易出现
}
发散情况。这里把使用Pre-Norm的深层Transformer模型称为Transformer-Deep。
\parinterval
对比公式
\eqref
{
eq:15-28
}
和公式
\eqref
{
eq:15-29
}
可以看出,Pre-Norm结构直接把顶层的梯度
$
\frac
{
\partial
\textrm
{
Loss
}}{
\partial
\mathbi
{
x
}_
L
}$
传递给下层,并且如果将公式
\eqref
{
eq:15-29
}
右侧展开,可以发现
$
\frac
{
\partial
\textrm
{
Loss
}}{
\partial
\mathbi
{
x
}_
l
}$
中直接含有
$
\frac
{
\partial
\textrm
{
Loss
}}{
\partial
\mathbi
{
x
}_
L
}$
部分。这个性质弱化了梯度计算对模型深度
$
L
$
的依赖;而如公式
\eqref
{
eq:15-28
}
右侧所示,Post-Norm结构则包含一个与
$
L
$
相关的多项导数的积,伴随着
$
L
$
的增大更容易发生梯度消失和梯度爆炸问题。因此,Pre-Norm结构更适于堆叠多层神经网络的情况。比如,使用Pre-Norm 结构可以很轻松地训练一个30层(60个子层)编码器的Transformer网络,并带来可观的BLEU提升。这个结果相当于标准Transformer编码器深度的6倍,相对的,用Post-Norm结构训练深层网络的时候,训练结果很不稳定,当编码器深度超过12层后很难完成有效训练
\upcite
{
WangLearning
}
,尤其是在低精度设备环境下损失函数
更容易出现
发散情况。这里把使用Pre-Norm的深层Transformer模型称为Transformer-Deep。
\parinterval
另一个有趣的发现是,使用深层网络后,网络可以更有效地利用较大的学习率和较大的批量训练,大幅度缩短了模型达到收敛状态的时间。相比于Transformer-Big等宽网络,Transformer-Deep并不需要太大的隐藏层维度就可以取得更优的翻译品质
\upcite
{
WangLearning
}
。也就是说,Transformer-Deep是一个更“窄”更“深”的神经网络。这种结构的参数量比Transformer-Big少,系统运行效率更高。
...
...
@@ -552,7 +552,7 @@ v_i &=& \mathbi{I}_d^T\textrm{Tanh}(\mathbi{W}_d\mathbi{Q}_i)
\label
{
eq:15-37
}
\end{eqnarray}
\noindent
这里,
$
\mathbi
{
h
}^
0
$
表示词嵌入层的输出
{
\red
$
\mathbi
{
X
}$}
,
$
\mathbi
{
h
}^
l
$
(
$
l>
0
$
)代表Transformer模型第
$
l
$
层的
{
\red
隐藏层
}
表示。
\noindent
这里,
$
\mathbi
{
h
}^
0
$
表示词嵌入层的输出
$
\mathbi
{
X
}$
,
$
\mathbi
{
h
}^
l
$
(
$
l>
0
$
)代表Transformer模型第
$
l
$
层的隐藏层
表示。
\vspace
{
0.5em
}
\item
定义一个维度为
$
(
L
+
1
)
\times
(
L
+
1
)
$
的权值矩阵
$
\mathbi
{
W
}$
,矩阵中每一行表示之前各层对当前层的贡献度。令
$
\mathbi
{
W
}_{
l,i
}$
代表权值矩阵
$
\mathbi
{
W
}$
第
$
l
$
行第
$
i
$
列的权重,则第
$
0
\sim
l
$
层的聚合结果为
$
\mathbi
{
h
}_
i
$
的线性加权和:
...
...
@@ -574,7 +574,7 @@ v_i &=& \mathbi{I}_d^T\textrm{Tanh}(\mathbi{W}_d\mathbi{Q}_i)
\end{figure}
%-------------------------------------------
\parinterval
根据上述描述可以发现,权值矩阵
$
\mathbi
{
W
}$
每个位置的值由先前层对应的位置的值计算得到,因此该矩阵是一个下三角矩阵。开始时,对
{
\red
权值
}
矩阵的每行进行平均初始化,即初始化矩阵
$
\mathbi
{
W
}_
0
$
的每一行各个位置的值为
$
\frac
{
1
}{
\lambda
}$
,
$
\lambda
\in
(
1
,
2
,
\ldots
,l
+
1
)
$
。伴随着神经网络的训练,不断更新
$
\mathbi
{
W
}$
中每一行不同位置权重的大小。
\parinterval
根据上述描述可以发现,权值矩阵
$
\mathbi
{
W
}$
每个位置的值由先前层对应的位置的值计算得到,因此该矩阵是一个下三角矩阵。开始时,对
权值
矩阵的每行进行平均初始化,即初始化矩阵
$
\mathbi
{
W
}_
0
$
的每一行各个位置的值为
$
\frac
{
1
}{
\lambda
}$
,
$
\lambda
\in
(
1
,
2
,
\ldots
,l
+
1
)
$
。伴随着神经网络的训练,不断更新
$
\mathbi
{
W
}$
中每一行不同位置权重的大小。
\parinterval
动态线性层聚合的一个好处是,系统可以自动学习不同层对当前层的贡献度。在实验中也发现,离当前层更近的部分的贡献度(权重)会更大,如图
\ref
{
fig:15-14
}
所示,在每一行中颜色越深代表对当前层的贡献度越大。
...
...
@@ -635,7 +635,7 @@ v_i &=& \mathbi{I}_d^T\textrm{Tanh}(\mathbi{W}_d\mathbi{Q}_i)
\label
{
eq:15-43
}
\end{eqnarray}
\noindent
其中,
$
l
$
为对应的神经网络的深度,
$
\alpha
$
为预先设定的超参数来控制缩放的比例。这样,可以通过缩减顶层神经网络输出与输入之间的差异,
{
\red
让激活函数的输入分布保持在一个稳定状态,以此来尽可能避免它们陷入梯度饱和区
}
。
\noindent
其中,
$
l
$
为对应的神经网络的深度,
$
\alpha
$
为预先设定的超参数来控制缩放的比例。这样,可以通过缩减顶层神经网络输出与输入之间的差异,
让激活函数的输入分布保持在一个稳定状态,以此来尽可能避免它们陷入梯度饱和区
。
%----------------------------------------------------------------------------------------
% NEW SUBSUB-SECTION
...
...
@@ -1154,7 +1154,7 @@ lr &=& d_{\textrm{model}}^{-0.5}\cdot step\_num^{-0.5}
\vspace
{
0.5em
}
\item
{
\small\bfnew
{
进化算法
}}
。进化算法最初被用来对神经网络模型结构、以及其中的权重参数进行优化
\upcite
{
DBLP:conf/icga/MillerTH89,DBLP:journals/tnn/AngelineSP94,stanley2002evolving
}
。随着最优化算法的发展,近年来,对于网络参数的学习开始更多地采用梯度下降的方式,但是进化算法依旧被用于对模型结构进行优化
\upcite
{
DBLP:conf/icml/RealMSSSTLK17,DBLP:conf/iclr/ElskenMH19,DBLP:conf/iclr/LiuSVFK18
}
。从结构优化的角度来说,一般是将模型结构看做遗传算法中种群的个体,使用轮盘赌或锦标赛等抽取方式,对种群中的结构进行取样作为亲本,之后通过亲本模型的突变产生新的模型结构,最终对这些新的模型结构进行适应度评估。根据模型结构在校验集上的性能确定是否将其加入种群。
\vspace
{
0.5em
}
\item
{
\small\bfnew
{
强化学习
}}
。强化学习方法在
{
\chapterthirteen
}
已经进行了介绍,这里可以将神经网络结构的设计看做是一种序列生成任务,使用字符序列对网络结构进行表述
\upcite
{
DBLP:conf/iclr/ZophL17
}
。这种方法的执行过程如图
\ref
{
fig:15-33
}
所示
{
\red
。其执行过程为由智能体对模型结构进行生成,之后将生成的结构应用于对应的任务(如机器翻译、语言建模等),根据模型在对应任务中的输出以及表现水平来进一步对智能体进行反馈,促使智能体生成更适用于当前任务的模型结构。
}
\item
{
\small\bfnew
{
强化学习
}}
。强化学习方法在
{
\chapterthirteen
}
已经进行了介绍,这里可以将神经网络结构的设计看做是一种序列生成任务,使用字符序列对网络结构进行表述
\upcite
{
DBLP:conf/iclr/ZophL17
}
。这种方法的执行过程如图
\ref
{
fig:15-33
}
所示
。其执行过程为由智能体对模型结构进行生成,之后将生成的结构应用于对应的任务(如机器翻译、语言建模等),根据模型在对应任务中的输出以及表现水平来进一步对智能体进行反馈,促使智能体生成更适用于当前任务的模型结构。
%----------------------------------------------
\begin{figure}
[htp]
...
...
@@ -1166,7 +1166,7 @@ lr &=& d_{\textrm{model}}^{-0.5}\cdot step\_num^{-0.5}
%-------------------------------------------
\vspace
{
0.5em
}
\item
{
\small\bfnew
{
基于梯度的方法
}}
。这种方法的思想是在连续空间中对模型结构进行表示
\upcite
{
DBLP:conf/iclr/LiuSY19
}
,
{
\red
通常将模型结构建模为超网络中的结构参数,接下来使用基于梯度的方法对超网络中的参数进行优化,最终根据其中的结构参数离散出最终的模型结构,达到结构搜索的目的,整体过程
}
如图
\ref
{
fig:15-34
}
所示。基于梯度的方法十分高效,因此也受到了很多关注
\upcite
{
DBLP:conf/cvpr/WuDZWSWTVJK19,DBLP:conf/iclr/XuX0CQ0X20,DBLP:conf/acl/LiHZXJXZLL20
}
。
\item
{
\small\bfnew
{
基于梯度的方法
}}
。这种方法的思想是在连续空间中对模型结构进行表示
\upcite
{
DBLP:conf/iclr/LiuSY19
}
,
通常将模型结构建模为超网络中的结构参数,接下来使用基于梯度的方法对超网络中的参数进行优化,最终根据其中的结构参数离散出最终的模型结构,达到结构搜索的目的,整体过程
如图
\ref
{
fig:15-34
}
所示。基于梯度的方法十分高效,因此也受到了很多关注
\upcite
{
DBLP:conf/cvpr/WuDZWSWTVJK19,DBLP:conf/iclr/XuX0CQ0X20,DBLP:conf/acl/LiHZXJXZLL20
}
。
\vspace
{
0.5em
}
%----------------------------------------------
...
...
@@ -1192,7 +1192,7 @@ lr &=& d_{\textrm{model}}^{-0.5}\cdot step\_num^{-0.5}
\vspace
{
0.5em
}
\item
{
\small\bfnew
{
数据以及超参数的调整
}}
。具体来说,可以用少量的数据训练模型,以便快速评估其性能
\upcite
{
DBLP:conf/aistats/KleinFBHH17,DBLP:journals/corr/ChrabaszczLH17
}
。在超参数的调整方面,也可以通过减少模型训练轮数、减少模型的层数等方式来简化模型参数,达到加速训练、评估的目的
\upcite
{
DBLP:conf/cvpr/ZophVSL18,Real2019AgingEF,DBLP:journals/corr/abs-1807-06906
}
。
\vspace
{
0.5em
}
\item
{
\small\bfnew
{
现有参数的继承及复用
}}
。通过在现有的模型参数基础上,继续优化中间过程产生的模型结构,来加快待评价模型的收敛进程
\upcite
{
DBLP:conf/icml/RealMSSSTLK17,DBLP:conf/iclr/ElskenMH19,DBLP:conf/aaai/CaiCZYW18
}
。这种方式无需从头训练搜索过程
{
\red
中产生的中间结构
}
,通过“热启动”的方式对模型参数进行优化,能够大幅减少性能评估过程的时间消耗。
\item
{
\small\bfnew
{
现有参数的继承及复用
}}
。通过在现有的模型参数基础上,继续优化中间过程产生的模型结构,来加快待评价模型的收敛进程
\upcite
{
DBLP:conf/icml/RealMSSSTLK17,DBLP:conf/iclr/ElskenMH19,DBLP:conf/aaai/CaiCZYW18
}
。这种方式无需从头训练搜索过程
中产生的中间结构
,通过“热启动”的方式对模型参数进行优化,能够大幅减少性能评估过程的时间消耗。
\vspace
{
0.5em
}
\item
{
\small\bfnew
{
模型性能的预测
}}
。这种方式使用训练过程中的性能变化曲线来预估模型是否具有潜力,从而快速终止低性能模型的训练过程
\upcite
{
DBLP:conf/ijcai/DomhanSH15,DBLP:conf/iclr/KleinFSH17,DBLP:conf/iclr/BakerGRN18
}
。
\vspace
{
0.5em
}
...
...
Chapter16/chapter16.tex
查看文件 @
3e1425bc
...
...
@@ -873,7 +873,7 @@
% NEW SECTION
%----------------------------------------------------------------------------------------
\section
{
小结及
扩
展阅读
}
\section
{
小结及
拓
展阅读
}
低资源机器翻译是机器翻译大规模应用所面临的挑战之一,因此也备受关注。一方面,小样本学习技术的发展,使得研究人员可以有更多的手段对问题求解;另一方面,从多语言之间的联系出发,也可以进一步挖掘不同语言背后的知识,并应用于低资源机器翻译任务。本章从多个方面介绍了低资源机器翻译方法,并结合多语言、零资源翻译等问题给出了不同场景下解决问题的思路。除此之外,还有几方面工作值得进一步关注:
...
...
Chapter17/chapter17.tex
查看文件 @
3e1425bc
...
...
@@ -52,6 +52,7 @@
%----------------------------------------------------------------------------------------
% NEW SECTION
%----------------------------------------------------------------------------------------
\sectionnewpage
\section
{
语音翻译
}
\parinterval
语音,是人类交流中最常用的一种信息载体。从日常聊天、出国旅游,到国际会议、跨国合作,对于语音翻译的需求不断增加。甚至在有些场景下,用语音进行交互要比用文本进行交互频繁得多。因此,
{
\small\bfnew
{
语音翻译
}}
\index
{
语音翻译
}
(Speech Translation)
\index
{
Speech Translation
}
也成为了语音处理和机器翻译相结合的重要产物。根据目标语言的载体类型,可以将语音翻译分为
{
\small\bfnew
{
语音到文本翻译
}}
\index
{
语音到文本翻译
}
(Speech-to-Text Translation)
\index
{
Speech-to-Text Translation
}
和
{
\small\bfnew
{
语音到语音翻译
}}
\index
{
语音到语音翻译
}
(Speech-to-Speech Translation)
\index
{
Speech-to-Speech Translation
}
;基于翻译的实时性,还可以分为
{
\small\bfnew
{
实时语音翻译
}}
\index
{
实时语音翻译
}
(即同声传译,Simultaneous Translation)
\index
{
Simultaneous Translation
}
和
{
\small\bfnew
{
离线语音翻译
}}
(Offline Speech Translation)
\index
{
离线语音翻译
}
\index
{
Offline Speech Translation
}
。本节主要关注离线语音到文本翻译方法(简称为语音翻译),分别从音频处理、级联语音翻译和端到端语音翻译几个角度开展讨论。
...
...
@@ -253,7 +254,7 @@
%----------------------------------------------------------------------------------------
% NEW SECTION
%----------------------------------------------------------------------------------------
\sectionnewpage
\section
{
图像翻译
}
\parinterval
在人类所接受的信息中,视觉信息的比重往往不亚于语音和文本信息,甚至更多。视觉信息通常以图像的形式存在,近几年,结合图像的多模态机器翻译受到了广泛的关注。多模态机器翻译(图
\ref
{
fig:17-11
}
(a))简单来说就是结合源语言和其他模态(例如图像等)的信息生成目标语言的过程。这种结合图像的机器翻译还是一种狭义上的“翻译”,它本质上还是从源语言到目标语言或者说从文本到文本的翻译。事实上从图像到文本(图
\ref
{
fig:17-11
}
(b))的转换,即给定图像,生成与图像内容相关的描述,也可以被称为广义上的“翻译”。例如,
{
\small\bfnew
{
图片描述生成
}}
\index
{
图片描述生成
}
(Image Captioning)
\index
{
Image Captioning
}
就是一种典型的图像到文本的翻译。当然,这种广义上的翻译形式不仅仅包括图像到文本的转换,还可以包括从图像到图像的转换(图
\ref
{
fig:17-11
}
(c)),甚至是从文本到图像的转换(图
\ref
{
fig:17-11
}
(d))等等。这里将这些与图像相关的翻译任务统称为图像翻译。
...
...
@@ -423,7 +424,7 @@
%----------------------------------------------------------------------------------------
% NEW SECTION
%----------------------------------------------------------------------------------------
\sectionnewpage
\section
{
篇章级翻译
}
\parinterval
目前大多数机器翻译系统是句子级的。由于缺少了对篇章上下文信息的建模,在需要依赖上下文的翻译场景中,模型的翻译效果总是不尽人意。篇章级翻译的目的就是对篇章上下文信息进行建模,进而改善机器翻译在整个篇章上的翻译质量。篇章级翻译的概念在很早就已经出现
\upcite
{
DBLP:journals/ac/Bar-Hillel60
}
,随着近几年神经机器翻译取得了巨大进展,篇章级神经机器翻译也成为了重要的方向
\upcite
{
DBLP:journals/corr/abs-1912-08494,DBLP:journals/corr/abs-1901-09115
}
。基于此,本节将对篇章级神经机器翻译的若干问题展开讨论。
...
...
@@ -635,8 +636,8 @@
%----------------------------------------------------------------------------------------
% NEW SECTION
%----------------------------------------------------------------------------------------
\section
{
小结及
扩
展阅读
}
\sectionnewpage
\section
{
小结及
拓
展阅读
}
\parinterval
使用更大上下文进行机器翻译建模是极具潜力的研究方向,包括多模态翻译在内的多个领域也非常活跃。有许多问题值得进一步思考与讨论:
...
...
编写
预览
Markdown
格式
0%
重试
或
添加新文件
添加附件
取消
您添加了
0
人
到此讨论。请谨慎行事。
请先完成此评论的编辑!
取消
请
注册
或者
登录
后发表评论