Skip to content
项目
群组
代码片段
帮助
当前项目
正在载入...
登录 / 注册
切换导航面板
M
mtbookv2
概览
Overview
Details
Activity
Cycle Analytics
版本库
Repository
Files
Commits
Branches
Tags
Contributors
Graph
Compare
Charts
问题
0
Issues
0
列表
Board
标记
里程碑
合并请求
0
Merge Requests
0
CI / CD
CI / CD
流水线
作业
日程表
图表
维基
Wiki
代码片段
Snippets
成员
Collapse sidebar
Close sidebar
活动
图像
聊天
创建新问题
作业
提交
Issue Boards
Open sidebar
NiuTrans
mtbookv2
Commits
d72e3037
Commit
d72e3037
authored
Jan 30, 2021
by
单韦乔
Browse files
Options
Browse Files
Download
Email Patches
Plain Diff
13章以及15章文字
parent
f0a3b11d
隐藏空白字符变更
内嵌
并排
正在显示
2 个修改的文件
包含
21 行增加
和
21 行删除
+21
-21
Chapter13/chapter13.tex
+1
-1
Chapter15/chapter15.tex
+20
-20
没有找到文件。
Chapter13/chapter13.tex
查看文件 @
d72e3037
...
...
@@ -917,7 +917,7 @@ L_{\textrm{seq}} = - \textrm{logP}_{\textrm{s}}(\hat{\seq{y}} | \seq{x})
%----------------------------------------------------------------------------------------
\sectionnewpage
\section
{
小结及
深入
阅读
}
\section
{
小结及
拓展
阅读
}
\parinterval
本章以不同的角度讨论了神经机器翻译模型的训练问题。一方面,可以作为
{
\chapternine
}$
\sim
${
\chaptertwelve
}
内容的扩展,另一方面,也为本书后续章节的内容进行铺垫。从机器学习的角度看,本章介绍的很多内容并不仅仅使用在机器翻译中,大多数的内容同样适用于其它自然语言处理任务。此外,本章也讨论了许多与机器翻译相关的问题(如大词表),这又使得本章的内容具有机器翻译的特性。总的来说,模型训练是一个非常开放的问题,在后续章节中还会频繁涉及。同时,也有一些方向可以关注:
...
...
Chapter15/chapter15.tex
查看文件 @
d72e3037
...
...
@@ -46,7 +46,7 @@
\parinterval
但是,Transformer模型中的自注意力机制本身并不具有这种性质,而且它直接忽略了输入单元之间的位置关系。虽然,Transformer中引入了基于正余弦函数的绝对位置编码(见
{
\chaptertwelve
}
),但是该方法仍然无法显性区分局部依赖与长距离依赖
\footnote
[1]
{
局部依赖指当前位置与局部的相邻位置之间的联系。
}
。
\parinterval
针对上述问题,研究人员
{
\red
尝试引入
}
“相对位置”
{
\red
信息
}
,对原有的“绝对位置”
{
\red
信息
}
进行补充,强化了局部依赖
\upcite
{
Dai2019TransformerXLAL,Shaw2018SelfAttentionWR
}
。此外,由于模型中每一层均存在自注意力机制计算,因此模型捕获位置信息的能力也逐渐减弱,这种现象在深层模型中尤为明显。而利用相对位置编码能够把位置信息显性加入到每一层的注意力机制的计算中,
{
\red
进而强化深层模型的位置表示能力
}
\upcite
{
li2020shallow
}
。图
\ref
{
fig:15-1
}
对比了Transformer中绝对位置编码和相对位置编码方法。
\parinterval
针对上述问题,研究人员
尝试引入“相对位置”信息,对原有的“绝对位置”信息进行补充,强化了局部依赖
\upcite
{
Dai2019TransformerXLAL,Shaw2018SelfAttentionWR
}
。此外,由于模型中每一层均存在自注意力机制计算,因此模型捕获位置信息的能力也逐渐减弱,这种现象在深层模型中尤为明显。而利用相对位置编码能够把位置信息显性加入到每一层的注意力机制的计算中,进而强化深层模型的位置表示能力
\upcite
{
li2020shallow
}
。图
\ref
{
fig:15-1
}
对比了Transformer中绝对位置编码和相对位置编码方法。
%----------------------------------------------
\begin{figure}
[htp]
...
...
@@ -134,21 +134,21 @@
\label
{
eq:15-12
}
\end{eqnarray}
\noindent
{
\red
这里使用
$
A
_{
ij
}^{
\rm
abs
}$
表示公式
\eqref
{
eq:15-12
}
中等式右侧的分子部分,并对其进行展开:
}
\noindent
这里使用
$
A
_{
ij
}^{
\rm
abs
}$
表示公式
\eqref
{
eq:15-12
}
中等式右侧的分子部分,并对其进行展开:
\begin{eqnarray}
A
_{
ij
}^{
\rm
abs
}
&
=
&
\underbrace
{
\mathbi
{
E
}_{
x
_
i
}
\mathbi
{
W
}_
Q
\mathbi
{
W
}_{
K
}^{
T
}
\mathbi
{
E
}_{
x
_
j
}^{
T
}}_{
\textrm
{
(a)
}}
+
\underbrace
{
\mathbi
{
E
}_{
x
_
i
}
\mathbi
{
W
}_
Q
\mathbi
{
W
}_{
K
}^{
T
}
\mathbi
{
U
}_{
j
}^{
T
}}_{
\textrm
{
(b)
}}
+
\nonumber
\\
&
&
\underbrace
{
\mathbi
{
U
}_
i
\mathbi
{
W
}_
Q
\mathbi
{
W
}_{
K
}^{
T
}
\mathbi
{
E
}_{
x
_
j
}^{
T
}}_{
\textrm
{
(c)
}}
+
\underbrace
{
\mathbi
{
U
}_
i
\mathbi
{
W
}_
Q
\mathbi
{
W
}_{
K
}^{
T
}
\mathbi
{
U
}_{
j
}^{
T
}}_{
\textrm
{
(d)
}}
\label
{
eq:15-13
}
\end{eqnarray}
\noindent
{
\red
其中,
${
\rm
abs
}$
代表使用绝对位置编码计算得到的
$
A
_{
ij
}$}
,
$
\mathbi
{
W
}_
Q
$
与
$
\mathbi
{
W
}_
K
$
表示线性变换矩阵。为了引入相对位置信息,可以将公式
\eqref
{
eq:15-13
}
修改为如下形式:
\noindent
其中,
${
\rm
abs
}$
代表使用绝对位置编码计算得到的
$
A
_{
ij
}$
,
$
\mathbi
{
W
}_
Q
$
与
$
\mathbi
{
W
}_
K
$
表示线性变换矩阵。为了引入相对位置信息,可以将公式
\eqref
{
eq:15-13
}
修改为如下形式:
\begin{eqnarray}
A
_{
ij
}^{
\rm
rel
}
&
=
&
\underbrace
{
\mathbi
{
E
}_{
x
_
i
}
\mathbi
{
W
}_
Q
\mathbi
{
W
}_{
K
}^{
T
}
\mathbi
{
E
}_{
x
_
j
}^{
T
}}_{
\textrm
{
(a)
}}
+
\underbrace
{
\mathbi
{
E
}_{
x
_
i
}
\mathbi
{
W
}_
Q
\mathbi
{
W
}_{
K
}^{
T
}
\mathbi
{
R
}_{
i-j
}^{
T
}}_{
\textrm
{
(b)
}}
+
\nonumber
\\
&
&
\underbrace
{
\mathbi
{
u
}
\mathbi
{
W
}_{
K,E
}^{
T
}
\mathbi
{
E
}_{
x
_
j
}^{
T
}}_{
\textrm
{
(c)
}}
+
\underbrace
{
\mathbi
{
v
}
\mathbi
{
W
}_{
K,R
}^{
T
}
\mathbi
{
R
}_{
i-j
}^{
T
}}_{
\textrm
{
(d)
}}
\label
{
eq:15-14
}
\end{eqnarray}
\noindent
其中,
$
A
_{
ij
}^{
\rm
rel
}$
为使用相对位置编码后位置
$
i
$
与
$
j
$
关系的表示结果,
{
\red
$
\mathbi
{
R
}$
是一个固定的正弦矩阵。不同于公式
\eqref
{
eq:15-13
}
,公式
\eqref
{
eq:15-14
}
对(c)中的
$
\mathbi
{
E
}_{
x
_
j
}^{
T
}$
与(d)中的
$
\mathbi
{
R
}_{
i
-
j
}^{
T
}$
采用了不同的映射矩阵,分别为
$
\mathbi
{
W
}_{
K,E
}^{
T
}$
和
$
\mathbi
{
W
}_{
K,R
}^{
T
}$
,这两项分别代表了键
$
\mathbi
{
K
}$
中的词嵌入表示和相对位置编码表示,并且由于此时只采用了相对位置编码,因此公式
\eqref
{
eq:15-14
}
在(c)与(d)部分使用了
$
\mathbi
{
u
}$
和
$
\mathbi
{
v
}$
两个可学习的矩阵代替
$
\mathbi
{
U
}_
i
\mathbi
{
W
}_
Q
$
与
$
\mathbi
{
U
}_
i
\mathbi
{
W
}_
Q
$
,即查询
$
\mathbi
{
Q
}$
中的绝对位置编码部分。此时
}
公式中各项的含义为:(a)表示位置
$
i
$
与位置
$
j
$
之间词嵌入的相关性,可以看作是基于内容的表示,(b)表示基于内容的位置偏置,(c)表示全局内容的偏置,(d)表示全局位置的偏置。公式
\eqref
{
eq:15-13
}
中的(a)、(b)两项与前面介绍的绝对位置编码一致
\upcite
{
Shaw2018SelfAttentionWR
}
,并针对相对位置编码引入了额外的线性变换矩阵。同时,这种方法兼顾了全局内容偏置和全局位置偏置,可以更好地利用正余弦函数的归纳偏置特性。
\noindent
其中,
$
A
_{
ij
}^{
\rm
rel
}$
为使用相对位置编码后位置
$
i
$
与
$
j
$
关系的表示结果,
$
\mathbi
{
R
}$
是一个固定的正弦矩阵。不同于公式
\eqref
{
eq:15-13
}
,公式
\eqref
{
eq:15-14
}
对(c)中的
$
\mathbi
{
E
}_{
x
_
j
}^{
T
}$
与(d)中的
$
\mathbi
{
R
}_{
i
-
j
}^{
T
}$
采用了不同的映射矩阵,分别为
$
\mathbi
{
W
}_{
K,E
}^{
T
}$
和
$
\mathbi
{
W
}_{
K,R
}^{
T
}$
,这两项分别代表了键
$
\mathbi
{
K
}$
中的词嵌入表示和相对位置编码表示,并且由于此时只采用了相对位置编码,因此公式
\eqref
{
eq:15-14
}
在(c)与(d)部分使用了
$
\mathbi
{
u
}$
和
$
\mathbi
{
v
}$
两个可学习的矩阵代替
$
\mathbi
{
U
}_
i
\mathbi
{
W
}_
Q
$
与
$
\mathbi
{
U
}_
i
\mathbi
{
W
}_
Q
$
,即查询
$
\mathbi
{
Q
}$
中的绝对位置编码部分。此时
公式中各项的含义为:(a)表示位置
$
i
$
与位置
$
j
$
之间词嵌入的相关性,可以看作是基于内容的表示,(b)表示基于内容的位置偏置,(c)表示全局内容的偏置,(d)表示全局位置的偏置。公式
\eqref
{
eq:15-13
}
中的(a)、(b)两项与前面介绍的绝对位置编码一致
\upcite
{
Shaw2018SelfAttentionWR
}
,并针对相对位置编码引入了额外的线性变换矩阵。同时,这种方法兼顾了全局内容偏置和全局位置偏置,可以更好地利用正余弦函数的归纳偏置特性。
\vspace
{
0.5em
}
\item
{
\small\bfnew
{
结构化位置编码
}}
\index
{
基于结构化位置编码
}
(Structural Position Representations)
\index
{
Structural Position Representations
}
\upcite
{
DBLP:conf/emnlp/WangTWS19a
}
。 例如,可以通过对输入句子进行依存句法分析得到句法树,根据叶子结点在句法树中的深度来表示其绝对位置,并在此基础上利用相对位置编码的思想计算节点之间的相对位置信息。
...
...
@@ -191,7 +191,7 @@ G_{ij} &=& - \frac{{(j - P_i)}^2}{2\sigma_i^2}
\label
{
eq:15-16
}
\end{eqnarray}
\noindent
其中,
$
\sigma
_
i
$
表示偏差,被定义为
{
\red
第
$
i
$
个词的
}
局部建模窗口大小
$
D
_
i
$
的一半,即
$
\sigma
_
i
=
\frac
{
D
_
i
}{
2
}$
。中心位置
$
P
_
i
$
和
{
\red
局部建模窗口
}
$
D
_
i
$
的计算方式如下:
\noindent
其中,
$
\sigma
_
i
$
表示偏差,被定义为
第
$
i
$
个词的局部建模窗口大小
$
D
_
i
$
的一半,即
$
\sigma
_
i
=
\frac
{
D
_
i
}{
2
}$
。中心位置
$
P
_
i
$
和局部建模窗口
$
D
_
i
$
的计算方式如下:
\begin{eqnarray}
\begin{pmatrix}
P
_
i
\\
D
_
i
\end{pmatrix}
&
=
&
m
\cdot
\textrm
{
Sigmoid
}
(
\begin{pmatrix}
p
_
i
\\
v
_
i
\end{pmatrix}
)
\label
{
eq:15-17
}
...
...
@@ -217,7 +217,7 @@ v_i &=& \mathbi{I}_d^T\textrm{Tanh}(\mathbi{W}_d\mathbi{Q}_i)
\label
{
fig:15-4
}
\end{figure}
%-------------------------------------------
{
\red
\noindent
于是,在计算第
$
i
$
个词对第
$
j
$
个词的相关系数时,通过超参数
$
\omega
$
控制实际的感受野为
$
j
-
\omega
,
\ldots
,j
+
\omega
$
,注意力计算中
$
\mathbi
{
e
}_{
ij
}$
的计算方式与公式
\eqref
{
eq:15-6
}
相同,权重
$
\alpha
_{
ij
}$
的具体计算公式为:
\begin{eqnarray}
\alpha
_{
ij
}
&
=
&
\frac
{
\exp
(
\mathbi
{
e
}_{
ij
}
)
}{
\sum
_{
k=j-
\omega
}^{
j+
\omega
}
\exp
(
\mathbi
{
e
}_{
ik
}
)
}
...
...
@@ -231,7 +231,7 @@ v_i &=& \mathbi{I}_d^T\textrm{Tanh}(\mathbi{W}_d\mathbi{Q}_i)
\end{eqnarray}
\noindent
其中,约束的具体作用范围会根据实际句长进行一定的裁剪,通过对不同的头设置不同的超参数来控制感受野的大小,最终实现多尺度局部建模。
}
\vspace
{
0.5em
}
\end{itemize}
...
...
@@ -277,9 +277,9 @@ v_i &=& \mathbi{I}_d^T\textrm{Tanh}(\mathbi{W}_d\mathbi{Q}_i)
\begin{itemize}
\vspace
{
0.5em
}
\item
{
\
red
{
\small\bfnew
{
基于权重的方法
}}}
\upcite
{
DBLP:journals/corr/abs-1711-02132
}
。其主要思想是在多头自注意力机制的基础上保留不同表示空间的特征。传统方法使用级联操作并通过线性映射矩阵来融合不同头之间的信息,而
{
\red
基于权重的
}
Transformer直接利用线性映射将维度为
$
d
_
k
$
的向量表示映射到
$
d
_{
\rm
model
}$
维的向量。之后,将这个
$
d
_{
\rm
model
}$
维向量分别送入每个分支中的前馈神经网络,最后对不同分支的输出进行线性加权。但是,这种模型的计算复杂度要大于标准的Transformer模型。
\item
{
\
small\bfnew
{
基于权重的方法
}}
\upcite
{
DBLP:journals/corr/abs-1711-02132
}
。其主要思想是在多头自注意力机制的基础上保留不同表示空间的特征。传统方法使用级联操作并通过线性映射矩阵来融合不同头之间的信息,而基于权重的
Transformer直接利用线性映射将维度为
$
d
_
k
$
的向量表示映射到
$
d
_{
\rm
model
}$
维的向量。之后,将这个
$
d
_{
\rm
model
}$
维向量分别送入每个分支中的前馈神经网络,最后对不同分支的输出进行线性加权。但是,这种模型的计算复杂度要大于标准的Transformer模型。
\vspace
{
0.5em
}
\item
{
\
red
{
\small\bfnew
{
基于多分支注意力的方法
}}}
\upcite
{
DBLP:journals/corr/abs-2006-10270
}
。不同于
{
\red
基于权重的
}
Transformer模型,多分支注意力模型直接利用每个分支独立地进行自注意力模型的计算(图
\ref
{
fig:15-6
}
)。同时为了避免结构相同的多个多头注意力机制之间的协同适应,这种模型使用Dropout方法在训练过程中以一定的概率随机地丢弃一些分支。
\item
{
\
small\bfnew
{
基于多分支注意力的方法
}}
\upcite
{
DBLP:journals/corr/abs-2006-10270
}
。不同于基于权重的
Transformer模型,多分支注意力模型直接利用每个分支独立地进行自注意力模型的计算(图
\ref
{
fig:15-6
}
)。同时为了避免结构相同的多个多头注意力机制之间的协同适应,这种模型使用Dropout方法在训练过程中以一定的概率随机地丢弃一些分支。
%----------------------------------------------
\begin{figure}
[htp]
...
...
@@ -291,7 +291,7 @@ v_i &=& \mathbi{I}_d^T\textrm{Tanh}(\mathbi{W}_d\mathbi{Q}_i)
%-------------------------------------------
\vspace
{
0.5em
}
\item
{
\
red
{
\small\bfnew
{
基于多单元的方法
}
}}
。例如,为了进一步加强不同分支的作用,基于多单元的Transformer模型进行了序列不同位置表示结果的交换,或使用不同的掩码策略对不同分支的输入进行扰动,保证分支间的多样性与互补性
\upcite
{
DBLP:conf/emnlp/YanMZ20
}
。本质上,所谓的多单元思想与集成学习十分相似,类似于在训练过程中同时训练多个编码器。此外,通过增大子单元之间的结构差异性也能够进一步增大分支之间的多样性
\upcite
{
李北2019面向神经机器翻译的集成学习方法分析
}
。
\item
{
\
small\bfnew
{
基于多单元的方法
}}
。例如,为了进一步加强不同分支的作用,基于多单元的Transformer模型进行了序列不同位置表示结果的交换,或使用不同的掩码策略对不同分支的输入进行扰动,保证分支间的多样性与互补性
\upcite
{
DBLP:conf/emnlp/YanMZ20
}
。本质上,所谓的多单元思想与集成学习十分相似,类似于在训练过程中同时训练多个编码器。此外,通过增大子单元之间的结构差异性也能够进一步增大分支之间的多样性
\upcite
{
李北2019面向神经机器翻译的集成学习方法分析
}
。
\vspace
{
0.5em
}
\end{itemize}
...
...
@@ -314,7 +314,7 @@ v_i &=& \mathbi{I}_d^T\textrm{Tanh}(\mathbi{W}_d\mathbi{Q}_i)
\parinterval
虽然Transformer模型完全摒弃了循环单元与卷积单元,仅通过位置编码来区分序列中的不同位置。但是,循环神经网络也非常适用于处理序列结构,且其结构成熟、易于优化。因此,有研究人员尝试将其与Transformer模型融合。这种方式一方面能够发挥循环神经网络简单高效的特点,另一方面也能够发挥Transformer模型在特征提取方面的优势,是一种非常值得探索的思路
\upcite
{
Chen2018TheBO
}
。
\parinterval
在Transformer模型中引入循环神经网络的一种方法是,对深层网络的不同层使用循环机制。早在残差网络提出时,研究人员已经开始尝试探讨残差网络成功背后的原因
\upcite
{
DBLP:conf/nips/VeitWB16,DBLP:journals/corr/GreffSS16,DBLP:conf/iclr/ChangMHTB18
}
。本质上,在卷积神经网络中引入残差连接后,神经网络从深度上隐性地利用了循环的特性。也就是,多层Transformer的不同层本身也可以被看作是一个处理序列,只是序列中不同位置(对应不同层)的模型参数独立,而非共享。Transformer编码器与解码器分别由
$
N
$
个结构相同但参数独立的
{
\red
层
}
堆叠而成,
{
\red
其中编码器包含2个子层,解码器包含3个子层
}
。同时,子层之间引入了残差连接保证了网络信息传递的高效性。因此,一个自然的想法是通过共享不同
{
\red
层
}
之间的参数,引入循环神经网络中的归纳偏置
\upcite
{
DBLP:conf/iclr/DehghaniGVUK19
}
。其中每层的权重是共享的,并引入了基于时序的编码向量用于显著区分不同深度下的时序信息,如图
\ref
{
fig:15-8
}
所示。在训练大容量预训练模型时同样也采取了共享层间参数的方式
\upcite
{
Lan2020ALBERTAL
}
。
\parinterval
在Transformer模型中引入循环神经网络的一种方法是,对深层网络的不同层使用循环机制。早在残差网络提出时,研究人员已经开始尝试探讨残差网络成功背后的原因
\upcite
{
DBLP:conf/nips/VeitWB16,DBLP:journals/corr/GreffSS16,DBLP:conf/iclr/ChangMHTB18
}
。本质上,在卷积神经网络中引入残差连接后,神经网络从深度上隐性地利用了循环的特性。也就是,多层Transformer的不同层本身也可以被看作是一个处理序列,只是序列中不同位置(对应不同层)的模型参数独立,而非共享。Transformer编码器与解码器分别由
$
N
$
个结构相同但参数独立的
层堆叠而成,其中编码器包含2个子层,解码器包含3个子层。同时,子层之间引入了残差连接保证了网络信息传递的高效性。因此,一个自然的想法是通过共享不同层
之间的参数,引入循环神经网络中的归纳偏置
\upcite
{
DBLP:conf/iclr/DehghaniGVUK19
}
。其中每层的权重是共享的,并引入了基于时序的编码向量用于显著区分不同深度下的时序信息,如图
\ref
{
fig:15-8
}
所示。在训练大容量预训练模型时同样也采取了共享层间参数的方式
\upcite
{
Lan2020ALBERTAL
}
。
%----------------------------------------------
\begin{figure}
[htp]
...
...
@@ -341,7 +341,7 @@ v_i &=& \mathbi{I}_d^T\textrm{Tanh}(\mathbi{W}_d\mathbi{Q}_i)
\vspace
{
0.5em
}
\item
分块注意力:顾名思义,就是将序列划分为固定大小的片段,注意力模型只在对应的片段内执行。这样,每一个片段内的注意力计算成本是固定的,可以大大降低处理长序列时的总体计算时间
\upcite
{
DBLP:conf/emnlp/QiuMLYW020,DBLP:conf/iclr/LiuSPGSKS18
}
。
\vspace
{
0.5em
}
\item
跨步注意力:该模型是一种稀疏的注意力机制,通常会设置一个固定的间隔,也就是说在计算注意力表示时,每隔固定数量的词后将下一个词纳入所需考虑的范围内,参与注意力的计算
\upcite
{
DBLP:journals/corr/abs-2004-05150
}
。和分片段进行注意力计算类似,
{
\red
假设最终参与注意力计算的间隔长度为
$
N
/
B
$
,每次参与注意力计算的单词数为
$
B
$
,那么注意力的计算复杂度将从
$
O
(
N
^
2
)
$
缩减为
$
O
(
N
/
B
\times
B
^
2
)
$
,即
$
O
(
NB
)
$}
。
\item
跨步注意力:该模型是一种稀疏的注意力机制,通常会设置一个固定的间隔,也就是说在计算注意力表示时,每隔固定数量的词后将下一个词纳入所需考虑的范围内,参与注意力的计算
\upcite
{
DBLP:journals/corr/abs-2004-05150
}
。和分片段进行注意力计算类似,
假设最终参与注意力计算的间隔长度为
$
N
/
B
$
,每次参与注意力计算的单词数为
$
B
$
,那么注意力的计算复杂度将从
$
O
(
N
^
2
)
$
缩减为
$
O
(
N
/
B
\times
B
^
2
)
$
,即
$
O
(
NB
)
$
。
\vspace
{
0.5em
}
\item
内存压缩注意力:这种方式的主要的思想是使用一些操作,如卷积、池化等对序列进行下采样,来缩短序列长度。例如,使用
{
\small\bfnew
{
跨步卷积
}}
\index
{
跨步卷积
}
(Stride Convolution)
\index
{
Stride Convolution
}
来减少Key和Value的数量,即减少表示序列长度的维度的大小,Query的数量保持不变,从而减少了注意力权重计算时的复杂度
\upcite
{
DBLP:conf/iclr/LiuSPGSKS18
}
。其具体的计算复杂度取决于跨步卷积时步幅的大小
$
K
$
,形式上可以理解为每
$
K
$
个单元做一次特征融合后,将关注的目标缩减为
$
N
/
K
$
,整体的计算复杂度为
$
N
^
2
/
K
$
。相比于使用前两种方式对局部进行注意力计算,该方式仍是对全局的建模。
\vspace
{
0.5em
}
...
...
@@ -353,7 +353,7 @@ v_i &=& \mathbi{I}_d^T\textrm{Tanh}(\mathbi{W}_d\mathbi{Q}_i)
\begin{itemize}
\vspace
{
0.5em
}
\item
Reformer模型在计算Key和Value时使用相同的线性映射,共享Key和Value的值
\upcite
{
Kitaev2020ReformerTE
}
,降低了自注意力机制的复杂度。进一步,Reformer引入了一种
{
\small\bfnew
{
局部哈希敏感注意力机制
}}
\index
{
局部哈希敏感注意力机制
}
(LSH Attention)
\index
{
LSH Attention
}
,其提高效率的方式和固定模式中的局部建模一致,减少注意力机制的计算范围。对于每一个Query,通过局部哈希敏感机制找出和其较为相关的Key,并进行注意力的计算。其基本思路就是距离相近的向量以较大的概率被哈希分配到一个桶内,距离较远的向量被分配到一个桶内的概率则较低。此外,Reformer中还采用了一种
{
\small\bfnew
{
可逆残差网络结构
}}
\index
{
可逆残差网络结构
}
(The Reversible Residual Network)
\index
{
The Reversible Residual Network
}
和分块计算前馈神经网络层的机制,即将前馈层的隐层维度拆分为多个块并独立的进行计算,最后进行拼接操作,得到前馈层的输出,这种方式大幅度减少了内存(显存)
{
\red
占用。
}
\item
Reformer模型在计算Key和Value时使用相同的线性映射,共享Key和Value的值
\upcite
{
Kitaev2020ReformerTE
}
,降低了自注意力机制的复杂度。进一步,Reformer引入了一种
{
\small\bfnew
{
局部哈希敏感注意力机制
}}
\index
{
局部哈希敏感注意力机制
}
(LSH Attention)
\index
{
LSH Attention
}
,其提高效率的方式和固定模式中的局部建模一致,减少注意力机制的计算范围。对于每一个Query,通过局部哈希敏感机制找出和其较为相关的Key,并进行注意力的计算。其基本思路就是距离相近的向量以较大的概率被哈希分配到一个桶内,距离较远的向量被分配到一个桶内的概率则较低。此外,Reformer中还采用了一种
{
\small\bfnew
{
可逆残差网络结构
}}
\index
{
可逆残差网络结构
}
(The Reversible Residual Network)
\index
{
The Reversible Residual Network
}
和分块计算前馈神经网络层的机制,即将前馈层的隐层维度拆分为多个块并独立的进行计算,最后进行拼接操作,得到前馈层的输出,这种方式大幅度减少了内存(显存)
占用。
\vspace
{
0.5em
}
\item
Routing Transformer通过聚类算法对序列中的不同单元进行分组,分别在组内进行自注意力机制的计算
\upcite
{
DBLP:journals/corr/abs-2003-05997
}
。首先是将Query和Key映射到聚类矩阵
$
\mathbi
{
S
}$
:
...
...
@@ -439,7 +439,7 @@ v_i &=& \mathbi{I}_d^T\textrm{Tanh}(\mathbi{W}_d\mathbi{Q}_i)
\label
{
eq:15-29
}
\end{eqnarray}
\parinterval
对比公式
\eqref
{
eq:15-28
}
和公式
\eqref
{
eq:15-29
}
可以看出,Pre-Norm结构直接把顶层的梯度
$
\frac
{
\partial
\textrm
{
Loss
}}{
\partial
\mathbi
{
x
}_
L
}$
传递给下层,并且如果将公式
\eqref
{
eq:15-29
}
右侧展开,可以发现
$
\frac
{
\partial
\textrm
{
Loss
}}{
\partial
\mathbi
{
x
}_
l
}$
中直接含有
$
\frac
{
\partial
\textrm
{
Loss
}}{
\partial
\mathbi
{
x
}_
L
}$
部分。这个性质弱化了梯度计算对模型深度
$
L
$
的依赖;而如公式
\eqref
{
eq:15-28
}
右侧所示,Post-Norm结构则包含一个与
$
L
$
相关的多项导数的积,伴随着
$
L
$
的增大更容易发生梯度消失和梯度爆炸问题。因此,Pre-Norm结构更适于堆叠多层神经网络的情况。比如,使用Pre-Norm 结构可以很轻松地训练一个30层(60个子层)编码器的Transformer网络,并带来可观的BLEU提升。这个结果相当于标准Transformer编码器深度的6倍,相对的,用Post-Norm结构训练深层网络的时候,训练结果很不稳定,当编码器深度超过12层后很难完成有效训练
\upcite
{
WangLearning
}
,尤其是在低精度设备环境下损失函数
{
\red
更容易出现
}
发散情况。这里把使用Pre-Norm的深层Transformer模型称为Transformer-Deep。
\parinterval
对比公式
\eqref
{
eq:15-28
}
和公式
\eqref
{
eq:15-29
}
可以看出,Pre-Norm结构直接把顶层的梯度
$
\frac
{
\partial
\textrm
{
Loss
}}{
\partial
\mathbi
{
x
}_
L
}$
传递给下层,并且如果将公式
\eqref
{
eq:15-29
}
右侧展开,可以发现
$
\frac
{
\partial
\textrm
{
Loss
}}{
\partial
\mathbi
{
x
}_
l
}$
中直接含有
$
\frac
{
\partial
\textrm
{
Loss
}}{
\partial
\mathbi
{
x
}_
L
}$
部分。这个性质弱化了梯度计算对模型深度
$
L
$
的依赖;而如公式
\eqref
{
eq:15-28
}
右侧所示,Post-Norm结构则包含一个与
$
L
$
相关的多项导数的积,伴随着
$
L
$
的增大更容易发生梯度消失和梯度爆炸问题。因此,Pre-Norm结构更适于堆叠多层神经网络的情况。比如,使用Pre-Norm 结构可以很轻松地训练一个30层(60个子层)编码器的Transformer网络,并带来可观的BLEU提升。这个结果相当于标准Transformer编码器深度的6倍,相对的,用Post-Norm结构训练深层网络的时候,训练结果很不稳定,当编码器深度超过12层后很难完成有效训练
\upcite
{
WangLearning
}
,尤其是在低精度设备环境下损失函数
更容易出现
发散情况。这里把使用Pre-Norm的深层Transformer模型称为Transformer-Deep。
\parinterval
另一个有趣的发现是,使用深层网络后,网络可以更有效地利用较大的学习率和较大的批量训练,大幅度缩短了模型达到收敛状态的时间。相比于Transformer-Big等宽网络,Transformer-Deep并不需要太大的隐藏层维度就可以取得更优的翻译品质
\upcite
{
WangLearning
}
。也就是说,Transformer-Deep是一个更“窄”更“深”的神经网络。这种结构的参数量比Transformer-Big少,系统运行效率更高。
...
...
@@ -552,7 +552,7 @@ v_i &=& \mathbi{I}_d^T\textrm{Tanh}(\mathbi{W}_d\mathbi{Q}_i)
\label
{
eq:15-37
}
\end{eqnarray}
\noindent
这里,
$
\mathbi
{
h
}^
0
$
表示词嵌入层的输出
{
\red
$
\mathbi
{
X
}$}
,
$
\mathbi
{
h
}^
l
$
(
$
l>
0
$
)代表Transformer模型第
$
l
$
层的
{
\red
隐藏层
}
表示。
\noindent
这里,
$
\mathbi
{
h
}^
0
$
表示词嵌入层的输出
$
\mathbi
{
X
}$
,
$
\mathbi
{
h
}^
l
$
(
$
l>
0
$
)代表Transformer模型第
$
l
$
层的隐藏层
表示。
\vspace
{
0.5em
}
\item
定义一个维度为
$
(
L
+
1
)
\times
(
L
+
1
)
$
的权值矩阵
$
\mathbi
{
W
}$
,矩阵中每一行表示之前各层对当前层的贡献度。令
$
\mathbi
{
W
}_{
l,i
}$
代表权值矩阵
$
\mathbi
{
W
}$
第
$
l
$
行第
$
i
$
列的权重,则第
$
0
\sim
l
$
层的聚合结果为
$
\mathbi
{
h
}_
i
$
的线性加权和:
...
...
@@ -574,7 +574,7 @@ v_i &=& \mathbi{I}_d^T\textrm{Tanh}(\mathbi{W}_d\mathbi{Q}_i)
\end{figure}
%-------------------------------------------
\parinterval
根据上述描述可以发现,权值矩阵
$
\mathbi
{
W
}$
每个位置的值由先前层对应的位置的值计算得到,因此该矩阵是一个下三角矩阵。开始时,对
{
\red
权值
}
矩阵的每行进行平均初始化,即初始化矩阵
$
\mathbi
{
W
}_
0
$
的每一行各个位置的值为
$
\frac
{
1
}{
\lambda
}$
,
$
\lambda
\in
(
1
,
2
,
\ldots
,l
+
1
)
$
。伴随着神经网络的训练,不断更新
$
\mathbi
{
W
}$
中每一行不同位置权重的大小。
\parinterval
根据上述描述可以发现,权值矩阵
$
\mathbi
{
W
}$
每个位置的值由先前层对应的位置的值计算得到,因此该矩阵是一个下三角矩阵。开始时,对
权值
矩阵的每行进行平均初始化,即初始化矩阵
$
\mathbi
{
W
}_
0
$
的每一行各个位置的值为
$
\frac
{
1
}{
\lambda
}$
,
$
\lambda
\in
(
1
,
2
,
\ldots
,l
+
1
)
$
。伴随着神经网络的训练,不断更新
$
\mathbi
{
W
}$
中每一行不同位置权重的大小。
\parinterval
动态线性层聚合的一个好处是,系统可以自动学习不同层对当前层的贡献度。在实验中也发现,离当前层更近的部分的贡献度(权重)会更大,如图
\ref
{
fig:15-14
}
所示,在每一行中颜色越深代表对当前层的贡献度越大。
...
...
@@ -635,7 +635,7 @@ v_i &=& \mathbi{I}_d^T\textrm{Tanh}(\mathbi{W}_d\mathbi{Q}_i)
\label
{
eq:15-43
}
\end{eqnarray}
\noindent
其中,
$
l
$
为对应的神经网络的深度,
$
\alpha
$
为预先设定的超参数来控制缩放的比例。这样,可以通过缩减顶层神经网络输出与输入之间的差异,
{
\red
让激活函数的输入分布保持在一个稳定状态,以此来尽可能避免它们陷入梯度饱和区
}
。
\noindent
其中,
$
l
$
为对应的神经网络的深度,
$
\alpha
$
为预先设定的超参数来控制缩放的比例。这样,可以通过缩减顶层神经网络输出与输入之间的差异,
让激活函数的输入分布保持在一个稳定状态,以此来尽可能避免它们陷入梯度饱和区
。
%----------------------------------------------------------------------------------------
% NEW SUBSUB-SECTION
...
...
@@ -1154,7 +1154,7 @@ lr &=& d_{\textrm{model}}^{-0.5}\cdot step\_num^{-0.5}
\vspace
{
0.5em
}
\item
{
\small\bfnew
{
进化算法
}}
。进化算法最初被用来对神经网络模型结构、以及其中的权重参数进行优化
\upcite
{
DBLP:conf/icga/MillerTH89,DBLP:journals/tnn/AngelineSP94,stanley2002evolving
}
。随着最优化算法的发展,近年来,对于网络参数的学习开始更多地采用梯度下降的方式,但是进化算法依旧被用于对模型结构进行优化
\upcite
{
DBLP:conf/icml/RealMSSSTLK17,DBLP:conf/iclr/ElskenMH19,DBLP:conf/iclr/LiuSVFK18
}
。从结构优化的角度来说,一般是将模型结构看做遗传算法中种群的个体,使用轮盘赌或锦标赛等抽取方式,对种群中的结构进行取样作为亲本,之后通过亲本模型的突变产生新的模型结构,最终对这些新的模型结构进行适应度评估。根据模型结构在校验集上的性能确定是否将其加入种群。
\vspace
{
0.5em
}
\item
{
\small\bfnew
{
强化学习
}}
。强化学习方法在
{
\chapterthirteen
}
已经进行了介绍,这里可以将神经网络结构的设计看做是一种序列生成任务,使用字符序列对网络结构进行表述
\upcite
{
DBLP:conf/iclr/ZophL17
}
。这种方法的执行过程如图
\ref
{
fig:15-33
}
所示
{
\red
。其执行过程为由智能体对模型结构进行生成,之后将生成的结构应用于对应的任务(如机器翻译、语言建模等),根据模型在对应任务中的输出以及表现水平来进一步对智能体进行反馈,促使智能体生成更适用于当前任务的模型结构。
}
\item
{
\small\bfnew
{
强化学习
}}
。强化学习方法在
{
\chapterthirteen
}
已经进行了介绍,这里可以将神经网络结构的设计看做是一种序列生成任务,使用字符序列对网络结构进行表述
\upcite
{
DBLP:conf/iclr/ZophL17
}
。这种方法的执行过程如图
\ref
{
fig:15-33
}
所示
。其执行过程为由智能体对模型结构进行生成,之后将生成的结构应用于对应的任务(如机器翻译、语言建模等),根据模型在对应任务中的输出以及表现水平来进一步对智能体进行反馈,促使智能体生成更适用于当前任务的模型结构。
%----------------------------------------------
\begin{figure}
[htp]
...
...
@@ -1166,7 +1166,7 @@ lr &=& d_{\textrm{model}}^{-0.5}\cdot step\_num^{-0.5}
%-------------------------------------------
\vspace
{
0.5em
}
\item
{
\small\bfnew
{
基于梯度的方法
}}
。这种方法的思想是在连续空间中对模型结构进行表示
\upcite
{
DBLP:conf/iclr/LiuSY19
}
,
{
\red
通常将模型结构建模为超网络中的结构参数,接下来使用基于梯度的方法对超网络中的参数进行优化,最终根据其中的结构参数离散出最终的模型结构,达到结构搜索的目的,整体过程
}
如图
\ref
{
fig:15-34
}
所示。基于梯度的方法十分高效,因此也受到了很多关注
\upcite
{
DBLP:conf/cvpr/WuDZWSWTVJK19,DBLP:conf/iclr/XuX0CQ0X20,DBLP:conf/acl/LiHZXJXZLL20
}
。
\item
{
\small\bfnew
{
基于梯度的方法
}}
。这种方法的思想是在连续空间中对模型结构进行表示
\upcite
{
DBLP:conf/iclr/LiuSY19
}
,
通常将模型结构建模为超网络中的结构参数,接下来使用基于梯度的方法对超网络中的参数进行优化,最终根据其中的结构参数离散出最终的模型结构,达到结构搜索的目的,整体过程
如图
\ref
{
fig:15-34
}
所示。基于梯度的方法十分高效,因此也受到了很多关注
\upcite
{
DBLP:conf/cvpr/WuDZWSWTVJK19,DBLP:conf/iclr/XuX0CQ0X20,DBLP:conf/acl/LiHZXJXZLL20
}
。
\vspace
{
0.5em
}
%----------------------------------------------
...
...
@@ -1192,7 +1192,7 @@ lr &=& d_{\textrm{model}}^{-0.5}\cdot step\_num^{-0.5}
\vspace
{
0.5em
}
\item
{
\small\bfnew
{
数据以及超参数的调整
}}
。具体来说,可以用少量的数据训练模型,以便快速评估其性能
\upcite
{
DBLP:conf/aistats/KleinFBHH17,DBLP:journals/corr/ChrabaszczLH17
}
。在超参数的调整方面,也可以通过减少模型训练轮数、减少模型的层数等方式来简化模型参数,达到加速训练、评估的目的
\upcite
{
DBLP:conf/cvpr/ZophVSL18,Real2019AgingEF,DBLP:journals/corr/abs-1807-06906
}
。
\vspace
{
0.5em
}
\item
{
\small\bfnew
{
现有参数的继承及复用
}}
。通过在现有的模型参数基础上,继续优化中间过程产生的模型结构,来加快待评价模型的收敛进程
\upcite
{
DBLP:conf/icml/RealMSSSTLK17,DBLP:conf/iclr/ElskenMH19,DBLP:conf/aaai/CaiCZYW18
}
。这种方式无需从头训练搜索过程
{
\red
中产生的中间结构
}
,通过“热启动”的方式对模型参数进行优化,能够大幅减少性能评估过程的时间消耗。
\item
{
\small\bfnew
{
现有参数的继承及复用
}}
。通过在现有的模型参数基础上,继续优化中间过程产生的模型结构,来加快待评价模型的收敛进程
\upcite
{
DBLP:conf/icml/RealMSSSTLK17,DBLP:conf/iclr/ElskenMH19,DBLP:conf/aaai/CaiCZYW18
}
。这种方式无需从头训练搜索过程
中产生的中间结构
,通过“热启动”的方式对模型参数进行优化,能够大幅减少性能评估过程的时间消耗。
\vspace
{
0.5em
}
\item
{
\small\bfnew
{
模型性能的预测
}}
。这种方式使用训练过程中的性能变化曲线来预估模型是否具有潜力,从而快速终止低性能模型的训练过程
\upcite
{
DBLP:conf/ijcai/DomhanSH15,DBLP:conf/iclr/KleinFSH17,DBLP:conf/iclr/BakerGRN18
}
。
\vspace
{
0.5em
}
...
...
编写
预览
Markdown
格式
0%
重试
或
添加新文件
添加附件
取消
您添加了
0
人
到此讨论。请谨慎行事。
请先完成此评论的编辑!
取消
请
注册
或者
登录
后发表评论