Skip to content
项目
群组
代码片段
帮助
当前项目
正在载入...
登录 / 注册
切换导航面板
M
mtbookv2
概览
Overview
Details
Activity
Cycle Analytics
版本库
Repository
Files
Commits
Branches
Tags
Contributors
Graph
Compare
Charts
问题
0
Issues
0
列表
Board
标记
里程碑
合并请求
0
Merge Requests
0
CI / CD
CI / CD
流水线
作业
日程表
图表
维基
Wiki
代码片段
Snippets
成员
Collapse sidebar
Close sidebar
活动
图像
聊天
创建新问题
作业
提交
Issue Boards
Open sidebar
NiuTrans
mtbookv2
Commits
c42ca33d
Commit
c42ca33d
authored
Dec 23, 2020
by
曹润柘
Browse files
Options
Browse Files
Download
Plain Diff
合并分支 'caorunzhe' 到 'master'
Caorunzhe 查看合并请求
!685
parents
da89ac2b
caf467ec
隐藏空白字符变更
内嵌
并排
正在显示
5 个修改的文件
包含
22 行增加
和
22 行删除
+22
-22
Chapter10/chapter10.tex
+6
-6
Chapter11/chapter11.tex
+4
-4
Chapter12/Figures/figure-point-product-attention-model.tex
+1
-1
Chapter12/Figures/figure-self-att-vs-enco-deco-att.tex
+3
-3
Chapter12/chapter12.tex
+8
-8
没有找到文件。
Chapter10/chapter10.tex
查看文件 @
c42ca33d
...
@@ -305,7 +305,7 @@ NMT & 21.7 & 18.7 & -13.7 \\
...
@@ -305,7 +305,7 @@ NMT & 21.7 & 18.7 & -13.7 \\
\end{figure}
\end{figure}
%----------------------------------------------
%----------------------------------------------
\parinterval
实际上,编码器-解码器模型也并不是表示学习实现的唯一途径。比如,在
{
\chapternine
}
提到的神经语言模型实际上也是一种有效的学习句子表示的方法,它所衍生出的预训练模型可以从大规模单语数据上学习句子的表示形式。这种学习会比使用少量的双语数据进行编码
端和解码端
的学习更加充分。相比机器翻译任务,语言模型相当于一个编码器的学习
\footnote
{
相比神经机器翻译的编码器,神经语言模型会多出一个输出层,这时可以直接把神经语言模型的中间层的输出作为编码器的输出。
}
,可以无缝嵌入到神经机器翻译模型中。不过,值得注意的是,机器翻译的目的是解决双语字符串之间的映射问题,因此它所使用的句子表示是为了更好地进行翻译。从这个角度说,机器翻译中的表示学习又和语言模型中的表示学习有不同。不过,这里不会深入讨论神经语言模型和预训练与神经机器翻译之间的异同,在后续章节会有相关讨论。
\parinterval
实际上,编码器-解码器模型也并不是表示学习实现的唯一途径。比如,在
{
\chapternine
}
提到的神经语言模型实际上也是一种有效的学习句子表示的方法,它所衍生出的预训练模型可以从大规模单语数据上学习句子的表示形式。这种学习会比使用少量的双语数据进行编码
器和解码器
的学习更加充分。相比机器翻译任务,语言模型相当于一个编码器的学习
\footnote
{
相比神经机器翻译的编码器,神经语言模型会多出一个输出层,这时可以直接把神经语言模型的中间层的输出作为编码器的输出。
}
,可以无缝嵌入到神经机器翻译模型中。不过,值得注意的是,机器翻译的目的是解决双语字符串之间的映射问题,因此它所使用的句子表示是为了更好地进行翻译。从这个角度说,机器翻译中的表示学习又和语言模型中的表示学习有不同。不过,这里不会深入讨论神经语言模型和预训练与神经机器翻译之间的异同,在后续章节会有相关讨论。
\parinterval
还有一点,在神经机器翻译中,句子的表示形式可以有很多选择。使用单个向量表示一个句子是一种最简单的方法。当然,也可以用矩阵、高阶张量完成表示。甚至,在解码时动态地生成源语言的表示结果。
\parinterval
还有一点,在神经机器翻译中,句子的表示形式可以有很多选择。使用单个向量表示一个句子是一种最简单的方法。当然,也可以用矩阵、高阶张量完成表示。甚至,在解码时动态地生成源语言的表示结果。
...
@@ -337,7 +337,7 @@ NMT & 21.7 & 18.7 & -13.7 \\
...
@@ -337,7 +337,7 @@ NMT & 21.7 & 18.7 & -13.7 \\
\end{figure}
\end{figure}
%----------------------------------------------
%----------------------------------------------
\parinterval
解码器直接把源语言句子的分布式表示作为输入的隐层状态,之后像编码器一样依次读入目标语言单词,这是一个标准的循环神经网络的执行过程。与编码器不同的是,解码器会有一个输出层,用于根据当前时间步的隐层状态生成目标语言单词及其概率分布。可以看到,解码
端
当前时刻的输出单词与下一个时刻的输入单词是一样的。从这个角度说,解码器也是一种神经语言模型,只不过它会从另外一种语言(源语言)获得一些信息,而不是仅仅做单语句子的生成。具体来说,当生成第一个单词“I”时,解码器利用了源语言句子表示(红色方框)和目标语言的起始词“<sos>”。在生成第二个单词“am”时,解码器利用了上一个时间步的隐藏状态和已经生成的“I”的信息。这个过程会循环执行,直到生成完整的目标语言句子。
\parinterval
解码器直接把源语言句子的分布式表示作为输入的隐层状态,之后像编码器一样依次读入目标语言单词,这是一个标准的循环神经网络的执行过程。与编码器不同的是,解码器会有一个输出层,用于根据当前时间步的隐层状态生成目标语言单词及其概率分布。可以看到,解码
器
当前时刻的输出单词与下一个时刻的输入单词是一样的。从这个角度说,解码器也是一种神经语言模型,只不过它会从另外一种语言(源语言)获得一些信息,而不是仅仅做单语句子的生成。具体来说,当生成第一个单词“I”时,解码器利用了源语言句子表示(红色方框)和目标语言的起始词“<sos>”。在生成第二个单词“am”时,解码器利用了上一个时间步的隐藏状态和已经生成的“I”的信息。这个过程会循环执行,直到生成完整的目标语言句子。
\parinterval
从这个例子可以看出,神经机器翻译的流程其实并不复杂:首先通过编码器神经网络将源语言句子编码成实数向量,然后解码器神经网络利用这个向量逐词生成译文。现在几乎所有的神经机器翻译系统都采用类似的架构。
\parinterval
从这个例子可以看出,神经机器翻译的流程其实并不复杂:首先通过编码器神经网络将源语言句子编码成实数向量,然后解码器神经网络利用这个向量逐词生成译文。现在几乎所有的神经机器翻译系统都采用类似的架构。
...
@@ -428,7 +428,7 @@ NMT & 21.7 & 18.7 & -13.7 \\
...
@@ -428,7 +428,7 @@ NMT & 21.7 & 18.7 & -13.7 \\
\end{figure}
\end{figure}
%----------------------------------------------
%----------------------------------------------
\parinterval
在神经机器翻译里使用循环神经网络也很简单。只需要把源语言句子和目标语言句子分别看作两个序列,之后使用两个循环神经网络分别对其进行建模。这个过程如图
\ref
{
fig:10-9
}
所示。图中,下半部分是编码器,上半部分是解码器。编码器利用循环神经网络对源语言序列逐词进行编码处理,同时利用循环单元的记忆能力,不断累积序列信息,遇到终止符<eos>后便得到了包含源语言句子全部信息的表示结果。解码器利用编码器的输出和起始符<sos>开始逐词地进行解码,即逐词翻译,每得到一个译文单词,便将其作为当前时刻解码端循环单元的输入,这也是一个典型的神经语言模型的序列生成过程。解码器通过循环神经网络不断地累积已经得到的译文的信息,并继续生成下一个单词,直到遇到结束符<eos>,便得到了最终完整的译文。
\parinterval
在神经机器翻译里使用循环神经网络也很简单。只需要把源语言句子和目标语言句子分别看作两个序列,之后使用两个循环神经网络分别对其进行建模。这个过程如图
\ref
{
fig:10-9
}
所示。图中,下半部分是编码器,上半部分是解码器。编码器利用循环神经网络对源语言序列逐词进行编码处理,同时利用循环单元的记忆能力,不断累积序列信息,遇到终止符<eos>后便得到了包含源语言句子全部信息的表示结果。解码器利用编码器的输出和起始符<sos>开始逐词地进行解码,即逐词翻译,每得到一个译文单词,便将其作为当前时刻解码
器
端循环单元的输入,这也是一个典型的神经语言模型的序列生成过程。解码器通过循环神经网络不断地累积已经得到的译文的信息,并继续生成下一个单词,直到遇到结束符<eos>,便得到了最终完整的译文。
%----------------------------------------------
%----------------------------------------------
\begin{figure}
[htp]
\begin{figure}
[htp]
...
@@ -681,7 +681,7 @@ $\funp{P}({y_j | \mathbi{s}_{j-1} ,y_{j-1},\mathbi{C}})$由Softmax实现,Softm
...
@@ -681,7 +681,7 @@ $\funp{P}({y_j | \mathbi{s}_{j-1} ,y_{j-1},\mathbi{C}})$由Softmax实现,Softm
\begin{itemize}
\begin{itemize}
\vspace
{
0.5em
}
\vspace
{
0.5em
}
\item
首先,虽然编码器把一个源语言句子的表示传递给解码器,但是一个维度固定的向量所能包含的信息是有限的,随着源语言序列的增长,将整个句子的信息编码到一个固定维度的向量中可能会造成源语言句子信息的丢失。显然,在翻译较长的句子时,解码
端
可能无法获取完整的源语言信息,降低翻译性能;
\item
首先,虽然编码器把一个源语言句子的表示传递给解码器,但是一个维度固定的向量所能包含的信息是有限的,随着源语言序列的增长,将整个句子的信息编码到一个固定维度的向量中可能会造成源语言句子信息的丢失。显然,在翻译较长的句子时,解码
器
可能无法获取完整的源语言信息,降低翻译性能;
\vspace
{
0.5em
}
\vspace
{
0.5em
}
\item
此外,当生成某一个目标语言单词时,并不是均匀地使用源语言句子中的单词信息。更普遍的情况是,系统会参考与这个目标语言单词相对应的源语言单词进行翻译。这有些类似于词对齐的作用,即翻译是基于单词之间的某种对应关系。但是,使用单一的源语言表示根本无法区分源语言句子的不同部分,更不用说对源语言单词和目标语言单词之间的联系进行建模了。
\item
此外,当生成某一个目标语言单词时,并不是均匀地使用源语言句子中的单词信息。更普遍的情况是,系统会参考与这个目标语言单词相对应的源语言单词进行翻译。这有些类似于词对齐的作用,即翻译是基于单词之间的某种对应关系。但是,使用单一的源语言表示根本无法区分源语言句子的不同部分,更不用说对源语言单词和目标语言单词之间的联系进行建模了。
\vspace
{
0.5em
}
\vspace
{
0.5em
}
...
@@ -725,7 +725,7 @@ $\funp{P}({y_j | \mathbi{s}_{j-1} ,y_{j-1},\mathbi{C}})$由Softmax实现,Softm
...
@@ -725,7 +725,7 @@ $\funp{P}({y_j | \mathbi{s}_{j-1} ,y_{j-1},\mathbi{C}})$由Softmax实现,Softm
\label
{
eq:10-16
}
\label
{
eq:10-16
}
\end{eqnarray}
\end{eqnarray}
\noindent
其中,
$
\alpha
_{
i,j
}$
是
{
\small\sffamily\bfseries
{
注意力权重
}}
\index
{
注意力权重
}
(Attention Weight)
\index
{
Attention Weight
}
,它表示目标语言第
$
j
$
个位置与源语言第
$
i
$
个位置之间的相关性大小。这里,将每个时间步编码器的输出
$
\mathbi
{
h
}_
i
$
看作源语言位置
$
i
$
的表示结果。进行翻译时,解码
端
可以根据当前的位置
$
j
$
,通过控制不同
$
\mathbi
{
h
}_
i
$
的权重得到
$
\mathbi
{
C
}_
j
$
,使得对目标语言位置
$
j
$
贡献大的
$
\mathbi
{
h
}_
i
$
对
$
\mathbi
{
C
}_
j
$
的影响增大。也就是说,
$
\mathbi
{
C
}_
j
$
实际上就是
\{
${
\mathbi
{
h
}_
1
,
\mathbi
{
h
}_
2
,...,
\mathbi
{
h
}_
m
}$
\}
的一种组合,只不过不同的
$
\mathbi
{
h
}_
i
$
会根据对目标端的贡献给予不同的权重。图
\ref
{
fig:10-19
}
展示了上下文向量
$
\mathbi
{
C
}_
j
$
的计算过程。
\noindent
其中,
$
\alpha
_{
i,j
}$
是
{
\small\sffamily\bfseries
{
注意力权重
}}
\index
{
注意力权重
}
(Attention Weight)
\index
{
Attention Weight
}
,它表示目标语言第
$
j
$
个位置与源语言第
$
i
$
个位置之间的相关性大小。这里,将每个时间步编码器的输出
$
\mathbi
{
h
}_
i
$
看作源语言位置
$
i
$
的表示结果。进行翻译时,解码
器
可以根据当前的位置
$
j
$
,通过控制不同
$
\mathbi
{
h
}_
i
$
的权重得到
$
\mathbi
{
C
}_
j
$
,使得对目标语言位置
$
j
$
贡献大的
$
\mathbi
{
h
}_
i
$
对
$
\mathbi
{
C
}_
j
$
的影响增大。也就是说,
$
\mathbi
{
C
}_
j
$
实际上就是
\{
${
\mathbi
{
h
}_
1
,
\mathbi
{
h
}_
2
,...,
\mathbi
{
h
}_
m
}$
\}
的一种组合,只不过不同的
$
\mathbi
{
h
}_
i
$
会根据对目标端的贡献给予不同的权重。图
\ref
{
fig:10-19
}
展示了上下文向量
$
\mathbi
{
C
}_
j
$
的计算过程。
%----------------------------------------------
%----------------------------------------------
\begin{figure}
[htp]
\begin{figure}
[htp]
...
@@ -1167,7 +1167,7 @@ L(\mathbi{Y},\widehat{\mathbi{Y}}) &=& \sum_{j=1}^n L_{\textrm{ce}}(\mathbi{y}_j
...
@@ -1167,7 +1167,7 @@ L(\mathbi{Y},\widehat{\mathbi{Y}}) &=& \sum_{j=1}^n L_{\textrm{ce}}(\mathbi{y}_j
%----------------------------------------------
%----------------------------------------------
\vspace
{
0.2em
}
\vspace
{
0.2em
}
\parinterval
解码
端
的每一步Softmax层会输出所有单词的概率,由于是基于贪心的方法,这里会选择概率最大(top-1)的单词作为输出。这个过程可以参考图
\ref
{
fig:10-30
}
的内容。选择分布中概率最大的单词“Have”作为得到的第一个单词,并再次送入解码器,作为第二步的输入同时预测下一个单词。以此类推,直到生成句子的终止符为止,就得到了完整的译文。
\parinterval
解码
器
的每一步Softmax层会输出所有单词的概率,由于是基于贪心的方法,这里会选择概率最大(top-1)的单词作为输出。这个过程可以参考图
\ref
{
fig:10-30
}
的内容。选择分布中概率最大的单词“Have”作为得到的第一个单词,并再次送入解码器,作为第二步的输入同时预测下一个单词。以此类推,直到生成句子的终止符为止,就得到了完整的译文。
\parinterval
贪婪搜索的优点在于速度快。在对翻译速度有较高要求的场景中,贪婪搜索是一种十分有效的系统加速方法。而且贪婪搜索的原理非常简单,易于快速实现。不过,由于每一步只保留一个最好的局部结果,贪婪搜索往往会带来翻译品质上的损失。
\parinterval
贪婪搜索的优点在于速度快。在对翻译速度有较高要求的场景中,贪婪搜索是一种十分有效的系统加速方法。而且贪婪搜索的原理非常简单,易于快速实现。不过,由于每一步只保留一个最好的局部结果,贪婪搜索往往会带来翻译品质上的损失。
...
...
Chapter11/chapter11.tex
查看文件 @
c42ca33d
...
@@ -278,7 +278,7 @@
...
@@ -278,7 +278,7 @@
\parinterval
单层卷积神经网络的感受野受限于卷积核的大小,因此只能捕捉序列中局部的上下文信息,不能很好地进行长序列建模。为了捕捉更长的上下文信息,最简单的做法就是堆叠多个卷积层。相比于循环神经网络的链式结构,对相同的上下文跨度,多层卷积神经网络的层级结构可以通过更少的非线性计算对其进行建模,缓解了长距离建模中的梯度消失问题。因此,卷积神经网络相对更容易进行训练。
\parinterval
单层卷积神经网络的感受野受限于卷积核的大小,因此只能捕捉序列中局部的上下文信息,不能很好地进行长序列建模。为了捕捉更长的上下文信息,最简单的做法就是堆叠多个卷积层。相比于循环神经网络的链式结构,对相同的上下文跨度,多层卷积神经网络的层级结构可以通过更少的非线性计算对其进行建模,缓解了长距离建模中的梯度消失问题。因此,卷积神经网络相对更容易进行训练。
\parinterval
在ConvS2S模型中,编码
端和解码端
分别使用堆叠的门控卷积神经网络对源语言和目标语言序列进行建模,在传统卷积神经网络的基础上引入了门控线性单元
\upcite
{
Dauphin2017LanguageMW
}
,通过门控机制对卷积输出进行控制,它在模型中的位置如图
\ref
{
fig:11-13
}
黄色方框所示:
\parinterval
在ConvS2S模型中,编码
器和解码器
分别使用堆叠的门控卷积神经网络对源语言和目标语言序列进行建模,在传统卷积神经网络的基础上引入了门控线性单元
\upcite
{
Dauphin2017LanguageMW
}
,通过门控机制对卷积输出进行控制,它在模型中的位置如图
\ref
{
fig:11-13
}
黄色方框所示:
%----------------------------------------------
%----------------------------------------------
% 图13.
% 图13.
...
@@ -319,14 +319,14 @@
...
@@ -319,14 +319,14 @@
\noindent
其中,
$
\sigma
$
为Sigmoid函数,
$
\otimes
$
为按位乘运算。Sigmoid将
$
\mathbi
{
B
}$
映射为0-1范围内的实数,用来充当门控。可以看到,门控卷积神经网络中核心部分就是
$
\sigma
(
\mathbi
{
B
}
)
$
,通过这个门控单元来对卷积输出进行控制,确定保留哪些信息。同时,在梯度反向传播的过程中,这种机制使得不同层之间存在线性的通道,梯度传导更加简单,利于深层网络的训练。这种思想和
\ref
{
sec:11.2.3
}
节将要介绍的残差网络也很类似。
\noindent
其中,
$
\sigma
$
为Sigmoid函数,
$
\otimes
$
为按位乘运算。Sigmoid将
$
\mathbi
{
B
}$
映射为0-1范围内的实数,用来充当门控。可以看到,门控卷积神经网络中核心部分就是
$
\sigma
(
\mathbi
{
B
}
)
$
,通过这个门控单元来对卷积输出进行控制,确定保留哪些信息。同时,在梯度反向传播的过程中,这种机制使得不同层之间存在线性的通道,梯度传导更加简单,利于深层网络的训练。这种思想和
\ref
{
sec:11.2.3
}
节将要介绍的残差网络也很类似。
\parinterval
在ConvS2S模型中,为了保证卷积操作之后的序列长度不变,需要对输入进行填充,这一点已经在之前的章节中讨论过了。因此,在编码
端每一次卷积操作前,需要对序列的头部和尾部分别做相应的填充(如图
\ref
{
fig:11-14
}
左侧部分)。而在解码端中,由于需要训练和解码的一致性,模型在训练过程中不能使用未来的信息,需要对未来信息进行屏蔽,也就是屏蔽掉当前译文单词右侧的译文信息。从实践角度来看,只需要对解码端输入序列的头部填充
$
K
-
1
$
个空元素,其中
$
K
$
为卷积核的宽度(图
\ref
{
fig:11-15
}
展示了卷积核宽度
$
K
$
=3时,解码端
对输入序列的填充情况,图中三角形表示卷积操作)。
\parinterval
在ConvS2S模型中,为了保证卷积操作之后的序列长度不变,需要对输入进行填充,这一点已经在之前的章节中讨论过了。因此,在编码
器每一次卷积操作前,需要对序列的头部和尾部分别做相应的填充(如图
\ref
{
fig:11-14
}
左侧部分)。而在解码器中,由于需要训练和解码的一致性,模型在训练过程中不能使用未来的信息,需要对未来信息进行屏蔽,也就是屏蔽掉当前译文单词右侧的译文信息。从实践角度来看,只需要对解码器输入序列的头部填充
$
K
-
1
$
个空元素,其中
$
K
$
为卷积核的宽度(图
\ref
{
fig:11-15
}
展示了卷积核宽度
$
K
$
=3时,解码器
对输入序列的填充情况,图中三角形表示卷积操作)。
%----------------------------------------------
%----------------------------------------------
% 图14-2.
% 图14-2.
\begin{figure}
[htp]
\begin{figure}
[htp]
\centering
\centering
\input
{
./Chapter11/Figures/figure-padding-method
}
\input
{
./Chapter11/Figures/figure-padding-method
}
\caption
{
解码
端
的填充方法
}
\caption
{
解码
器
的填充方法
}
\label
{
fig:11-15
}
\label
{
fig:11-15
}
\end{figure}
\end{figure}
%----------------------------------------------
%----------------------------------------------
...
@@ -372,7 +372,7 @@
...
@@ -372,7 +372,7 @@
\end{figure}
\end{figure}
%----------------------------------------------
%----------------------------------------------
\parinterval
在基于循环神经网络的翻译模型中,注意力机制已经被广泛使用
\upcite
{
bahdanau2014neural
}
,并用于避免循环神经网络将源语言序列压缩成一个固定维度的向量表示带来的信息损失。另一方面,注意力同样能够帮助解码
端
区分源语言中不同位置对当前目标语言位置的贡献度,其具体的计算过程如公式
\eqref
{
eq:11-8
}
和
\eqref
{
eq:11-9
}
所示:
\parinterval
在基于循环神经网络的翻译模型中,注意力机制已经被广泛使用
\upcite
{
bahdanau2014neural
}
,并用于避免循环神经网络将源语言序列压缩成一个固定维度的向量表示带来的信息损失。另一方面,注意力同样能够帮助解码
器
区分源语言中不同位置对当前目标语言位置的贡献度,其具体的计算过程如公式
\eqref
{
eq:11-8
}
和
\eqref
{
eq:11-9
}
所示:
\begin{eqnarray}
\begin{eqnarray}
\mathbi
{
C
}_
j
&
=
&
\sum
_
i
\alpha
_{
i,j
}
\mathbi
{
h
}_
i
\label
{
eq:11-8
}
\\
\mathbi
{
C
}_
j
&
=
&
\sum
_
i
\alpha
_{
i,j
}
\mathbi
{
h
}_
i
\label
{
eq:11-8
}
\\
...
...
Chapter12/Figures/figure-point-product-attention-model.tex
查看文件 @
c42ca33d
...
@@ -44,7 +44,7 @@
...
@@ -44,7 +44,7 @@
}
}
{
{
\node
[anchor=west] (line31) at ([yshift=6em]line1.west)
{
\scriptsize
{
在编码端,对句子补齐
}}
;
\node
[anchor=west] (line31) at ([yshift=6em]line1.west)
{
\scriptsize
{
在编码
器
端,对句子补齐
}}
;
\node
[anchor=north west] (line32) at ([yshift=0.3em]line31.south west)
{
\scriptsize
{
填充的部分进行屏蔽
}}
;
\node
[anchor=north west] (line32) at ([yshift=0.3em]line31.south west)
{
\scriptsize
{
填充的部分进行屏蔽
}}
;
\node
[anchor=north west] (line33) at ([yshift=0.3em]line32.south west)
{
\scriptsize
{
解码时看不到未来的信息
}}
;
\node
[anchor=north west] (line33) at ([yshift=0.3em]line32.south west)
{
\scriptsize
{
解码时看不到未来的信息
}}
;
\node
[anchor=north west] (line34) at ([yshift=0.3em]line33.south west)
{
\scriptsize
{
需要对未来的信息进行屏蔽
}}
;
\node
[anchor=north west] (line34) at ([yshift=0.3em]line33.south west)
{
\scriptsize
{
需要对未来的信息进行屏蔽
}}
;
...
...
Chapter12/Figures/figure-self-att-vs-enco-deco-att.tex
查看文件 @
c42ca33d
...
@@ -11,7 +11,7 @@
...
@@ -11,7 +11,7 @@
\draw
[->,thick]
([xshift=-3.6em]word1.north)--([xshift=-3.6em]p1.south);
\draw
[->,thick]
([xshift=-3.6em]word1.north)--([xshift=-3.6em]p1.south);
\draw
[->,thick]
([xshift=3.6em]word1.north)--([xshift=3.6em]p1.south);
\draw
[->,thick]
([xshift=3.6em]word1.north)--([xshift=3.6em]p1.south);
\node
[anchor=north,rounded corners=1pt,minimum width=11.0em,minimum height=3.5em,draw=ugreen!70,very thick,dotted]
(p1-1) at ([yshift=-5.2em]p1.south)
{
\small
{
解码
端
每个位置的表示
}}
;
\node
[anchor=north,rounded corners=1pt,minimum width=11.0em,minimum height=3.5em,draw=ugreen!70,very thick,dotted]
(p1-1) at ([yshift=-5.2em]p1.south)
{
\small
{
解码
器
每个位置的表示
}}
;
\draw
[->,thick,dashed] (word3.south) .. controls +(south:1.5em) and +(north:1.5em) .. ([xshift=-0.4em]p1-1.north);
\draw
[->,thick,dashed] (word3.south) .. controls +(south:1.5em) and +(north:1.5em) .. ([xshift=-0.4em]p1-1.north);
\draw
[->,thick,dashed](word1.south) --(p1-1.north);
\draw
[->,thick,dashed](word1.south) --(p1-1.north);
...
@@ -29,7 +29,7 @@
...
@@ -29,7 +29,7 @@
\draw
[->,thick]
([xshift=-3.6em]word1-2.north)--([xshift=-3.6em]p2.south);
\draw
[->,thick]
([xshift=-3.6em]word1-2.north)--([xshift=-3.6em]p2.south);
\draw
[->,thick]
([xshift=3.6em]word1-2.north)--([xshift=3.6em]p2.south);
\draw
[->,thick]
([xshift=3.6em]word1-2.north)--([xshift=3.6em]p2.south);
\node
[anchor=north,rounded corners=1pt]
(p2-1) at ([xshift=-3.55em,yshift=-5.5em]p2.south)
{
\small
{
解码
端
每个
}}
;
\node
[anchor=north,rounded corners=1pt]
(p2-1) at ([xshift=-3.55em,yshift=-5.5em]p2.south)
{
\small
{
解码
器
每个
}}
;
\node
[anchor=north,rounded corners=1pt]
(p2-2) at ([xshift=-3.55em,yshift=-6.8em]p2.south)
{
\small
{
位置的表示
}}
;
\node
[anchor=north,rounded corners=1pt]
(p2-2) at ([xshift=-3.55em,yshift=-6.8em]p2.south)
{
\small
{
位置的表示
}}
;
\begin{pgfonlayer}
{
background
}
\begin{pgfonlayer}
{
background
}
{
{
...
@@ -38,7 +38,7 @@
...
@@ -38,7 +38,7 @@
\end{pgfonlayer}
\end{pgfonlayer}
\node
[anchor=north,rounded corners=1pt]
(p2-3) at ([xshift=3.55em,yshift=-5.5em]p2.south)
{
\small
{
编码
端
每个
}}
;
\node
[anchor=north,rounded corners=1pt]
(p2-3) at ([xshift=3.55em,yshift=-5.5em]p2.south)
{
\small
{
编码
器
每个
}}
;
\node
[anchor=north,rounded corners=1pt]
(p2-4) at ([xshift=3.55em,yshift=-6.8em]p2.south)
{
\small
{
位置的表示
}}
;
\node
[anchor=north,rounded corners=1pt]
(p2-4) at ([xshift=3.55em,yshift=-6.8em]p2.south)
{
\small
{
位置的表示
}}
;
\begin{pgfonlayer}
{
background
}
\begin{pgfonlayer}
{
background
}
{
{
...
...
Chapter12/chapter12.tex
查看文件 @
c42ca33d
...
@@ -170,7 +170,7 @@
...
@@ -170,7 +170,7 @@
\parinterval
以上操作就构成了Transformer的一层,各个模块执行的顺序可以简单描述为:Self-Attention
$
\to
$
Residual Connection
$
\to
$
Layer Normalization
$
\to
$
Feed Forward Network
$
\to
$
Residual Connection
$
\to
$
Layer Normalization。编码器可以包含多个这样的层,比如,可以构建一个六层编码器,每层都执行上面的操作。最上层的结果作为整个编码的结果,会被传入解码器。
\parinterval
以上操作就构成了Transformer的一层,各个模块执行的顺序可以简单描述为:Self-Attention
$
\to
$
Residual Connection
$
\to
$
Layer Normalization
$
\to
$
Feed Forward Network
$
\to
$
Residual Connection
$
\to
$
Layer Normalization。编码器可以包含多个这样的层,比如,可以构建一个六层编码器,每层都执行上面的操作。最上层的结果作为整个编码的结果,会被传入解码器。
\parinterval
解码器的结构与编码器十分类似。它也是由若干层组成,每一层包含编码器中的所有结构,即:自注意力子层、前馈神经网络子层、残差连接和层标准化模块。此外,为了捕捉源语言的信息,解码器又引入了一个额外的
{
\small\sffamily\bfseries
{
编码-解码注意力子层
}}
\index
{
编码-解码注意力子层
}
(Encoder-Decoder Attention Sub-layer)
\index
{
Encoder-Decoder Attention Sub-layer
}
。这个新的子层,可以帮助模型使用源语言句子的表示信息生成目标语言不同位置的表示。编码-解码注意力子层仍然基于自注意力机制,因此它和自注意力子层的结构是相同的,只是
$
\mathrm
{
query
}$
、
$
\mathrm
{
key
}$
、
$
\mathrm
{
value
}$
的定义不同。比如,在解码
端,自注意力子层的
$
\mathrm
{
query
}$
、
$
\mathrm
{
key
}$
、
$
\mathrm
{
value
}$
是相同的,它们都等于解码端每个位置的表示。而在编码-解码注意力子层中,
$
\mathrm
{
query
}$
是解码端每个位置的表示,此时
$
\mathrm
{
key
}$
和
$
\mathrm
{
value
}$
是相同的,等于编码端
每个位置的表示。图
\ref
{
fig:12-5
}
给出了这两种不同注意力子层输入的区别。
\parinterval
解码器的结构与编码器十分类似。它也是由若干层组成,每一层包含编码器中的所有结构,即:自注意力子层、前馈神经网络子层、残差连接和层标准化模块。此外,为了捕捉源语言的信息,解码器又引入了一个额外的
{
\small\sffamily\bfseries
{
编码-解码注意力子层
}}
\index
{
编码-解码注意力子层
}
(Encoder-Decoder Attention Sub-layer)
\index
{
Encoder-Decoder Attention Sub-layer
}
。这个新的子层,可以帮助模型使用源语言句子的表示信息生成目标语言不同位置的表示。编码-解码注意力子层仍然基于自注意力机制,因此它和自注意力子层的结构是相同的,只是
$
\mathrm
{
query
}$
、
$
\mathrm
{
key
}$
、
$
\mathrm
{
value
}$
的定义不同。比如,在解码
器端,自注意力子层的
$
\mathrm
{
query
}$
、
$
\mathrm
{
key
}$
、
$
\mathrm
{
value
}$
是相同的,它们都等于解码器每个位置的表示。而在编码-解码注意力子层中,
$
\mathrm
{
query
}$
是解码器每个位置的表示,此时
$
\mathrm
{
key
}$
和
$
\mathrm
{
value
}$
是相同的,等于编码器
每个位置的表示。图
\ref
{
fig:12-5
}
给出了这两种不同注意力子层输入的区别。
%----------------------------------------------
%----------------------------------------------
\begin{figure}
[htp]
\begin{figure}
[htp]
...
@@ -181,9 +181,9 @@
...
@@ -181,9 +181,9 @@
\end{figure}
\end{figure}
%----------------------------------------------
%----------------------------------------------
\parinterval
此外,编码
端和解码端都有输入的词序列。编码端的词序列输入是为了对其进行表示,进而解码端能从编码端访问到源语言句子的全部信息。解码端
的词序列输入是为了进行目标语言的生成,本质上它和语言模型是一样的,在得到前
$
n
-
1
$
个单词的情况下输出第
$
n
$
个单词。除了输入词序列的词嵌入,Transformer中也引入了位置嵌入,以表示每个位置信息。原因是,自注意力机制没有显性地对位置进行表示,因此也无法考虑词序。在输入中引入位置信息可以让自注意力机制间接地感受到每个词的位置,进而保证对序列表示的合理性。最终,整个模型的输出由一个Softmax层完成,它和循环神经网络中的输出层是完全一样的。
\parinterval
此外,编码
器和解码器都有输入的词序列。编码器的词序列输入是为了对其进行表示,进而解码器能从编码器访问到源语言句子的全部信息。解码器
的词序列输入是为了进行目标语言的生成,本质上它和语言模型是一样的,在得到前
$
n
-
1
$
个单词的情况下输出第
$
n
$
个单词。除了输入词序列的词嵌入,Transformer中也引入了位置嵌入,以表示每个位置信息。原因是,自注意力机制没有显性地对位置进行表示,因此也无法考虑词序。在输入中引入位置信息可以让自注意力机制间接地感受到每个词的位置,进而保证对序列表示的合理性。最终,整个模型的输出由一个Softmax层完成,它和循环神经网络中的输出层是完全一样的。
\parinterval
在进行更详细的介绍前,先利用图
\ref
{
fig:12-4
}
简单了解一下Transformer模型是如何进行翻译的。首先,Transformer将源语言句子“我/很/好”的词嵌入融合位置编码后作为输入。然后,编码器对输入的源语言句子进行逐层抽象,得到包含丰富的上下文信息的源语言表示并传递给解码器。解码器的每一层,使用自注意力子层对输入解码
端
的表示进行加工,之后再使用编码-解码注意力子层融合源语言句子的表示信息。就这样逐词生成目标语言译文单词序列。解码器每个位置的输入是当前单词(比如,“I”),而这个位置的输出是下一个单词(比如,“am”),这个设计和标准的神经语言模型是完全一样的。
\parinterval
在进行更详细的介绍前,先利用图
\ref
{
fig:12-4
}
简单了解一下Transformer模型是如何进行翻译的。首先,Transformer将源语言句子“我/很/好”的词嵌入融合位置编码后作为输入。然后,编码器对输入的源语言句子进行逐层抽象,得到包含丰富的上下文信息的源语言表示并传递给解码器。解码器的每一层,使用自注意力子层对输入解码
器
的表示进行加工,之后再使用编码-解码注意力子层融合源语言句子的表示信息。就这样逐词生成目标语言译文单词序列。解码器每个位置的输入是当前单词(比如,“I”),而这个位置的输出是下一个单词(比如,“am”),这个设计和标准的神经语言模型是完全一样的。
\parinterval
当然,这里可能还有很多疑惑,比如,什么是位置编码?Transformer的自注意力机制具体是怎么进行计算的,其结构是怎样的?层标准化又是什么?等等。下面就一一展开介绍。
\parinterval
当然,这里可能还有很多疑惑,比如,什么是位置编码?Transformer的自注意力机制具体是怎么进行计算的,其结构是怎样的?层标准化又是什么?等等。下面就一一展开介绍。
...
@@ -288,7 +288,7 @@
...
@@ -288,7 +288,7 @@
\noindent
首先,通过对
$
\mathbi
{
Q
}$
和
$
\mathbi
{
K
}$
的转置进行矩阵乘法操作,计算得到一个维度大小为
$
L
\times
L
$
的相关性矩阵,即
$
\mathbi
{
Q
}
\mathbi
{
K
}^{
\textrm
{
T
}}$
,它表示一个序列上任意两个位置的相关性。再通过系数1/
$
\sqrt
{
d
_
k
}$
进行放缩操作,放缩可以减少相关性矩阵的方差,具体体现在运算过程中实数矩阵中的数值不会过大,有利于模型训练。
\noindent
首先,通过对
$
\mathbi
{
Q
}$
和
$
\mathbi
{
K
}$
的转置进行矩阵乘法操作,计算得到一个维度大小为
$
L
\times
L
$
的相关性矩阵,即
$
\mathbi
{
Q
}
\mathbi
{
K
}^{
\textrm
{
T
}}$
,它表示一个序列上任意两个位置的相关性。再通过系数1/
$
\sqrt
{
d
_
k
}$
进行放缩操作,放缩可以减少相关性矩阵的方差,具体体现在运算过程中实数矩阵中的数值不会过大,有利于模型训练。
\parinterval
在此基础上,通过对相关性矩阵累加一个掩码矩阵
$
\mathbi
{
Mask
}$
,来屏蔽掉矩阵中的无用信息。比如,在编码
端,如果需要对多个句子同时处理,由于这些句子长度不统一,需要对句子补齐。再比如,在解码
端,训练的时候需要屏蔽掉当前目标语言位置右侧的单词,因此这些单词在推断的时候是看不到的。
\parinterval
在此基础上,通过对相关性矩阵累加一个掩码矩阵
$
\mathbi
{
Mask
}$
,来屏蔽掉矩阵中的无用信息。比如,在编码
器端,如果需要对多个句子同时处理,由于这些句子长度不统一,需要对句子补齐。再比如,在解码器
端,训练的时候需要屏蔽掉当前目标语言位置右侧的单词,因此这些单词在推断的时候是看不到的。
\parinterval
随后,使用Softmax函数对相关性矩阵在行的维度上进行归一化操作,这可以理解为对第
$
i
$
行进行归一化,结果对应了
$
\mathbi
{
V
}$
中不同位置上向量的注意力权重。对于
$
\mathrm
{
value
}$
的加权求和,可以直接用相关性系数和
$
\mathbi
{
V
}$
进行矩阵乘法得到,即
$
\textrm
{
Softmax
}
\parinterval
随后,使用Softmax函数对相关性矩阵在行的维度上进行归一化操作,这可以理解为对第
$
i
$
行进行归一化,结果对应了
$
\mathbi
{
V
}$
中不同位置上向量的注意力权重。对于
$
\mathrm
{
value
}$
的加权求和,可以直接用相关性系数和
$
\mathbi
{
V
}$
进行矩阵乘法得到,即
$
\textrm
{
Softmax
}
(
\frac
{
\mathbi
{
Q
}
\mathbi
{
K
}^{
\textrm
{
T
}}}
{
\sqrt
{
d
_
k
}}
+
\mathbi
{
Mask
}
)
$
和
$
\mathbi
{
V
}$
进行矩阵乘。最终得到自注意力的输出,它和输入的
$
\mathbi
{
V
}$
的大小是一模一样的。图
\ref
{
fig:12-10
}
展示了点乘注意力计算的全过程。
(
\frac
{
\mathbi
{
Q
}
\mathbi
{
K
}^{
\textrm
{
T
}}}
{
\sqrt
{
d
_
k
}}
+
\mathbi
{
Mask
}
)
$
和
$
\mathbi
{
V
}$
进行矩阵乘。最终得到自注意力的输出,它和输入的
$
\mathbi
{
V
}$
的大小是一模一样的。图
\ref
{
fig:12-10
}
展示了点乘注意力计算的全过程。
...
@@ -363,7 +363,7 @@
...
@@ -363,7 +363,7 @@
\vspace
{
0.5em
}
\vspace
{
0.5em
}
\item
{
\small\bfnew
{
句长补全掩码
}}
\index
{
句长补全掩码
}
(Padding Mask
\index
{
Padding Mask
}
)。在批量处理多个样本时(训练或解码),由于要对源语言和目标语言的输入进行批次化处理,而每个批次内序列的长度不一样,为了方便对批次内序列进行矩阵表示,需要进行对齐操作,即在较短的序列后面填充0来占位(padding操作)。而这些填充的位置没有意义,不参与注意力机制的计算,因此,需要进行掩码 操作,屏蔽其影响。
\item
{
\small\bfnew
{
句长补全掩码
}}
\index
{
句长补全掩码
}
(Padding Mask
\index
{
Padding Mask
}
)。在批量处理多个样本时(训练或解码),由于要对源语言和目标语言的输入进行批次化处理,而每个批次内序列的长度不一样,为了方便对批次内序列进行矩阵表示,需要进行对齐操作,即在较短的序列后面填充0来占位(padding操作)。而这些填充的位置没有意义,不参与注意力机制的计算,因此,需要进行掩码 操作,屏蔽其影响。
\vspace
{
0.5em
}
\vspace
{
0.5em
}
\item
{
\small\bfnew
{
未来信息掩码
}}
\index
{
未来信息掩码
}
(Future Mask
\index
{
Future Mask
}
)。对于解码器来说,由于在预测的时候是自左向右进行的,即第
$
t
$
时刻解码器的输出只能依赖于
$
t
$
时刻之前的输出。且为了保证训练解码一致,避免在训练过程中观测到目标语言端每个位置未来的信息,因此需要对未来信息进行屏蔽。具体的做法是:构造一个上三角值全为-inf的Mask矩阵,也就是说,在解码
端
计算中,在当前位置,通过未来信息掩码把序列之后的信息屏蔽掉了,避免了
$
t
$
时刻之后的位置对当前的计算产生影响。图
\ref
{
fig:12-13
}
给出了一个具体的实例。
\item
{
\small\bfnew
{
未来信息掩码
}}
\index
{
未来信息掩码
}
(Future Mask
\index
{
Future Mask
}
)。对于解码器来说,由于在预测的时候是自左向右进行的,即第
$
t
$
时刻解码器的输出只能依赖于
$
t
$
时刻之前的输出。且为了保证训练解码一致,避免在训练过程中观测到目标语言端每个位置未来的信息,因此需要对未来信息进行屏蔽。具体的做法是:构造一个上三角值全为-inf的Mask矩阵,也就是说,在解码
器
计算中,在当前位置,通过未来信息掩码把序列之后的信息屏蔽掉了,避免了
$
t
$
时刻之后的位置对当前的计算产生影响。图
\ref
{
fig:12-13
}
给出了一个具体的实例。
%----------------------------------------------
%----------------------------------------------
% 图3.10
% 图3.10
...
@@ -471,7 +471,7 @@
...
@@ -471,7 +471,7 @@
\section
{
训练
}
\section
{
训练
}
\parinterval
与前面介绍的神经机器翻译模型的训练一样,Transformer的训练流程为:首先对模型进行初始化,然后在编码器输入包含结束符的源语言单词序列。前面已经介绍过,解码
端每个位置单词的预测都要依赖已经生成的序列。在解码端
输入包含起始符号的目标语言序列,通过起始符号预测目标语言的第一个单词,用真实的目标语言的第一个单词去预测第二个单词,以此类推,然后用真实的目标语言序列和预测的结果比较,计算它的损失。Transformer使用了交叉熵损失函数,损失越小说明模型的预测越接近真实输出。然后利用反向传播来调整模型中的参数。由于Transformer 将任意时刻输入信息之间的距离拉近为1,摒弃了RNN中每一个时刻的计算都要基于前一时刻的计算这种具有时序性的训练方式,因此Transformer中训练的不同位置可以并行化训练,大大提高了训练效率。
\parinterval
与前面介绍的神经机器翻译模型的训练一样,Transformer的训练流程为:首先对模型进行初始化,然后在编码器输入包含结束符的源语言单词序列。前面已经介绍过,解码
器每个位置单词的预测都要依赖已经生成的序列。在解码器
输入包含起始符号的目标语言序列,通过起始符号预测目标语言的第一个单词,用真实的目标语言的第一个单词去预测第二个单词,以此类推,然后用真实的目标语言序列和预测的结果比较,计算它的损失。Transformer使用了交叉熵损失函数,损失越小说明模型的预测越接近真实输出。然后利用反向传播来调整模型中的参数。由于Transformer 将任意时刻输入信息之间的距离拉近为1,摒弃了RNN中每一个时刻的计算都要基于前一时刻的计算这种具有时序性的训练方式,因此Transformer中训练的不同位置可以并行化训练,大大提高了训练效率。
%----------------------------------------------
%----------------------------------------------
%\begin{figure}[htp]
%\begin{figure}[htp]
...
@@ -593,7 +593,7 @@ Transformer Deep(48层) & 30.2 & 43.1 & 194$\times 10^
...
@@ -593,7 +593,7 @@ Transformer Deep(48层) & 30.2 & 43.1 & 194$\times 10^
\vspace
{
0.5em
}
\vspace
{
0.5em
}
\item
神经机器翻译依赖成本较高的GPU设备,因此对模型的裁剪和加速也是很多系统研发人员所感兴趣的方向。比如,从工程上,可以考虑减少运算强度,比如使用低精度浮点数
\upcite
{
Ott2018ScalingNM
}
或者整数
\upcite
{
DBLP:journals/corr/abs-1906-00532,Lin2020TowardsF8
}
进行计算,或者引入缓存机制来加速模型的推断
\upcite
{
Vaswani2018Tensor2TensorFN
}
;也可以通过对模型参数矩阵的剪枝来减小整个模型的体积
\upcite
{
DBLP:journals/corr/SeeLM16
}
;另一种方法是知识蒸馏
\upcite
{
Hinton2015Distilling,kim-rush-2016-sequence
}
。 利用大模型训练小模型,这样往往可以得到比单独训练小模型更好的效果
\upcite
{
DBLP:journals/corr/ChenLCL17
}
。
\item
神经机器翻译依赖成本较高的GPU设备,因此对模型的裁剪和加速也是很多系统研发人员所感兴趣的方向。比如,从工程上,可以考虑减少运算强度,比如使用低精度浮点数
\upcite
{
Ott2018ScalingNM
}
或者整数
\upcite
{
DBLP:journals/corr/abs-1906-00532,Lin2020TowardsF8
}
进行计算,或者引入缓存机制来加速模型的推断
\upcite
{
Vaswani2018Tensor2TensorFN
}
;也可以通过对模型参数矩阵的剪枝来减小整个模型的体积
\upcite
{
DBLP:journals/corr/SeeLM16
}
;另一种方法是知识蒸馏
\upcite
{
Hinton2015Distilling,kim-rush-2016-sequence
}
。 利用大模型训练小模型,这样往往可以得到比单独训练小模型更好的效果
\upcite
{
DBLP:journals/corr/ChenLCL17
}
。
\vspace
{
0.5em
}
\vspace
{
0.5em
}
\item
自注意力网络作为Transformer模型中重要组成部分,近年来受到研究人员的广泛关注,尝试设计更高效地操作来替代它。比如,利用动态卷积网络来替换编码
端与解码端
的自注意力网络,在保证推断效率的同时取得了和Transformer相当甚至略好的翻译性能
\upcite
{
Wu2019PayLA
}
;为了加速Transformer处理较长输入文本的效率,利用局部敏感哈希替换自注意力机制的Reformer模型也吸引了广泛的关注
\upcite
{
Kitaev2020ReformerTE
}
。此外,在自注意力网络引入额外的编码信息能够进一步提高模型的表示能力。比如,引入固定窗口大小的相对位置编码信息
\upcite
{
Shaw2018SelfAttentionWR,dai-etal-2019-transformer
}
,或利用动态系统的思想从数据中学习特定的位置编码表示,具有更好的泛化能力
\upcite
{
Liu2020LearningTE
}
。通过对Transformer模型中各层输出进行可视化分析,研究人员发现Transformer自底向上各层网络依次聚焦于词级-语法级-语义级的表示
\upcite
{
Jawahar2019WhatDB,li2020shallow
}
,因此在底层的自注意力网络中引入局部编码信息有助于模型对局部特征的抽象
\upcite
{
Yang2018ModelingLF,DBLP:journals/corr/abs-1904-03107
}
。
\item
自注意力网络作为Transformer模型中重要组成部分,近年来受到研究人员的广泛关注,尝试设计更高效地操作来替代它。比如,利用动态卷积网络来替换编码
器与解码器
的自注意力网络,在保证推断效率的同时取得了和Transformer相当甚至略好的翻译性能
\upcite
{
Wu2019PayLA
}
;为了加速Transformer处理较长输入文本的效率,利用局部敏感哈希替换自注意力机制的Reformer模型也吸引了广泛的关注
\upcite
{
Kitaev2020ReformerTE
}
。此外,在自注意力网络引入额外的编码信息能够进一步提高模型的表示能力。比如,引入固定窗口大小的相对位置编码信息
\upcite
{
Shaw2018SelfAttentionWR,dai-etal-2019-transformer
}
,或利用动态系统的思想从数据中学习特定的位置编码表示,具有更好的泛化能力
\upcite
{
Liu2020LearningTE
}
。通过对Transformer模型中各层输出进行可视化分析,研究人员发现Transformer自底向上各层网络依次聚焦于词级-语法级-语义级的表示
\upcite
{
Jawahar2019WhatDB,li2020shallow
}
,因此在底层的自注意力网络中引入局部编码信息有助于模型对局部特征的抽象
\upcite
{
Yang2018ModelingLF,DBLP:journals/corr/abs-1904-03107
}
。
\vspace
{
0.5em
}
\vspace
{
0.5em
}
\item
除了针对Transformer中子层的优化,网络各层之间的连接方式在一定程度上也能影响模型的表示能力。近年来针对网络连接优化的工作如下:在编码
端顶部利用平均池化或权重累加等融合手段得到编码端
各层的全局表示
\upcite
{
Wang2018MultilayerRF,Bapna2018TrainingDN,Dou2018ExploitingDR,Wang2019ExploitingSC
}
,利用之前各层表示来生成当前层的输入表示
\upcite
{
WangLearning,Dou2019DynamicLA,Wei2020MultiscaleCD
}
。
\item
除了针对Transformer中子层的优化,网络各层之间的连接方式在一定程度上也能影响模型的表示能力。近年来针对网络连接优化的工作如下:在编码
器顶部利用平均池化或权重累加等融合手段得到编码器
各层的全局表示
\upcite
{
Wang2018MultilayerRF,Bapna2018TrainingDN,Dou2018ExploitingDR,Wang2019ExploitingSC
}
,利用之前各层表示来生成当前层的输入表示
\upcite
{
WangLearning,Dou2019DynamicLA,Wei2020MultiscaleCD
}
。
\end{itemize}
\end{itemize}
编写
预览
Markdown
格式
0%
重试
或
添加新文件
添加附件
取消
您添加了
0
人
到此讨论。请谨慎行事。
请先完成此评论的编辑!
取消
请
注册
或者
登录
后发表评论