Skip to content
项目
群组
代码片段
帮助
当前项目
正在载入...
登录 / 注册
切换导航面板
T
Toy-MT-Introduction
概览
Overview
Details
Activity
Cycle Analytics
版本库
Repository
Files
Commits
Branches
Tags
Contributors
Graph
Compare
Charts
问题
0
Issues
0
列表
Board
标记
里程碑
合并请求
0
Merge Requests
0
CI / CD
CI / CD
流水线
作业
日程表
图表
维基
Wiki
代码片段
Snippets
成员
Collapse sidebar
Close sidebar
活动
图像
聊天
创建新问题
作业
提交
Issue Boards
Open sidebar
NiuTrans
Toy-MT-Introduction
Commits
5ab166f8
Commit
5ab166f8
authored
May 12, 2020
by
xiaotong
Browse files
Options
Browse Files
Download
Plain Diff
Merge branch 'master' of 47.105.50.196:NiuTrans/Toy-MT-Introduction
parents
8468cf3c
beb99716
显示空白字符变更
内嵌
并排
正在显示
50 个修改的文件
包含
82 行增加
和
100 行删除
+82
-100
Book/Chapter1/Figures/figure-example-NMT.tex
+0
-1
Book/Chapter1/Figures/figure-example-RBMT.tex
+0
-1
Book/Chapter1/Figures/figure-example-SMT.tex
+0
-1
Book/Chapter1/Figures/figure-required-parts-of-MT.tex
+0
-0
Book/Chapter1/chapter1.tex
+1
-1
Book/Chapter2/Figures/figure-example-of-word-segmentation-based-on-dictionary.tex
+0
-1
Book/Chapter2/Figures/figure-probability-density-function&Distribution-function.tex
+0
-1
Book/Chapter2/Figures/figure-self-information-function.tex
+0
-0
Book/Chapter4/chapter4.tex
+38
-12
Book/Chapter6/Chapter6.tex
+43
-43
Book/Chapter6/Figures/figure-a-combination-of-position-encoding-and-word-encoding.tex
+0
-1
Book/Chapter6/Figures/figure-a-working-example-of-neural-machine-translation.tex
+0
-1
Book/Chapter6/Figures/figure-attention-of-source-and-target-words.tex
+0
-1
Book/Chapter6/Figures/figure-automatic-generation-of-ancient-poems-based-on-encoder-decoder-framework.tex
+0
-1
Book/Chapter6/Figures/figure-automatically-generate-instances-of-couplets.tex
+0
-1
Book/Chapter6/Figures/figure-beam-search-process.tex
+0
-1
Book/Chapter6/Figures/figure-calculation-of-context-vector-C.tex
+0
-1
Book/Chapter6/Figures/figure-calculation-process-of-context-vector-C.tex
+0
-1
Book/Chapter6/Figures/figure-comparison-of-the-number-of-padding-in-batch.tex
+0
-1
Book/Chapter6/Figures/figure-data-parallel-process.tex
+0
-1
Book/Chapter6/Figures/figure-decode-the-word-probability-distribution-at-the-first-position.tex
+0
-1
Book/Chapter6/Figures/figure-decoding-process-based-on-greedy-method.tex
+0
-1
Book/Chapter6/Figures/figure-dependencies-between-words-in-a-recurrent-neural-network.tex
+0
-1
Book/Chapter6/Figures/figure-dependencies-between-words-of-attention.tex
+0
-1
Book/Chapter6/Figures/figure-different-regularization-methods.tex
+0
-1
Book/Chapter6/Figures/figure-double-layer-RNN.tex
+0
-1
Book/Chapter6/Figures/figure-example-of-automatic-translation-of-classical-chinese.tex
+0
-1
Book/Chapter6/Figures/figure-example-of-context-vector-calculation-process.tex
+0
-1
Book/Chapter6/Figures/figure-example-of-self-attention-mechanism-calculation.tex
+0
-1
Book/Chapter6/Figures/figure-generate-summary.tex
+0
-1
Book/Chapter6/Figures/figure-mask-instance-for-future-positions-in-transformer.tex
+0
-1
Book/Chapter6/Figures/figure-matrix-representation-of-attention-weights-between-chinese-english-sentence-pairs.tex
+0
-1
Book/Chapter6/Figures/figure-model-structure-based-on-recurrent-neural-network-translation.tex
+0
-1
Book/Chapter6/Figures/figure-multi-head-attention-model.tex
+0
-1
Book/Chapter6/Figures/figure-output-layer-structur.tex
+0
-1
Book/Chapter6/Figures/figure-point-product-attention-model.tex
+0
-1
Book/Chapter6/Figures/figure-position-of-difference-and-layer-regularization-in-the-model.tex
+0
-1
Book/Chapter6/Figures/figure-position-of-feedforward-neural-network-in-the-model.tex
+0
-1
Book/Chapter6/Figures/figure-position-of-self-attention-mechanism-in-the-model.tex
+0
-1
Book/Chapter6/Figures/figure-presentation-space.tex
+0
-0
Book/Chapter6/Figures/figure-query-model-corresponding-to-attention-mechanism.tex
+0
-1
Book/Chapter6/Figures/figure-query-model-corresponding-to-traditional-query-model-vs-attention-mechanism.tex
+0
-1
Book/Chapter6/Figures/figure-query-model-corresponding-to-traditional-query-model-vs-attention-mechanism02.tex
+0
-1
Book/Chapter6/Figures/figure-relationship-between-learning-rate-and-number-of-updates.tex
+0
-1
Book/Chapter6/Figures/figure-residual-network-structure.tex
+0
-1
Book/Chapter6/Figures/figure-structure-of-a-recurrent-network-model.tex
+0
-1
Book/Chapter6/Figures/figure-structure-of-the-network-during-transformer-training.tex
+0
-1
Book/Chapter6/Figures/figure-transformer-input-and-position-encoding.tex
+0
-1
Book/Chapter6/Figures/figure-word-embedding-structure.tex
+0
-1
Book/Chapter7/Figures/figure-underfitting-vs-overfitting.tex
+0
-1
没有找到文件。
Book/Chapter1/Figures/figure-
E
xample-NMT.tex
→
Book/Chapter1/Figures/figure-
e
xample-NMT.tex
查看文件 @
5ab166f8
\definecolor
{
ublue
}{
rgb
}{
0.152,0.250,0.545
}
\definecolor
{
ugreen
}{
rgb
}{
0,0.5,0
}
...
...
Book/Chapter1/Figures/figure-
E
xample-RBMT.tex
→
Book/Chapter1/Figures/figure-
e
xample-RBMT.tex
查看文件 @
5ab166f8
\definecolor
{
ublue
}{
rgb
}{
0.152,0.250,0.545
}
\definecolor
{
ugreen
}{
rgb
}{
0,0.5,0
}
...
...
Book/Chapter1/Figures/figure-
E
xample-SMT.tex
→
Book/Chapter1/Figures/figure-
e
xample-SMT.tex
查看文件 @
5ab166f8
\definecolor
{
ublue
}{
rgb
}{
0.152,0.250,0.545
}
\definecolor
{
ugreen
}{
rgb
}{
0,0.5,0
}
...
...
Book/Chapter1/Figures/figure-
R
equired-parts-of-MT.tex
→
Book/Chapter1/Figures/figure-
r
equired-parts-of-MT.tex
查看文件 @
5ab166f8
File moved
Book/Chapter1/chapter1.tex
查看文件 @
5ab166f8
...
...
@@ -222,7 +222,7 @@
\centering
\input
{
./Chapter1/Figures/figure-comparison-mt-ht-1
}
\end{figure}
\begin{figure}
[
htp
]
\begin{figure}
[
t
]
\centering
\input
{
./Chapter1/Figures/figure-comparison-mt-ht-2
}
\caption
{
机器翻译与人工翻译实例结果对比
}
...
...
Book/Chapter2/Figures/figure-
E
xample-of-word-segmentation-based-on-dictionary.tex
→
Book/Chapter2/Figures/figure-
e
xample-of-word-segmentation-based-on-dictionary.tex
查看文件 @
5ab166f8
\definecolor
{
ublue
}{
rgb
}{
0.152,0.250,0.545
}
\definecolor
{
ugreen
}{
rgb
}{
0,0.5,0
}
...
...
Book/Chapter2/Figures/figure-
P
robability-density-function&Distribution-function.tex
→
Book/Chapter2/Figures/figure-
p
robability-density-function&Distribution-function.tex
查看文件 @
5ab166f8
%%% outline
%-------------------------------------------------------------------------
\begin{tikzpicture}
...
...
Book/Chapter2/Figures/figure-
S
elf-information-function.tex
→
Book/Chapter2/Figures/figure-
s
elf-information-function.tex
查看文件 @
5ab166f8
File moved
Book/Chapter4/chapter4.tex
查看文件 @
5ab166f8
...
...
@@ -1204,7 +1204,7 @@ h_i (d,\textbf{t},\textbf{s})=\sum_{r \in d}h_i (r)
\label
{
eq:4-27
}
\end{eqnarray}
\
parinterval
其中:
\
noindent
其中:
\begin{itemize}
\vspace
{
0.5em
}
...
...
@@ -1430,12 +1430,12 @@ span\textrm{[0,4]}&=&\textrm{``猫} \quad \textrm{喜欢} \quad \textrm{吃} \qu
\parinterval
可以说基于句法的翻译模型贯穿了现代统计机器翻译的发展历程。从概念上讲,不管是层次短语模型,还是语言学句法模型都是基于句法的模型。基于句法的机器翻译模型种类繁多,这里先对相关概念进行简要介绍,以避免后续论述中产生歧义。表
\ref
{
tab:4-2
}
给出了基于句法的机器翻译中涉及的一些概念。
%----------------------------------------------
\begin{table}
[h
t
p]
{
\begin{table}
[h
b
p]
{
\begin{center}
\caption
{
基于句法的机器翻译中常用概念
}
\label
{
tab:4-2
}
{
\begin{tabular}
{
l
| l
}
\begin{tabular}
{
p
{
6.5em
}
| l
}
术语
&
说明
\\
\hline
\rule
{
0pt
}{
15pt
}
翻译规则
&
翻译的最小单元(或步骤)
\\
...
...
@@ -1454,6 +1454,18 @@ span\textrm{[0,4]}&=&\textrm{``猫} \quad \textrm{喜欢} \quad \textrm{吃} \qu
\rule
{
0pt
}{
15pt
}
基于树
&
(源语言)使用树结构(大多指句法树)
\\
\rule
{
0pt
}{
15pt
}
基于串
&
(源语言)使用词串,比如串到树翻译系统的解码器一般
\\
&
都是基于串的解码方法
\\
\end{tabular}
}
\end{center}
}
\end{table}
\vspace
{
3em
}
\begin{table}
[htp]
{
\begin{center}
\vspace
{
1em
}
{
\begin{tabular}
{
p
{
6.5em
}
| l
}
术语
&
说明
\\
\hline
\rule
{
0pt
}{
15pt
}
基于森林
&
(源语言)使用句法森林,这里森林只是对多个句法树的一
\\
&
种压缩表示
\\
\rule
{
0pt
}{
15pt
}
词汇化规则
&
含有终结符的规则
\\
...
...
@@ -1626,7 +1638,7 @@ r_9: \quad \textrm{IP(}\textrm{NN}_1\ \textrm{VP}_2) \rightarrow \textrm{S(}\tex
\end{eqnarray}
}
\
parinterval
可以得到一个翻译推导:
\
noindent
可以得到一个翻译推导:
{
\footnotesize
\begin{eqnarray}
&&
\langle\ \textrm
{
IP
}^{
[1]
}
,
\ \textrm
{
S
}^{
[1]
}
\ \rangle
\nonumber
\\
...
...
@@ -1638,14 +1650,16 @@ r_9: \quad \textrm{IP(}\textrm{NN}_1\ \textrm{VP}_2) \rightarrow \textrm{S(}\tex
&
&
\ \ \textrm
{
S(NP(DT(the) NNS(imports))
}
\ \textrm
{
VP(VBP
}^{
[6]
}
\ \textrm
{
ADVP(RB(drastically)
}
\ \textrm
{
VBN
}^{
[5]
}
)))
\ \rangle
\nonumber
\\
&
\xrightarrow
[r_4]
{
\textrm
{
VV
}^{
[5]
}
\Leftrightarrow
\textrm
{
VBN
}^{
[5]
}}
&
\langle\ \textrm
{
IP(NN(进口)
}
\ \textrm
{
VP(AD(大幅度)
}
\ \textrm
{
VP(VV(减少)
}
\ \textrm
{
AS
}^{
[6]
}
))),
\hspace
{
10em
}
\nonumber
\\
&
&
\ \ \textrm
{
S(NP(DT(the) NNS(imports))
}
\ \textrm
{
VP(VBP
}^{
[6]
}
\ \nonumber
\\
&
&
\ \ \textrm
{
ADVP(RB(drastically)
}
\ \textrm
{
VBN(fallen)
}
)))
\ \rangle
\nonumber
\\
&
&
\ \ \textrm
{
ADVP(RB(drastically)
}
\ \textrm
{
VBN(fallen)
}
)))
\ \rangle
\nonumber
\end{eqnarray}
\begin{eqnarray}
&
\xrightarrow
[r_6]
{
\textrm
{
AS
}^{
[6]
}
\Leftrightarrow
\textrm
{
VBP
}^{
[6]
}}
&
\langle\ \textrm
{
IP(NN(进口)
}
\ \textrm
{
VP(AD(大幅度)
}
\ \textrm
{
VP(VV(减少)
}
\ \textrm
{
AS(了)
}
))),
\nonumber
\\
&
&
\ \ \textrm
{
S(NP(DT(the) NNS(imports))
}
\ \textrm
{
VP(VBP(have)
}
\ \nonumber
\\
&
&
\ \ \textrm
{
ADVP(RB(drastically)
}
\ \textrm
{
VBN(fallen)
}
)))
\ \rangle
\hspace
{
15em
}
\nonumber
\end{eqnarray}
}
\
parinterval
其中,箭头
$
\rightarrow
$
表示推导之意。显然,可以把翻译看作是基于树结构的推导过程(记为
$
d
$
)。因此,与层次短语模型一样,基于语言学句法的机器翻译也是要找到最佳的推导
$
\hat
{
d
}
=
\arg\max\textrm
{
P
}
(
d
)
$
。
\
noindent
其中,箭头
$
\rightarrow
$
表示推导之意。显然,可以把翻译看作是基于树结构的推导过程(记为
$
d
$
)。因此,与层次短语模型一样,基于语言学句法的机器翻译也是要找到最佳的推导
$
\hat
{
d
}
=
\arg\max\textrm
{
P
}
(
d
)
$
。
%----------------------------------------------------------------------------------------
% NEW SUBSUB-SECTION
...
...
@@ -1664,7 +1678,7 @@ r_9: \quad \textrm{IP(}\textrm{NN}_1\ \textrm{VP}_2) \rightarrow \textrm{S(}\tex
\end{figure}
%-------------------------------------------
\
parinterval
其中,源语言树片段中的叶子结点NN表示变量,它与右手端的变量NN对应。这里仍然可以使用基于树结构的规则对上面这个树到串的映射进行表示。参照规则形式
$
\langle\ \alpha
_
h,
\beta
_
h
\ \rangle
\to
\langle\ \alpha
_
r,
\beta
_
r,
\sim\ \rangle
$
,有:
\
noindent
其中,源语言树片段中的叶子结点NN表示变量,它与右手端的变量NN对应。这里仍然可以使用基于树结构的规则对上面这个树到串的映射进行表示。参照规则形式
$
\langle\ \alpha
_
h,
\beta
_
h
\ \rangle
\to
\langle\ \alpha
_
r,
\beta
_
r,
\sim\ \rangle
$
,有:
\begin{eqnarray}
\alpha
_
h
&
=
&
\textrm
{
VP
}
\nonumber
\\
\beta
_
h
&
=
&
\textrm
{
VP
}
\
(=
\alpha
_
h)
\nonumber
\\
...
...
@@ -1800,7 +1814,7 @@ r_9: \quad \textrm{IP(}\textrm{NN}_1\ \textrm{VP}_2) \rightarrow \textrm{S(}\tex
\textrm
{
VP(PP(P(对)
}
\ \textrm
{
NP(NN(回答)))
}
\ \textrm
{
VP
}_
1)
\rightarrow
\textrm
{
VP
}_
1
\ \textrm
{
with
}
\ \textrm
{
the
}
\ \textrm
{
answer
}
\nonumber
\end{eqnarray}
\
parinterval
其中,蓝色部分表示可以抽取到的规则,显然它的根节点和叶子非终结符节点都是可信节点。由于源语言树片段中包含一个变量(VP),因此需要对VP节点的Span所表示的目标语言范围进行泛化(红色方框部分)。
\
noindent
其中,蓝色部分表示可以抽取到的规则,显然它的根节点和叶子非终结符节点都是可信节点。由于源语言树片段中包含一个变量(VP),因此需要对VP节点的Span所表示的目标语言范围进行泛化(红色方框部分)。
%----------------------------------------------
\begin{figure}
[htp]
...
...
@@ -1985,7 +1999,7 @@ r_9: \quad \textrm{IP(}\textrm{NN}_1\ \textrm{VP}_2) \rightarrow \textrm{S(}\tex
\textrm
{
VP(
}
\textrm
{
PP
}_
1
\ \textrm
{
VP(VV(表示)
}
\ \textrm
{
NN
}_
2
\textrm
{
))
}
\rightarrow
\textrm
{
VP(VBZ(was)
}
\ \textrm
{
VP(
}
\textrm
{
VBN
}_
2
\ \textrm
{
PP
}_
1
\textrm
{
))
}
\nonumber
\end{eqnarray}
\
parinterval
其中,规则的左部是源语言句法树结构,右部是目标语言句法树结构,变量的下标表示对应关系。为了获取这样的规则,需要进行树到树规则抽取。最直接的办法是把GHKM方法推广到树到树翻译的情况。比如,可以利用双语结构的约束和词对齐,定义树的切割点,之后找到两种语言树结构的映射关系
\cite
{
liu2009improving
}
。
\
noindent
其中,规则的左部是源语言句法树结构,右部是目标语言句法树结构,变量的下标表示对应关系。为了获取这样的规则,需要进行树到树规则抽取。最直接的办法是把GHKM方法推广到树到树翻译的情况。比如,可以利用双语结构的约束和词对齐,定义树的切割点,之后找到两种语言树结构的映射关系
\cite
{
liu2009improving
}
。
%----------------------------------------------------------------------------------------
% NEW SUBSUB-SECTION
...
...
@@ -2007,7 +2021,7 @@ r_9: \quad \textrm{IP(}\textrm{NN}_1\ \textrm{VP}_2) \rightarrow \textrm{S(}\tex
\parinterval
换一个角度来看,词对齐实际上只是帮助模型找到两种语言句法树中节点的对应关系。如果能够直接得到句法树节点的对应,就可以避免掉词对齐的错误。也就是,可以直接使用节点对齐来进行树到树规则的抽取。首先,利用外部的节点对齐工具获得两棵句法树节点之间的对齐关系。之后,将每个对齐的节点看作是树片段的根节点,再进行规则抽取。图
\ref
{
fig:4-62
}
展示了基于节点对齐的规则抽取结果。
%----------------------------------------------
\begin{figure}
[ht
p
]
\begin{figure}
[ht
b
]
\centering
\input
{
./Chapter4/Figures/tree-to-tree-rule-extraction-base-node-alignment
}
\caption
{
基于节点对齐的树到树规则抽取
}
...
...
@@ -2205,12 +2219,24 @@ d_1 = {d'} \circ {r_5}
\caption
{
基于串的解码 vs 基于树的解码
}
\label
{
tab:4-4
}
{
\begin{tabular}
{
l |
l
l
}
\begin{tabular}
{
l |
p
{
16.5em
}
l
}
对比
&
基于树的解码
&
基于串的解码
\\
\hline
\rule
{
0pt
}{
15pt
}
解码方法
&
$
\hat
{
d
}
=
\arg\max
_{
d
\in
D
_{
\textrm
{
tree
}}}
\textrm
{
score
}
(
d
)
$
&
$
\hat
{
d
}
=
\arg\max
_{
d
\in
D
}
\textrm
{
score
}
(
d
)
$
\\
\rule
{
0pt
}{
15pt
}
搜索空间
&
与输入的源语句法树兼容的推导
$
D
_{
\textrm
{
tree
}}$
&
所有的推导
$
D
$
\\
\rule
{
0pt
}{
15pt
}
适用模型
&
树到串、树到树
&
所有的句法模型
\\
\rule
{
0pt
}{
15pt
}
适用模型
&
树到串、树到树
&
所有的句法模型
\end{tabular}
}
\end{center}
}
\end{table}
\begin{table}
[htp]
{
\begin{center}
\vspace
{
1em
}
{
\begin{tabular}
{
l | p
{
16.5em
}
l
}
对比
&
基于树的解码
&
基于串的解码
\\
\hline
\rule
{
0pt
}{
15pt
}
解码算法
&
Chart解码
&
CKY + 规则二叉化
\\
\rule
{
0pt
}{
15pt
}
速度
&
快
&
一般较慢
\end{tabular}
...
...
Book/Chapter6/Chapter6.tex
查看文件 @
5ab166f8
...
...
@@ -64,25 +64,25 @@
\parinterval
从广义上讲,神经机器翻译是一种基于人工神经网络的方法,它把翻译过程描述为可以用人工神经网络表示的函数。所有的训练和推断都在这些函数上进行。由于神经机器翻译中的神经网络可以用连续可微函数表示,因此这类方法也可以用基于梯度的方法进行优化,相关技术非常成熟。更为重要的是,在神经网络的设计中,研究者引入了
{
\small\bfnew
{
分布式表示
}}
\index
{
分布式表示
}
(Distributed Representation)
\index
{
Distributed Representation
}
的概念,这也是近些年自然语言处理领域的重要成果之一。传统统计机器翻译仍然把词序列看作离散空间里的由多个特征函数描述的点,类似于
$
n
$
-gram语言模型,这类模型对数据稀疏问题非常敏感。此外,人工设计特征也在一定程度上限制了模型对问题的表示能力。神经机器翻译把文字序列表示为实数向量,一方面避免了特征工程繁重的工作,另一方面使得系统可以对文字序列的``表示''进行学习。可以说,神经机器翻译的成功很大程度上源自`` 表示学习''这种自然语言处理的新范式的出现。在表示学习的基础上,注意力机制、深度神经网络等技术都被应用于神经机器翻译,使其得以进一步发展。
\parinterval
虽然神经机器翻译中大量的使用了人工神经网络方法,但是它并不是最早在机器翻译中使用人工神经网络的框架。实际上,人工神经网络在机器翻译中应用的历史要远早于现在的神经机器翻译。 在统计机器翻译时代,也有很多研究者利用人工神经网络进行机器翻译系统模块的构建
\
upcite
{
devlin-etal-2014-fast
}
\upcite
{
Schwenk
_
continuousspace
}
,比如,Jacob Devlin等人就成功地在统计机器翻译系统中使用了基于神经网络的联合表示模型,取得了令人振奋的结果,这项工作也获得了ACL2014的最佳论文奖(best paper award)。
\parinterval
虽然神经机器翻译中大量的使用了人工神经网络方法,但是它并不是最早在机器翻译中使用人工神经网络的框架。实际上,人工神经网络在机器翻译中应用的历史要远早于现在的神经机器翻译。 在统计机器翻译时代,也有很多研究者利用人工神经网络进行机器翻译系统模块的构建
\
cite
{
devlin-etal-2014-fast,
Schwenk
_
continuousspace
}
,比如,Jacob Devlin等人就成功地在统计机器翻译系统中使用了基于神经网络的联合表示模型,取得了令人振奋的结果,这项工作也获得了ACL2014的最佳论文奖(best paper award)。
\parinterval
不过,以上这些工作大多都是在系统的局部模块中使用人工神经网络和深度学习方法。与之不同的是,神经机器翻译是用人工神经网络完成整个翻译过程的建模,这样做的一个好处是,整个系统可以进行端到端学习,无需引入对任何翻译的隐含结构假设。这种利用端到端学习对机器翻译进行神经网络建模的方式也就成为了现在大家所熟知的神经机器翻译。这里简单列出部分代表性的工作:
\begin{itemize}
\vspace
{
0.5em
}
\item
早在2013年,牛津大学的Nal Kalchbrenner和Phil Blunsom提出了一个基于编码器-解码器结构的新模型
\
upcite
{
kalchbrenner-blunsom-2013-recurrent
}
。该模型用卷积神经网络(CNN)将源语言编码成实数向量,之后用循环神经网络(RNN)将连续向量转换成目标语言。这使得模型不需要进行词对齐、特征提取等工作,就能够自动学习源语言的信息。这也是一种端到端学习的方法。不过,这项工作的实现较复杂,而且方法存在梯度消失/爆炸等问题
\upcite
{
HochreiterThe
}
\upcite
{
BENGIO1994Learning
}
,因此并没有成为后来神经机器翻译的基础框架。
\item
早在2013年,牛津大学的Nal Kalchbrenner和Phil Blunsom提出了一个基于编码器-解码器结构的新模型
\
cite
{
kalchbrenner-blunsom-2013-recurrent
}
。该模型用卷积神经网络(CNN)将源语言编码成实数向量,之后用循环神经网络(RNN)将连续向量转换成目标语言。这使得模型不需要进行词对齐、特征提取等工作,就能够自动学习源语言的信息。这也是一种端到端学习的方法。不过,这项工作的实现较复杂,而且方法存在梯度消失/爆炸等问题
\cite
{
HochreiterThe,
BENGIO1994Learning
}
,因此并没有成为后来神经机器翻译的基础框架。
\vspace
{
0.5em
}
\item
2014年,谷歌的Ilya Sutskever等人提出了序列到序列(seq2seq)学习的方法,同时将长短记忆结构(LSTM)引入到神经机器翻译中,这个方法解决了梯度爆炸/消失的问题,并且通过遗忘门的设计让网络选择性的记忆信息,缓解了序列中长距离依赖的问题
\
up
cite
{
NIPS2014
_
5346
}
。但是该模型在进行编码的过程中,将不同长度的源语言句子压缩成了一个固定长度的向量,句子越长,损失的信息越多,同时该模型无法对输入和输出序列之间的对齐进行建模,因此并不能有效的保证翻译质量。
\item
2014年,谷歌的Ilya Sutskever等人提出了序列到序列(seq2seq)学习的方法,同时将长短记忆结构(LSTM)引入到神经机器翻译中,这个方法解决了梯度爆炸/消失的问题,并且通过遗忘门的设计让网络选择性的记忆信息,缓解了序列中长距离依赖的问题
\cite
{
NIPS2014
_
5346
}
。但是该模型在进行编码的过程中,将不同长度的源语言句子压缩成了一个固定长度的向量,句子越长,损失的信息越多,同时该模型无法对输入和输出序列之间的对齐进行建模,因此并不能有效的保证翻译质量。
\vspace
{
0.5em
}
\item
同年Dzmitry Bahdanau等人首次将注意力机制(Attention Mechanism)应用到机器翻译领域,在机器翻译任务上对翻译和局部翻译单元之间的对应关系同时建模
\
up
cite
{
bahdanau2014neural
}
。Bahdanau等人工作的意义在于,使用了更加有效的模型来表示源语言的信息,同时使用注意力机制对两种语言不同部分之间的相互联系进行建模。这种方法可以有效的处理长句子的翻译,而且注意力的中间结果具有一定的可解释性
\footnote
{
比如,目标语言和源语言句子不同单词之间的注意力强度能够在一定程度上反应单词之间的互译程度。
}
。然而相比于前人的神经机器翻译模型,注意力模型也引入了额外的成本,计算量较大。
\item
同年Dzmitry Bahdanau等人首次将注意力机制(Attention Mechanism)应用到机器翻译领域,在机器翻译任务上对翻译和局部翻译单元之间的对应关系同时建模
\cite
{
bahdanau2014neural
}
。Bahdanau等人工作的意义在于,使用了更加有效的模型来表示源语言的信息,同时使用注意力机制对两种语言不同部分之间的相互联系进行建模。这种方法可以有效的处理长句子的翻译,而且注意力的中间结果具有一定的可解释性
\footnote
{
比如,目标语言和源语言句子不同单词之间的注意力强度能够在一定程度上反应单词之间的互译程度。
}
。然而相比于前人的神经机器翻译模型,注意力模型也引入了额外的成本,计算量较大。
\vspace
{
0.5em
}
\item
2016年谷歌发布了基于多层循环神经网络方法的GNMT系统。该系统集成了当时的神经机器翻译技术,并进行了诸多的改进。它的性能显著优于基于短语的机器翻译系统
\
upcite
{
Wu2016GooglesNM
}
,引起了研究者的广泛关注。在之后不到一年的时间里,Facebook采用卷积神经网络(CNN)研发了新的神经机器翻译系统
\up
cite
{
DBLP:journals/corr/GehringAGYD17
}
,实现了比基于循环神经网络(RNN)系统更好的翻译水平,并获得了明显的加速。
\item
2016年谷歌发布了基于多层循环神经网络方法的GNMT系统。该系统集成了当时的神经机器翻译技术,并进行了诸多的改进。它的性能显著优于基于短语的机器翻译系统
\
cite
{
Wu2016GooglesNM
}
,引起了研究者的广泛关注。在之后不到一年的时间里,Facebook采用卷积神经网络(CNN)研发了新的神经机器翻译系统
\
cite
{
DBLP:journals/corr/GehringAGYD17
}
,实现了比基于循环神经网络(RNN)系统更好的翻译水平,并获得了明显的加速。
\vspace
{
0.5em
}
\item
2017年,谷歌的Ashish Vaswani等人提出了新的翻译模型Transformer。其完全抛弃了CNN、RNN等结构,仅仅通过自注意力机制(self-attentiion)和前向神经网络,不需要使用序列对齐的循环框架就展示出强大的性能,并且巧妙的解决了翻译中长距离依赖问题
\
up
cite
{
NIPS2017
_
7181
}
。Transformer是第一个完全基于注意力机制搭建的模型,不仅训练速度更快,在翻译任务上也获得了更好的结果,一跃成为目前最主流的神经机器翻译框架。
\item
2017年,谷歌的Ashish Vaswani等人提出了新的翻译模型Transformer。其完全抛弃了CNN、RNN等结构,仅仅通过自注意力机制(self-attentiion)和前向神经网络,不需要使用序列对齐的循环框架就展示出强大的性能,并且巧妙的解决了翻译中长距离依赖问题
\cite
{
NIPS2017
_
7181
}
。Transformer是第一个完全基于注意力机制搭建的模型,不仅训练速度更快,在翻译任务上也获得了更好的结果,一跃成为目前最主流的神经机器翻译框架。
\vspace
{
0.5em
}
\end{itemize}
\parinterval
神经机器翻译的工作远不止以上这些内容,实际上全面介绍所有神经机器翻译的方法也是非常有挑战的工作。感兴趣的读者可以参考一篇关于神经机器翻译的综述文章
\ \dash\
Neural Machine Translation: A Review
\
up
cite
{
StahlbergNeural
}
。本章会对神经机器翻译的典型方法进行细致的介绍。
\parinterval
神经机器翻译的工作远不止以上这些内容,实际上全面介绍所有神经机器翻译的方法也是非常有挑战的工作。感兴趣的读者可以参考一篇关于神经机器翻译的综述文章
\ \dash\
Neural Machine Translation: A Review
\cite
{
StahlbergNeural
}
。本章会对神经机器翻译的典型方法进行细致的介绍。
%----------------------------------------------------------------------------------------
% NEW SUB-SECTION
...
...
@@ -125,12 +125,12 @@
\end{figure}
%----------------------------------------------
\parinterval
除了上面例子中展示的流畅度和准确度外,神经机器翻译在其他评价指标上的表现也全面超越统计机器翻译
\
up
cite
{
Bentivogli2016NeuralVP
}
。比如,在IWSLT 2015英语-德语任务中,与三个最先进的统计机器翻译系统(PBSY、HPB、SPB)相比,神经机器翻译系统的mTER得分在不同长度句子上都有明显的下降,如图
\ref
{
fig:6-4
}
\footnote
{
mTER是一种错误率度量,值越低表明译文越好。
}
。其次,神经机器翻译的单词形态错误率和单词词义错误率都远低于统计机器翻译系统(表
\ref
{
tab:6-1
}
)。
\parinterval
除了上面例子中展示的流畅度和准确度外,神经机器翻译在其他评价指标上的表现也全面超越统计机器翻译
\cite
{
Bentivogli2016NeuralVP
}
。比如,在IWSLT 2015英语-德语任务中,与三个最先进的统计机器翻译系统(PBSY、HPB、SPB)相比,神经机器翻译系统的mTER得分在不同长度句子上都有明显的下降,如图
\ref
{
fig:6-4
}
\footnote
{
mTER是一种错误率度量,值越低表明译文越好。
}
。其次,神经机器翻译的单词形态错误率和单词词义错误率都远低于统计机器翻译系统(表
\ref
{
tab:6-1
}
)。
%----------------------------------------------
\begin{table}
[htp]
\centering
\caption
{
NMT与SMT系统的译文错误率
\
up
cite
{
Bentivogli2016NeuralVP
}}
\caption
{
NMT与SMT系统的译文错误率
\cite
{
Bentivogli2016NeuralVP
}}
\label
{
tab:6-1
}
\begin{tabular}
{
r|llc
}
system
&
word
&
lemma
&
\%
Δ
\\
\hline
...
...
@@ -142,12 +142,12 @@ NMT & $ 21.7^{\ast}$ & $18.7^{\ast}$ & -1
\end{table}
%----------------------------------------------
\parinterval
更振奋人心的是,神经机器翻译在某些任务上的结果已经相当惊艳,比如在汉英新闻翻译任务中,神经机器翻译就取得了至少和专业翻译人员相媲美的效果
\
up
cite
{
Hassan2018AchievingHP
}
。在该任务中,神经机器系统(Combo-4、Combo-5 和 Combo-6)的人工评价得分与Reference-HT(专业翻译人员翻译)的得分无显著差别,且远超Reference-WMT(WMT的参考译文,也是由人类翻译)得分(表
\ref
{
tab:6-2
}
)。
\parinterval
更振奋人心的是,神经机器翻译在某些任务上的结果已经相当惊艳,比如在汉英新闻翻译任务中,神经机器翻译就取得了至少和专业翻译人员相媲美的效果
\cite
{
Hassan2018AchievingHP
}
。在该任务中,神经机器系统(Combo-4、Combo-5 和 Combo-6)的人工评价得分与Reference-HT(专业翻译人员翻译)的得分无显著差别,且远超Reference-WMT(WMT的参考译文,也是由人类翻译)得分(表
\ref
{
tab:6-2
}
)。
%----------------------------------------------
\begin{table}
[htp]
\centering
\caption
{
不同机器翻译系统人类评价结果
\
up
cite
{
Hassan2018AchievingHP
}}
\caption
{
不同机器翻译系统人类评价结果
\cite
{
Hassan2018AchievingHP
}}
\label
{
tab:6-2
}
\begin{tabular}
{
l | l l
}
\#
&
\begin{tabular}
[c]
{
@
{}
l@
{}}
Ave
\%\\
(平均原始分数)
\end{tabular}
&
System
\\
\hline
...
...
@@ -160,12 +160,12 @@ NMT & $ 21.7^{\ast}$ & $18.7^{\ast}$ & -1
\end{table}
%----------------------------------------------
\parinterval
在最近两年,神经机器翻译的发展更加迅速,新的模型、方法层出不穷。表
\ref
{
tab:6-3
}
给出了2019年一些主流的神经机器翻译模型的对比
\
up
cite
{
WangLearning
}
。可以看到,相比2017年,2018-2019年中机器翻译仍然有明显的进步。
\parinterval
在最近两年,神经机器翻译的发展更加迅速,新的模型、方法层出不穷。表
\ref
{
tab:6-3
}
给出了2019年一些主流的神经机器翻译模型的对比
\cite
{
WangLearning
}
。可以看到,相比2017年,2018-2019年中机器翻译仍然有明显的进步。
%----------------------------------------------
\begin{table}
[htp]
\centering
\caption
{
WMT14英德数据集上不同神经机器翻译系统的表现
\
up
cite
{
WangLearning
}}
\caption
{
WMT14英德数据集上不同神经机器翻译系统的表现
\cite
{
WangLearning
}}
\label
{
tab:6-3
}
\begin{tabular}
{
l | l l l
}
模型
&
作者
&
年份
&
BLEU
\\
\hline
...
...
@@ -253,7 +253,7 @@ NMT & $ 21.7^{\ast}$ & $18.7^{\ast}$ & -1
\parinterval
在源语言句子的表示形式确定之后,需要设计相应的编码器和解码器结构。在大多数情况下,神经机器翻译系统中的编码器由词嵌入层和中间网络层组成。当输入一串单词序列时,词嵌入层会将以一维空间表示的离散的单词映射到连续的多维表示空间,这个过程也被称为词嵌入。之后中间层会对词嵌入向量进行更深层的抽象,得到输入单词序列的中间表示。中间层的实现方式有很多,比如:循环神经网络、卷积神经网络、Transformer等模型都是常用的结构。解码器的结构基本上和编码器是一致的,只不过多了输出层,用于输出每个目标语位置的单词生成概率。
\parinterval
现在,编码器-解码器框架已经成为了神经机器翻译系统的标准架构。当然,也有一些研究工作在探索编码器-解码器框架之外的结构
\
up
cite
{
Li2020NeuralMT
}
,但是还没有太多颠覆性的进展。因此,本章仍然以编码器-解码器框架为基础对相关模型和方法进行介绍。
\parinterval
现在,编码器-解码器框架已经成为了神经机器翻译系统的标准架构。当然,也有一些研究工作在探索编码器-解码器框架之外的结构
\cite
{
Li2020NeuralMT
}
,但是还没有太多颠覆性的进展。因此,本章仍然以编码器-解码器框架为基础对相关模型和方法进行介绍。
%----------------------------------------------------------------------------------------
% NEW SUB-SECTION
...
...
@@ -363,7 +363,7 @@ NMT & $ 21.7^{\ast}$ & $18.7^{\ast}$ & -1
\end{table}
%----------------------------------------------
\parinterval
可以说循环神经网络和注意力机制构成了当时神经机器翻译的标准框架。比较有代表性的工作是谷歌公司于2016年上线的谷歌神经机器翻译系统(GNMT),它是由多层循环神经网络(长短时记忆模型)以及注意力机制搭建,且在当时来看性能很强劲的翻译模型
\
up
cite
{
Wu2016GooglesNM
}
。这项工作也引起了广泛的关注(图
\ref
{
fig:6-8
}
),甚至可以被看作是神经机器翻译进入飞速发展时期的一个重要的标志。在GNMT推出后,很多企业也推出了基于循环神经网络的神经机器翻译系统,出现了百花齐放的局面。
\parinterval
可以说循环神经网络和注意力机制构成了当时神经机器翻译的标准框架。比较有代表性的工作是谷歌公司于2016年上线的谷歌神经机器翻译系统(GNMT),它是由多层循环神经网络(长短时记忆模型)以及注意力机制搭建,且在当时来看性能很强劲的翻译模型
\cite
{
Wu2016GooglesNM
}
。这项工作也引起了广泛的关注(图
\ref
{
fig:6-8
}
),甚至可以被看作是神经机器翻译进入飞速发展时期的一个重要的标志。在GNMT推出后,很多企业也推出了基于循环神经网络的神经机器翻译系统,出现了百花齐放的局面。
%----------------------------------------------
\begin{figure}
[htp]
...
...
@@ -492,7 +492,7 @@ $\textrm{P}({y_j | \mathbf{s}_{j-1} ,y_{j-1},\mathbf{C}})$由Softmax实现,Sof
%----------------------------------------------
\begin{figure}
[htp]
\centering
\input
{
./Chapter6/Figures/figure-
W
ord-embedding-structure
}
\input
{
./Chapter6/Figures/figure-
w
ord-embedding-structure
}
\caption
{
词嵌入的生成过程
}
\label
{
fig:6-12
}
\end{figure}
...
...
@@ -591,7 +591,7 @@ $\textrm{P}({y_j | \mathbf{s}_{j-1} ,y_{j-1},\mathbf{C}})$由Softmax实现,Sof
\subsubsection
{
长短时记忆网络(LSTM)
}
\label
{
sec:6.3.3.2
}
\parinterval
RNN结构使得当前时刻循环单元的状态包含了之前时间步的状态信息。但是这种对历史信息的记忆并不是无损的,随着序列变长,RNN的记忆信息的损失越来越严重。在很多长序列处理任务中(如长文本生成)都观测到了类似现象。对于这个问题,Hochreiter和Schmidhuber提出了
{
\small\bfnew
{
长短时记忆
}}
\index
{
长短时记忆
}
(Long Short-term Memory)
\index
{
Long Short-Term Memory
}
模型,也就是常说的LSTM模型
\
up
cite
{
HochreiterLong
}
。
\parinterval
RNN结构使得当前时刻循环单元的状态包含了之前时间步的状态信息。但是这种对历史信息的记忆并不是无损的,随着序列变长,RNN的记忆信息的损失越来越严重。在很多长序列处理任务中(如长文本生成)都观测到了类似现象。对于这个问题,Hochreiter和Schmidhuber提出了
{
\small\bfnew
{
长短时记忆
}}
\index
{
长短时记忆
}
(Long Short-term Memory)
\index
{
Long Short-Term Memory
}
模型,也就是常说的LSTM模型
\cite
{
HochreiterLong
}
。
\parinterval
LSTM模型是RNN模型的一种改进。相比RNN仅传递前一时刻的状态
$
\mathbf
{
h
}_{
t
-
1
}$
,LSTM会同时传递两部分信息:状态信息
$
\mathbf
{
h
}_{
t
-
1
}$
和记忆信息
$
\mathbf
{
c
}_{
t
-
1
}$
。这里,
$
\mathbf
{
c
}_{
t
-
1
}$
是新引入的变量,它也是循环单元的一部分,用于显性的记录需要记录的历史内容,
$
\mathbf
{
h
}_{
t
-
1
}$
和
$
\mathbf
{
c
}_{
t
-
1
}$
在循环单元中会相互作用。LSTM通过``门''单元来动态地选择遗忘多少以前的信息和记忆多少当前的信息。LSTM中所使用的门结构如图
\ref
{
fig:6-15
}
所示,包括遗忘门,输入门和输出门。图中
$
\sigma
$
代表Sigmoid函数,它将函数输入映射为0-1范围内的实数,用来充当门控信号。
...
...
@@ -660,7 +660,7 @@ $\textrm{P}({y_j | \mathbf{s}_{j-1} ,y_{j-1},\mathbf{C}})$由Softmax实现,Sof
\subsubsection
{
门控循环单元(GRU)
}
\parinterval
LSTM 通过门控单元控制传递状态,忘记不重要的信息,记住必要的历史信息,在长序列上取得了很好的效果,但是其进行了许多门信号的计算,较为繁琐。
{
\small\bfnew
{
门循环单元
}}
\index
{
门循环单元
}
(Gated Recurrent Unit,GRU)
\index
{
Gated Recurrent Unit,GRU
}
作为一个LSTM的变种,它继承了LSTM中利用门控单元控制信息传递的思想,并对LSTM进行了简化
\
up
cite
{
Cho2014Learning
}
。它把循环单元状态
$
\mathbf
{
h
}_
t
$
和记忆
$
\mathbf
{
c
}_
t
$
合并成一个状态
$
\mathbf
{
h
}_
t
$
,同时使用了更少的门控单元,大大提升了计算效率。
\parinterval
LSTM 通过门控单元控制传递状态,忘记不重要的信息,记住必要的历史信息,在长序列上取得了很好的效果,但是其进行了许多门信号的计算,较为繁琐。
{
\small\bfnew
{
门循环单元
}}
\index
{
门循环单元
}
(Gated Recurrent Unit,GRU)
\index
{
Gated Recurrent Unit,GRU
}
作为一个LSTM的变种,它继承了LSTM中利用门控单元控制信息传递的思想,并对LSTM进行了简化
\cite
{
Cho2014Learning
}
。它把循环单元状态
$
\mathbf
{
h
}_
t
$
和记忆
$
\mathbf
{
c
}_
t
$
合并成一个状态
$
\mathbf
{
h
}_
t
$
,同时使用了更少的门控单元,大大提升了计算效率。
\parinterval
GRU的输入和RNN是一样的,由输入
$
\mathbf
{
x
}_
t
$
和
$
t
-
1
$
时刻的状态
$
\mathbf
{
h
}_{
t
-
1
}$
组成。GRU只有两个门信号,分别是重置门和更新门。重置门
$
\mathbf
{
r
}_
t
$
用来控制前一时刻隐藏状态的记忆程度,其结构如图
\ref
{
fig:6-17
}
(a)。更新门用来更新记忆,使用一个门同时完成遗忘和记忆两种操作,其结构如图
\ref
{
fig:6-17
}
(b)。重置门和更新门的计算公式如下:
\begin{eqnarray}
...
...
@@ -788,7 +788,7 @@ $\textrm{P}({y_j | \mathbf{s}_{j-1} ,y_{j-1},\mathbf{C}})$由Softmax实现,Sof
\end{figure}
%----------------------------------------------
\parinterval
显然,以上问题的根本原因在于所使用的表示模型还比较``弱''。因此需要一个更强大的表示模型,在生成目标语单词时能够有选择的获取源语言句子中更有用的部分。更准确的说,对于要生成的目标语单词,相关性更高的源语言片段应该在源语言句子的表示中体现出来,而不是将所有的源语言单词一视同仁。在神经机器翻译中引入注意力机制正是为了达到这个目的
\
upcite
{
bahdanau2014neural
}
\upcite
{
DBLP:journals/corr/LuongPM15
}
。实际上,除了机器翻译,注意力机制也被成功地应用于图像处理、语音识别、自然语言处理的其他任务。而正是注意力机制的引入,使得包括机器翻译在内很多自然语言处理系统得到了新的飞跃。
\parinterval
显然,以上问题的根本原因在于所使用的表示模型还比较``弱''。因此需要一个更强大的表示模型,在生成目标语单词时能够有选择的获取源语言句子中更有用的部分。更准确的说,对于要生成的目标语单词,相关性更高的源语言片段应该在源语言句子的表示中体现出来,而不是将所有的源语言单词一视同仁。在神经机器翻译中引入注意力机制正是为了达到这个目的
\
cite
{
bahdanau2014neural,
DBLP:journals/corr/LuongPM15
}
。实际上,除了机器翻译,注意力机制也被成功地应用于图像处理、语音识别、自然语言处理的其他任务。而正是注意力机制的引入,使得包括机器翻译在内很多自然语言处理系统得到了新的飞跃。
\parinterval
神经机器翻译中的注意力机制并不复杂。对于每个目标语单词
$
y
_
j
$
,系统生成一个源语言表示向量
$
\mathbf
{
C
}_
j
$
与之对应,
$
\mathbf
{
C
}_
j
$
会包含生成
$
y
_
j
$
所需的源语言的信息,或者说
$
\mathbf
{
C
}_
j
$
是一种包含目标语言单词与源语言单词对应关系的源语言表示。相比用一个静态的表示
$
\mathbf
{
C
}$
,注意机制使用的是动态的表示
$
\mathbf
{
C
}_
j
$
。
$
\mathbf
{
C
}_
j
$
也被称作对于目标语位置
$
j
$
的上下文向量。图
\ref
{
fig:6-22
}
对比了未引入注意力机制和引入了注意力机制的编码器-解码器结构。可以看出,在注意力模型中,对于每一个目标单词的生成,都会额外引入一个单独的上下文向量参与运算。
...
...
@@ -1006,7 +1006,7 @@ L(\mathbf{Y},\widehat{\mathbf{Y}}) = \sum_{j=1}^n L_{\textrm{ce}}(\mathbf{y}_j,\
\vspace
{
0.5em
}
\item
网络中的其他偏置一般都初始化为0,可以有效防止加入过大或过小的偏置后使得激活函数的输出跑到``饱和区'',也就是梯度接近0的区域,防止训练一开始就无法跳出局部极小的区域。
\vspace
{
0.5em
}
\item
网络的权重矩阵
$
\mathbf
{
w
}$
一般使用Xavier参数初始化方法
\
up
cite
{
pmlr-v9-glorot10a
}
,可以有效稳定训练过程,特别是对于比较``深''的网络。令
$
d
_{
in
}$
和
$
d
_{
out
}$
分别表示
$
\mathbf
{
w
}$
的输入和输出的维度大小,则该方法的具体实现如下:
\item
网络的权重矩阵
$
\mathbf
{
w
}$
一般使用Xavier参数初始化方法
\cite
{
pmlr-v9-glorot10a
}
,可以有效稳定训练过程,特别是对于比较``深''的网络。令
$
d
_{
in
}$
和
$
d
_{
out
}$
分别表示
$
\mathbf
{
w
}$
的输入和输出的维度大小,则该方法的具体实现如下:
\begin{eqnarray}
\mathbf
{
w
}
\sim
U(-
\sqrt
{
\frac
{
6
}
{
d
_{
in
}
+ d
_{
out
}
}
}
,
\sqrt
{
\frac
{
6
}
{
d
_{
in
}
+ d
_{
out
}
}
}
)
\label
{
eq:6-32
}
...
...
@@ -1115,7 +1115,7 @@ L(\mathbf{Y},\widehat{\mathbf{Y}}) = \sum_{j=1}^n L_{\textrm{ce}}(\mathbf{y}_j,\
\begin{itemize}
\vspace
{
0.5em
}
\item
{
\small\bfnew
{
数据并行
}}
\index
{
数据并行
}
。如果一台设备能完整放下一个神经机器翻译模型,那么数据并行可以把一个大批次均匀切分成
$
n
$
个小批次,然后分发到
$
n
$
个设备上并行计算,最后把结果汇总,相当于把运算时间变为原来的
${
1
}
/
{
n
}$
,数据并行的过程如图
\ref
{
fig:6-30
}
所示。不过,需要注意的是,多设备并行需要对数据在不同设备间传输,特别是多个GPU的情况,设备间传输的带宽十分有限,设备间传输数据往往会造成额外的时间消耗
\
up
cite
{
Zhang2017Fast
}
。通常,数据并行的训练速度无法随着设备数量增加呈线性增长。不过这个问题也有很多优秀的解决方案,比如采用多个设备的异步训练,但是这些内容已经超出本章的内容,因此这里不做过多讨论。
\item
{
\small\bfnew
{
数据并行
}}
\index
{
数据并行
}
。如果一台设备能完整放下一个神经机器翻译模型,那么数据并行可以把一个大批次均匀切分成
$
n
$
个小批次,然后分发到
$
n
$
个设备上并行计算,最后把结果汇总,相当于把运算时间变为原来的
${
1
}
/
{
n
}$
,数据并行的过程如图
\ref
{
fig:6-30
}
所示。不过,需要注意的是,多设备并行需要对数据在不同设备间传输,特别是多个GPU的情况,设备间传输的带宽十分有限,设备间传输数据往往会造成额外的时间消耗
\cite
{
Zhang2017Fast
}
。通常,数据并行的训练速度无法随着设备数量增加呈线性增长。不过这个问题也有很多优秀的解决方案,比如采用多个设备的异步训练,但是这些内容已经超出本章的内容,因此这里不做过多讨论。
%----------------------------------------------
\begin{figure}
[htp]
...
...
@@ -1172,7 +1172,7 @@ L(\mathbf{Y},\widehat{\mathbf{Y}}) = \sum_{j=1}^n L_{\textrm{ce}}(\mathbf{y}_j,\
\noindent
这里,
$
\{
\hat
{
y
}_{
j
1
}
,...,
\hat
{
y
}_{
jk
}
\}
$
表示对于位置
$
j
$
翻译概率最大的
$
K
$
的单词,
$
\{
\hat
{
\mathbf
{
y
}}_{
<j
^{
\ast
}}
\}
$
表示前
$
j
-
1
$
步top-K单词组成的所有历史。
${
\hat
{
\mathbf
{
y
}}_{
<j
^{
\ast
}}}$
可以被看作是一个集合,里面每一个元素都是一个目标语单词序列,这个序列是前面生成的一系列top-K单词的某种组成。
$
\textrm
{
P
}
(
y
_
j |
\{
\hat
{
\mathbf
{
y
}}_{
<
{
j
^{
\textrm
{
*
}}}}
\}
,
\mathbf
{
x
}
)
$
表示基于
\{
$
\hat
{
\mathbf
{
y
}}_{
<j
^{
\ast
}}
$
\}
的某一条路径生成
$
y
_
j
$
的概率
\footnote
{
严格来说,P
$
(
y
_
j |
{
\hat
{
\mathbf
{
y
}}_{
<j
^{
\ast
}}
}
)
$
不是一个准确的数学表达,这里通过这种写法强调
$
y
_
j
$
是由
\{
$
\hat
{
\mathbf
{
y
}}_{
<j
^{
\ast
}}
$
\}
中的某个译文单词序列作为条件生成的。
}
。这种方法也被称为
{
\small\bfnew
{
束搜索
}}
\index
{
束搜索
}
(Beam Search)
\index
{
Beam Search
}
,意思是搜索时始终考虑一个集束内的候选。
\parinterval
不论是贪婪搜索还是束搜索都是一个自左向右的过程,也就是每个位置的处理需要等前面位置处理完才能执行。这是一种典型的
{
\small\bfnew
{
自回归模型
}}
\index
{
自回归模型
}
(Autoregressive Model)
\index
{
Autoregressive Model
}
,它通常用来描述时序上的随机过程,其中每一个时刻的结果对时序上其他部分的结果有依赖
\
upcite
{
NIPS2017
_
7181
}
。相对应的,也有
{
\small\bfnew
{
非自回归模型
}}
\index
{
非自回归模型
}
(Non-autoregressive Model)
\index
{
Non-autoregressive Model
}
,它消除了不同时刻结果之间的直接依赖
\up
cite
{
Gu2017NonAutoregressiveNM
}
。由于自回归模型是当今神经机器翻译主流的推断方法,这里仍以自回归的贪婪搜索和束搜索为基础进行讨论。
\parinterval
不论是贪婪搜索还是束搜索都是一个自左向右的过程,也就是每个位置的处理需要等前面位置处理完才能执行。这是一种典型的
{
\small\bfnew
{
自回归模型
}}
\index
{
自回归模型
}
(Autoregressive Model)
\index
{
Autoregressive Model
}
,它通常用来描述时序上的随机过程,其中每一个时刻的结果对时序上其他部分的结果有依赖
\
cite
{
NIPS2017
_
7181
}
。相对应的,也有
{
\small\bfnew
{
非自回归模型
}}
\index
{
非自回归模型
}
(Non-autoregressive Model)
\index
{
Non-autoregressive Model
}
,它消除了不同时刻结果之间的直接依赖
\
cite
{
Gu2017NonAutoregressiveNM
}
。由于自回归模型是当今神经机器翻译主流的推断方法,这里仍以自回归的贪婪搜索和束搜索为基础进行讨论。
%----------------------------------------------------------------------------------------
% NEW SUBSUB-SECTION
...
...
@@ -1242,7 +1242,7 @@ L(\mathbf{Y},\widehat{\mathbf{Y}}) = \sum_{j=1}^n L_{\textrm{ce}}(\mathbf{y}_j,\
\vspace
{
0.5em
}
\item
$
\textrm
{
P
}
(
\mathbf
{
y
}
|
\mathbf
{
x
}
)
$
的范围是[0,1],如果句子过长,那么句子的得分就是很多个小于1的数相乘,或者说取log之后很多个小于0的数相加。这也就是说,句子的得分会随着长度的增加而变小,即模型倾向于生成短句子。
\vspace
{
0.5em
}
\item
模型本身并没有考虑每个源语言单词被使用的程度,比如一个单词可能会被翻译很多``次''。这个问题在统计机器翻译中并不存在,因为所有词在翻译中必须被``覆盖''到。但是早期的神经机器翻译模型没有所谓覆盖度的概念,因此也无法保证每个单词被翻译的``程度''是合理的
\
upcite
{
li-etal-2018-simple
}
\upcite
{
TuModeling
}
。
\item
模型本身并没有考虑每个源语言单词被使用的程度,比如一个单词可能会被翻译很多``次''。这个问题在统计机器翻译中并不存在,因为所有词在翻译中必须被``覆盖''到。但是早期的神经机器翻译模型没有所谓覆盖度的概念,因此也无法保证每个单词被翻译的``程度''是合理的
\
cite
{
li-etal-2018-simple,
TuModeling
}
。
\vspace
{
0.5em
}
\end{itemize}
...
...
@@ -1274,7 +1274,7 @@ L(\mathbf{Y},\widehat{\mathbf{Y}}) = \sum_{j=1}^n L_{\textrm{ce}}(\mathbf{y}_j,\
\subsection
{
实例-GNMT
}
\parinterval
循环神经网络在机器翻译中有很多成功的应用,比如、RNNSearch
\
upcite
{
bahdanau2014neural
}
、Nematus
\upcite
{
DBLP:journals/corr/SennrichFCBHHJL17
}
等系统就被很多研究者作为实验系统。在众多基于循环神经网络的系统中,Google's Neural Machine Translation System(GNMT)系统是非常成功的一个
\up
cite
{
Wu2016GooglesNM
}
。GNMT是谷歌2016年发布的神经机器翻译系统。当时,神经机器翻译有三个弱点:训练和推理速度较慢、在翻译稀有单词上缺乏鲁棒性和有时无法完整翻译源语言句子中的所有单词。GNMT的提出有效的缓解了上述问题。
\parinterval
循环神经网络在机器翻译中有很多成功的应用,比如、RNNSearch
\
cite
{
bahdanau2014neural
}
、Nematus
\cite
{
DBLP:journals/corr/SennrichFCBHHJL17
}
等系统就被很多研究者作为实验系统。在众多基于循环神经网络的系统中,Google's Neural Machine Translation System(GNMT)系统是非常成功的一个
\
cite
{
Wu2016GooglesNM
}
。GNMT是谷歌2016年发布的神经机器翻译系统。当时,神经机器翻译有三个弱点:训练和推理速度较慢、在翻译稀有单词上缺乏鲁棒性和有时无法完整翻译源语言句子中的所有单词。GNMT的提出有效的缓解了上述问题。
\parinterval
GNMT使用了编码器-解码器结构,构建了一个8层的深度网络,每层网络均由LSTM组成,且在编码器-解码器之间使用了多层注意力连接。其结构如图
\ref
{
fig:6-35
}
,编码器只有最下面2层为双向LSTM。GNMT在束搜索中也加入了长度惩罚和覆盖度因子来确保输出高质量的翻译结果(公式
\ref
{
eq:6-41
}
)。
...
...
@@ -1292,7 +1292,7 @@ L(\mathbf{Y},\widehat{\mathbf{Y}}) = \sum_{j=1}^n L_{\textrm{ce}}(\mathbf{y}_j,\
%----------------------------------------------
\begin{table}
[htp]
\centering
\caption
{
GNMT与其他翻译模型对比
\
up
cite
{
Wu2016GooglesNM
}}
\caption
{
GNMT与其他翻译模型对比
\cite
{
Wu2016GooglesNM
}}
\label
{
tab:6-10
}
\begin{tabular}
{
l l l l
}
\multicolumn
{
1
}{
l|
}{
\multirow
{
2
}{
*
}{
\#
}}
&
\multicolumn
{
2
}{
c
}{
BLEU
}
&
\multirow
{
2
}{
*
}{
CPU decoding time
}
\\
...
...
@@ -1317,12 +1317,12 @@ L(\mathbf{Y},\widehat{\mathbf{Y}}) = \sum_{j=1}^n L_{\textrm{ce}}(\mathbf{y}_j,\
\parinterval
前面介绍的基于循环神经网络的翻译模型和注意力机制就是研究人员通过长期的实践发现的神经网络架构。除了神经机器翻译,它们也被广泛地应用于语音处理、图像处理等领域。虽然循环神经网络很强大,但是人们也发现了一些弊端。一个突出的问题是,循环神经网络每个循环单元都有向前依赖性,也就是当前时间步的处理依赖前一时间步处理的结果。这个性质可以使序列的``历史''信息不断被传递,但是也造成模型运行效率的下降。特别是对于自然语言处理任务,序列往往较长,无论是传统的RNN结构,还是更为复杂的LSTM结构,都需要很多次循环单元的处理才能够捕捉到单词之间的长距离依赖。由于需要多个循环单元的处理,距离较远的两个单词之间的信息传递变得很复杂。
\parinterval
针对这些问题,谷歌的研究人员提出了一种全新的模型
$
\ \dash\
$
Transformer
\
up
cite
{
NIPS2017
_
7181
}
。与循环神经网络等传统模型不同,Transformer模型仅仅使用一种被称作自注意力机制的模型和标准的前馈神经网络,完全不依赖任何循环单元或者卷积操作。自注意力机制的优点在于可以直接对序列中任意两个单元之间的关系进行建模,这使得长距离依赖等问题可以更好地被求解。此外,自注意力机制非常适合在GPU 上进行并行化,因此模型训练的速度更快。表
\ref
{
tab:6-11
}
对比了RNN、CNN、Transformer三种模型的时间复杂度。
\parinterval
针对这些问题,谷歌的研究人员提出了一种全新的模型
$
\ \dash\
$
Transformer
\cite
{
NIPS2017
_
7181
}
。与循环神经网络等传统模型不同,Transformer模型仅仅使用一种被称作自注意力机制的模型和标准的前馈神经网络,完全不依赖任何循环单元或者卷积操作。自注意力机制的优点在于可以直接对序列中任意两个单元之间的关系进行建模,这使得长距离依赖等问题可以更好地被求解。此外,自注意力机制非常适合在GPU 上进行并行化,因此模型训练的速度更快。表
\ref
{
tab:6-11
}
对比了RNN、CNN、Transformer三种模型的时间复杂度。
%----------------------------------------------
\begin{table}
[htp]
\centering
\caption
{
RNN、CNN、Transformer的对比
\
up
cite
{
NIPS2017
_
7181
}
(
$
n
$
表示序列长度,
$
d
$
表示隐层大小,
$
k
$
表示卷积核大小)
}
\caption
{
RNN、CNN、Transformer的对比
\cite
{
NIPS2017
_
7181
}
(
$
n
$
表示序列长度,
$
d
$
表示隐层大小,
$
k
$
表示卷积核大小)
}
\label
{
tab:6-11
}
\begin{tabular}
{
l | l l l
}
\rule
{
0pt
}{
20pt
}
Layer Type
&
\begin{tabular}
[l]
{
@
{}
l@
{}}
Complexity
\\
per Layer
\end{tabular}
&
\begin{tabular}
[l]
{
@
{}
l@
{}}
Sequential
\\
Operations
\end{tabular}
&
\begin{tabular}
[l]
{
@
{}
l@
{}}
Maximum
\\
Path Length
\end{tabular}
\\
\hline
...
...
@@ -1338,7 +1338,7 @@ L(\mathbf{Y},\widehat{\mathbf{Y}}) = \sum_{j=1}^n L_{\textrm{ce}}(\mathbf{y}_j,\
%----------------------------------------------
\begin{table}
[htp]
\centering
\caption
{
不同翻译模型性能对比
\
up
cite
{
NIPS2017
_
7181
}}
\caption
{
不同翻译模型性能对比
\cite
{
NIPS2017
_
7181
}}
\label
{
tab:6-12
}
\begin{tabular}
{
l l l l
}
\multicolumn
{
1
}{
l|
}{
\multirow
{
2
}{
*
}{
\#
}}
&
\multicolumn
{
2
}{
c
}{
BLEU
}
&
\multirow
{
2
}{
*
}{
\parbox
{
6em
}{
Training Cost (FLOPs)
}}
\\
...
...
@@ -1371,7 +1371,7 @@ L(\mathbf{Y},\widehat{\mathbf{Y}}) = \sum_{j=1}^n L_{\textrm{ce}}(\mathbf{y}_j,\
\end{figure}
%----------------------------------------------
\parinterval
那么能否摆脱这种顺序传递信息的方式,直接对不同位置单词之间的关系进行建模,即将信息传递的距离拉近为1?
{
\small\sffamily\bfseries
{
自注意力机制
}}
\index
{
自注意力机制
}
(Self-Attention)
\index
{
Self-Attention
}
的提出便有效解决了这个问题
\
up
cite
{
DBLP:journals/corr/LinFSYXZB17
}
。图
\ref
{
fig:6-37
}
给出了自注意力机制对序列进行建模的示例。对于单词
$
w
_
m
$
,自注意力机制直接建立它与前
$
m
-
1
$
个单词之间的关系。也就是说,
$
w
_
m
$
与序列中所有其他单词的距离都是1。这种方式很好地解决了长距离依赖问题,同时由于单词之间的联系都是相互独立的,因此也大大提高了模型的并行度。
\parinterval
那么能否摆脱这种顺序传递信息的方式,直接对不同位置单词之间的关系进行建模,即将信息传递的距离拉近为1?
{
\small\sffamily\bfseries
{
自注意力机制
}}
\index
{
自注意力机制
}
(Self-Attention)
\index
{
Self-Attention
}
的提出便有效解决了这个问题
\cite
{
DBLP:journals/corr/LinFSYXZB17
}
。图
\ref
{
fig:6-37
}
给出了自注意力机制对序列进行建模的示例。对于单词
$
w
_
m
$
,自注意力机制直接建立它与前
$
m
-
1
$
个单词之间的关系。也就是说,
$
w
_
m
$
与序列中所有其他单词的距离都是1。这种方式很好地解决了长距离依赖问题,同时由于单词之间的联系都是相互独立的,因此也大大提高了模型的并行度。
%----------------------------------------------
\begin{figure}
[htp]
...
...
@@ -1520,7 +1520,7 @@ L(\mathbf{Y},\widehat{\mathbf{Y}}) = \sum_{j=1}^n L_{\textrm{ce}}(\mathbf{y}_j,\
\label
{
eq:6-46
}
\end{eqnarray}
\noindent
即对于任意固定的偏移量
$
k
$
,
$
\textrm
{
PE
}
(
pos
+
k
)
$
能被表示成
$
\textrm
{
PE
}
(
pos
)
$
的线性函数,换句话说,位置编码可以表示词之间的距离。在实践中发现,位置编码对Transformer系统的性能有很大影响。对其进行改进也会带来性能的进一步提升
\
up
cite
{
Shaw2018SelfAttentionWR
}
。
\noindent
即对于任意固定的偏移量
$
k
$
,
$
\textrm
{
PE
}
(
pos
+
k
)
$
能被表示成
$
\textrm
{
PE
}
(
pos
)
$
的线性函数,换句话说,位置编码可以表示词之间的距离。在实践中发现,位置编码对Transformer系统的性能有很大影响。对其进行改进也会带来性能的进一步提升
\cite
{
Shaw2018SelfAttentionWR
}
。
%----------------------------------------------------------------------------------------
% NEW SUB-SECTION
...
...
@@ -1650,7 +1650,7 @@ L(\mathbf{Y},\widehat{\mathbf{Y}}) = \sum_{j=1}^n L_{\textrm{ce}}(\mathbf{y}_j,\
\parinterval
Transformer编码器、解码器分别由多层网络组成(通常为6层),每层网络又包含多个子层(自注意力网络、前馈神经网络)。因此Transformer实际上是一个很深的网络结构。再加上前面介绍的点乘注意力机制,包含很多线性和非线性变换;另外,注意力函数Attention(
$
\cdot
$
)的计算也涉及多层网络,整个网络的信息传递非常复杂。从反向传播的角度来看,每次回传的梯度都会经过若干步骤,容易产生梯度爆炸或者消失。
\parinterval
解决这个问题的一种办法就是使用
{
\small\sffamily\bfseries
{
残差连接
}}
\index
{
残差连接
}
\
up
cite
{
DBLP:journals/corr/HeZRS15
}
。残差连接是一种用来训练深层网络的技术,其结构如图
\ref
{
fig:6-49
}
,即在子层之前通过增加直接连接的方式,将底层信息直接传递给上层。
\parinterval
解决这个问题的一种办法就是使用
{
\small\sffamily\bfseries
{
残差连接
}}
\index
{
残差连接
}
\cite
{
DBLP:journals/corr/HeZRS15
}
。残差连接是一种用来训练深层网络的技术,其结构如图
\ref
{
fig:6-49
}
,即在子层之前通过增加直接连接的方式,将底层信息直接传递给上层。
%----------------------------------------------
\begin{figure}
[htp]
...
...
@@ -1678,7 +1678,7 @@ x_{l+1} = x_l + \digamma (x_l)
\end{figure}
%----------------------------------------------
\parinterval
在Transformer的训练过程中,由于引入了残差操作,将前面所有层的输出加到一起。这样会导致不同层(或子层)的结果之间的差异性很大,造成训练过程不稳定、训练时间较长。为了避免这种情况,在每层中加入了层正则化操作
\
up
cite
{
Ba2016LayerN
}
。层正则化的计算公式如下:
\parinterval
在Transformer的训练过程中,由于引入了残差操作,将前面所有层的输出加到一起。这样会导致不同层(或子层)的结果之间的差异性很大,造成训练过程不稳定、训练时间较长。为了避免这种情况,在每层中加入了层正则化操作
\cite
{
Ba2016LayerN
}
。层正则化的计算公式如下:
\begin{eqnarray}
\textrm
{
LN
}
(x) = g
\cdot
\frac
{
x-
\mu
}
{
\sigma
}
+ b
\label
{
eq:6-51
}
...
...
@@ -1686,7 +1686,7 @@ x_{l+1} = x_l + \digamma (x_l)
\noindent
该公式使用均值
$
\mu
$
和方差
$
\sigma
$
对样本进行平移缩放,将数据规范化为均值为0,方差为1的标准分布。
$
g
$
和
$
b
$
是可学习的参数。
\parinterval
在Transformer中经常使用的层正则化操作有两种结构,分别是
{
\small\bfnew
{
后正则化
}}
\index
{
后正则化
}
(Post-norm)
\index
{
Post-norm
}
和
{
\small\bfnew
{
前正则化
}}
\index
{
前正则化
}
(Pre-norm)
\index
{
Pre-norm
}
,结构如图
\ref
{
fig:6-51
}
所示。后正则化中先进行残差连接再进行层正则化,而前正则化则是在子层输入之前进行层正则化操作。在很多实践中已经发现,前正则化的方式更有利于信息传递,因此适合训练深层的Transformer模型
\
up
cite
{
WangLearning
}
。
\parinterval
在Transformer中经常使用的层正则化操作有两种结构,分别是
{
\small\bfnew
{
后正则化
}}
\index
{
后正则化
}
(Post-norm)
\index
{
Post-norm
}
和
{
\small\bfnew
{
前正则化
}}
\index
{
前正则化
}
(Pre-norm)
\index
{
Pre-norm
}
,结构如图
\ref
{
fig:6-51
}
所示。后正则化中先进行残差连接再进行层正则化,而前正则化则是在子层输入之前进行层正则化操作。在很多实践中已经发现,前正则化的方式更有利于信息传递,因此适合训练深层的Transformer模型
\cite
{
WangLearning
}
。
%----------------------------------------------
\begin{figure}
[htp]
...
...
@@ -1780,13 +1780,13 @@ lrate = d_{model}^{-0.5} \cdot \textrm{min} (step^{-0.5} , step \cdot warmup\_st
\end{figure}
%----------------------------------------------
\vspace
{
0.5em
}
\item
{
\small\bfnew
{
Dropout
}}
\index
{
Dropout
}
:由于Transformer模型网络结构较为复杂,会导致过度拟合训练数据,从而对未见数据的预测结果变差。这种现象也被称作
{
\small\sffamily\bfseries
{
过拟合
}}
\index
{
过拟合
}
(Over fitting)
\index
{
Over fitting
}
。为了避免这种现象,Transformer加入了Dropout操作
\
up
cite
{
JMLR:v15:srivastava14a
}
。Transformer中这四个地方用到了Dropout:词嵌入和位置编码、残差连接、注意力操作和前馈神经网络。Dropout比例通常设置为
$
0
.
1
$
。
\item
{
\small\bfnew
{
Dropout
}}
\index
{
Dropout
}
:由于Transformer模型网络结构较为复杂,会导致过度拟合训练数据,从而对未见数据的预测结果变差。这种现象也被称作
{
\small\sffamily\bfseries
{
过拟合
}}
\index
{
过拟合
}
(Over fitting)
\index
{
Over fitting
}
。为了避免这种现象,Transformer加入了Dropout操作
\cite
{
JMLR:v15:srivastava14a
}
。Transformer中这四个地方用到了Dropout:词嵌入和位置编码、残差连接、注意力操作和前馈神经网络。Dropout比例通常设置为
$
0
.
1
$
。
\vspace
{
0.5em
}
\item
{
\small\bfnew
{
标签平滑
}}
\index
{
标签平滑
}
(Label Smoothing)
\index
{
Label Smoothing
}
:在计算损失的过程中,需要用预测概率去拟合真实概率。在分类任务中,往往使用One-hot向量代表真实概率,即真实答案位置那一维对应的概率为1,其余维为0,而拟合这种概率分布会造成两个问题:1)无法保证模型的泛化能力,容易造成过拟合;2) 1和0概率鼓励所属类别和其他类别之间的差距尽可能加大,会造成模型过于相信预测的类别。因此Transformer里引入标签平滑
\
up
cite
{
Szegedy
_
2016
_
CVPR
}
来缓解这种现象,简单的说就是给正确答案以外的类别分配一定的概率,而不是采用非0即1的概率。这样,可以学习一个比较平滑的概率分布,从而提升泛化能力。
\item
{
\small\bfnew
{
标签平滑
}}
\index
{
标签平滑
}
(Label Smoothing)
\index
{
Label Smoothing
}
:在计算损失的过程中,需要用预测概率去拟合真实概率。在分类任务中,往往使用One-hot向量代表真实概率,即真实答案位置那一维对应的概率为1,其余维为0,而拟合这种概率分布会造成两个问题:1)无法保证模型的泛化能力,容易造成过拟合;2) 1和0概率鼓励所属类别和其他类别之间的差距尽可能加大,会造成模型过于相信预测的类别。因此Transformer里引入标签平滑
\cite
{
Szegedy
_
2016
_
CVPR
}
来缓解这种现象,简单的说就是给正确答案以外的类别分配一定的概率,而不是采用非0即1的概率。这样,可以学习一个比较平滑的概率分布,从而提升泛化能力。
\vspace
{
0.5em
}
\end{itemize}
\parinterval
不同的Transformer可以适应不同的任务,常见的Transformer模型有Transformer Base、Transformer Big和Transformer Deep
\
upcite
{
NIPS2017
_
7181
}
\upcite
{
WangLearning
}
,具体设置如下:
\parinterval
不同的Transformer可以适应不同的任务,常见的Transformer模型有Transformer Base、Transformer Big和Transformer Deep
\
cite
{
NIPS2017
_
7181,
WangLearning
}
,具体设置如下:
\begin{itemize}
\vspace
{
0.5em
}
...
...
@@ -1823,7 +1823,7 @@ Transformer Deep(48层) & 30.2 & 43.1 & 194$\times 10^{6}$
\parinterval
Transformer解码器生成目标语的过程和前面介绍的循环网络翻译模型类似,都是从左往右生成,且下一个单词的预测依赖已经生成的上一个单词。其具体推断过程如图
\ref
{
fig:6-56
}
所示,其中
$
\mathbf
{
C
}_
i
$
是编-解码注意力的结果,解码器首先根据``<eos>''和
$
\mathbf
{
C
}_
1
$
生成第一个单词``how'',然后根据``how''和
$
\mathbf
{
C
}_
2
$
生成第二个单词``are'',以此类推,当解码器生成``<eos>''时结束推断。
\parinterval
但是,Transformer在推断阶段无法对所有位置进行并行化操作,因为对于每一个目标语单词都需要对前面所有单词进行注意力操作,因此它推断速度非常慢。可以采用的加速手段有:低精度
\
upcite
{
DBLP:journals/corr/CourbariauxB16
}
、Cache(缓存需要重复计算的变量)
\upcite
{
DBLP:journals/corr/abs-1805-00631
}
、共享注意力网络等
\up
cite
{
Xiao2019SharingAW
}
。关于Transformer模型的推断技术将会在第七章进一步深入介绍。
\parinterval
但是,Transformer在推断阶段无法对所有位置进行并行化操作,因为对于每一个目标语单词都需要对前面所有单词进行注意力操作,因此它推断速度非常慢。可以采用的加速手段有:低精度
\
cite
{
DBLP:journals/corr/CourbariauxB16
}
、Cache(缓存需要重复计算的变量)
\cite
{
DBLP:journals/corr/abs-1805-00631
}
、共享注意力网络等
\
cite
{
Xiao2019SharingAW
}
。关于Transformer模型的推断技术将会在第七章进一步深入介绍。
%----------------------------------------------
\begin{figure}
[htp]
...
...
@@ -1859,7 +1859,7 @@ Transformer Deep(48层) & 30.2 & 43.1 & 194$\times 10^{6}$
\subsection
{
自动文摘
}
\parinterval
自动文本摘要,即在不改变文本原意的情况下,自动生成文本的主要内容。自动文本摘要技术被广泛应用于新闻报道、信息检索等领域。文本自动摘要是根据输入的文档得到摘要,因此可以把原始文档看作输入序列,把得到的摘要看作输出序列。常见的解决思路有:抽取式文摘和生成式文摘。前者试图从输入的文本中抽取能表达原文主要内容的句子,进行重新组合、提炼;后者则试图让计算机``理解''并``表达''出原文的主要内容。生成式文摘也可以用端到端框架实现。比如,可以利用编码器将整个输入序列编码成一个具有输入序列信息的固定维度向量,然后利用解码器对这个向量解码,获取所需要文本摘要
\
upcite
{
DBLP:journals/corr/RushCW15
}
。图
\ref
{
fig:6-57
}
展示了一个文本自动摘要的例子
\up
cite
{
DBLP:journals/corr/PaulusXS17
}
。
\parinterval
自动文本摘要,即在不改变文本原意的情况下,自动生成文本的主要内容。自动文本摘要技术被广泛应用于新闻报道、信息检索等领域。文本自动摘要是根据输入的文档得到摘要,因此可以把原始文档看作输入序列,把得到的摘要看作输出序列。常见的解决思路有:抽取式文摘和生成式文摘。前者试图从输入的文本中抽取能表达原文主要内容的句子,进行重新组合、提炼;后者则试图让计算机``理解''并``表达''出原文的主要内容。生成式文摘也可以用端到端框架实现。比如,可以利用编码器将整个输入序列编码成一个具有输入序列信息的固定维度向量,然后利用解码器对这个向量解码,获取所需要文本摘要
\
cite
{
DBLP:journals/corr/RushCW15
}
。图
\ref
{
fig:6-57
}
展示了一个文本自动摘要的例子
\
cite
{
DBLP:journals/corr/PaulusXS17
}
。
%----------------------------------------------
\begin{figure}
[htp]
...
...
@@ -1881,7 +1881,7 @@ Transformer Deep(48层) & 30.2 & 43.1 & 194$\times 10^{6}$
%----------------------------------------------
\begin{figure}
[htp]
\centering
\input
{
./Chapter6/Figures/figure-example-of-automatic-translation-of-classical-
C
hinese
}
\input
{
./Chapter6/Figures/figure-example-of-automatic-translation-of-classical-
c
hinese
}
\caption
{
文言文自动翻译实例
}
\label
{
fig:6-58
}
\end{figure}
...
...
@@ -1934,13 +1934,13 @@ Transformer Deep(48层) & 30.2 & 43.1 & 194$\times 10^{6}$
\begin{itemize}
\vspace
{
0.5em
}
\item
无论是循环神经网络还是Transformer都有很多变种结构。比如,除了RNN、
\\
LSTM、GRU,还有其他改进的循环单元结构,如LRN
\
upcite
{
DBLP:journals/corr/abs-1905-13324
}
、SRU
\upcite
{
Lei2017TrainingRA
}
、ATR
\upcite
{
Zhang2018SimplifyingNM
}
\\
。Transformer是近些年的热门,它也衍生出很多的改进版本,如相对位置编码
\upcite
{
Shaw2018SelfAttentionWR
}
、局部注意力机制
\upcite
{
DBLP:journals/corr/abs-1904-03107
}
、多层信息交互
\upcite
{
wang-etal-2018-multi-layer
}
、深层网络
\upcite
{
WangLearning
}
。此外,其他神经网络架构,如卷积神经网络,也是研发神经机器翻译系统很好的选择
\upcite
{
DBLP:journals/corr/GehringAGYD17
}
\upcite
{
Wu2019PayLA
}
。最近,也有一些研究者探索异构系统,使用不同的神经网络结构搭建编码器和解码器
\up
cite
{
Chen2018TheBO
}
,比如,编码端使用性能更强的Transformer,而解码端使用速度更快的循环神经网络。
\item
无论是循环神经网络还是Transformer都有很多变种结构。比如,除了RNN、
\\
LSTM、GRU,还有其他改进的循环单元结构,如LRN
\
cite
{
DBLP:journals/corr/abs-1905-13324
}
、SRU
\cite
{
Lei2017TrainingRA
}
、ATR
\cite
{
Zhang2018SimplifyingNM
}
\\
。Transformer是近些年的热门,它也衍生出很多的改进版本,如相对位置编码
\cite
{
Shaw2018SelfAttentionWR
}
、局部注意力机制
\cite
{
DBLP:journals/corr/abs-1904-03107
}
、多层信息交互
\cite
{
wang-etal-2018-multi-layer
}
、深层网络
\cite
{
WangLearning
}
。此外,其他神经网络架构,如卷积神经网络,也是研发神经机器翻译系统很好的选择
\cite
{
DBLP:journals/corr/GehringAGYD17
}
\cite
{
Wu2019PayLA
}
。最近,也有一些研究者探索异构系统,使用不同的神经网络结构搭建编码器和解码器
\
cite
{
Chen2018TheBO
}
,比如,编码端使用性能更强的Transformer,而解码端使用速度更快的循环神经网络。
\vspace
{
0.5em
}
\item
注意力机制的使用是机器翻译乃至整个自然语言处理近几年获得成功的重要因素之一
\
upcite
{
Liu
_
2019
_
CVPR
}
\upcite
{
DBLP:journals/corr/abs-1811-00498
}
\upcite
{
MoradiInterrogating
}
。早期,有研究者尝试将注意力机制和统计机器翻译的词对齐进行统一
\upcite
{
WangNeural
}
。近两年,也有研究已经发现注意力模型可以捕捉一些语言现象
\upcite
{
DBLP:journals/corr/abs-1905-09418
}
,比如,在Transformer的多头注意力中,不同头往往会捕捉到不同的信息,比如,有些头对低频词更加敏感,有些头更适合词意消歧,甚至有些头可以捕捉句法信息。此外,由于注意力机制增加了模型的复杂性,而且随着网络层数的增多,神经机器翻译中也存在大量的冗余,因此研发轻量的注意力模型也是具有实践意义的方向
\up
cite
{
Xiao2019SharingAW
}
。
\item
注意力机制的使用是机器翻译乃至整个自然语言处理近几年获得成功的重要因素之一
\
cite
{
Liu
_
2019
_
CVPR
}
\cite
{
DBLP:journals/corr/abs-1811-00498
}
\cite
{
MoradiInterrogating
}
。早期,有研究者尝试将注意力机制和统计机器翻译的词对齐进行统一
\cite
{
WangNeural
}
。近两年,也有研究已经发现注意力模型可以捕捉一些语言现象
\cite
{
DBLP:journals/corr/abs-1905-09418
}
,比如,在Transformer的多头注意力中,不同头往往会捕捉到不同的信息,比如,有些头对低频词更加敏感,有些头更适合词意消歧,甚至有些头可以捕捉句法信息。此外,由于注意力机制增加了模型的复杂性,而且随着网络层数的增多,神经机器翻译中也存在大量的冗余,因此研发轻量的注意力模型也是具有实践意义的方向
\
cite
{
Xiao2019SharingAW
}
。
\vspace
{
0.5em
}
\item
一般来说,神经机器翻译的计算过程是没有人工干预的,翻译流程也无法用人类的知识直接进行解释,因此一个有趣的方向是在神经机器翻译中引入先验知识,使得机器翻译的行为更``像''人。比如,可以使用句法树来引入人类的语言学知识
\
upcite
{
Yang2017TowardsBH
}
\upcite
{
Wang2019TreeTI
}
,基于句法的神经机器翻译也包含大量的树结构的神经网络建模
\upcite
{
DBLP:journals/corr/abs-1809-01854
}
\upcite
{
DBLP:journals/corr/abs-1808-09374
}
。此外,也可以把用户定义的词典或者翻译记忆加入到翻译过程来
\upcite
{
DBLP:journals/corr/ZhangZ16c
}
\upcite
{
Dai2019TransformerXLAL
}
,使得用户的约束可以直接反映到机器翻译的结果上来。先验知识的种类还有很多,包括词对齐
\upcite
{
li-etal-2019-word
}
\upcite
{
Zhang2017PriorKI
}
、篇章信息
\upcite
{
Werlen2018DocumentLevelNM
}
\upcite
{
DBLP:journals/corr/abs-1805-10163
}
等等,都是神经机器翻译中能够使用的信息。
\item
一般来说,神经机器翻译的计算过程是没有人工干预的,翻译流程也无法用人类的知识直接进行解释,因此一个有趣的方向是在神经机器翻译中引入先验知识,使得机器翻译的行为更``像''人。比如,可以使用句法树来引入人类的语言学知识
\
cite
{
Yang2017TowardsBH,Wang2019TreeTI
}
,基于句法的神经机器翻译也包含大量的树结构的神经网络建模
\cite
{
DBLP:journals/corr/abs-1809-01854,DBLP:journals/corr/abs-1808-09374
}
。此外,也可以把用户定义的词典或者翻译记忆加入到翻译过程来
\cite
{
DBLP:journals/corr/ZhangZ16c,Dai2019TransformerXLAL
}
,使得用户的约束可以直接反映到机器翻译的结果上来。先验知识的种类还有很多,包括词对齐
\cite
{
li-etal-2019-word,Zhang2017PriorKI
}
、篇章信息
\cite
{
Werlen2018DocumentLevelNM,
DBLP:journals/corr/abs-1805-10163
}
等等,都是神经机器翻译中能够使用的信息。
\vspace
{
0.5em
}
\item
神经机器翻译依赖成本较高的GPU设备,因此对模型的裁剪和加速也是很多系统研发人员所感兴趣的方向。比如,从工程上,可以考虑减少运算强度,比如低精度浮点或者整数计算,或者引入缓存机制来加速模型的推断
\
upcite
{
DBLP:journals/corr/abs-1906-00532
}
\upcite
{
DBLP:journals/corr/CourbariauxB16
}
;也可以通过对模型参数矩阵的剪枝,甚至对模块的剪枝,来减小整个模型的体积
\upcite
{
Zhang2018SpeedingUN
}
\upcite
{
DBLP:journals/corr/SeeLM16
}
;另一种方法是知识精炼。利用大模型训练小模型,这样往往可以得到比单独训练小模型更好的效果
\upcite
{
DBLP:journals/corr/ChenLCL17
}
\upcite
{
Hinton2015Distilling
}
\upcite
{
Sun2019PatientKD
}
。
\item
神经机器翻译依赖成本较高的GPU设备,因此对模型的裁剪和加速也是很多系统研发人员所感兴趣的方向。比如,从工程上,可以考虑减少运算强度,比如低精度浮点或者整数计算,或者引入缓存机制来加速模型的推断
\
cite
{
DBLP:journals/corr/abs-1906-00532,DBLP:journals/corr/CourbariauxB16
}
;也可以通过对模型参数矩阵的剪枝,甚至对模块的剪枝,来减小整个模型的体积
\cite
{
Zhang2018SpeedingUN,DBLP:journals/corr/SeeLM16
}
;另一种方法是知识精炼。利用大模型训练小模型,这样往往可以得到比单独训练小模型更好的效果
\cite
{
DBLP:journals/corr/ChenLCL17,Hinton2015Distilling,
Sun2019PatientKD
}
。
\vspace
{
0.5em
}
\end{itemize}
...
...
Book/Chapter6/Figures/figure-
A
-combination-of-position-encoding-and-word-encoding.tex
→
Book/Chapter6/Figures/figure-
a
-combination-of-position-encoding-and-word-encoding.tex
查看文件 @
5ab166f8
\begin{tikzpicture}
\begin{scope}
\tikzstyle
{
rnode
}
= [draw,minimum width=3.5em,minimum height=1.2em]
...
...
Book/Chapter6/Figures/figure-
A
-working-example-of-neural-machine-translation.tex
→
Book/Chapter6/Figures/figure-
a
-working-example-of-neural-machine-translation.tex
查看文件 @
5ab166f8
\begin{tikzpicture}
\setlength
{
\base
}{
1cm
}
...
...
Book/Chapter6/Figures/figure-
A
ttention-of-source-and-target-words.tex
→
Book/Chapter6/Figures/figure-
a
ttention-of-source-and-target-words.tex
查看文件 @
5ab166f8
%
%---------------------------------------
...
...
Book/Chapter6/Figures/figure-
A
utomatic-generation-of-ancient-poems-based-on-encoder-decoder-framework.tex
→
Book/Chapter6/Figures/figure-
a
utomatic-generation-of-ancient-poems-based-on-encoder-decoder-framework.tex
查看文件 @
5ab166f8
\begin{tikzpicture}
\begin{scope}
\tikzstyle
{
lnode
}
= [minimum height=2em,minimum width=8em,inner sep=3pt,rounded corners=2pt,draw,fill=red!20];
...
...
Book/Chapter6/Figures/figure-
A
utomatically-generate-instances-of-couplets.tex
→
Book/Chapter6/Figures/figure-
a
utomatically-generate-instances-of-couplets.tex
查看文件 @
5ab166f8
\begin{tikzpicture}
\begin{scope}
\tikzstyle
{
lnode
}
= [minimum height=2.5em,minimum width=12em,inner sep=3pt,rounded corners=2pt,draw=red!75!black,fill=red!5];
...
...
Book/Chapter6/Figures/figure-
B
eam-search-process.tex
→
Book/Chapter6/Figures/figure-
b
eam-search-process.tex
查看文件 @
5ab166f8
%-----------------------------------------
...
...
Book/Chapter6/Figures/figure-
C
alculation-of-context-vector-C.tex
→
Book/Chapter6/Figures/figure-
c
alculation-of-context-vector-C.tex
查看文件 @
5ab166f8
\begin{tikzpicture}
\begin{scope}
...
...
Book/Chapter6/Figures/figure-
C
alculation-process-of-context-vector-C.tex
→
Book/Chapter6/Figures/figure-
c
alculation-process-of-context-vector-C.tex
查看文件 @
5ab166f8
...
...
@@ -4,7 +4,6 @@
\begin{tikzpicture}
\begin{scope}
...
...
Book/Chapter6/Figures/figure-
C
omparison-of-the-number-of-padding-in-batch.tex
→
Book/Chapter6/Figures/figure-
c
omparison-of-the-number-of-padding-in-batch.tex
查看文件 @
5ab166f8
\begin{tikzpicture}
\begin{scope}
[scale=1.5]
...
...
Book/Chapter6/Figures/figure-
D
ata-parallel-process.tex
→
Book/Chapter6/Figures/figure-
d
ata-parallel-process.tex
查看文件 @
5ab166f8
%----------------------------------
...
...
Book/Chapter6/Figures/figure-
D
ecode-the-word-probability-distribution-at-the-first-position.tex
→
Book/Chapter6/Figures/figure-
d
ecode-the-word-probability-distribution-at-the-first-position.tex
查看文件 @
5ab166f8
...
...
@@ -3,7 +3,6 @@
\begin{tikzpicture}
\begin{scope}
\tikzstyle
{
rnnnode
}
= [minimum height=1.1em,minimum width=3.5em,inner sep=2pt,rounded corners=1pt,draw,fill=red!20];
...
...
Book/Chapter6/Figures/figure-
D
ecoding-process-based-on-greedy-method.tex
→
Book/Chapter6/Figures/figure-
d
ecoding-process-based-on-greedy-method.tex
查看文件 @
5ab166f8
\begin{tikzpicture}
\begin{scope}
\tikzstyle
{
rnnnode
}
= [minimum height=1.1em,minimum width=2.1em,inner sep=2pt,rounded corners=1pt,draw,fill=red!20];
...
...
Book/Chapter6/Figures/figure-
D
ependencies-between-words-in-a-recurrent-neural-network.tex
→
Book/Chapter6/Figures/figure-
d
ependencies-between-words-in-a-recurrent-neural-network.tex
查看文件 @
5ab166f8
\begin{tikzpicture}
\begin{scope}
\node
[anchor=west] (w0) at (0,0)
{$
w
_
1
$}
;
...
...
Book/Chapter6/Figures/figure-
Dependencies-between-words-of-A
ttention.tex
→
Book/Chapter6/Figures/figure-
dependencies-between-words-of-a
ttention.tex
查看文件 @
5ab166f8
\begin{tikzpicture}
\begin{scope}
\node
[anchor=west] (w0) at (0,-2)
{$
w
_
1
$}
;
...
...
Book/Chapter6/Figures/figure-
D
ifferent-regularization-methods.tex
→
Book/Chapter6/Figures/figure-
d
ifferent-regularization-methods.tex
查看文件 @
5ab166f8
\begin{tikzpicture}
\begin{scope}
\tikzstyle
{
lnode
}
= [minimum height=1.5em,minimum width=3em,inner sep=3pt,rounded corners=1.5pt,draw,fill=orange!20];
...
...
Book/Chapter6/Figures/figure-
D
ouble-layer-RNN.tex
→
Book/Chapter6/Figures/figure-
d
ouble-layer-RNN.tex
查看文件 @
5ab166f8
%--------------------------------------------------------------------------------
\begin{tikzpicture}
\setlength
{
\base
}{
0.9cm
}
...
...
Book/Chapter6/Figures/figure-
Example-of-automatic-translation-of-classical-C
hinese.tex
→
Book/Chapter6/Figures/figure-
example-of-automatic-translation-of-classical-c
hinese.tex
查看文件 @
5ab166f8
%---------------------------------------
\begin{frame}
{}
...
...
Book/Chapter6/Figures/figure-
E
xample-of-context-vector-calculation-process.tex
→
Book/Chapter6/Figures/figure-
e
xample-of-context-vector-calculation-process.tex
查看文件 @
5ab166f8
%-------------------------------------------
...
...
Book/Chapter6/Figures/figure-
E
xample-of-self-attention-mechanism-calculation.tex
→
Book/Chapter6/Figures/figure-
e
xample-of-self-attention-mechanism-calculation.tex
查看文件 @
5ab166f8
\begin{tikzpicture}
\begin{scope}
...
...
Book/Chapter6/Figures/figure-
G
enerate-summary.tex
→
Book/Chapter6/Figures/figure-
g
enerate-summary.tex
查看文件 @
5ab166f8
%%% outline
%-------------------------------------------------------------------------
\begin{tikzpicture}
...
...
Book/Chapter6/Figures/figure-
Mask-instance-for-future-positions-in-T
ransformer.tex
→
Book/Chapter6/Figures/figure-
mask-instance-for-future-positions-in-t
ransformer.tex
查看文件 @
5ab166f8
\begin{tikzpicture}
\begin{scope}
\tikzstyle
{
attnode
}
= [minimum size=1.5em,inner sep=0pt,rounded corners=1pt,draw]
...
...
Book/Chapter6/Figures/figure-
Matrix-Representation-of-Attention-Weights-Between-Chinese-English-Sentence-P
airs.tex
→
Book/Chapter6/Figures/figure-
matrix-representation-of-attention-weights-between-chinese-english-sentence-p
airs.tex
查看文件 @
5ab166f8
...
...
@@ -3,7 +3,6 @@
%-------------------------------------------
\begin{tikzpicture}
...
...
Book/Chapter6/Figures/figure-
M
odel-structure-based-on-recurrent-neural-network-translation.tex
→
Book/Chapter6/Figures/figure-
m
odel-structure-based-on-recurrent-neural-network-translation.tex
查看文件 @
5ab166f8
%--------------------------------------------------------------------------
\begin{tikzpicture}
...
...
Book/Chapter6/Figures/figure-
Multi-Head-Attention-M
odel.tex
→
Book/Chapter6/Figures/figure-
multi-head-attention-m
odel.tex
查看文件 @
5ab166f8
\begin{tikzpicture}
\begin{scope}
...
...
Book/Chapter6/Figures/figure-
O
utput-layer-structur.tex
→
Book/Chapter6/Figures/figure-
o
utput-layer-structur.tex
查看文件 @
5ab166f8
% not compatible with [scale=?]
...
...
Book/Chapter6/Figures/figure-
P
oint-product-attention-model.tex
→
Book/Chapter6/Figures/figure-
p
oint-product-attention-model.tex
查看文件 @
5ab166f8
...
...
@@ -3,7 +3,6 @@
\begin{tikzpicture}
\begin{scope}
...
...
Book/Chapter6/Figures/figure-
P
osition-of-difference-and-layer-regularization-in-the-model.tex
→
Book/Chapter6/Figures/figure-
p
osition-of-difference-and-layer-regularization-in-the-model.tex
查看文件 @
5ab166f8
...
...
@@ -2,7 +2,6 @@
\begin{tikzpicture}
\begin{scope}
\tikzstyle
{
Sanode
}
= [minimum height=1.4em,minimum width=7em,inner sep=3pt,rounded corners=1.5pt,draw,fill=orange!20];
...
...
Book/Chapter6/Figures/figure-
P
osition-of-feedforward-neural-network-in-the-model.tex
→
Book/Chapter6/Figures/figure-
p
osition-of-feedforward-neural-network-in-the-model.tex
查看文件 @
5ab166f8
\begin{tikzpicture}
\begin{scope}
\tikzstyle
{
Sanode
}
= [minimum height=1.4em,minimum width=7em,inner sep=3pt,rounded corners=1.5pt,draw,fill=orange!20];
...
...
Book/Chapter6/Figures/figure-
P
osition-of-self-attention-mechanism-in-the-model.tex
→
Book/Chapter6/Figures/figure-
p
osition-of-self-attention-mechanism-in-the-model.tex
查看文件 @
5ab166f8
\begin{tikzpicture}
\begin{scope}
\tikzstyle
{
Sanode
}
= [minimum height=1.4em,minimum width=7em,inner sep=3pt,rounded corners=1.5pt,draw,fill=orange!20];
...
...
Book/Chapter6/Figures/figure-
P
resentation-space.tex
→
Book/Chapter6/Figures/figure-
p
resentation-space.tex
查看文件 @
5ab166f8
File moved
Book/Chapter6/Figures/figure-
Q
uery-model-corresponding-to-attention-mechanism.tex
→
Book/Chapter6/Figures/figure-
q
uery-model-corresponding-to-attention-mechanism.tex
查看文件 @
5ab166f8
...
...
@@ -7,7 +7,6 @@
\begin{tikzpicture}
\begin{scope}
...
...
Book/Chapter6/Figures/figure-
Q
uery-model-corresponding-to-traditional-query-model-vs-attention-mechanism.tex
→
Book/Chapter6/Figures/figure-
q
uery-model-corresponding-to-traditional-query-model-vs-attention-mechanism.tex
查看文件 @
5ab166f8
%-----------------------------------------------------
\begin{tikzpicture}
...
...
Book/Chapter6/Figures/figure-
Q
uery-model-corresponding-to-traditional-query-model-vs-attention-mechanism02.tex
→
Book/Chapter6/Figures/figure-
q
uery-model-corresponding-to-traditional-query-model-vs-attention-mechanism02.tex
查看文件 @
5ab166f8
%-----------------------------------------------------
\begin{tikzpicture}
...
...
Book/Chapter6/Figures/figure-
R
elationship-between-learning-rate-and-number-of-updates.tex
→
Book/Chapter6/Figures/figure-
r
elationship-between-learning-rate-and-number-of-updates.tex
查看文件 @
5ab166f8
\begin{tikzpicture}
\footnotesize
{
\begin{axis}
[
...
...
Book/Chapter6/Figures/figure-
R
esidual-network-structure.tex
→
Book/Chapter6/Figures/figure-
r
esidual-network-structure.tex
查看文件 @
5ab166f8
\begin{tikzpicture}
\begin{scope}
\tikzstyle
{
lnode
}
= [minimum height=1.5em,minimum width=3em,inner sep=3pt,rounded corners=1.5pt,draw,fill=orange!20];
...
...
Book/Chapter6/Figures/figure-
S
tructure-of-a-recurrent-network-model.tex
→
Book/Chapter6/Figures/figure-
s
tructure-of-a-recurrent-network-model.tex
查看文件 @
5ab166f8
%------------------------------------------------------------
\begin{tikzpicture}
...
...
Book/Chapter6/Figures/figure-
Structure-of-the-network-during-T
ransformer-training.tex
→
Book/Chapter6/Figures/figure-
structure-of-the-network-during-t
ransformer-training.tex
查看文件 @
5ab166f8
\begin{tikzpicture}
\begin{scope}
\tikzstyle
{
rnnnode
}
= [minimum height=1.1em,minimum width=2.1em,inner sep=2pt,rounded corners=1pt,draw,fill=red!20];
...
...
Book/Chapter6/Figures/figure-
T
ransformer-input-and-position-encoding.tex
→
Book/Chapter6/Figures/figure-
t
ransformer-input-and-position-encoding.tex
查看文件 @
5ab166f8
\begin{tikzpicture}
\begin{scope}
\tikzstyle
{
Sanode
}
= [minimum height=1.4em,minimum width=7em,inner sep=3pt,rounded corners=1.5pt,draw];
...
...
Book/Chapter6/Figures/figure-
W
ord-embedding-structure.tex
→
Book/Chapter6/Figures/figure-
w
ord-embedding-structure.tex
查看文件 @
5ab166f8
%------------------------------------------------------
\begin{tikzpicture}
\setlength
{
\base
}{
0.9cm
}
...
...
Book/Chapter7/Figures/figure-
Underfitting-vs-O
verfitting.tex
→
Book/Chapter7/Figures/figure-
underfitting-vs-o
verfitting.tex
查看文件 @
5ab166f8
\begin{tabular}
{
l l l
}
\begin{tikzpicture}
\draw
[->, thick]
(0,0) to (3,0);
...
...
编写
预览
Markdown
格式
0%
重试
或
添加新文件
添加附件
取消
您添加了
0
人
到此讨论。请谨慎行事。
请先完成此评论的编辑!
取消
请
注册
或者
登录
后发表评论