Skip to content
项目
群组
代码片段
帮助
当前项目
正在载入...
登录 / 注册
切换导航面板
M
mtbookv2
概览
Overview
Details
Activity
Cycle Analytics
版本库
Repository
Files
Commits
Branches
Tags
Contributors
Graph
Compare
Charts
问题
0
Issues
0
列表
Board
标记
里程碑
合并请求
0
Merge Requests
0
CI / CD
CI / CD
流水线
作业
日程表
图表
维基
Wiki
代码片段
Snippets
成员
Collapse sidebar
Close sidebar
活动
图像
聊天
创建新问题
作业
提交
Issue Boards
Open sidebar
NiuTrans
mtbookv2
Commits
52347bbd
Commit
52347bbd
authored
Jan 05, 2021
by
zengxin
Browse files
Options
Browse Files
Download
Plain Diff
合并分支 'zengxin' 到 'caorunzhe'
Zengxin 查看合并请求
!783
parents
06080e16
35c8bb91
隐藏空白字符变更
内嵌
并排
正在显示
3 个修改的文件
包含
26 行增加
和
26 行删除
+26
-26
Chapter10/chapter10.tex
+21
-21
Chapter11/chapter11.tex
+4
-4
Chapter12/chapter12.tex
+1
-1
没有找到文件。
Chapter10/chapter10.tex
查看文件 @
52347bbd
...
...
@@ -25,7 +25,7 @@
\parinterval
{
\small\sffamily\bfseries
{
神经机器翻译
}}
\index
{
神经机器翻译
}
(Neural Machine Translation)
\index
{
Neural Machine Translation
}
是机器翻译的前沿方法。近几年,随着深度学习技术的发展和在各领域中的深入应用,基于端到端表示学习的方法正在改变着我们处理自然语言的方式,神经机器翻译在这种趋势下应运而生。一方面,神经机器翻译仍然延续着统计建模和基于数据驱动的思想,因此在基本问题的定义上与前人的研究是一致的;另一方面,神经机器翻译脱离了统计机器翻译中对隐含翻译结构的假设,同时使用分布式表示来对文字序列进行建模,这使得它可以从一个全新的视角看待翻译问题。现在,神经机器翻译已经成为了机器翻译研究及应用的热点,译文质量得到了巨大的提升。
\parinterval
本章将介绍神经机器翻译中的一种基础模型
\ \dash
\
基于循环神经网络的模型。该模型是神经机器翻译中最早被成功应用的模型之一。基于这个模型框架,研究
者
进行了大量的探索和改进工作,包括使用LSTM等循环单元结构、引入注意力机制等。这些内容都会在本章进行讨论。
\parinterval
本章将介绍神经机器翻译中的一种基础模型
\ \dash
\
基于循环神经网络的模型。该模型是神经机器翻译中最早被成功应用的模型之一。基于这个模型框架,研究
人员
进行了大量的探索和改进工作,包括使用LSTM等循环单元结构、引入注意力机制等。这些内容都会在本章进行讨论。
%----------------------------------------------------------------------------------------
% NEW SECTION 10.1
...
...
@@ -35,7 +35,7 @@
\parinterval
纵观机器翻译的发展历程,神经机器翻译诞生较晚。无论是早期的基于规则的方法,还是逐渐发展起来的基于实例的方法,再或是上世纪末的统计方法,每次机器翻译框架级的创新都需要很长时间的酝酿,而技术走向成熟甚至需要更长的时间。但是,神经机器翻译的出现和后来的发展速度多少有些“出人意料”。神经机器翻译的概念出现在2013-2014年间,当时机器翻译领域的主流方法仍然是统计机器翻译。虽然那个时期深度学习已经在图像、语音等领域取得令人瞩目的效果,但是对于自然语言处理来说深度学习仍然不是主流。
\parinterval
不过,
有人
也意识到了神经机器翻译在表示学习等方面的优势。这一时期,很多研究团队对包括机器翻译在内的序列到序列问题进行了广泛而深入的研究,注意力机制等新的方法不断被推出。这使得神经机器翻译系统在翻译品质上逐渐体现出优势,甚至超越了当时的统计机器翻译系统。正当大家在讨论神经机器翻译是否能取代统计机器翻译成为下一代机器翻译范式的时候,一些互联网企业推出了以神经机器翻译技术为内核的在线机器翻译服务,在很多场景下的翻译品质显著超越了当时最好的统计机器翻译系统。这也引发了学术界和产业界对神经机器翻译的讨论。随着关注度的不断升高,神经机器翻译的研究吸引了更多的科研机构和企业的投入,神经机器翻译系统的翻译品质得到进一步提升。
\parinterval
不过,
研究人员
也意识到了神经机器翻译在表示学习等方面的优势。这一时期,很多研究团队对包括机器翻译在内的序列到序列问题进行了广泛而深入的研究,注意力机制等新的方法不断被推出。这使得神经机器翻译系统在翻译品质上逐渐体现出优势,甚至超越了当时的统计机器翻译系统。正当大家在讨论神经机器翻译是否能取代统计机器翻译成为下一代机器翻译范式的时候,一些互联网企业推出了以神经机器翻译技术为内核的在线机器翻译服务,在很多场景下的翻译品质显著超越了当时最好的统计机器翻译系统。这也引发了学术界和产业界对神经机器翻译的讨论。随着关注度的不断升高,神经机器翻译的研究吸引了更多的科研机构和企业的投入,神经机器翻译系统的翻译品质得到进一步提升。
\parinterval
在短短5-6年间,神经机器翻译从一个新生的概念已经成长为机器翻译领域的最前沿技术之一,在各种机器翻译评测和应用中呈全面替代统计机器翻译之势。比如,从近几年WMT、CCMT等评测的结果来看,神经机器翻译已经处于绝对的统治地位,在不同语种和领域的翻译任务中,成为各参赛系统的标配。此外,从ACL等自然语言处理顶级会议的发表论文看,神经机器翻译在论文数量上呈明显的增长趋势,这也体现了学术界对该方法的热情。至今,国内外的很多机构都推出了自己研发的神经机器翻译系统,整个研究和产业生态欣欣向荣。图
\ref
{
fig:10-1
}
展示了包含神经机器翻译在内的机器翻译发展简史。
...
...
@@ -48,11 +48,11 @@
\end{figure}
%----------------------------------------------
\parinterval
神经机器翻译的迅速崛起确实让所有
人都有些措手不及,甚至有一种一觉醒来天翻地覆的感觉。也有人
评价,神经机器翻译的出现给整个机器翻译领域带来了前所未有的发展机遇。不过,客观地看,机器翻译达到今天这样的状态也是一种历史必然,其中有几方面原因:
\parinterval
神经机器翻译的迅速崛起确实让所有
研究人员都有些措手不及,甚至有一种一觉醒来天翻地覆的感觉。也有研究人员
评价,神经机器翻译的出现给整个机器翻译领域带来了前所未有的发展机遇。不过,客观地看,机器翻译达到今天这样的状态也是一种历史必然,其中有几方面原因:
\begin{itemize}
\vspace
{
0.3em
}
\item
自上世纪末所发展起来的基于数据驱动的方法为神经机器翻译提供了很好的基础。本质上,神经机器翻译仍然是一种基于统计建模的数据驱动的方法,因此无论是对问题的基本建模方式,还是训练统计模型所使用到的带标注数据,都可以复用机器翻译领域以前的研究成果。特别是机器翻译长期的发展已经积累了大量的双语、单语数据,这些数据在统计机器翻译时代就发挥了很大作用。随着时间的推移,数据规模和质量又得到进一步提升,包括一些评测基准、任务设置都已经非常完备,研究
者
可以直接在数据条件全部具备的情况下开展神经机器翻译的研究工作,这些都节省了大量的时间成本。从这个角度说,神经机器翻译是站在巨人的肩膀上才发展起来的。
\item
自上世纪末所发展起来的基于数据驱动的方法为神经机器翻译提供了很好的基础。本质上,神经机器翻译仍然是一种基于统计建模的数据驱动的方法,因此无论是对问题的基本建模方式,还是训练统计模型所使用到的带标注数据,都可以复用机器翻译领域以前的研究成果。特别是机器翻译长期的发展已经积累了大量的双语、单语数据,这些数据在统计机器翻译时代就发挥了很大作用。随着时间的推移,数据规模和质量又得到进一步提升,包括一些评测基准、任务设置都已经非常完备,研究
人员
可以直接在数据条件全部具备的情况下开展神经机器翻译的研究工作,这些都节省了大量的时间成本。从这个角度说,神经机器翻译是站在巨人的肩膀上才发展起来的。
\vspace
{
0.3em
}
\item
深度学习经过长时间的酝酿终于爆发,为机器翻译等自然语言处理任务提供了新的思路和技术手段。神经机器翻译的不断壮大伴随着深度学习技术的发展。在深度学习的视角下,语言文字可以被表示成抽象的实数向量,这种文字的表示结果可以被自动学习,为机器翻译建模提供了更大的灵活性。相对于神经机器翻译,深度学习的发展更加曲折。虽然深度学习经过了漫长的起伏过程,但是神经机器翻译恰好出现在深度学习逐渐走向成熟的阶段。反过来说,受到深度学习及相关技术空前发展的影响,自然语言处理的范式也发生了变化,神经机器翻译的出现只是这种趋势下的一种必然。
\vspace
{
0.3em
}
...
...
@@ -68,9 +68,9 @@
% NEW SUB-SECTION 10.1.1
%----------------------------------------------------------------------------------------
\subsection
{
神经机器翻译的起源
}
\parinterval
从广义上讲,神经机器翻译是一种基于人工神经网络的方法,它把翻译过程描述为可以用人工神经网络表示的函数,所有的训练和推断都在这些函数上进行。由于神经机器翻译中的神经网络可以用连续可微函数表示,因此这类方法也可以用基于梯度的方法进行优化,相关技术非常成熟。更为重要的是,在神经网络的设计中,研究
者
引入了分布式表示的概念,这也是近些年自然语言处理领域的重要成果之一。传统统计机器翻译仍然把词序列看作离散空间里的由多个特征函数描述的点,类似于
$
n
$
-gram语言模型,这类模型对数据稀疏问题非常敏感。此外,人工设计特征也在一定程度上限制了模型对问题的表示能力。神经机器翻译把文字序列表示为实数向量,一方面避免了特征工程繁重的工作,另一方面使得系统可以对文字序列的“表示”进行学习。可以说,神经机器翻译的成功很大程度上源自“ 表示学习”这种自然语言处理的新范式的出现。在表示学习的基础上,注意力机制、深度神经网络等技术都被应用于神经机器翻译,使其得以进一步发展。
\parinterval
从广义上讲,神经机器翻译是一种基于人工神经网络的方法,它把翻译过程描述为可以用人工神经网络表示的函数,所有的训练和推断都在这些函数上进行。由于神经机器翻译中的神经网络可以用连续可微函数表示,因此这类方法也可以用基于梯度的方法进行优化,相关技术非常成熟。更为重要的是,在神经网络的设计中,研究
人员
引入了分布式表示的概念,这也是近些年自然语言处理领域的重要成果之一。传统统计机器翻译仍然把词序列看作离散空间里的由多个特征函数描述的点,类似于
$
n
$
-gram语言模型,这类模型对数据稀疏问题非常敏感。此外,人工设计特征也在一定程度上限制了模型对问题的表示能力。神经机器翻译把文字序列表示为实数向量,一方面避免了特征工程繁重的工作,另一方面使得系统可以对文字序列的“表示”进行学习。可以说,神经机器翻译的成功很大程度上源自“ 表示学习”这种自然语言处理的新范式的出现。在表示学习的基础上,注意力机制、深度神经网络等技术都被应用于神经机器翻译,使其得以进一步发展。
\parinterval
虽然神经机器翻译中大量地使用了人工神经网络方法,但是它并不是最早在机器翻译中使用人工神经网络的框架。实际上,人工神经网络在机器翻译中应用的历史要远早于现在的神经机器翻译。 在统计机器翻译时代,也有很多研究
者
利用人工神经网络进行机器翻译系统模块的构建
\upcite
{
devlin-etal-2014-fast,Schwenk
_
continuousspace
}
,比如,研究人员成功地在统计机器翻译系统中使用了基于神经网络的联合表示模型,取得了很好的效果
\upcite
{
devlin-etal-2014-fast
}
。
\parinterval
虽然神经机器翻译中大量地使用了人工神经网络方法,但是它并不是最早在机器翻译中使用人工神经网络的框架。实际上,人工神经网络在机器翻译中应用的历史要远早于现在的神经机器翻译。 在统计机器翻译时代,也有很多研究
人员
利用人工神经网络进行机器翻译系统模块的构建
\upcite
{
devlin-etal-2014-fast,Schwenk
_
continuousspace
}
,比如,研究人员成功地在统计机器翻译系统中使用了基于神经网络的联合表示模型,取得了很好的效果
\upcite
{
devlin-etal-2014-fast
}
。
\parinterval
不过,以上这些工作大多都是在系统的局部模块中使用人工神经网络和深度学习方法。与之不同的是,神经机器翻译是用人工神经网络完成整个翻译过程的建模,这样做的一个好处是,整个系统可以进行端到端学习,无需引入对任何翻译的隐含结构假设。这种利用端到端学习对机器翻译进行神经网络建模的方式也就成为了现在大家所熟知的神经机器翻译。这里简单列出部分代表性的工作:
...
...
@@ -82,7 +82,7 @@
\vspace
{
0.3em
}
\item
同年Dzmitry Bahdanau等人首次将
{
\small\bfnew
{
注意力机制
}}
\index
{
注意力机制
}
(Attention Mechanism
\index
{
Attention Mechanism
}
)应用到机器翻译领域,在机器翻译任务上对翻译和局部翻译单元之间的对应关系同时建模
\upcite
{
bahdanau2014neural
}
。Bahdanau等人工作的意义在于,使用了更加有效的模型来表示源语言的信息,同时使用注意力机制对两种语言不同部分之间的相互联系进行建模。这种方法可以有效地处理长句子的翻译,而且注意力的中间结果具有一定的可解释性
\footnote
{
比如,目标语言和源语言句子不同单词之间的注意力强度能够在一定程度上反应单词之间的互译程度。
}
。然而相比于前人的神经机器翻译模型,注意力模型也引入了额外的成本,计算量较大。
\vspace
{
0.3em
}
\item
2016年谷歌公司发布了基于多层循环神经网络方法的GNMT系统。该系统集成了当时的神经机器翻译技术,并进行了诸多的改进。它的性能显著优于基于短语的机器翻译系统
\upcite
{
Wu2016GooglesNM
}
,引起了研究
者
的广泛关注。在之后不到一年的时间里,脸书公司采用卷积神经网络(CNN)研发了新的神经机器翻译系统
\upcite
{
DBLP:journals/corr/GehringAGYD17
}
,实现了比基于循环神经网络(RNN)系统更高的翻译水平,并大幅提升翻译速度。
\item
2016年谷歌公司发布了基于多层循环神经网络方法的GNMT系统。该系统集成了当时的神经机器翻译技术,并进行了诸多的改进。它的性能显著优于基于短语的机器翻译系统
\upcite
{
Wu2016GooglesNM
}
,引起了研究
人员
的广泛关注。在之后不到一年的时间里,脸书公司采用卷积神经网络(CNN)研发了新的神经机器翻译系统
\upcite
{
DBLP:journals/corr/GehringAGYD17
}
,实现了比基于循环神经网络(RNN)系统更高的翻译水平,并大幅提升翻译速度。
\vspace
{
0.3em
}
\item
2017年,Ashish Vaswani等人提出了新的翻译模型Transformer。其完全摒弃了循环神经网络和卷积神经网络,仅仅通过多头注意力机制和前馈神经网络,不需要使用序列对齐的循环框架就展示出强大的性能,并且巧妙地解决了翻译中长距离依赖问题
\upcite
{
vaswani2017attention
}
。Transformer是第一个完全基于注意力机制搭建的模型,不仅训练速度更快,在翻译任务上也获得了更好的结果,一跃成为目前最主流的神经机器翻译框架。
\vspace
{
0.3em
}
...
...
@@ -141,7 +141,7 @@
\end{figure}
%----------------------------------------------
\parinterval
神经机器翻译在其他评价指标上的表现也全面超越统计机器翻译。比如,在IWSLT 2015英语-德语任务中,研究
者
搭建了四个较为先进的机器翻译系统
\upcite
{
Bentivogli2016NeuralVP
}
:
\parinterval
神经机器翻译在其他评价指标上的表现也全面超越统计机器翻译。比如,在IWSLT 2015英语-德语任务中,研究
人员
搭建了四个较为先进的机器翻译系统
\upcite
{
Bentivogli2016NeuralVP
}
:
\begin{itemize}
\vspace
{
0.3em
}
...
...
@@ -253,7 +253,7 @@ NMT & 21.7 & 18.7 & -13.7 \\
\vspace
{
0.5em
}
\end{itemize}
\parinterval
当然,神经机器翻译也并不完美,很多问题有待解决。首先,神经机器翻译需要大规模浮点运算的支持,模型的推断速度较低。为了获得优质的翻译结果,往往需要大量GPU设备的支持,计算资源成本很高;其次,由于缺乏人类的先验知识对翻译过程的指导,神经机器翻译的运行过程缺乏可解释性,系统的可干预性也较差;此外,虽然脱离了繁重的特征工程,神经机器翻译仍然需要人工设计网络结构,在模型的各种超参数的设置、训练策略的选择等方面,仍然需要大量的人工参与。这也导致很多实验结果不容易复现。显然,完全不依赖人工的机器翻译还很遥远。不过,随着研究
者
的不断攻关,很多问题也得到了解决。
\parinterval
当然,神经机器翻译也并不完美,很多问题有待解决。首先,神经机器翻译需要大规模浮点运算的支持,模型的推断速度较低。为了获得优质的翻译结果,往往需要大量GPU设备的支持,计算资源成本很高;其次,由于缺乏人类的先验知识对翻译过程的指导,神经机器翻译的运行过程缺乏可解释性,系统的可干预性也较差;此外,虽然脱离了繁重的特征工程,神经机器翻译仍然需要人工设计网络结构,在模型的各种超参数的设置、训练策略的选择等方面,仍然需要大量的人工参与。这也导致很多实验结果不容易复现。显然,完全不依赖人工的机器翻译还很遥远。不过,随着研究
人员
的不断攻关,很多问题也得到了解决。
%----------------------------------------------------------------------------------------
% NEW SECTION 10.2
...
...
@@ -272,7 +272,7 @@ NMT & 21.7 & 18.7 & -13.7 \\
\parinterval
编码器-解码器框架是一种典型的基于“表示”的模型。编码器的作用是将输入的文字序列通过某种转换变为一种新的“表示”形式,这种“表示”包含了输入序列的所有信息。之后,解码器把这种“表示”重新转换为输出的文字序列。这其中的一个核心问题是表示学习,即:如何定义对输入文字序列的表示形式,并自动学习这种表示,同时应用它生成输出序列。一般来说,不同的表示学习方法可以对应不同的机器翻译模型,比如,在最初的神经机器翻译模型中,源语言句子都被表示为一个独立的向量,这时表示结果是静态的;而在注意力机制中,源语言句子的表示是动态的,也就是翻译目标语言的每个单词时都会使用不同的表示结果。
\parinterval
图
\ref
{
fig:10-5
}
是一个应用编码器-解码器结构来解决机器翻译问题的简单实例。给定一个中文句子“我/对/你/感到/满意”,编码器会将这句话编码成一个实数向量
$
(
0
.
2
,
-
1
,
6
,
\\
5
,
0
.
7
,
-
2
)
$
,这个向量就是源语言句子的“表示”结果。虽然有些不可思议,但是神经机器翻译模型把这个向量等同于输入序列。向量中的数字并没有实际的意义,然而解码器却能从中提取到源语言句子中所包含的信息。也有研究
者
把向量的每一个维度看作是一个“特征”,这样源语言句子就被表示成多个“特征”的联合,而且这些特征可以被自动学习。有了这样的源语言句子的“表示”,解码器可以把这个实数向量作为输入,然后逐词生成目标语言句子“I am satisfied with you”。
\parinterval
图
\ref
{
fig:10-5
}
是一个应用编码器-解码器结构来解决机器翻译问题的简单实例。给定一个中文句子“我/对/你/感到/满意”,编码器会将这句话编码成一个实数向量
$
(
0
.
2
,
-
1
,
6
,
\\
5
,
0
.
7
,
-
2
)
$
,这个向量就是源语言句子的“表示”结果。虽然有些不可思议,但是神经机器翻译模型把这个向量等同于输入序列。向量中的数字并没有实际的意义,然而解码器却能从中提取到源语言句子中所包含的信息。也有研究
人员
把向量的每一个维度看作是一个“特征”,这样源语言句子就被表示成多个“特征”的联合,而且这些特征可以被自动学习。有了这样的源语言句子的“表示”,解码器可以把这个实数向量作为输入,然后逐词生成目标语言句子“I am satisfied with you”。
%----------------------------------------------
\begin{figure}
[htp]
...
...
@@ -415,7 +415,7 @@ NMT & 21.7 & 18.7 & -13.7 \\
\parinterval
显然,根据上下文中提到的“没/吃饭”、“很/饿”,最佳的答案是“吃饭”或者“吃东西”。也就是,对序列中某个位置的答案进行预测时需要记忆当前时刻之前的序列信息,因此,循环神经网络应运而生。实际上循环神经网络有着极为广泛的应用,例如语音识别、语言建模以及即将要介绍的神经机器翻译。
\parinterval
{
\chapternine
}
已经对循环神经网络的基本知识进行过介绍,这里再回顾一下。简单来说,循环神经网络由循环单元组成。对于序列中的任意时刻,都有一个循环单元与之对应,它会融合当前时刻的输入和上一时刻循环单元的输出,生成当前时刻的输出。这样每个时刻的信息都会被传递到下一时刻,这也间接达到了记录历史信息的目的。比如,对于序列
$
\seq
{
x
}
=
\{
x
_
1
,
x
_
2
,..., x
_
m
\}
$
,循环神经网络会按顺序输出一个序列
$
\seq
{
h
}
=
\{
\mathbi
{
h
}_
1
,
\mathbi
{
h
}_
2
,...,
\mathbi
{
h
}_
m
\}
$
,其中
$
\mathbi
{
h
}_
i
$
表示
$
i
$
时刻循环神经网络的输出(通常为一个向量)。
\parinterval
{
\chapternine
}
已经对循环神经网络的基本知识进行过介绍,这里再回顾一下。简单来说,循环神经网络由循环单元组成。对于序列中的任意时刻,都有一个循环单元与之对应,它会融合当前时刻的输入和上一时刻循环单元的输出,生成当前时刻的输出。这样每个时刻的信息都会被传递到下一时刻,这也间接达到了记录历史信息的目的。比如,对于序列
$
\seq
{
x
}
=
\{
x
_
1
,
..., x
_
m
\}
$
,循环神经网络会按顺序输出一个序列
$
\seq
{
h
}
=
\{
\mathbi
{
h
}_
1
,...,
\mathbi
{
h
}_
m
\}
$
,其中
$
\mathbi
{
h
}_
i
$
表示
$
i
$
时刻循环神经网络的输出(通常为一个向量)。
\parinterval
图
\ref
{
fig:10-8
}
展示了一个循环神经网络处理序列问题的实例。当前时刻循环单元的输入由上一个时刻的输出和当前时刻的输入组成,因此也可以理解为,网络当前时刻计算得到的输出是由之前的序列共同决定的,即网络在不断地传递信息的过程中记忆了历史信息。以最后一个时刻的循环单元为例,它在对“开始”这个单词的信息进行处理时,参考了之前所有词(“<sos>
\
让
\
我们”)的信息。
...
...
@@ -445,14 +445,14 @@ NMT & 21.7 & 18.7 & -13.7 \\
\label
{
eq:10-1
}
\end{eqnarray}
\noindent
这里,用
$
\seq
{{
x
}}
=
\{
x
_
1
,
x
_
2
,..., x
_
m
\}
$
表示输入的源语言单词序列,
$
\seq
{{
y
}}
=
\{
y
_
1
,y
_
2
,..., y
_
n
\}
$
表示生成的目标语言单词序列。由于神经机器翻译在生成译文时采用的是自左向右逐词生成的方式,并在翻译每个单词时考虑已经生成的翻译结果,因此对
$
\funp
{
P
}
(
\seq
{{
y
}}
|
\seq
{{
x
}}
)
$
的求解可以转换为下式:
\noindent
这里,用
$
\seq
{{
x
}}
=
\{
x
_
1
,
..., x
_
m
\}
$
表示输入的源语言单词序列,
$
\seq
{{
y
}}
=
\{
y
_
1
,..., y
_
n
\}
$
表示生成的目标语言单词序列。由于神经机器翻译在生成译文时采用的是自左向右逐词生成的方式,并在翻译每个单词时考虑已经生成的翻译结果,因此对
$
\funp
{
P
}
(
\seq
{{
y
}}
|
\seq
{{
x
}}
)
$
的求解可以转换为下式:
\begin{eqnarray}
\funp
{
P
}
(
\seq
{{
y
}}
|
\seq
{{
x
}}
)
&
=
&
\prod
_{
j=1
}^{
n
}
\funp
{
P
}
( y
_
j |
\seq
{{
y
}}_{
<j
}
,
\seq
{{
x
}}
)
\label
{
eq:10-2
}
\end{eqnarray}
\vspace
{
-0.5em
}
\noindent
其中,
$
\seq
{{
y
}}_{
<j
}$
表示目标语言第
$
j
$
个位置之前已经生成的译文单词序列。
$
\funp
{
P
}
(
y
_
j |
\seq
{{
y
}}_{
<j
}
,
\seq
{{
x
}}
)
$
可以被解释为:根据源语言句子
$
\seq
{{
x
}}
$
和已生成的目标语言译文片段
$
\seq
{{
y
}}_{
<j
}
=
\{
y
_
1
,
y
_
2
,
..., y
_{
j
-
1
}
\}
$
,生成第
$
j
$
个目标语言单词
$
y
_
j
$
的概率。
\noindent
其中,
$
\seq
{{
y
}}_{
<j
}$
表示目标语言第
$
j
$
个位置之前已经生成的译文单词序列。
$
\funp
{
P
}
(
y
_
j |
\seq
{{
y
}}_{
<j
}
,
\seq
{{
x
}}
)
$
可以被解释为:根据源语言句子
$
\seq
{{
x
}}
$
和已生成的目标语言译文片段
$
\seq
{{
y
}}_{
<j
}
=
\{
y
_
1
,..., y
_{
j
-
1
}
\}
$
,生成第
$
j
$
个目标语言单词
$
y
_
j
$
的概率。
\parinterval
求解
$
\funp
{
P
}
(
y
_
j |
\seq
{{
y
}}_{
<j
}
,
\seq
{{
x
}}
)
$
有三个关键问题(图
\ref
{
fig:10-10
}
):
...
...
@@ -490,7 +490,7 @@ $\funp{P}({y_j | \mathbi{s}_{j-1} ,y_{j-1},\mathbi{C}})$由Softmax实现,Softm
%----------------------------------------------
\parinterval
输入层(词嵌入)和输出层(Softmax)的内容已在
{
\chapternine
}
进行了介绍,因此这里的核心内容是设计循环神经网络结构,即设计循环单元的结构。至今,研究人员已经提出了很多优秀的循环单元结构。其中循环神经网络(RNN)
是最原始的循环单元结构。在RNN中,对于序列
$
\seq
{{
x
}}
=
\{
\mathbi
{
x
}_
1
,
\mathbi
{
x
}_
2
,
...,
\mathbi
{
x
}_
m
\}
$
,每个时刻
$
t
$
都对应一个循环单元,它的输出是一个向量
$
\mathbi
{
h
}_
t
$
,可以被描述为:
是最原始的循环单元结构。在RNN中,对于序列
$
\seq
{{
x
}}
=
\{
\mathbi
{
x
}_
1
,...,
\mathbi
{
x
}_
m
\}
$
,每个时刻
$
t
$
都对应一个循环单元,它的输出是一个向量
$
\mathbi
{
h
}_
t
$
,可以被描述为:
\begin{eqnarray}
\mathbi
{
h
}_
t
&
=
&
f(
\mathbi
{
x
}_
t
\mathbi
{
U
}
+
\mathbi
{
h
}_{
t-1
}
\mathbi
{
W
}
+
\mathbi
{
b
}
)
\label
{
eq:10-5
}
...
...
@@ -507,7 +507,7 @@ $\funp{P}({y_j | \mathbi{s}_{j-1} ,y_{j-1},\mathbi{C}})$由Softmax实现,Softm
\subsection
{
长短时记忆网络
}
\label
{
sec:lstm-cell
}
\parinterval
RNN结构使得当前时刻循环单元的状态包含了之前时间步的状态信息。但是这种对历史信息的记忆并不是无损的,随着序列变长,RNN的记忆信息的损失越来越严重。在很多长序列处理任务中(如长文本生成)都观测到了类似现象。对于这个问题,研究
者们
提出了
{
\small\bfnew
{
长短时记忆
}}
\index
{
长短时记忆
}
(Long Short-term Memory)
\index
{
Long Short-term Memory
}
模型,也就是常说的LSTM模型
\upcite
{
HochreiterLong
}
。
\parinterval
RNN结构使得当前时刻循环单元的状态包含了之前时间步的状态信息。但是这种对历史信息的记忆并不是无损的,随着序列变长,RNN的记忆信息的损失越来越严重。在很多长序列处理任务中(如长文本生成)都观测到了类似现象。对于这个问题,研究
人员
提出了
{
\small\bfnew
{
长短时记忆
}}
\index
{
长短时记忆
}
(Long Short-term Memory)
\index
{
Long Short-term Memory
}
模型,也就是常说的LSTM模型
\upcite
{
HochreiterLong
}
。
\parinterval
LSTM模型是RNN模型的一种改进。相比RNN仅传递前一时刻的状态
$
\mathbi
{
h
}_{
t
-
1
}$
,LSTM会同时传递两部分信息:状态信息
$
\mathbi
{
h
}_{
t
-
1
}$
和记忆信息
$
\mathbi
{
c
}_{
t
-
1
}$
。这里,
$
\mathbi
{
c
}_{
t
-
1
}$
是新引入的变量,它也是循环单元的一部分,用于显性地记录需要记录的历史内容,
$
\mathbi
{
h
}_{
t
-
1
}$
和
$
\mathbi
{
c
}_{
t
-
1
}$
在循环单元中会相互作用。LSTM通过“门”单元来动态地选择遗忘多少以前的信息和记忆多少当前的信息。LSTM中所使用的门单元结构如图
\ref
{
fig:10-11
}
所示,包括遗忘门,输入门和输出门。图中
$
\sigma
$
代表Sigmoid函数,它将函数输入映射为0-1范围内的实数,用来充当门控信号。
...
...
@@ -719,13 +719,13 @@ $\funp{P}({y_j | \mathbi{s}_{j-1} ,y_{j-1},\mathbi{C}})$由Softmax实现,Softm
\parinterval
神经机器翻译中,注意力机制的核心是:针对不同目标语言单词生成不同的上下文向量。这里,可以将注意力机制看做是一种对接收到的信息的加权处理。对于更重要的信息赋予更高的权重即更高的关注度,对于贡献度较低的信息分配较低的权重,弱化其对结果的影响。这样,
$
\mathbi
{
C
}_
j
$
可以包含更多对当前目标语言位置有贡献的源语言片段的信息。
\parinterval
根据这种思想,上下文向量
$
\mathbi
{
C
}_
j
$
被定义为对不同时间步编码器输出的状态序列
$
\{
\mathbi
{
h
}_
1
,
\mathbi
{
h
}_
2
,
...,
\mathbi
{
h
}_
m
\}
$
进行加权求和,如下式:
\parinterval
根据这种思想,上下文向量
$
\mathbi
{
C
}_
j
$
被定义为对不同时间步编码器输出的状态序列
$
\{
\mathbi
{
h
}_
1
,...,
\mathbi
{
h
}_
m
\}
$
进行加权求和,如下式:
\begin{eqnarray}
\mathbi
{
C
}_
j
&
=
&
\sum
_{
i
}
\alpha
_{
i,j
}
\mathbi
{
h
}_
i
\label
{
eq:10-16
}
\end{eqnarray}
\noindent
其中,
$
\alpha
_{
i,j
}$
是
{
\small\sffamily\bfseries
{
注意力权重
}}
\index
{
注意力权重
}
(Attention Weight)
\index
{
Attention Weight
}
,它表示目标语言第
$
j
$
个位置与源语言第
$
i
$
个位置之间的相关性大小。这里,将每个时间步编码器的输出
$
\mathbi
{
h
}_
i
$
看作源语言位置
$
i
$
的表示结果。进行翻译时,解码器可以根据当前的位置
$
j
$
,通过控制不同
$
\mathbi
{
h
}_
i
$
的权重得到
$
\mathbi
{
C
}_
j
$
,使得对目标语言位置
$
j
$
贡献大的
$
\mathbi
{
h
}_
i
$
对
$
\mathbi
{
C
}_
j
$
的影响增大。也就是说,
$
\mathbi
{
C
}_
j
$
实际上就是
\{
${
\mathbi
{
h
}_
1
,
\mathbi
{
h
}_
2
,
...,
\mathbi
{
h
}_
m
}$
\}
的一种组合,只不过不同的
$
\mathbi
{
h
}_
i
$
会根据对目标端的贡献给予不同的权重。图
\ref
{
fig:10-19
}
展示了上下文向量
$
\mathbi
{
C
}_
j
$
的计算过程。
\noindent
其中,
$
\alpha
_{
i,j
}$
是
{
\small\sffamily\bfseries
{
注意力权重
}}
\index
{
注意力权重
}
(Attention Weight)
\index
{
Attention Weight
}
,它表示目标语言第
$
j
$
个位置与源语言第
$
i
$
个位置之间的相关性大小。这里,将每个时间步编码器的输出
$
\mathbi
{
h
}_
i
$
看作源语言位置
$
i
$
的表示结果。进行翻译时,解码器可以根据当前的位置
$
j
$
,通过控制不同
$
\mathbi
{
h
}_
i
$
的权重得到
$
\mathbi
{
C
}_
j
$
,使得对目标语言位置
$
j
$
贡献大的
$
\mathbi
{
h
}_
i
$
对
$
\mathbi
{
C
}_
j
$
的影响增大。也就是说,
$
\mathbi
{
C
}_
j
$
实际上就是
\{
${
\mathbi
{
h
}_
1
,...,
\mathbi
{
h
}_
m
}$
\}
的一种组合,只不过不同的
$
\mathbi
{
h
}_
i
$
会根据对目标端的贡献给予不同的权重。图
\ref
{
fig:10-19
}
展示了上下文向量
$
\mathbi
{
C
}_
j
$
的计算过程。
%----------------------------------------------
\begin{figure}
[htp]
...
...
@@ -876,7 +876,7 @@ a (\mathbi{s},\mathbi{h}) &=& \left\{ \begin{array}{ll}
\subsection
{
实例 - GNMT
}
\vspace
{
0.5em
}
\parinterval
循环神经网络在机器翻译中有很多成功的应用,比如:RNNSearch
\upcite
{
bahdanau2014neural
}
、Nematus
\upcite
{
DBLP:journals/corr/SennrichFCBHHJL17
}
等系统就被很多研究
者
作为实验系统。在众多基于循环神经网络的系统中,GNMT系统是非常成功的一个
\upcite
{
Wu2016GooglesNM
}
。GNMT是谷歌2016年发布的神经机器翻译系统。
\parinterval
循环神经网络在机器翻译中有很多成功的应用,比如:RNNSearch
\upcite
{
bahdanau2014neural
}
、Nematus
\upcite
{
DBLP:journals/corr/SennrichFCBHHJL17
}
等系统就被很多研究
人员
作为实验系统。在众多基于循环神经网络的系统中,GNMT系统是非常成功的一个
\upcite
{
Wu2016GooglesNM
}
。GNMT是谷歌2016年发布的神经机器翻译系统。
\parinterval
GNMT使用了编码器-解码器结构,构建了一个8层的深度网络,每层网络均由LSTM组成,且在编码器-解码器之间使用了多层注意力连接。其结构如图
\ref
{
fig:10-24
}
,编码器只有最下面2层为双向LSTM。GNMT在束搜索中也加入了长度惩罚和覆盖度因子来确保输出高质量的翻译结果。
\vspace
{
0.5em
}
...
...
@@ -945,7 +945,7 @@ L_{\textrm{ce}}(\mathbi{y},\hat{\mathbi{y}}) &=& - \sum_{k=1}^{|V|} \mathbi{y}[k
\label
{
eq:10-25
}
\end{eqnarray}
\noindent
其中
$
\mathbi
{
y
}
[
k
]
$
和
$
\hat
{
\mathbi
{
y
}}
[
k
]
$
分别表示向量
$
\mathbi
{
y
}$
和
$
\hat
{
\mathbi
{
y
}}$
的第
$
k
$
维,
$
|V|
$
表示输出向量的维度(等于词表大小)。假设有
$
n
$
个训练样本,模型输出的概率分布为
$
\mathbi
{
Y
}
=
\{
\mathbi
{
y
}_
1
,
\mathbi
{
y
}_
2
,...,
\mathbi
{
y
}_
n
\}
$
,标准答案的分布
$
\widehat
{
\mathbi
{
Y
}}
=
\{
\hat
{
\mathbi
{
y
}}_
1
,
\hat
{
\mathbi
{
y
}}_
2
,...,
\hat
{
\mathbi
{
y
}}_
n
\}
$
。这个训练样本集合上的损失函数可以被定义为:
\noindent
其中
$
\mathbi
{
y
}
[
k
]
$
和
$
\hat
{
\mathbi
{
y
}}
[
k
]
$
分别表示向量
$
\mathbi
{
y
}$
和
$
\hat
{
\mathbi
{
y
}}$
的第
$
k
$
维,
$
|V|
$
表示输出向量的维度(等于词表大小)。假设有
$
n
$
个训练样本,模型输出的概率分布为
$
\mathbi
{
Y
}
=
\{
\mathbi
{
y
}_
1
,
...,
\mathbi
{
y
}_
n
\}
$
,标准答案的分布
$
\widehat
{
\mathbi
{
Y
}}
=
\{
\hat
{
\mathbi
{
y
}}_
1
,...,
\hat
{
\mathbi
{
y
}}_
n
\}
$
。这个训练样本集合上的损失函数可以被定义为:
\begin{eqnarray}
L(
\mathbi
{
Y
}
,
\widehat
{
\mathbi
{
Y
}}
)
&
=
&
\sum
_{
j=1
}^
n L
_{
\textrm
{
ce
}}
(
\mathbi
{
y
}_
j,
\hat
{
\mathbi
{
y
}}_
j)
\label
{
eq:10-26
}
...
...
@@ -1187,7 +1187,7 @@ L(\mathbi{Y},\widehat{\mathbi{Y}}) &=& \sum_{j=1}^n L_{\textrm{ce}}(\mathbi{y}_j
\subsubsection
{
2. 束搜索
}
\vspace
{
0.5em
}
\parinterval
束搜索是一种启发式图搜索算法。相比于全搜索,它可以减少搜索所占用的空间和时间,在每一步扩展的时候,剪掉一些质量比较差的结点,保留下一些质量较高的结点。具体到机器翻译任务,对于每一个目标语言位置,束搜索选择了概率最大的前
$
k
$
个单词进行扩展(其中
$
k
$
叫做束宽度,或简称为束宽)。如图
\ref
{
fig:10-31
}
所示,假设
\{
$
y
_
1
,
y
_
2
,
..., y
_
n
$
\}
表示生成的目标语言序列,且
$
k
=
3
$
,则束搜索的具体过程为:在预测第一个位置时,可以通过模型得到
$
y
_
1
$
的概率分布,选取概率最大的前3个单词作为候选结果(假设分别为“have”, “has”, “it”)。在预测第二个位置的单词时,模型针对已经得到的三个候选结果(“have”, “has”, “it”)计算第二个单词的概率分布。因为
$
y
_
2
$
对应
$
|V|
$
种可能,总共可以得到
$
3
\times
|V|
$
种结果。然后从中选取使序列概率
$
\funp
{
P
}
(
y
_
2
,y
_
1
|
\seq
{{
x
}}
)
$
最大的前三个
$
y
_
2
$
作为新的输出结果,这样便得到了前两个位置的top-3译文。在预测其他位置时也是如此,不断重复此过程直到推断结束。可以看到,束搜索的搜索空间大小与束宽度有关,也就是:束宽度越大,搜索空间越大,更有可能搜索到质量更高的译文,但同时搜索会更慢。束宽度等于3,意味着每次只考虑三个最有可能的结果,贪婪搜索实际上便是束宽度为1的情况。在神经机器翻译系统实现中,一般束宽度设置在4~8之间。
\parinterval
束搜索是一种启发式图搜索算法。相比于全搜索,它可以减少搜索所占用的空间和时间,在每一步扩展的时候,剪掉一些质量比较差的结点,保留下一些质量较高的结点。具体到机器翻译任务,对于每一个目标语言位置,束搜索选择了概率最大的前
$
k
$
个单词进行扩展(其中
$
k
$
叫做束宽度,或简称为束宽)。如图
\ref
{
fig:10-31
}
所示,假设
\{
$
y
_
1
,..., y
_
n
$
\}
表示生成的目标语言序列,且
$
k
=
3
$
,则束搜索的具体过程为:在预测第一个位置时,可以通过模型得到
$
y
_
1
$
的概率分布,选取概率最大的前3个单词作为候选结果(假设分别为“have”, “has”, “it”)。在预测第二个位置的单词时,模型针对已经得到的三个候选结果(“have”, “has”, “it”)计算第二个单词的概率分布。因为
$
y
_
2
$
对应
$
|V|
$
种可能,总共可以得到
$
3
\times
|V|
$
种结果。然后从中选取使序列概率
$
\funp
{
P
}
(
y
_
2
,y
_
1
|
\seq
{{
x
}}
)
$
最大的前三个
$
y
_
2
$
作为新的输出结果,这样便得到了前两个位置的top-3译文。在预测其他位置时也是如此,不断重复此过程直到推断结束。可以看到,束搜索的搜索空间大小与束宽度有关,也就是:束宽度越大,搜索空间越大,更有可能搜索到质量更高的译文,但同时搜索会更慢。束宽度等于3,意味着每次只考虑三个最有可能的结果,贪婪搜索实际上便是束宽度为1的情况。在神经机器翻译系统实现中,一般束宽度设置在4~8之间。
%----------------------------------------------
\begin{figure}
[htp]
...
...
@@ -1252,7 +1252,7 @@ L(\mathbi{Y},\widehat{\mathbi{Y}}) &=& \sum_{j=1}^n L_{\textrm{ce}}(\mathbi{y}_j
\vspace
{
0.5em
}
\item
循环神经网络有很多变种结构。比如,除了RNN、LSTM、GRU,还有其他改进的循环单元结构,如LRN
\upcite
{
DBLP:journals/corr/abs-1905-13324
}
、SRU
\upcite
{
Lei2017TrainingRA
}
、ATR
\upcite
{
Zhang2018SimplifyingNM
}
。
\vspace
{
0.5em
}
\item
注意力机制的使用是机器翻译乃至整个自然语言处理近几年获得成功的重要因素之一
\upcite
{
bahdanau2014neural,DBLP:journals/corr/LuongPM15
}
。早期,有研究
者
尝试将注意力机制和统计机器翻译的词对齐进行统一
\upcite
{
WangNeural,He2016ImprovedNM,li-etal-2019-word
}
。最近,也有大量的研究工作对注意力机制进行改进,比如,使用自注意力机制构建翻译模型等
\upcite
{
vaswani2017attention
}
。而对注意力模型的改进也成为了自然语言处理中的热点问题之一。在
{
\chapterfifteen
}
会对机器翻译中不同注意力模型进行进一步讨论。
\item
注意力机制的使用是机器翻译乃至整个自然语言处理近几年获得成功的重要因素之一
\upcite
{
bahdanau2014neural,DBLP:journals/corr/LuongPM15
}
。早期,有研究
人员
尝试将注意力机制和统计机器翻译的词对齐进行统一
\upcite
{
WangNeural,He2016ImprovedNM,li-etal-2019-word
}
。最近,也有大量的研究工作对注意力机制进行改进,比如,使用自注意力机制构建翻译模型等
\upcite
{
vaswani2017attention
}
。而对注意力模型的改进也成为了自然语言处理中的热点问题之一。在
{
\chapterfifteen
}
会对机器翻译中不同注意力模型进行进一步讨论。
\vspace
{
0.5em
}
\item
一般来说,神经机器翻译的计算过程是没有人工干预的,翻译流程也无法用人类的知识直接进行解释,因此一个有趣的方向是在神经机器翻译中引入先验知识,使得机器翻译的行为更“像”人。比如,可以使用句法树来引入人类的语言学知识
\upcite
{
Yang2017TowardsBH,Wang2019TreeTI
}
,基于句法的神经机器翻译也包含大量的树结构的神经网络建模
\upcite
{
DBLP:journals/corr/abs-1809-01854,DBLP:journals/corr/abs-1808-09374
}
。此外,也可以把用户定义的词典或者翻译记忆加入到翻译过程中
\upcite
{
DBLP:journals/corr/ZhangZ16c,zhang-etal-2017-prior,duan-etal-2020-bilingual,cao-xiong-2018-encoding
}
,使得用户的约束可以直接反映到机器翻译的结果上来。先验知识的种类还有很多,包括词对齐
\upcite
{
li-etal-2019-word,DBLP:conf/emnlp/MiWI16,DBLP:conf/coling/LiuUFS16
}
、 篇章信息
\upcite
{
Werlen2018DocumentLevelNM,DBLP:journals/corr/abs-1805-10163,DBLP:conf/acl/LiLWJXZLL20
}
等等,都是神经机器翻译中能够使用的信息。
\end{itemize}
...
...
Chapter11/chapter11.tex
查看文件 @
52347bbd
...
...
@@ -266,9 +266,9 @@
\subsection
{
位置编码
}
\label
{
sec:11.2.1
}
\parinterval
与基于循环神经网络的翻译模型类似,基于卷积神经网络的翻译模型同样用词嵌入序列来表示输入序列,记为
$
\seq
{
w
}
=
\{\mathbi
{
w
}_
1
,
\mathbi
{
w
}_
2
,
...,
\mathbi
{
w
}_
m
\}
$
。序列
$
\seq
{
w
}$
是维度大小为
$
m
\times
d
$
的矩阵,第
$
i
$
个单词
$
\mathbi
{
w
}_
i
$
是维度为
$
d
$
的向量,其中
$
m
$
为序列长度,
$
d
$
为词嵌入向量维度。和循环神经网络不同的是,基于卷积神经网络的模型需要对每个输入单词位置进行表示。这是由于,在卷积神经网络中,受限于卷积核的大小,单层的卷积神经网络只能捕捉序列局部的相对位置信息。虽然多层的卷积神经网络可以扩大感受野,但是对全局的位置表示并不充分。而相较于基于卷积神经网络的模型,基于循环神经网络的模型按时间步对输入的序列进行建模,这样间接的对位置信息进行了建模。而词序又是自然语言处理任务中重要信息,因此这里需要单独考虑。
\parinterval
与基于循环神经网络的翻译模型类似,基于卷积神经网络的翻译模型同样用词嵌入序列来表示输入序列,记为
$
\seq
{
w
}
=
\{\mathbi
{
w
}_
1
,...,
\mathbi
{
w
}_
m
\}
$
。序列
$
\seq
{
w
}$
是维度大小为
$
m
\times
d
$
的矩阵,第
$
i
$
个单词
$
\mathbi
{
w
}_
i
$
是维度为
$
d
$
的向量,其中
$
m
$
为序列长度,
$
d
$
为词嵌入向量维度。和循环神经网络不同的是,基于卷积神经网络的模型需要对每个输入单词位置进行表示。这是由于,在卷积神经网络中,受限于卷积核的大小,单层的卷积神经网络只能捕捉序列局部的相对位置信息。虽然多层的卷积神经网络可以扩大感受野,但是对全局的位置表示并不充分。而相较于基于卷积神经网络的模型,基于循环神经网络的模型按时间步对输入的序列进行建模,这样间接的对位置信息进行了建模。而词序又是自然语言处理任务中重要信息,因此这里需要单独考虑。
\parinterval
为了更好地引入序列的词序信息,该模型引入了位置编码
$
\seq
{
p
}
=
\{\mathbi
{
p
}_
1
,
\mathbi
{
p
}_
2
,...,
\mathbi
{
p
}_
m
\}
$
,其中
$
\mathbi
{
p
}_
i
$
的维度大小为
$
d
$
,一般和词嵌入维度相等,其中具体数值作为网络可学习的参数。简单来说,
$
\mathbi
{
p
}_
i
$
是一个可学习的参数向量,对应位置
$
i
$
的编码。这种编码的作用就是对位置信息进行表示,不同序列中的相同位置都对应一个唯一的位置编码向量。之后将词嵌入矩阵和位置编码进行相加,得到模型的输入序列
$
\seq
{
e
}
=
\{\mathbi
{
w
}_
1
+
\mathbi
{
p
}_
1
,
\mathbi
{
w
}_
2
+
\mathbi
{
p
}_
2
,...,
\mathbi
{
w
}_
m
+
\mathbi
{
p
}_
m
\}
$
。 也有研究人员发现卷积神经网络本身具备一定的编码位置信息的能力
\upcite
{
Islam2020HowMP
}
,而这里额外的位置编码模块可以被看作是对卷积神经网络位置编码能力的一种补充。
\parinterval
为了更好地引入序列的词序信息,该模型引入了位置编码
$
\seq
{
p
}
=
\{\mathbi
{
p
}_
1
,
...,
\mathbi
{
p
}_
m
\}
$
,其中
$
\mathbi
{
p
}_
i
$
的维度大小为
$
d
$
,一般和词嵌入维度相等,其中具体数值作为网络可学习的参数。简单来说,
$
\mathbi
{
p
}_
i
$
是一个可学习的参数向量,对应位置
$
i
$
的编码。这种编码的作用就是对位置信息进行表示,不同序列中的相同位置都对应一个唯一的位置编码向量。之后将词嵌入矩阵和位置编码进行相加,得到模型的输入序列
$
\seq
{
e
}
=
\{\mathbi
{
w
}_
1
+
\mathbi
{
p
}_
1
,...,
\mathbi
{
w
}_
m
+
\mathbi
{
p
}_
m
\}
$
。 也有研究人员发现卷积神经网络本身具备一定的编码位置信息的能力
\upcite
{
Islam2020HowMP
}
,而这里额外的位置编码模块可以被看作是对卷积神经网络位置编码能力的一种补充。
%----------------------------------------------------------------------------------------
% NEW SUB-SECTION
...
...
@@ -461,7 +461,7 @@
\subsection
{
深度可分离卷积
}
\label
{
sec:11.3.1
}
\parinterval
根据前面的介绍,可以看到卷积神经网络容易用于局部检测和处理位置不变的特征。对于特定的表达,比如地点、情绪等,使用卷积神经网络能达到不错的识别效果,因此它常被用在文本分类中
\upcite
{
Kalchbrenner2014ACN,Kim2014ConvolutionalNN,DBLP:conf/naacl/Johnson015,DBLP:conf/acl/JohnsonZ17
}
。不过机器翻译所面临的情况更复杂,除了局部句子片段信息,
我们
还希望模型能够捕获句子结构、语义等信息。虽然单层卷积神经网络在文本分类中已经取得了很好的效果
\upcite
{
Kim2014ConvolutionalNN
}
,但是神经机器翻译等任务仍然需要有效的卷积神经网络。随着深度可分离卷积在机器翻译中的探索
\upcite
{
Kaiser2018DepthwiseSC
}
,更高效的网络结构被设计出来,获得了比ConvS2S模型更好的性能。
\parinterval
根据前面的介绍,可以看到卷积神经网络容易用于局部检测和处理位置不变的特征。对于特定的表达,比如地点、情绪等,使用卷积神经网络能达到不错的识别效果,因此它常被用在文本分类中
\upcite
{
Kalchbrenner2014ACN,Kim2014ConvolutionalNN,DBLP:conf/naacl/Johnson015,DBLP:conf/acl/JohnsonZ17
}
。不过机器翻译所面临的情况更复杂,除了局部句子片段信息,
研究人员
还希望模型能够捕获句子结构、语义等信息。虽然单层卷积神经网络在文本分类中已经取得了很好的效果
\upcite
{
Kim2014ConvolutionalNN
}
,但是神经机器翻译等任务仍然需要有效的卷积神经网络。随着深度可分离卷积在机器翻译中的探索
\upcite
{
Kaiser2018DepthwiseSC
}
,更高效的网络结构被设计出来,获得了比ConvS2S模型更好的性能。
%----------------------------------------------
% 图17.
...
...
@@ -475,7 +475,7 @@
\parinterval
深度可分离卷积由深度卷积和逐点卷积两部分结合而成
\upcite
{
sifre2014rigid
}
。图
\ref
{
fig:11-17
}
对比了标准卷积、深度卷积和逐点卷积,为了方便显示,图中只画出了部分连接。
\parinterval
给定输入序列表示
$
\seq
{
x
}
=
\{
\mathbi
{
x
}_
1
,
\mathbi
{
x
}_
2
,...,
\mathbi
{
x
}_
m
\}
$
,其中
$
m
$
为序列长度,
$
\mathbi
{
x
}_
i
\in
\mathbb
{
R
}^{
O
}
$
,
$
O
$
即输入序列的通道数。为了获得与输入序列长度相同的卷积输出结果,首先需要进行填充。为了方便描述,这里在输入序列尾部填充
$
K
-
1
$
个元素(
$
K
$
为卷积核窗口的长度),其对应的卷积结果为
$
\seq
{
z
}
=
\{
\mathbi
{
z
}_
1
,
\mathbi
{
z
}_
2
,...,
\mathbi
{
z
}_
m
\}
$
。
\parinterval
给定输入序列表示
$
\seq
{
x
}
=
\{
\mathbi
{
x
}_
1
,
...,
\mathbi
{
x
}_
m
\}
$
,其中
$
m
$
为序列长度,
$
\mathbi
{
x
}_
i
\in
\mathbb
{
R
}^{
O
}
$
,
$
O
$
即输入序列的通道数。为了获得与输入序列长度相同的卷积输出结果,首先需要进行填充。为了方便描述,这里在输入序列尾部填充
$
K
-
1
$
个元素(
$
K
$
为卷积核窗口的长度),其对应的卷积结果为
$
\seq
{
z
}
=
\{
\mathbi
{
z
}_
1
,...,
\mathbi
{
z
}_
m
\}
$
。
在标准卷积中,若使用N表示卷积核的个数,也就是标准卷积输出序列的通道数,那么对于第
$
i
$
个位置的第
$
n
$
个通道
$
\mathbi
{
z
}_{
i,n
}^
\textrm
{
\,
std
}$
,其标准卷积具体计算如下:
\begin{eqnarray}
\mathbi
{
z
}_{
i,n
}^
\textrm
{
\,
std
}
&
=
&
\sum
_{
o=1
}^{
O
}
\sum
_{
k=0
}^{
K-1
}
\mathbi
{
W
}_{
k,o,n
}^
\textrm
{
\,
std
}
\mathbi
{
x
}_{
i+k,o
}
...
...
Chapter12/chapter12.tex
查看文件 @
52347bbd
...
...
@@ -319,7 +319,7 @@
\subsection
{
多头注意力机制
}
\parinterval
Transformer中使用的另一项重要技术是
{
\small\sffamily\bfseries
{
多头注意力机制
}}
\index
{
多头注意力机制
}
(Multi-head Attention)
\index
{
Multi-head Attention
}
。“多头”可以理解成将原来的
$
\mathbi
{
Q
}$
、
$
\mathbi
{
K
}$
、
$
\mathbi
{
V
}$
按照隐层维度平均切分成多份。假设切分
$
h
$
份,那么最终会得到
$
\mathbi
{
Q
}
=
\{
\mathbi
{
Q
}_
1
,
\mathbi
{
Q
}_
2
,...,
\mathbi
{
Q
}_
h
\}
$
,
$
\mathbi
{
K
}
=
\{
\mathbi
{
K
}_
1
,
\mathbi
{
K
}_
2
,...,
\mathbi
{
K
}_
h
\}
$
,
$
\mathbi
{
V
}
=
\{
\mathbi
{
V
}_
1
,
\mathbi
{
V
}_
2
,...,
\mathbi
{
V
}_
h
\}
$
。多头注意力就是用每一个切分得到的
$
\mathbi
{
Q
}$
,
$
\mathbi
{
K
}$
,
$
\mathbi
{
V
}$
独立的进行注意力计算,即第
$
i
$
个头的注意力计算结果
$
\mathbi
{
head
}_
i
=
\textrm
{
Attention
}
(
\mathbi
{
Q
}_
i,
\mathbi
{
K
}_
i,
\mathbi
{
V
}_
i
)
$
。
\parinterval
Transformer中使用的另一项重要技术是
{
\small\sffamily\bfseries
{
多头注意力机制
}}
\index
{
多头注意力机制
}
(Multi-head Attention)
\index
{
Multi-head Attention
}
。“多头”可以理解成将原来的
$
\mathbi
{
Q
}$
、
$
\mathbi
{
K
}$
、
$
\mathbi
{
V
}$
按照隐层维度平均切分成多份。假设切分
$
h
$
份,那么最终会得到
$
\mathbi
{
Q
}
=
\{
\mathbi
{
Q
}_
1
,
...,
\mathbi
{
Q
}_
h
\}
$
,
$
\mathbi
{
K
}
=
\{
\mathbi
{
K
}_
1
,...,
\mathbi
{
K
}_
h
\}
$
,
$
\mathbi
{
V
}
=
\{
\mathbi
{
V
}_
1
,...,
\mathbi
{
V
}_
h
\}
$
。多头注意力就是用每一个切分得到的
$
\mathbi
{
Q
}$
,
$
\mathbi
{
K
}$
,
$
\mathbi
{
V
}$
独立的进行注意力计算,即第
$
i
$
个头的注意力计算结果
$
\mathbi
{
head
}_
i
=
\textrm
{
Attention
}
(
\mathbi
{
Q
}_
i,
\mathbi
{
K
}_
i,
\mathbi
{
V
}_
i
)
$
。
\parinterval
下面根据图
\ref
{
fig:12-12
}
详细介绍多头注意力的计算过程:
...
...
编写
预览
Markdown
格式
0%
重试
或
添加新文件
添加附件
取消
您添加了
0
人
到此讨论。请谨慎行事。
请先完成此评论的编辑!
取消
请
注册
或者
登录
后发表评论