Chapter6.tex 191 KB
Newer Older
曹润柘 committed
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15
% !Mode:: "TeX:UTF-8"
% !TEX encoding = UTF-8 Unicode

%----------------------------------------------------------------------------------------
%	CHAPTER 6
%----------------------------------------------------------------------------------------
\renewcommand\figurename{}%将figure改为图
\renewcommand\tablename{}%将figure改为图
\definecolor{ublue}{rgb}{0.152,0.250,0.545}
\definecolor{ugreen}{rgb}{0,0.5,0}
\chapterimage{chapter_head_1} % Chapter heading image
%------------------------------------------------

%公式1.7之后往后串一个
%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
xiaotong committed
16
\chapter{神经机器翻译模型}
曹润柘 committed
17

xiaotong committed
18
\parinterval \textbf{神经机器翻译}(Neural Machine Translation)是机器翻译的前沿方法。近几年,随着深度学习技术的发展和在各领域中的深入应用,基于端到端表示学习的方法正在改变着我们处理自然语言的方式,神经机器翻译在这种趋势下应运而生。一方面,神经机器翻译仍然延续着统计建模和基于数据驱动的思想,因此在基本问题的定义上与前人的研究是一致的;另一方面,神经机器翻译脱离了统计机器翻译中对隐含翻译结构的假设,同时使用分布式表示来对文字序列进行建模,这使得它可以从一个全新的视角看待翻译问题。现在,神经机器翻译已经成为了机器翻译研究及应用的热点,译文质量得到了巨大的提升。在本章中,我们将对神经机器翻译的基础模型和方法进行介绍。
曹润柘 committed
19 20 21
%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
\section{神经机器翻译的发展简史}\index{Chapter6.1}%Index的作用,目前不清晰

曹润柘 committed
22
\parinterval 纵观机器翻译的发展历程,神经机器翻译诞生的很晚。无论是早期的基于规则的方法,还是逐渐发展起来的基于实例的方法,再到上世纪末的统计方法,每次机器翻译框架级的创新都需要很长时间的酝酿,而技术走向成熟甚至需要更长的时间。但是,神经机器翻译的出现和后来的发展速度多少有些``出人意料''。神经机器翻译的概念出现在2013-2014年间,当时机器翻译领域的主流方法仍然是统计机器翻译。虽然那个时期深度学习已经在图像、语音等领域取得令人瞩目的效果,但是对于自然语言处理来说深度学习仍然不是主流。这也导致当时的研究者对神经机器翻译这种方法还有一些排斥。
曹润柘 committed
23 24 25 26 27 28 29 30 31 32

\parinterval 不过,有人也意识到了神经机器翻译在表示学习等方面的优势。特别是,以Yoshua Bengio团队为代表的研究力量对包括机器翻译在内的序列到序列问题进行了广泛而深入的研究,注意力机制等新的模型不断被推出。这使得神经机器翻译的翻译品质逐渐体现出优势,甚至超越了当时的统计机器翻译。正当大家在讨论神经机器翻译是否能取代统计机器翻译成为下一代机器翻译的范式的时候,谷歌、百度等企业推出以神经机器翻译技术为内核的在线机器翻译服务。在很多场景下的翻译品质显著超越了当时最好的统计机器翻译系统。这也引发了学术界和产业界对神经机器翻译的讨论。随着关注度的不断升高,神经机器翻译的研究吸引了更多的科研机构和企业的投入,系统翻译品质得到进一步提升。

\parinterval 在短短5-6年间,神经机器翻译从一个新生的概念已经成长为机器翻译领域的最前沿技术之一,在各种机器翻译评测和应用中呈全面替代统计机器翻译之势。比如,从近几年WMT、CCMT等评测结果来看,神经机器翻译已经处于绝对的统治地位,在各个语种和领域的翻译任务中,成为各参赛系统的标配。此外,从ACL等自然语言处理顶级会议的发表论文看,神经机器翻译是毫无疑问的焦点,在论文数量上成明显的增长趋势,这也体现了学术界对该方法的热情。至今,无论是国外的著名企业,如谷歌、微软、脸书,还是国内的团队,如百度、腾讯、阿里巴巴、有道、搜狗、小牛翻译,都推出了自己研发的神经机器翻译系统,整个研究和产业生态欣欣向荣。图\ref{fig:6-1}展示了包含神经机器翻译在内的机器翻译发展简史。
%空一行用来段落换行,noindent取消首行缩进,hspace{}指定缩进距离,1em等于两个英文字符|一个汉字
%----------------------------------------------
% 图6.1

\begin{figure}[htp]
\centering
曹润柘 committed
33
\includegraphics[scale=0.36]{./Chapter6/Figures/mt-history.png}
曹润柘 committed
34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54
\caption{机器翻译发展简史}
\label{fig:6-1}
\end{figure}
%-------------------------------------------

\parinterval 神经机器翻译的迅速崛起确实让所有人都有些措手不及,甚至有一种一觉醒来天翻地覆的感觉。也有人评价,神经机器翻译的出现给整个机器翻译领域带来了前所未有的发展机遇。不过,客观的看,机器翻译达到今天这样的状态也是一种历史必然,其中有几方面原因:

\begin{itemize}
\item 自上世纪末所发展起来的基于数据驱动的方法为神经机器翻译提供了很好的基础。本质上,神经机器翻译仍然是一种基于统计建模的数据驱动的方法,因此无论是对问题的基础建模方式,还是训练统计模型所使用到的训练用数据,都可以复用机器翻译领域以前的研究成果。特别是,机器翻译长期的发展已经产生了大量的双语、单语数据,这些数据在统计机器翻译时代就发挥了很大作用。随着时间的推移,数据规模和质量又得到进一步提升,包括一些评测基准、任务设置都已经非常完备,而研究者可以直接在数据条件全部具备的情况下开展神经机器翻译的研究工作,这些都省去了大量的时间成本。从这个角度说,神经机器翻译是站在巨人的肩膀上才发展起来的。

\item 深度学习经过长时间的酝酿终于爆发,为机器翻译等自然语言处理任务提供了新的思路和技术手段。神经机器翻译的不断壮大伴随着深度学习技术的发展。在深度学习的视角下,语言文字可以被表示成抽象的实数向量,这种文字的表示方法可以被自动学习,为机器翻译建模提供了更大的灵活性。相对神经机器翻译,深度学习的发展更充满了曲折。虽然深度学习经过了漫长的起伏过程,神经机器翻译恰好出现在深度学习逐渐走向成熟的阶段。反过来说,受到深度学习及相关技术空前发展的影响,自然语言处理的范式也发生了变化,神经机器翻译的出现只是这种趋势下的一种必然。

\item 此外,计算机算力的提升也为神经机器翻译提供了很好的支撑。与很多神经网络方法一样,神经机器翻译也依赖大量的基于浮点数的矩阵运算。在2000年前,大规模的矩阵运算仍然依赖非常昂贵的CPU集群系统,但是随着GPU等技术的发展,在相对低成本的设备上已经可以完成非常复杂的浮点并行运算。这使得包括神经机器翻译在内的很多基于深度学习的系统可以进行大规模实验,随着实验成本的降低,相关研究和系统的迭代周期大大缩短。实际上,计算机硬件运算能力一直是稳定提升的,神经机器翻译只是受益于运算能力的阶段性突破。

\item 还有,翻译的需求不断增加也为机器翻译技术提供了新的机会。在近几年,无论是翻译品质,还是翻译语种数量,甚至不同的翻译场景,都对机器翻译有了更高的要求。人们迫切需要一种品质更高、翻译效果稳定的机器翻译方法,神经机器翻译恰好满足了这些要求。当然,应用端的需求的增加也会反推机器翻译技术的发展,二者相互促进。
\end{itemize}

\parinterval 至今,神经机器翻译已经成为带有时代特征的标志性方法。当然,机器翻译的发展也远没有达到终点。下面我们通过对神经机器翻译的起源和优势进行介绍,以便读者在正式了解神经机器翻译的技术方法前对现状有一个充分的认识。
%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
\subsection{神经机器翻译的起源}\index{Chapter6.1.1}

曹润柘 committed
55
\parinterval 从广义上讲,神经机器翻译是一种基于人工神经网络的方法,它把翻译过程描述为可以用人工神经网络表示的函数。所有的训练和推断都在这些函数上进行。由于神经机器翻译中的神经网络可以用连续可微函数表示,因此这类方法也可以用基于梯度的方法进行优化,相关技术非常成熟。更为重要的是,在神经网络的设计中,研究者引入了分布式表示(distributed representation)的概念,这也是近些年自然语言处理领域的重要成果之一。传统统计机器翻译仍然把词序列看作离散空间里的由多个特征函数描述的点,类似于$n$-gram语言模型,这类模型对数据稀疏问题非常敏感。此外,人工设计特征也在一定程度上限制了模型对问题的表示能力。神经机器翻译把文字序列表示为实数向量,一方面避免了特征工程繁重的工作,另一方面使得系统可以对文字序列的``表示''进行学习。可以说,神经机器翻译的成功很大程度上源自``表示学习''这种自然语言处理的新范式的出现。在表示学习的基础上,注意力机制、深度神经网络等技术都被应用于神经机器翻译,使其得以进一步发展。
曹润柘 committed
56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76

\parinterval 虽然神经机器翻译中大量的使用了人工神经网络方法,但是它并不是最早在机器翻译中使用人工神经网络的框架。实际上,人工神经网络在机器翻译中应用的历史要远早于现在的神经机器翻译。 在统计机器翻译时代,也有很多利用人工神经网络进行进行机器翻译系统模块的构建\cite{devlin-etal-2014-fast}\cite{liumodel},比如,Jacob Devlin等人就成功的在统计机器翻译系统中使用了基于神经网络的联合表示模型,取得了令人振奋的结果,这项工作也获得了ACL2014的最佳论文奖(best paper award)。

\parinterval 不过,以上这些工作大多都是在局部使用人工神经网络和深度学习方法。与之不同的是,神经机器翻译是用人工神经网络完成整个翻译过程的建模,这样做的一个好处是,整个系统可以进行端到端学习,无需引入对任何翻译的隐含结构假设。这种利用端到端学习对机器翻译进行神经网络建模的方式也就成为了现在大家所熟知的神经机器翻译。这里简单列出部分代表性的工作:

\begin{itemize}
\item 早在2013年,牛津大学的Nal Kalchbrenner和Phil Blunsom提出了一个基于编码器-解码器结构的新模型\cite{kalchbrenner-blunsom-2013-recurrent}。该模型首先用卷积神经网络(CNN)将源语言编码成实数向量,之后用循环神经网络(RNN)将连续向量转换成目标语言。这使得模型不需要进行词对齐、特征提取等工作,就能够自动学习源语言的信息。这也是一种端到端学习的方法。不过,这项工作的实现较复杂,而且方法存在梯度消失/爆炸等问题\cite{HochreiterThe}\cite{BENGIO1994Learning},因此并没有成为后来神经机器翻译的基础框架。

\item 2014年,谷歌的Ilya Sutskever等人提出了序列到序列(seq2seq)学习的方法,同时将长短记忆结构(LSTM)引入到神经机器翻译中,这个方法解决了梯度爆炸/消失的问题,并且通过遗忘门的设计让网络选择性的记忆信息,缓解了序列中长距离依赖的问题\cite{NIPS2014_5346}。但是该模型在进行编码的过程中,将不同长度的源句子压缩成了一个固定长度的向量,句子越长,损失的信息越多,同时该模型无法对输入和输出序列之间的对齐进行建模,因此并不能有效的保证翻译质量。

\item 同年Dzmitry Bahdanau等人首次将注意力机制(Attention Mechanism)应用到机器翻译领域,在机器翻译任务上将翻译和局部翻译单元之间的对应关系同时进行建模\cite{bahdanau2014neural}。Bahdanau等人工作的意义在于,使用了更加有效的模型来表示源语言的信息,同时使用注意力机制对两种语言不同部分之间的相互联系进行了建模。这种方法可以有效的处理长句子的翻译,而且注意力的中间结果具有一定的可解释性\footnote{比如,目标语言和源语言句子不同单词之间的注意力强度能够在一定程度上反应单词之间的互译程度。} 。然而相比于前人的神经机器翻译模型,注意力模型也引入了额外的成本,计算量较大。

\item 2016年谷歌发布了基于多层循环神经网络方法的GNMT系统,集成了当时的神经机器翻译技术,并进行了诸多的改进,性能显著优于基于短语的机器翻译系统\cite{Wu2016GooglesNM},引起了广泛的关注。在之后的不到一年中,Facebook采用卷积神经网络(CNN)研发了新的神经机器翻译系统\cite{DBLP:journals/corr/GehringAGYD17},实现了比基于循环神经网络(RNN)系统更好的表现水平,并获得了近9倍的加速。

\item 2017年,谷歌的Ashish Vaswani等人提出了新的翻译模型Transformer。其完全抛弃了CNN、RNN等结构,仅仅通过自注意力机制(self-attentiion)和前向神经网络,不需要使用序列对齐的循环框架就实现了强大的性能,并且巧妙的解决了翻译中的长距离依赖问题\cite{NIPS2017_7181}。Transformer是第一个完全基于注意力机制搭建的模型,不仅计算速度更快,在翻译任务上也获得了更好的结果,一跃成为目前最主流的神经机器翻译框架。
\end{itemize}

\parinterval  神经机器翻译的工作远不止以上这些内容,实际上全面介绍所有神经机器翻译的方法也是非常有挑战的工作。感兴趣的读者可以参考一篇关于神经机器翻译的综述文章 - Neural Machine Translation: A Review\cite{StahlbergNeural}。在本章中,我们会对神经机器翻译的典型方法进行细致的介绍。
%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
\subsection{神经机器翻译的品质 }\index{Chapter6.1.2}

曹润柘 committed
77
\parinterval\ref{fig:6-61}是一个真实的机器翻译的例子。其中译文1是统计机器翻译系统的结果,译文2是神经机器翻译系统的结果。为了保证公平性,两个系统使用完全相同的数据进行训练。
曹润柘 committed
78 79 80 81 82

%----------------------------------------------
% 图3.10
\begin{figure}[htp]
\centering
xiaotong committed
83
\input{./Chapter6/Figures/figure-example-of-mt}
曹润柘 committed
84
\caption{机器翻译实例对比}
曹润柘 committed
85 86 87 88 89
\label{fig:6-61}
\end{figure}
%----------------------------------------------
\parinterval  可以明显的看到到译文2更加的通顺,意思的表达更加准确,翻译质量明显高于译文1。这个例子基本反应出统计机器翻译和神经机器翻译的差异性。当然,这里并不是要讨论统计机器翻译和神经机器翻译孰优孰劣。但是,通过很多应用中都可以发现神经机器翻译可以生成非常流畅的译文,易于人工阅读和修改。

曹润柘 committed
90
\parinterval  在很多量化的评价中也可以看到神经机器翻译的优势。回忆一下第一章提到的机器翻译质量的自动评估指标中,使用最广泛的一种指标是BLEU,BLEU值越高意味着翻译质量越高。在统计机器翻译时代,在由NIST举办的汉英机器翻译评测中(比如汉英MT08数据集),基于统计方法的翻译系统能够得到30\%以上的BLEU值已经是当时最顶尖的翻译系统,而现在神经机器翻译系统,则可以轻松的将BLEU提高至45\%以上。
曹润柘 committed
91 92 93 94 95

%----------------------------------------------
% 图3.10
\begin{figure}[htp]
\centering
xiaotong committed
96
\input{./Chapter6/Figures/figure-numbers-of-WMT-systems}
曹润柘 committed
97 98 99 100 101 102 103 104 105 106 107 108 109 110
\caption{WMT冠军系统的数量}
\label{fig:6-2}
\end{figure}
%----------------------------------------------

\parinterval  同样,在机器翻译领域中最具影响力的评测比赛WMT(Workshop of Machine Translation)中,使用统计机器翻译方法的参赛系统也逐年减少。而现在获得比赛冠军的系统中几乎没有只使用纯统计机器翻译模型的系统\footnote{但是,仍然有大量的统计机器翻译和神经机器翻译融合的方法。比如,在无指导机器翻译中,统计机器翻译仍然被作为初始模型。} 。图\ref{fig:6-2}展示了近年来WMT比赛冠军系统中神经机器翻译系统的占比逐年提高。


%----------------------------------------------
% 图3.10
\begin{figure}[htp]
\centering
%\includegraphics[scale=0.7]{./Chapter6/Figures/mTER of different systems.png}
\input{./Chapter6/Figures/figure-score-of-mTER}
xiaotong committed
111
\caption{不同系统在不同长度句子上的mTER分值}
曹润柘 committed
112 113 114 115
\label{fig:6-3}
\end{figure}
%----------------------------------------------

xiaotong committed
116
\parinterval  除了上面例子中展示的流畅度和准确度外,神经机器翻译在其它评价指标上的表现也全面超越统计机器翻译\cite{Bentivogli2016NeuralVP}。比如,在IWSLT 2015英语-德语任务中,与三个最先进的统计机器翻译系统(PBSY、HPB、SPB)相比,神经机器翻译系统的mTER得分在不同长度句子上都得到了明显的下降,如图\ref{fig:6-3}\footnote{mTER是一种错误率度量,值越低表明译文越好。}。其次,神经机器翻译的单词形态错误率和单词词义错误率都远低于统计机器翻译系统(表\ref{tab:HTER} )。
曹润柘 committed
117 118 119 120 121

%----------------------------------------------
% 表
\begin{table}[htp]
\centering
xiaotong committed
122
\caption{NMT与SMT系统的译文错误率\cite{Bentivogli2016NeuralVP}}
曹润柘 committed
123
\label{tab:HTER}
xiaotong committed
124
\begin{tabular}{r|llc}
曹润柘 committed
125
%  						& \multicolumn{2}{c}{HTERnoShift}         &      \\
曹润柘 committed
126 127 128 129 130 131 132
 \textbf{system}                      & \textbf{word} & \textbf{lemma} & \textbf{\%Δ} \\ \hline
PBSY                    &27.1          & 22.5           & -16.9       \\
HPB                     & 28.7          & 23.5           & -18.4       \\
SPB                     & 28.3          & 23.2           & -18.0       \\
NMT                     & $ 21.7^{\ast}$          & $18.7^{\ast}$           & -13.7      \\
\end{tabular}
\end{table}
133

xiaotong committed
134
\parinterval 更振奋人心的是,神经机器翻译在某些任务上的结果已经相当惊艳,比如在汉英新闻翻译任务中,神经机器翻译就取得了至少和专业翻译人员相媲美的效果\cite{Hassan2018AchievingHP}。在该任务中,神经机器系统(Combo-4、Combo-5 和 Combo-6)的人工评价得分与Reference-HT(专业翻译人员翻译)得分无显著差别,且远超Reference-WMT(WMT的参考译文,也是由人类翻译)得分(表\ref{tab:Human assessment})。
曹润柘 committed
135 136 137 138 139

%----------------------------------------------
% 表
\begin{table}[htp]
\centering
xiaotong committed
140
\caption{不同机器翻译系统人类评价结果\cite{Hassan2018AchievingHP}}
曹润柘 committed
141 142
\label{tab:Human assessment}
\begin{tabular}{l | l l}
曹润柘 committed
143
	\# 		&\textbf{\begin{tabular}[c]{@{}l@{}}Ave\%\\ (平均原始分数)\end{tabular}}		&\textbf{System} \\ \hline
曹润柘 committed
144 145 146 147
	1 		&69.0			&Combo-6 \\
			&68.5			&Reference-HT \\
			&68.9			&Combo-5 \\
			&68.6			&Combo-4 \\
xiaotong committed
148
	2		&62.1			&Reference-WMT \\
曹润柘 committed
149
\end{tabular}
150

曹润柘 committed
151 152 153 154
\end{table}
%--------------------------------------


xiaotong committed
155
\parinterval  在最近两年,神经机器翻译的发展更加迅速,新的模型、方法层出不穷。表\ref{tab:result-of-wmt14}给出了2019年一些主流的神经机器翻译模型的对比\cite{WangLearning}。可以看到,相比2017年,2018-2019年中机器翻译仍然有明显的进步。
曹润柘 committed
156 157 158 159 160

%----------------------------------------------
% 表
\begin{table}[htp]
\centering
xiaotong committed
161
\caption{WMT14英德数据集上不同神经机器翻译系统的表现\cite{WangLearning}}
xiaotong committed
162
\label{tab:result-of-wmt14}
曹润柘 committed
163
\begin{tabular}{ l | l l l}
曹润柘 committed
164 165 166 167 168 169 170 171
   \textbf{模型}         		 &\textbf{作者}	& \textbf{年份}	& \textbf{BLEU} \\ \hline
   ConvS2S                			&Gehring等 		&2017 			&25.2 \\
   Transformer-Base 			&Vaswani等 		&2017 			&27.3 \\
   Transformer-Big   			&Vaswani等 		&2017 			&28.4 \\
   RNMT+					&Chen等 	  	&2018  			&28.5 \\
   Layer-Wise Coordination 	&Xu等 	 		&2018 			&29 \\
   Transformer-RPR		 	&Shaw等 	 	&2018 			&29.2 \\
   Transformer-DLCL			 &Wang等 	 	&2019 			&29.3 \\
172
\end{tabular}
曹润柘 committed
173 174 175 176 177 178 179 180 181 182 183 184
\end{table}
%--------------------------------------

%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
\subsection{神经机器翻译的优势 }\index{Chapter6.1.3}
%----------------------------------------------
% 表
\begin{table}[htp]
\centering
\caption{统计机器翻译 vs 神经机器翻译}
\label{tab:nmt vs smt}
\begin{tabular}{ l | l }
xiaotong committed
185
  \rule{0pt}{15pt}  \parbox{12em}{\textbf{统计机器翻译}		}	&\textbf{神经机器翻译}\\ \hline
曹润柘 committed
186 187 188 189 190 191 192 193 194 195 196 197 198 199 200 201 202 203
	  \rule{0pt}{13pt}  基于离散空间的表示模型			&基于连续空间的表示模型 \\
	  \rule{0pt}{13pt} NLP问题的隐含结构假设			&无隐含结构假设,端到端学习 \\
	  \rule{0pt}{13pt} 特征工程为主					&无显性特征,但需要设计网络 \\
	  \rule{0pt}{13pt} 特征、规则的存储耗资源			&模型存储相对小,但计算慢 \\

\end{tabular}

\end{table}
%--------------------------------------

\parinterval  既然神经机器翻译如此强大,它的优势在哪里呢?为了回答这个,表\ref{tab:nmt vs smt}给出了神经机器翻译与统计机器翻译的简单对比。具体来说,神经机器翻译有如下特点:

\parinterval  (一)分布式连续空间表示模型,能捕获更多隐藏信息

\parinterval  神经机器翻译与统计机器翻译最大的区别在于对语言文字串的表示方法上。在统计机器翻译中,所有词串本质上都是由更小的词串(短语、规则)组合而成,也就是我们利用了词串之间的组合性来表示更大的词串。统计机器翻译使用多个特征描述翻译结果,但是其仍然对应着离散的字符串的组合,因此可以把模型对问题的表示空间看做是由一个离散结构组成的集合。在神经机器翻译中,词串的表示已经被神经网络转化为多维实数向量,而且也不依赖任何的可组合性等假设来刻画离散的语言结构,从这个角度说,所有的词串对应了一个连续空间上的点(比如,对应n维实数空间中一个点)。这样,模型可以更好的进行优化,而且对未见样本有更好的泛化能力。此外,基于连续可微函数的机器学习算法已经相对完备(比如,反向传播方法),我们可以很容易的对问题进行建模和优化。

\parinterval  (二)不需要特征工程,特征学习更加全面

xiaotong committed
204
\parinterval  经典的统计机器翻译可以通过判别式模型引入任意特征,不过这些特征需要人工设计,因此这个过程也被称为特征工程(Feature Engineering)。特征工程依赖大量的人工,特别是对不同的语种、不同场景的翻译任务,所采用的特征可能不尽相同,这也使得设计有效的特征成为了统计机器翻译时代最主要的工作之一。但是,由于人类自身的思维和认知水平的限制,人工设计的特征可能不全面,甚至会遗漏一些重要的翻译现象。神经机器翻译并不依赖任何人工特征的设计,或者说它的特征都隐含在分布式表示中。这些``特征''都是自动学习得到的,因此神经机器翻译并不会受到人工思维的限制,学习到的特征对问题描述更加全面。
曹润柘 committed
205 206 207

\parinterval  (三)不含隐含结构假设,端到端学习对问题建模更加直接

曹润柘 committed
208
\parinterval  传统的自然语言处理任务会对问题进行隐含结构假设。比如,我们进行翻译时,统计机器翻译会假设翻译过程由短语的拼装完成。这些假设可以大大化简问题的复杂度,但是另一方面也带来了各种各样的约束条件。错误的隐含假设往往会导致建模错误。神经机器翻译是一种端到端模型,它并不依赖任何隐含结构假设。这样,模型并不会受到错误的隐含结构的引导。从某种意义上说,端到端学习可以让模型更加``自由''的进行学习,因此往往可以学到很多传统认知上不容易理解或者不容易观测到的现象。
曹润柘 committed
209 210 211 212 213 214

\parinterval  (四)模型结构统一,存储消耗更小

\parinterval  统计机器翻译系统依赖很多模块,比如词对齐、短语(规则)表、目标语言模型等等,因为所有的信息(如$n$-gram)都是离散化表示的,因此模型需要消耗大量的存储资源。同时,由于系统模块较多,开发的难度也较大。神经机器翻译的模型都是用神经网络进行表示,模型参数大多是实数矩阵,因此存储资源的消耗很小。而且神经网络可以作为一个整体进行开发和调试,系统搭建的代价相对较低。实际上,由于模型体积小,神经机器翻译也非常合适于离线小设备上的翻译任务。

\parinterval  当然,神经机器翻译也并不完美,很多问题有待解决。首先,神经机器翻译需要大规模浮点运算的支持,模型的推断速度较低。为了获得优质的翻译结果,往往需要大量GPU设备的支持,计算资源成本很高;其次,由于缺乏人类的先验知识对翻译过程的指导,神经机器翻译的运行过程缺乏可解释性,系统的可干预性也较差;此外,虽然脱离了繁重的特征工程,神经机器翻译仍然需要人工设计网络结构,包括模型的各种超参的设置、训练策略的选择等,仍然有大量人工参与。这也导致很多实验结果不容易重现。显然,完全不依赖人工进行机器翻译还很遥远。不过,随着研究者的不断攻关,很多问题也得到了缓解。在随后的内容中我们也会对相关技术进行介绍。
xiaotong committed
215

曹润柘 committed
216 217
%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
\section{编码器-解码器框架}\index{Chapter6.2}%Index的作用,目前不清晰
xiaotong committed
218
\parinterval 说到神经机器翻译就不得不提编码器-解码器模型(Encoder-Decoder Paradigm),或编码器-解码器框架。本质上,编码器-解码器是描述输入-输出之间关系的一种方式。虽然,编码器-解码器这个概念对机器翻译来说多少有些``新鲜'',但是这种形式的事物在日常生活中并不少见。例如在电视系统上为了便于视频的传播,会使用各种编码器将视频编码成数字信号,在客户端,相应的解码器组件会把收到的数字信号解码为视频。另外一个更贴近生活的例子是电话。它通过对声波和电信号进行相互转换,达到传递声音的目的。这种``先编码,再解码''的思想被应用到密码学、信息论等多个领域。
曹润柘 committed
219 220

\parinterval 不难看出,机器翻译问题也完美的贴合编码器-解码器结构的特点。我们可以将源语言编码为类似信息传输中的数字信号,然后利用解码器对其进行转换,生成目标语言。下面就来看一下神经机器翻译是如何在编码器-解码器框架下进行工作的。
xiaotong committed
221

曹润柘 committed
222 223
%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
\subsection{框架结构}\index{Chapter6.2.1}
曹润柘 committed
224
\parinterval  编码器-解码器框架是一种典型的基于``表示''的模型。编码器的作用是将输入的文字序列通过某种转换变为一种新的``表示''形式,这种``表示''包含了输入序列的所有信息。之后,解码器通把这种``表示''重新转换为输出的文字序列。这其中的一个核心问题是表示学习,即:如何定义对输入文字序列的表示形式,并自动学习这种表示,同时应用它生成输出序列。一般来说,不同的表示学习方法可以对应不同的机器翻译模型,比如,在最初的神经机器翻译模型中,源语言句子都被表示为一个独立的向量,这时表示结果是静态的;而在注意力机制中,源语言句子的表示是动态的,也就是翻译目标语每个单词时都会使用不同的表示结果。
曹润柘 committed
225

曹润柘 committed
226
\parinterval\ref{fig:6-4}是一个应用编码器-解码器结构来解决机器翻译问题的简单实例,给定一个中文句子``我 对 你 感到 满意'',编码器会将这句话编码成一个实数向量(0.2,-1,6,5,0.7,-2),这个向量就是我们所说的源语言句子的``表示''结果。虽然有些不可思议,但是神经机器翻译模型把这个向量等同于输入序列。向量中的数字在我们看来并没有实际的意义,然而解码器却能从中提取到源语句子中所包含的信息。也有研究者把向量的每一个维度看作是一个``特征'',这样源语言句子就被表示成多个``特征''的联合,而且这些特征可以被自动学习。有了这样的源语言句子的``表示'',解码器可以把这个实数向量作为输入,然后逐词生成目标语句子``I am satisfied with you''。
曹润柘 committed
227 228 229 230 231

%----------------------------------------------
% 图3.10
\begin{figure}[htp]
\centering
xiaotong committed
232
\input{./Chapter6/Figures/figure-encoder-decoder-process}
曹润柘 committed
233 234 235 236 237 238 239 240 241 242 243 244
\caption{ encoder-decoder过程 }
\label{fig:6-4}
\end{figure}
%----------------------------------------------

\parinterval  在源语言句子的表示形式确定之后,我们需要设计相应的编码器和解码器结构。在大多数情况下,神经机器翻译系统中的编码器由词嵌入层和中间网络层组成。当我们输入一串单词序列时,词嵌入层会将以一维空间表示的离散的单词映射到连续的多维表示空间,这个过程也被称为词嵌入。之后中间层会对词嵌入向量进行更深层的抽象,得到输入单词序列的中间表示。中间层的实现方式有很多,比如:循环神经网络、卷积神经网络、Transformer等模型都是常用的结构。解码器的结构基本上和编码器是一致的,只不过多了输出层,用于输出每个目标语位置的单词生成概率。

\parinterval  现在,编码器-解码器框架已经成为了神经机器翻译系统的标准架构。当然,也有一些研究工作在探索编码器-解码器框架之外的结构\cite{Li2020NeuralMT},但是还没有太多颠覆性的进展。因此,在本章中我们仍然以编码器-解码器框架为基础对相关模型和方法进行介绍。
%%%%%%%%%%%%%%%%%%%%%%%%%%

%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
\subsection{表示学习}\index{Chapter6.2.2}
曹润柘 committed
245
\parinterval 编码器-解码器框架的创新之处在于,将传统基于符号的离散型知识转化为分布式的连续型知识。比如,对于一个句子,它可以由离散的符号所构成的文法规则来生成,也可以直接被表示为一个实数向量记录句子的各个``属性''。这种分布式的实数向量可以不依赖任何离散化的符号系统,简单来说,它就是一个函数,把输入的词串转化为实数向量。更为重要的是,这种分布式表示可以被自动学习。或者从某种意义上说,编码器-解码器框架的作用之一就是学习输入序列的表示。表示结果学习的好与坏很大程度上会影响神经机器翻译系统的性能。
曹润柘 committed
246

曹润柘 committed
247
\parinterval\ref{fig:6-5}形象的对比了统计机器翻译和神经机器翻译的表示模型的区别。传统的统计机器翻译(a)通过短语或者规则组合来获得更大的翻译片段,直至覆盖整个句子。这本质上是在一个离散的结构空间中不断组合的过程。神经机器翻译(b)与之不同,它并没有所谓的``组合''的过程,整个句子的处理是直接在连续空间上进行计算得到的。这二者的区别也体现了符号系统与神经网络系统的区别。前者更适合处理离散化的结构表示,后者更适合处理连续化的表示。
曹润柘 committed
248 249 250 251 252

%----------------------------------------------
% 图3.6
\begin{figure}[htp]
    \centering
xiaotong committed
253
    \input{./Chapter6/Figures/figure-Presentation-space}
曹润柘 committed
254 255 256 257 258 259 260
    \caption{统计机器翻译和神经机器翻译的表示空间}
    \label{fig:6-5}
\end{figure}
%---------------------------
\parinterval 实际上,编码器-解码器模型也并不是表示学习实现的唯一途径。比如,在第五章提到的神经语言模型实际上也是一种有效的学习句子表示的方法,它所衍生出的预训练模型可以从大规模单语数据上学习句子的表示形式。这种学习会比使用少量的双语数据进行编码端和解码端的学习更加充分。相比机器翻译任务,语言模型相当于一个编码器的学习 \footnote{相比神经机器翻译的编码器,神经语言模型会多出一个输出层,这时可以直接把神经语言模型的中间层的输出作为编码器的输出。},可以无缝潜入到神经机器翻译模型中。不过,值得注意的是,机器翻译的目的是解决双语字符串之间的映射问题,因此它所使用的句子表示是为了更好的进行翻译,从这个角度说,机器翻译中的表示学习又和语言模型的表示学习有不同。不过,这里不会深入讨论神经语言模型和预训练与神经机器翻译之间的异同,感兴趣的读者可以参看第五章相关内容。

\parinterval 还有一点,在神经机器翻译中,句子的表示形式可以有很多选择。使用单个向量表示一个句子是一种最简单的方法。当然,我们也可以用矩阵、高阶张量完成表示。甚至,在解码时动态的生成源语言的表示结果。这部分技术也会在随后的内容中进行介绍。
xiaotong committed
261

曹润柘 committed
262 263 264 265
%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
\subsection{简单的运行实例}\index{Chapter6.2.3}\label{chapter6.2.3}
\parinterval 为了对编码器-解码器框架和神经机器翻译的运行过程有一个直观的认识,这里演示一个简单的翻译实例。我们采用标准的循环神经网络作为编码器和解码器的结构。假设系统的输入和输出为:

曹润柘 committed
266
\begin{example}
267
\quad
曹润柘 committed
268 269 270 271 272 273

源语(中文)输入:``我''、``很''、``好''、``<eos>''

目标语(英文)输出:``I''、``am''、``fine''、``<eos>''
\end{example}

曹润柘 committed
274 275 276
%figure-a simple example for tl
%----------------------------------------------
% 图3.10
曹润柘 committed
277 278 279 280 281
%\begin{figure}[htp]
%\centering
%\input{./Chapter6/Figures/figure-a-simple-example-for-tl}
%\label{fig:6-62}
%\end{figure}
曹润柘 committed
282 283
%----------------------------------------------

xiaotong committed
284
\noindent 其中,<eos>(End of Sequence)表示序列的终止,<sos>(Start of Sequence)表示序列的开始。
曹润柘 committed
285 286 287 288 289

%----------------------------------------------
% 图3.10
\begin{figure}[htp]
\centering
xiaotong committed
290
\input{./Chapter6/Figures/figure-A-working-example-of-neural-machine-translation}
曹润柘 committed
291 292 293 294 295 296 297
\caption{神经机器翻译的运行实例}
\label{fig:6-6}
\end{figure}
%----------------------------------------------

\parinterval 翻译过程的神经网络结构如图\ref{fig:6-6}所示,其中左边是编码器,右边是解码器。编码器会顺序处理源语言单词,将每个单词都表示成一个实数向量,也就是每个单词的词嵌入结果(绿色方框)。在词嵌入的基础上运行循环神经网络(蓝色方框)。在当编码下一个时间步状态的时候,上一个时间步的隐藏状态会作为历史信息传入给循环神经网络。这样,句子中每个位置的信息都被向后传递,最后一个时间步的隐藏状态(红色方框)就包含了整个源语言句子的信息,也就得到了我们编码器的编码结果\raisebox{0.5mm}{------}源语言句子的分布式表示。

曹润柘 committed
298
\parinterval 编码器直接把源语言句子的分布式表示作为输入的隐层状态,之后像编码器一样依次读入目标语言单词,这是一个标准的循环神经网络的执行过程。与编码器不同的是,解码器会有一个输出层,用于根据当前时间步循环神经网路的隐层状态生成目标语单词及其概率分布。可以看到,解码端一个时刻的输出单词与下一个时刻的输入单词是一样的。从这个角度说,解码器也是一种神经语言模型,只不过它会从另外一种语言(源语言)获得一些信息,而不是仅仅做单语句子的生成。具体来说,当生成第一个单词``I''时,解码器利用了源语言句子表示(红色方框)和目标语的起始词``<sos>''。在生成第二个单词``am''时,解码器利用了上一个时间步的隐藏状态(隐藏层变量)和已经生成的``I''的信息。这个过程会循环执行直到生成完整的目标语句子。
曹润柘 committed
299 300

\parinterval 从这个例子可以看出,神经机器翻译的流程其实并不复杂:首先通过编码器神经网络将源语言句子编码成实数向量,然后解码器神经网络利用源语言句子的表示结果逐词生成译文。几乎所有的神经机器翻译系统都是类似架构。
xiaotong committed
301

曹润柘 committed
302 303
%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
\subsection{机器翻译范式的对比}\index{Chapter6.2.4}
曹润柘 committed
304
\parinterval 对于不同类型的机器翻译方法,人类所扮演的作用是不同的。在统计机器翻译时代,往往需要人工来定义翻译时所需要的特征和翻译单元,翻译中的每一个步骤对于人来说都是透明的,翻译过程具有一定的可解释性。而在神经机器翻译时代,神经机器翻译将所有的工作都交给神经网络,对翻译的过程完全交由神经网络计算得到。其在整个神经网络的运行过程中并不需要人工先验知识,其中所生成的中间表示也只有神经网络自身才可以理解。有时候也会把神经机器翻译系统看作``黑盒''。所谓``黑盒''并不是指神经网络计算的过程不可见,而是这种复杂的计算过程无法控制也很难解释。那么是神经机器翻译会魔法吗,不需要任何人为的干预就可以进行翻译吗?其实不然,相对于统计机器翻译,真正变化的是人类使用知识的形式。
曹润柘 committed
305 306 307 308 309 310 311 312 313 314 315 316 317 318 319 320 321 322

\parinterval 在机器翻译的不同时期,人类参与到机器翻译中的形式并不相同。如表\ref{tab:what people do in different methods of mt}所述,在早期基于规则的方法中,规则的编写、维护均需要人来完成,也就是人类直接提供了计算机可读的知识形式;在统计机器翻译方法中,则需要人为的设计翻译特征,并且定义基本翻译单元的形式,然后剩下的事情(比如翻译过程)交由统计机器翻译算法完成,也就是人类间接的提供了翻译所需要的知识;在神经机器翻译方法中,特征的设计完全不需要人的参与,但是完成特征提取的网络结构仍然需要人为的设计,训练网络所需要的参数也需要工程师的不断调整,才能发挥神经机器翻译的强大性能。

\parinterval 可见,不管是基于规则的机器翻译方法,还是统计机器翻译方法,甚至今天的神经机器翻译方法,人类的作用是不可替代的。虽然神经机器翻译很强大,但是它的成功仍然依赖人工设计网络结构、调参。纵然,也有一些研究工作通过结构搜索的方法自动获得神经网络结构,但是搜索的算法和模型仍然需要人工设计。当然,这里不是要讨论一个新的悖论,因为结论还是很简单的:机器翻译是人类设计的,脱离了人的工作机器翻译是不可能成功的。


%----------------------------------------------
% 表
\begin{table}[htp]
\centering
\caption{不同机器翻译范式中人类的作用}
\label{tab:what people do in different methods of mt}
\begin{tabular}{ l | l }
	\textbf{机器翻译方法}			&\textbf{人类参与方式} \\ \hline
	\rule{0pt}{13pt} 基于规则的方法					&设计翻译规则 \\
	\rule{0pt}{13pt} 传统统计方法					&设计翻译特征 \\
	\rule{0pt}{13pt} 神经网络方法					&设计网络架构 \\
\end{tabular}
323

曹润柘 committed
324 325 326 327 328 329 330 331 332 333 334 335 336 337 338 339 340 341 342 343 344 345
\end{table}
%--------------------------------------

%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
%\vspace{5.5em}%调整布局用
\section{基于循环神经网络的翻译模型及注意力机制}\index{Chapter6.3}
\label{sec:6.3}
\parinterval 早期神经机器翻译的进展主要来自两个方面:1)使用循环神经网络对单词序列进行建模;2)注意力机制的使用。表\ref{tab:papers in 2013-2015}列出了2013-2015年间有代表性的部分研究工作。从这些工作的内容上看,当时的研究重点还是如何有效的使用循环神经网络进行翻译建模以及使用注意力机制捕捉双语单词序列间的对应关系。

%----------------------------------------------
% 表
\begin{table}[htp]
\centering
\caption{2013-2015期间神经机器翻译方面的部分论文}
\label{tab:papers in 2013-2015}
\begin{tabular}{l| l p{8cm}}
\rule{0pt}{16pt} \textbf{时间}   & \textbf{作者}                                                              & \textbf{论文}                                                                      \\ \hline
\rule{0pt}{0pt} 2013 & \begin{tabular}[c]{@{}l@{}l@{}}\\Kalchbrenner\\ 和Blunsom\end{tabular} & Recurrent Continuous Translation Models                                 \\
\rule{0pt}{16pt} 2014 & Sutskever等                                                       & Sequence to Sequence Learning with neural networks                      \\
\rule{0pt}{16pt} 2014 & Bahdanau等                                                       & Neural Machine Translation by Jointly Learning to Align and Translate \\
\rule{0pt}{16pt} 2014 & Cho等                                                            & On the Properties of Neural Machine Translation                         \\
\rule{0pt}{16pt} 2015 & Jean等                                                           & On Using Very Large Target Vocabulary for Neural Machine Translation    \\
346
\rule{0pt}{16pt} 2015 & Luong等                                                          & Effective Approches to Attention-based Neural Machine Translation
曹润柘 committed
347
\end{tabular}
348

曹润柘 committed
349 350 351 352 353 354 355 356 357 358 359 360 361 362 363 364 365 366 367 368 369 370
\end{table}
%--------------------------------------

\parinterval 可以说循环神经网络和注意力机制构成了当时神经机器翻译的标准框架。比较有代表性的工作是谷歌公司于2016年上线的谷歌神经机器翻译系统(GNMT),它是由多层循环神经网络(长短时记忆模型)以及注意力机制搭建,且在当时来看性能很强劲的翻译模型\cite{Wu2016GooglesNM}。这项工作也引起了广泛的关注(图\ref{fig:6-7}),甚至可以被看作是神经机器翻译进入飞速发展时期的一个重要的标志。在GNMT推出后,很多企业也推出了基于循环神经网络的神经机器翻译系统,出现了百花齐放的局面。

%----------------------------------------------
% 图3.10
\begin{figure}[htp]
\centering
\includegraphics[scale=0.35]{./Chapter6/Figures/google-news.png}
\caption{对GNMT的报道}
\label{fig:6-7}
\end{figure}
%----------------------------------------------

\parinterval 本章将会从基于循环神经网络的翻译模型和注意力机制入手,介绍神经机器翻译的基本方法。同时也会以GNMT系统为例,对神经机器翻译的其它相关技术进行讨论。
%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
\subsection{建模}\index{Chapter6.3.1}
\label{sec:6.3.1}

\parinterval 同大多数自然语言处理任务一样,神经机器翻译要解决的一个基本问题是如何描述文字序列,称为序列表示问题。例如,处理语音数据、文本数据都可以被看作是典型的序列表示问题。如果把一个序列看作一个时序上的一系列变量,不同时刻的变量之间往往是存在相关性的。也就是说,一个时序中某个时刻变量的状态会依赖其它时刻变量的状态,即上下文的语境信息。下面是一个简单的例子,假设有一个句子,但是最后两个单词被擦掉了,我们如何猜测被擦掉的单词是什么?

曹润柘 committed
371 372
\begin{example}
\quad
曹润柘 committed
373

曹润柘 committed
374 375 376
中午没吃饭,又刚打了一下午篮球,我现在很饿,我想\underline{\quad \quad \quad}
\end{example}
%\vspace{0.5em}
377
%\centerline{中午没吃饭,又刚打了一下午篮球,我现在很饿,我想\underline{\quad \quad \quad} 。}
曹润柘 committed
378 379 380
%\vspace{0.5em}

\parinterval 显然,根据上下文中提到的``没吃饭''、``很饿'',最佳的答案是``吃 饭''或者``吃 东西''。也就是,对序列中某个位置的答案进行预测时我们需要记忆当前时刻之前的序列信息,因此,循环神经网络(Recurrent Neural Network, RNN)应运而生。实际上循环神经网络有着极为广泛的应用,例如语音识别、语言建模以及我们要介绍的神经机器翻译。
曹润柘 committed
381 382 383

\parinterval 第五章已经对循环神经网络的基本知识进行过介绍。这里再简单回顾一下。简单来说,循环神经网络由循环单元组成。对于序列中的任意时刻,都有一个循环单元与之对应,它会融合当前时刻的输入和上一时刻循环单元的输出,生成当前时刻的输出。这样每个时刻的信息都会被传递到下一时刻,这也间接达到了记录历史信息的目的。比如,对于序列$\mathbf{x}=\{x_1, x_2,…, x_m\}$,循环神经网络的会按顺序输出一个序列$\mathbf{h}=\{ \mathbf{h}_1, \mathbf{h}_2,…, \mathbf{h}_m \}$,其中$\mathbf{h}_i$表示$i$时刻循环神经网络的输出(通常为一个向量)。

曹润柘 committed
384
\parinterval\ref{fig:6-8}展示了一个循环神经网络处理序列问题的实例。当前时刻循环单元的输入由上一个时刻的输入和当前时刻的输入组成,因此也可以理解为,网络当前时刻计算得到的输出是由之前的序列共同决定的,即网络在不断的传递信息的过程中记忆了历史信息。以最后一个时刻的循环单元为例,它在对``开始''这个单词的信息进行处理时,参考了之前所有词(``<eos> 让 我们'')的信息。
曹润柘 committed
385 386 387 388 389

%----------------------------------------------
% 图3.10
\begin{figure}[htp]
\centering
xiaotong committed
390
\input{./Chapter6/Figures/figure-Structure-of-a-recurrent-network-model}
曹润柘 committed
391 392 393 394 395 396 397 398 399 400 401
\caption{循环网络模型的结构}
\label{fig:6-8}
\end{figure}
%----------------------------------------------

\parinterval 在神经机器翻译里使用循环神经网络也很简单。我们只需要把源语言句子和目标语言句子分别看作两个序列,之后使用两个循环神经网络分别对其进行建模。这种网络结构如图\ref{fig:6-9}所示。图中,下半部分是编码器,上半部分是解码器。编码器利用循环神经网络对源语言序列逐词进行编码处理,同时利用循环单元的记忆能力,不断累积序列信息,遇到终止符<eos>后便得到了包含源语言句子全部信息的表示结果。解码器利用编码器的输出和起始符<sos>开始逐词的进行解码,即逐词翻译,每得到一个译文单词,便将其作为当前时刻解码端循环单元的输入,这也是一个典型的神经语言模型的序列生成过程。解码器通过循环神经网络不断的累积已经得到的译文的信息,并继续生成下一个单词,直到遇到结束符<eos>,便得到了最终完整的译文。

%----------------------------------------------
% 图3.10
\begin{figure}[htp]
\centering
xiaotong committed
402
\input{./Chapter6/Figures/figure-Model-structure-based-on-recurrent-neural-network-translation}
曹润柘 committed
403 404 405 406 407 408
\caption{基于循环神经网络翻译的模型结构}
\label{fig:6-9}
\end{figure}
%----------------------------------------------

\parinterval 从数学模型上看,神经机器翻译模型与统计机器翻译的目标是一样的:在给定的源语言句子$\mathbf{x}$的情况下,找出翻译概率最大的目标语译文$\hat{\mathbf{y}}$:
曹润柘 committed
409
\begin{eqnarray}
曹润柘 committed
410
\hat{\mathbf{y}} = \argmax_{\mathbf{y}} \textrm{P} (\mathbf{y} | \mathbf{x})
曹润柘 committed
411
\label{eqC6.1}
曹润柘 committed
412
\end{eqnarray}
曹润柘 committed
413 414

\noindent 在这里,我们用$\mathbf{x}=\{ x_1,x_2,…, x_m \}$表示输入的源语言单词序列,$\mathbf{y}=\{ y_1,y_2,…, y_n \}$ 表示生成的目标语单词序列。由于神经机器翻译在生成译文时采用的是自左向右逐词生成的方式,并在翻译每个单词时会考虑已经生成的翻译结果,因此对$\textrm{P} (\mathbf{y} | \mathbf{x})$的求解可以转换为:
曹润柘 committed
415 416
%-----------------
\begin{eqnarray}
曹润柘 committed
417 418
\textrm{P} (\mathbf{y} | \mathbf{x}) = \prod_{j=1}^{n} \textrm{P} ( y_j | \mathbf{y}_{<j }, \mathbf{x}  )
\label{eqC6.2}
曹润柘 committed
419
\end{eqnarray}
曹润柘 committed
420 421

\noindent 其中,$ \mathbf{y}_{<j }$表示目标语第$j$个位置之前已经生成的译文单词序列。$\textrm{P} ( y_j | \mathbf{y}_{<j }, \mathbf{x})$可以被解释为,根据源语句子$\mathbf{x} $和已生成的目标语言译文片段$\mathbf{y}_{<j }=\{ y_1, y_2,…, y_{j-1} \}$,生成第$j$个目标语言单词$y_j$的概率。举个简单的例子,已知源文为$\mathbf{x} =$\{\textrm{我,很好}\},则译文$\mathbf{y}=$\{I’m,fine\}的概率为:
曹润柘 committed
422 423
%-------------
\begin{eqnarray}
曹润柘 committed
424 425
\textrm{P} ( \{{\textrm{I'm,fine}}\}|\{\textrm{我,很好}\}) = \textrm{P} (\textrm{I'm}| \{\textrm{我,很好}\} ) \cdot          \textrm{P} (\textrm{fine}|\textrm{I'm},\{\textrm{我,很好}\})
\label{eqC6.3}
曹润柘 committed
426
\end{eqnarray}
曹润柘 committed
427 428 429 430 431 432

\parinterval 求解$\textrm{P}(y_j | \mathbf{y}_{<j},\mathbf{x})$有三个关键问题(图\ref{fig:6-10}):

\begin{itemize}
\item	如何对$\mathbf{x}$$\mathbf{y}_{<j }$进行分布式表示,即\textbf{词嵌入}问题。首先,将由one-hot向量表示的源语言单词,即由0,1表示的离散化向量表示,转化为实数向量。我们把这个过程记为$\textrm{e}_x (\cdot)$。类似的,可以把目标语序列$\mathbf{y}_{<j }$中的每个单词用同样的方式进行表示,记为$\textrm{e}_y (\cdot)$

xiaotong committed
433
\item	如何在词嵌入的基础上获取整个序列的表示,即句子的\textbf{表示学习}问题。我们可以把词嵌入的序列作为循环神经网络的输入,循环神经网络最后一个时刻的输出向量便是整个句子的表示结果。如图\ref{fig:6-10}中,编码器最后一个循环单元的输出$\mathbf{h}_m$被看作是一种包含了源语句子信息的表示结果,记为$\mathbf{C}$
曹润柘 committed
434

xiaotong committed
435
\item	如何得到每个目标语单词的概率,即\textbf{译文单词生成}问题。与神经语言模型一样,我们可以用一个Softmax输出层来获取当前时刻所有单词的分布,即利用Softmax函数计算目标语词表中每个单词的概率。令目标语序列$j$时刻的循环神经网络的输出向量(或状态)为$\mathbf{s}_j$。根据循环神经网络的性质,$ y_j$的生成只依赖前一个状态$\mathbf{s}_{j-1}$和当前时刻的输入(即词嵌入$\textrm{e}_y (y_{j-1})$)。同时考虑源语言信息$\mathbf{C}$$\textrm{P}(y_j  | \mathbf{y}_{<j},\mathbf{x})$可以被重新定义为:
曹润柘 committed
436
\begin{eqnarray}
xiaotong committed
437
\textrm{P} (y_j | \mathbf{y}_{<j},\mathbf{x}) \equiv \textrm{P} ( {y_j | \mathbf{s}_{j-1} ,y_{j-1},\mathbf{C}} )
曹润柘 committed
438
\label{eqC6.4}
曹润柘 committed
439
\end{eqnarray}
曹润柘 committed
440

xiaotong committed
441
$\textrm{P}({y_j | \mathbf{s}_{j-1} ,y_{j-1},\mathbf{C}})$由Softmax实现,Softmax的输入是循环神经网络$j$时刻的输出。在具体实现时,$\mathbf{C}$可以被简单的作为第一个时刻循环单元的输入,即,当$j=1$ 时,解码器的循环神经网络会读入编码器最后一个隐层状态$ \mathbf{h}_m$(也就是$\mathbf{C}$),而其它时刻的隐层状态不直与$\mathbf{C}$相关。最终,$\textrm{P} (y_j | \mathbf{y}_{<j},\mathbf{x})$ 被表示为:
曹润柘 committed
442
\begin{eqnarray}
443
\textrm{P} (y_j | \mathbf{y}_{<j},\mathbf{x}) \equiv
曹润柘 committed
444
 \left \{ \begin{array}{ll}
xiaotong committed
445
\textrm{P} (y_j |\mathbf{C} ,y_{j-1}) &j=1 \\
曹润柘 committed
446 447 448
\textrm{P} (y_j|\mathbf{s}_{j-1},y_{j-1})  \quad &j>1
\end{array} \right .
\label{eqC6.5}
曹润柘 committed
449
\end{eqnarray}
曹润柘 committed
450 451 452

\end{itemize}

xiaotong committed
453
\parinterval 下面,我们会对以上问题分别展开讨论。其中,\ref{sec:6.3.2}节会介绍输入层(词嵌入)和输出层(Softmax)的内容,\ref{sec:6.3.3}节会介绍常用的循环神经网络结构(表示学习模型结构)。
曹润柘 committed
454 455 456 457 458

%----------------------------------------------
% 图3.10
\begin{figure}[htp]
\centering
xiaotong committed
459
 \input{./Chapter6/Figures/figure-3-base-problom-of-P}
曹润柘 committed
460 461 462 463 464
\caption{求解$\textrm{P} (y_j | \mathbf{y}_{<j},\mathbf{x})$的三个基本问题}
\label{fig:6-10}
\end{figure}
%----------------------------------------------
%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
xiaotong committed
465
\subsection{输入(词嵌入)及输出(Softmax)}\index{Chapter6.3.2}
曹润柘 committed
466 467
\label{sec:6.3.2}

曹润柘 committed
468
\parinterval 由公式\ref{eqC6.2}可知,神经机器翻译系统在运行时需要两个输入,一个是源语言单词序列$\mathbf{x}$,和目标语单词序列$\mathbf{y}_{<j}$(到$j$时刻为止)。因此,第一步我们需要把单词的离散化表示转化为神经网络容易处理的分布式连续表示,即词嵌入。而我们也会把词嵌入的结果作为循环神经网络的输入层。词嵌入的概念已经在第五章神经语言模型的部分进行过详细介绍。以解码端为例,传统方法中每个目标语言单词都对应目标语言词表中的一个索引项,可以用one-hot向量表示。one-hot向量的维度和词表大小相同,但是只有单词所对应的那一维的值为1,其它为均为0。例如,词表中包含三个单词,则它们的one-hot表示分别为[0,0,1],[0,1,0],[1,0,0]。词嵌入的目的是把这种one-hot表示转化为一个实数向量,向量的每一维都对应这个单词的某种``属性''。由于是实数向量,这些属性是可以直接进行代数运算的。相比one-hot表示中所有向量都是正交的,词嵌入表示可以更容易描述不同单词间的关系,而不是简单的进行非零0即1的判断。比如,词嵌入表示中的著名例子``queen''=``woman''-``man''+``king''就能在一定程度上说明这个问题。
曹润柘 committed
469 470

\parinterval 那么怎么在神经机器翻译系统中获得单词的词嵌入表示呢?这里我们引入一个词嵌入层对输入的单词进行词嵌入表示,即图\ref{fig:6-11}中的绿色方框部分。假设输入的单词$y_j$已经被表示为one-hot形式(行向量)。词嵌入层的工作就是把one-hot向量右乘一个实数矩阵$\mathbf{E}$,得到的结果(行向量)就是这个单词所对应的词嵌入结果。
曹润柘 committed
471
\begin{eqnarray}
曹润柘 committed
472 473
\textrm{e}_y (y_j) = y_j \mathbf{E}
\label{eqC6.6}
曹润柘 committed
474
\end{eqnarray}
曹润柘 committed
475 476 477

\noindent 这里,$\mathbf{E}$也被称作词嵌入矩阵,它可以作为模型的一部分参数共同参与机器翻译系统的训练,也可以由外部其它模块训练得到(如预训练模型)。$\mathbf{E}$的大小为$|V| \times d$,这里$|V|$表示词表$V$的大小,$d$表示循环神经网络输入和输出向量的维度。

曹润柘 committed
478
\parinterval\ref{fig:6-11}以单词``you''为例,展示了词嵌入的生成过程。词嵌入层首先将输入的单词``you''转化成one-hot表示,对应虚线框中的0-1向量,即除了you在词表中的索引位置为1,其余位置均为0。然后词嵌入层将这个0-1向量乘以$\mathbf{E}$就得到了词嵌入的结果(绿色圆角框框起来部分),这个过程我们用$\textrm{e}_y (\cdot)$表示,即you的词嵌入表示$\textrm{e}_y (``\textrm{you}'')$。最后,将单词的词嵌入表示作为当前时间步循环单元(蓝色方框)的输入。
曹润柘 committed
479

曹润柘 committed
480
\parinterval 需要注意的是,在上面这个过程中one-hot表示和词嵌入矩阵并不必须调用矩阵乘法才得到词嵌入结果。我们只需要获得one-hot向量中1对应的索引,从词嵌入矩阵中取出对应的行即可。这种利用索引``取''结果的方式避免了计算代价较高的矩阵乘法,因此在实际系统中很常用。
曹润柘 committed
481 482 483 484 485

%----------------------------------------------
% 图3.10
\begin{figure}[htp]
\centering
xiaotong committed
486
\input{./Chapter6/Figures/figure-Word-embedding-structure}
曹润柘 committed
487 488 489 490 491 492 493 494 495 496 497
\caption{词嵌入层结构}
\label{fig:6-11}
\end{figure}
%----------------------------------------------

\parinterval 在解码端,我们需要在每个位置预测输出的单词。在循环神经网络中,每一时刻循环单元的输出向量为$\mathbf{s}_j$,它可以被看作这个时刻的目标语单词的一种表示,但是我们无法根据这个向量得出要生成的目标语单词的概率。而输出层的目的便是通过向量$\mathbf{s}_j$计算词表中每个单词的生成概率,进而选取概率最高的单词作为当前时刻的输出。图\ref{fig:6-12}展示了一个输出层的运行实例。

%----------------------------------------------
% 图3.10
\begin{figure}[htp]
\centering
xiaotong committed
498
\input{./Chapter6/Figures/figure-Output-layer-structur}
曹润柘 committed
499 500 501 502 503
\caption{输出层结构}
\label{fig:6-12}
\end{figure}
%----------------------------------------------

xiaotong committed
504
\parinterval 输出层的构造很简单,对于输入的向量$\mathbf{s}_j$经过一个线性变换之后再经过Softmax\\函数,即可得到一个$V$上的分布,具体描述如下:
曹润柘 committed
505
\begin{eqnarray}
xiaotong committed
506
\mathbf{o}_j=\textrm{Softmax}( \mathbf{s}_j \mathbf{W_o})
曹润柘 committed
507
\label{eqC6.7}
曹润柘 committed
508
\end{eqnarray}
曹润柘 committed
509 510

\noindent 其中,$\mathbf{W_o}$是线性变换的参数矩阵,矩阵的大小为$d \times |V|$,也就是$d$维的向量会变为$|V|$维的向量;$\mathbf{o}_j$表示输出的结果向量,$\mathbf{o}_j$的每一维$\mathbf{o}_{jk}$表示,在时刻$j$词表$V$中一个第$k$个单词出现的概率。这里我们把$\mathbf{o}_j(y_j)$记作目标语单词$y_j$的生成概率,显然有
曹润柘 committed
511
\begin{eqnarray}
曹润柘 committed
512 513
\textrm{P} (y_j| \mathbf{y}_{<j},\mathbf{x})=\mathbf{o}_j(y_j)
\label{eqC6.8}
曹润柘 committed
514
\end{eqnarray}
曹润柘 committed
515

xiaotong committed
516
\parinterval Softmax($\cdot$)的作用是根据输入的$|V|$维向量(即$\mathbf{s}_j \mathbf{W_o}$),得到一个$|V|$维的分布。令$\mathbf{\tau}$表示Softmax($\cdot$)的输入向量,$\tau_k$表示向量的第$k$维。Softmax函数可以被定义为
曹润柘 committed
517
\begin{eqnarray}
xiaotong committed
518
\textrm{Softmax}(\tau_k)=\frac{\textrm{exp}(\tau_k)}  {\sum_{k'=1}^{|V|} \textrm{exp}(\tau_{k'})}
曹润柘 committed
519
\label{eqC6.9}
曹润柘 committed
520
\end{eqnarray}
曹润柘 committed
521

xiaotong committed
522
\noindent 这里,exp($\cdot$)表示指数函数e。Softmax函数是一个典型的归一化函数,它可以将输入的向量的每一维都转化为0-1之间的数,同时保证所有维的和等于1。Softmax的另一个优点是,它本身(对于输出的每一维)都是可微的(如图\ref{fig:6-13}所示),因此可以直接使用基于梯度的方法进行优化。实际上,Softmax经常被用于分类任务。我们也可以把机器翻译中目标语单词的生成看作一个分类问题,它的类别数是|$V$|。
曹润柘 committed
523 524 525 526 527

%----------------------------------------------
% 图3.10
\begin{figure}[htp]
\centering
xiaotong committed
528 529 530
% \includegraphics[scale=0.7]{./Chapter6/Figures/Softmax.png}
\input{./Chapter6/Figures/figure-Softmax}
\caption{ Softmax函数(一维)所对应的曲线}
曹润柘 committed
531 532 533 534
\label{fig:6-13}
\end{figure}
%----------------------------------------------

xiaotong committed
535
\parinterval 为了进一步理解Softmax的计算过程,来看一个简单的例子。假设我们的词表为[吃饭,睡觉,学习],当我们预测下一个译文单词时,我们将循环神经网络的输出通过矩阵$\mathbf{W_o}$映射到词表大小的向量,得到$\mathbf{\tau}=$[-3,1.5,2.7],此时我们使用Softmax激活函数将其进行归一化:
曹润柘 committed
536
\begin{eqnarray}
xiaotong committed
537
\textrm{Softmax}(\mathbf{\tau})=
曹润柘 committed
538 539 540
\left( \begin{array}{c}
\frac{0.05}{0.05+4.48+14.88} \\
\frac{4.48}{0.05+4.48+14.88} \\
541
\frac{14.88}{0.05+4.48+14.88}
曹润柘 committed
542 543 544 545 546 547 548 549
\end{array} \right)
=
\left( \begin{array}{c}
0.0026 \\
0.2308 \\
0.7666
\end{array} \right)
\label{eqC6.10}
曹润柘 committed
550
\end{eqnarray}
曹润柘 committed
551

曹润柘 committed
552
\parinterval 最终得到在整个词表上的概率分布[0.0026,0.2308,0.7666],其中概率最大的单词``学习'',便是我们最终得到的译文单词。
曹润柘 committed
553 554 555 556 557 558 559
%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
\subsection{循环神经网络结构}\index{Chapter6.3.3}
\label{sec:6.3.3}
\parinterval 循环神经网络的核心是设计循环单元的结构。至今,研究人员已经提出了很多优秀的循环单元结构,这里将介绍其中三种基本结构:RNN,LSTM和GRU。LSTM\\和GRU是RNN的变体,在自然语言处理任务中得到了广泛的应用。
%%%%%%%%%%%%%%%%%%
\subsubsection{循环神经单元(RNN)}\index{Chapter6.3.3.1}
\parinterval RNN(Recurrent Neural Network)是最原始的循环神经网络结构。在RNN中,对于序列$\mathbf{x}=\{ \mathbf{x}_1, \mathbf{x}_2,…,\mathbf{x}_m \}$,每个时刻$t$都对应一个循环单元,它的输出是一个向量$\mathbf{h}_t$,可以被描述为:
曹润柘 committed
560
\begin{eqnarray}
曹润柘 committed
561 562
\mathbf{h}_t=f(\mathbf{x}_t \mathbf{U}+\mathbf{h}_{t-1} \mathbf{W}+\mathbf{b})
\label{eqC6.11}
曹润柘 committed
563
\end{eqnarray}
曹润柘 committed
564 565 566 567 568 569 570 571 572 573

\noindent 其中$\mathbf{x}_t$是当前时刻的输入,$\mathbf{h}_{t-1}$是上一时刻循环单元的输出,$f(\cdot)$是激活函数,$\mathbf{U}$\\ $\mathbf{W}$是参数矩阵,$\mathbf{b}$是偏置。

\parinterval 虽然RNN的结构很简单,但是已经具有了对序列信息进行记忆的能力。实际上,基于RNN结构的神经语言模型已经能够取得比传统$n$-gram语言模型更优异的性能。在机器翻译中,RNN也可以做作为入门或者快速原型所使用的网络结构。
%%%%%%%%%%%%%%%%%%
\subsubsection{长短时记忆网络(LSTM)}\index{Chapter6.3.3.2}
\label{sec:6.3.3.2}
\parinterval RNN结构使得当前时刻循环单元的状态包含了之前时间步的状态信息。但是这种对历史信息的记忆并不是无损的,随着序列变长,RNN的记忆信息的损失越来越严重。在很多长序列处理任务中(如长文本生成)都观测到了类似现象。对于这个问题,Hochreiter S和Schmidhuber J提出了长短时记忆模型(long short-term memory),也就是常说的LSTM模型\cite{HochreiterLong}
%Jürgen Schmidhuber

曹润柘 committed
574
\parinterval LSTM模型是RNN模型的一种改进。相比RNN仅传递前一时刻的状态$\mathbf{h}_{t-1}$,LST\\M会同时传递两部分信息:状态信息$\mathbf{h}_{t-1}$和记忆信息$\mathbf{c}_{t-1}$。这里,$\mathbf{c}_{t-1}$是新引入的变量,它也是循环单元的一部分,用于显性的记录需要记录的历史内容,$\mathbf{h}_{t-1}$$\mathbf{c}_{t-1}$在循环单元中会相互作用。LSTM通过``门''单元来动态地选择遗忘多少以前的信息和记忆多少当前的信息。LSTM中所使用的门结构如图\ref{fig:6-14}所示,包括遗忘门,输入门和输出门。图中$\sigma$代表sigmoid函数,它将函数输入映射为0-1范围内的实数,用来充当门控信号。
曹润柘 committed
575 576 577 578 579 580 581 582 583 584 585 586 587 588 589 590 591

%----------------------------------------------
% 图3.10
\begin{figure}[htp]
\centering
\subfigure[遗忘门]{\input{./Chapter6/Figures/figure-LSTM01}}
\subfigure[输入门]{\input{./Chapter6/Figures/figure-LSTM02}}
\subfigure[记忆更新]{\input{./Chapter6/Figures/figure-LSTM03}}
\subfigure[输出门]{\input{./Chapter6/Figures/figure-LSTM04}}
\caption{LSTM中的门控结构}
\label{fig:6-14}
\end{figure}
%----------------------------------------------

\parinterval LSTM的结构主要分为三个部分:

\begin{itemize}
曹润柘 committed
592
\item \textbf{遗忘}。顾名思义,遗忘的目的是忘记一些历史,在LSTM中通过遗忘门实现,其结构如图\ref{fig:6-14}(a)所示。$\mathbf{x}_{t}$表示时刻$t$的输入向量,$\mathbf{h}_{t-1}$是时刻$t-1$的循环单元的输出,$\mathbf{x}_{t}$$\mathbf{h}_{t-1}$都作为$t$时刻循环单元的输入。$\sigma$将对$\mathbf{x}_{t}$$\mathbf{h}_{t-1}$进行筛选,以决定遗忘的信息,其计算公式如下:
曹润柘 committed
593
\begin{eqnarray}
曹润柘 committed
594 595
\mathbf{f}_t=\sigma(\mathbf{W}_f [\mathbf{h}_{t-1},\mathbf{x}_{t}] + \mathbf{b}_f )
\label{eqC6.12}
曹润柘 committed
596
\end{eqnarray}
曹润柘 committed
597

曹润柘 committed
598
这里,$\mathbf{W}_f$是权值,$\mathbf{b}_f$是偏置,$[\mathbf{h}_{t-1},\mathbf{x}_{t}]$表示两个向量的拼接。该公式可以解释为,对$[\mathbf{h}_{t-1},\mathbf{x}_{t}]$进行变换,并得到一个 的实数向量$\mathbf{f}_t$$\mathbf{f}_t$的每一维都可以被理解为一个``门'',它决定可以有多少信息被留下(或遗忘)。
曹润柘 committed
599

曹润柘 committed
600
\item \textbf{记忆更新}。首先,要生成当前时刻需要新增加的信息,该部分由输入门完成,其结构如图\ref{fig:6-14}(b)红色线部分,图中``$\bigotimes$''表示进行点乘操作。输入门的计算分为两部分,首先利用$\sigma$决定门控参数$\mathbf{i}_t$,然后通过tanh函数得到新的信息$\hat{\mathbf{c}}_t$,具体公式如下:
曹润柘 committed
601
\begin{eqnarray}
曹润柘 committed
602 603
\mathbf{i}_t = \sigma (\mathbf{W}_i [\mathbf{h}_{t-1},\mathbf{x}_{t}] + \mathbf{b}_i )
\label{eqC6.13}
曹润柘 committed
604
\end{eqnarray}
曹润柘 committed
605
%------------------------------------------
曹润柘 committed
606
\begin{eqnarray}
曹润柘 committed
607 608
\hat{\mathbf{c}}_t = \textrm{tanh} (\mathbf{W}_c [\mathbf{h}_{t-1},\mathbf{x}_{t}] + \mathbf{b}_c )
\label{eqC6.14}
曹润柘 committed
609
\end{eqnarray}
曹润柘 committed
610

曹润柘 committed
611
之后,用$\mathbf{i}_t$点乘$\hat{\mathbf{c}}_t$,得到当前需要记忆的信息,记为$\mathbf{i}_t \cdot  \hat{\mathbf{c}}_t$。接下来需要更新旧的信息$\mathbf{c}_{t-1}$,得到新的记忆信息$\mathbf{c}_t$,更新的操作如图\ref{fig:6-14}(c)红色线部分所示,``$\bigoplus$''表示相加。具体规则是通过遗忘门选择忘记一部分上文信息$\mathbf{f}_t$,通过输入门计算新增的信息$\mathbf{i}_t \cdot  \hat{\mathbf{c}}_t$,然后根据``$\bigotimes$''门与``$\bigoplus$''门进行相应的乘法和加法计算:
曹润柘 committed
612
\begin{eqnarray}
曹润柘 committed
613 614
\mathbf{c}_t = \mathbf{f}_t \cdot \mathbf{c}_{t-1} + \mathbf{i}_t  \cdot \hat{\mathbf{c}_t}
\label{eqC6.15}
曹润柘 committed
615
\end{eqnarray}
曹润柘 committed
616

曹润柘 committed
617
\item \textbf{输出}。该部分使用输出门计算最终的输出信息$\mathbf{h}_t$,其结构如图\ref{fig:6-14}(d)红色线部分所示。在输出门中,首先将$\mathbf{x}_t$$\mathbf{h}_{t-1}$通过$\sigma$函数变换得到$\mathbf{o}_t$。其次,将上一步得到的新记忆信息$\mathbf{c}_t$通过tanh函数进行变换,得到值范围在[-1,1]的向量。最后将这两部分进行点乘,具体公式如下:
曹润柘 committed
618
\begin{eqnarray}
曹润柘 committed
619 620
\mathbf{o}_t = \sigma (\mathbf{W}_o [\mathbf{h}_{t-1},\mathbf{x}_{t}] + \mathbf{b}_o )
\label{eqC6.16}
曹润柘 committed
621
\end{eqnarray}
曹润柘 committed
622
%----------------------------------------------------
曹润柘 committed
623
\begin{eqnarray}
曹润柘 committed
624 625
\mathbf{h}_t = \mathbf{o}_t \cdot \textrm{tanh} (\mathbf{c}_t)
\label{eqC6.17}
曹润柘 committed
626
\end{eqnarray}
曹润柘 committed
627 628 629 630 631 632

\end{itemize}
%----------------------------------------------
% 图3.10
\begin{figure}[htp]
\centering
xiaotong committed
633
\input{./Chapter6/Figures/figure-the-whole-of-LSTM}
曹润柘 committed
634 635 636 637 638 639 640 641 642 643
\caption{LSTM的整体结构}
\label{fig:6-15}
\end{figure}
%----------------------------------------------

\parinterval LSTM的完整结构如图\ref{fig:6-15}所示,模型的参数包括:参数矩阵$\mathbf{W}_f$$\mathbf{W}_i$$\mathbf{W}_c$\\$\mathbf{W}_o$和偏置$\mathbf{b}_f$$\mathbf{b}_i$$\mathbf{b}_c$$\mathbf{b}_o$。可以看出,$\mathbf{h}_t$是由$\mathbf{c}_{t-1}$$\mathbf{h}_{t-1}$$\mathbf{x}_t$共同决定的,此外上述公式中激活函数的选择是根据函数各自的特点决定的。
%%%%%%%%%%%%%%%%%%
\subsubsection{门控循环单元(GRU)}\index{Chapter6.3.3.3}
\parinterval LSTM 通过门控单元控制传递状态,忘记不重要的信息,记住必要的历史信息,在长序列上取得了很好的效果,但是其进行了许多门信号的计算,较为繁琐。门循环单元(Gated Recurrent Unit,GRU)作为一个LSTM的变种,它继承了LSTM中利用门控单元控制信息传递的思想,并对LSTM进行了简化\cite{Cho2014Learning}。它把循环单元状态$\mathbf{h}_t$和记忆$\mathbf{c}_t$合并成一个状态$\mathbf{h}_t$,同时使用了更少的门控单元,大大提升了计算效率。

曹润柘 committed
644
\parinterval GRU的输入和RNN是一样的,由输入$\mathbf{x}_t$$t-1$时刻的状态$\mathbf{h}_{t-1}$组成。GRU只有两个门信号,分别是重置门和更新门。重置门$\mathbf{r}_t$用来控制前一时刻隐藏状态的记忆程度,其结构如图\ref{fig:6-16}(a)。更新门用来更新记忆,使用一个门同时完成遗忘和记忆两种操作,其结构如图\ref{fig:6-16}(b)。重置门和更新门的计算公式如下:
曹润柘 committed
645
\begin{eqnarray}
曹润柘 committed
646 647
\mathbf{r}_t = \sigma (\mathbf{W}_r [\mathbf{h}_{t-1},\mathbf{x}_{t}] )
\label{eqC6.18}
曹润柘 committed
648
\end{eqnarray}
曹润柘 committed
649
%----------------------------------------------------
曹润柘 committed
650
\begin{eqnarray}
曹润柘 committed
651 652
\mathbf{u}_t = \sigma (\mathbf{W}_u [\mathbf{h}_{t-1},\mathbf{x}_{t}])
\label{eqC6.19}
曹润柘 committed
653
\end{eqnarray}
曹润柘 committed
654

曹润柘 committed
655
\parinterval 当完成了重置门和更新门计算后,就需要更新当前隐藏状态,如图\ref{fig:6-16}(c)所示。在计算得到了重置门的权重$\mathbf{r}_t$后,使用其对前一时刻的状态$\mathbf{h}_{t-1}$进行重置($\mathbf{r}_t \cdot \mathbf{h}_{t-1}$),将重置后的结果与$\mathbf{x}_t$拼接,通过tanh激活函数将数据变换到[-1,1]范围内:
曹润柘 committed
656
\begin{eqnarray}
曹润柘 committed
657 658
\hat{\mathbf{h}}_t = \textrm{tanh} (\mathbf{W}_h [\mathbf{r}_t \cdot \mathbf{h}_{t-1},\mathbf{x}_{t}])
\label{eqC6.20}
曹润柘 committed
659
\end{eqnarray}
曹润柘 committed
660 661

\parinterval $\hat{\mathbf{h}}_t$在包含了输入信息$\mathbf{x}_t$的同时,引入了$\mathbf{h}_{t-1}$的信息,可以理解为,记忆了当前时刻的状态。下一步是计算更新后的隐藏状态也就是更新记忆,如下所示:
曹润柘 committed
662
\begin{eqnarray}
曹润柘 committed
663 664
\mathbf{h}_t = (1-\mathbf{u}_t) \cdot \mathbf{h}_{t-1} +\mathbf{u}_t \cdot \hat{\mathbf{h}}_t
\label{eqC6.21}
曹润柘 committed
665
\end{eqnarray}
曹润柘 committed
666

曹润柘 committed
667
\noindent 这里,$\mathbf{u}_t$是更新门中得到的权重,将$\mathbf{u}_t$作用于$\hat{\mathbf{h}}_t$表示对当前时刻的状态进行``遗忘'',舍弃一些不重要的信息,将$(1-\mathbf{u}_t)$作用于$\mathbf{h}_{t-1}$,用于对上一时刻隐藏状态进行选择性记忆。
曹润柘 committed
668 669 670 671 672 673 674 675 676 677 678 679 680 681 682 683 684 685 686 687 688 689 690 691 692 693 694 695 696 697 698 699

%----------------------------------------------
% 图3.10
\begin{figure}[htp]
\centering
\subfigure[重置门]{\input{./Chapter6/Figures/figure-GRU01}}
\subfigure[更新门]{\input{./Chapter6/Figures/figure-GRU02}}
\subfigure[隐藏状态更新]{\input{./Chapter6/Figures/figure-GRU03}}
\caption{GRU中的门控结构}
\label{fig:6-16}
\end{figure}
%----------------------------------------------

\parinterval GRU的输入输出和RNN类似,其采用与LSTM类似的门控思想,达到捕获长距离依赖信息的目的。此外,GRU比LSTM少了一个门结构,而且参数只有$\mathbf{W}_r$$\mathbf{W}_u$$\mathbf{W}_h$。因此,GRU具有比LSTM高的运算效率,在系统研发中也经常被使用。
%%%%%%%%%%%%%%%%%%
\subsubsection{双向模型}\index{Chapter6.3.3.4}
\parinterval 前面提到的循环神经网络都是自左向右运行的,也就是说在处理一个单词的时候只能访问它前面的序列信息。但是,只根据句子的前文来生成一个序列的表示是不全面的,因为从最后一个词来看,第一个词的信息可能已经很微弱了。为了同时考虑前文和后文的信息,一种解决办法是使用双向循环网络,其结构如图\ref{fig:6-17}所示。这里,编码器可以看作有两个循环神经网络,第一个网络,即红色虚线框里的网络,从句子的右边进行处理,第二个网络从句子左边开始处理,最终将正向和反向得到的结果都融合后传递给码器。

%----------------------------------------------
% 图3.10
\begin{figure}[htp]
\centering
\input{./Chapter6/Figures/figure-bi-RNN}
\caption{双向循环神经网络}
\label{fig:6-17}
\end{figure}
%----------------------------------------------

\parinterval 双向模型是自然语言处理领域的常用模型,包括前面提到的词对齐对称化、语言模型等中都大量的使用了类似的思路。实际上,这里也体现了建模时的非对称思想。也就是,建模时如果设计一个对称模型可能会导致问题复杂度增加,因此往往先对问题进行化简,从某一个角度解决问题。之后再使用多个模型从不同角度得到相对合理的最终方案。

%%%%%%%%%%%%%%%%%%
\subsubsection{多层循环神经网络}\index{Chapter6.3.3.5}
曹润柘 committed
700
\parinterval 实际上,对于单词序列所使用的循环神经网络是一种很``深''的网络,因为从第一个单词到最后一个单词我们需要经过至少句子长度相当层数的神经元。比如,一个包含几十个词的句子也会对应几十个神经元层。但是,在很多深度学习应用中,更习惯把对输入序列的同一种处理作为``一层''。比如,对于输入序列,我们构建一个RNN,那么这些循环单元就构成了网络的``一层''。当然,这里并不是要混淆概念。我们只是要明确,在随后的讨论中,``层''并不是指一组神经元的全连接,它更多的代表的是对网络的拓扑结构的说法。
曹润柘 committed
701 702 703 704 705 706 707

\parinterval 单层循环神经网络对输入序列进行了抽象,为了等到更深入的抽象能力,可以把多个循环神经网络叠在一起,构成多层循环神经网络。比如,图\ref{fig:6-18}就展示基于两层循环神经网络的解码器和编码器结构。通常来说,层数越多模型的表示能力越强,因此在很多基于循环神经网络的机器翻译系统中一般会使用4$\sim$8层的网络。但是,过多的层也会增加模型训练的难度,甚至导致模型无法进行训练。在第七章我们还会对这个问题进行深入讨论。

%----------------------------------------------
% 图3.10
\begin{figure}[htp]
\centering
708
\input{./Chapter6/Figures/figure-Double-layer-RNN} \hspace{10em}
曹润柘 committed
709 710 711 712 713 714 715 716 717
\caption{双层循环神经网络}
\label{fig:6-18}
\end{figure}
%----------------------------------------------
%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%

%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
\subsection{注意力机制}\index{Chapter6.3.4}
\label{sec:6.3.4}
曹润柘 committed
718 719 720 721
\parinterval 在第二章中我们提到过``上帝是不公平的'',这个观点主要是表达了:世界上事物之间的联系不是均匀的,有些事物之间的联系会很强,而其它的联系可能很弱。自然语言也完美的契合了这个观点。比如,再重新看一下前面提到的根据上下文补缺失单词的例子,

\begin{example}
\quad
曹润柘 committed
722

曹润柘 committed
723 724 725
中午没吃饭,又刚打了一下午篮球,我现在很饿,我想\underline{\quad \quad \quad}
\end{example}
%\vspace{0.5em}
726
%\centerline{中午没吃饭,又刚打了一下午篮球,我现在很饿,我想\underline{\quad \quad \quad} 。 }
曹润柘 committed
727
%\vspace{0.5em}
曹润柘 committed
728

曹润柘 committed
729
\noindent 我们之所以能想到在横线处填``吃饭''、``吃东西''很有可能是因为看到了``没吃饭''、 ``很饿''等关键信息。也就是这些关键的片段对我们预测缺失的单词起着关键性作用。而预测``吃饭''与前文中的``中午''、``又''之间的联系似乎不那么紧密。也就是说,在我们在形成 ``吃饭''的逻辑时,在潜意识里会更注意``没吃饭''、``很饿''等关键信息。也就是我们的关注度并不是均匀的分布在整个句子上的。
曹润柘 committed
730

曹润柘 committed
731
\parinterval 这个现象可以用注意力机制进行解释。注意力机制的概念来源于生物学的一些现象:当待接收的信息过多时,人类会选择性地关注部分信息而忽略其他信息。它在人类的视觉、听觉、嗅觉等方面均有体现,当我们在感受事物时,我们的大脑会自动过滤或衰减部分信息,仅关注其中少数几个部分。例如,当我们在看到图\ref{fig:6-19}时,往往不是``均匀地''看图像中的所有区域,我们可能最先注意到的是大狗头上带的的帽子,然后才会关注图片中其它部分。
曹润柘 committed
732 733 734 735 736 737 738 739 740 741 742 743 744 745 746 747 748 749 750 751 752 753

\parinterval 那么注意力机制和神经机器翻译又有什么关系呢?它可以帮助我们解决哪些神经机器翻译的缺陷呢?下面就一起来看一看。

%----------------------------------------------
% 图3.10
\begin{figure}[htp]
\centering
\includegraphics[scale=0.2]{./Chapter6/Figures/dog-hat.jpg}
\caption{戴帽子的狗}
\label{fig:6-19}
\end{figure}
%----------------------------------------------
%%%%%%%%%%%%%%%%%%
\subsubsection{翻译中的注意力机制}\index{Chapter6.3.4.1}
\parinterval 如前文所述,早期的神经机器翻译只使用循环神经网络最后一个单元的输出作为整个序列的表示。这种方式有两个明显的缺陷:

\begin{itemize}
\item 首先,虽然编码器把一个源语言句子的表示传递给解码器,但是一个维度固定的向量所能包含的信息是有限的,随着源语言序列的增长,将整个句子的信息编码到一个固定维度的向量中可能会造成源语言句子信息的丢失。显然,在翻译较长的句子时,解码端可能无法获取完整的源语言信息,降低翻译性能;

\item 此外,当生成某一个目标语单词时,我们并不是均匀的使用源语言句子中的单词信息。更普遍的情况是,我们会参考与这个目标语单词相对应的源语言单词进行翻译。这有些类似于词对齐的作用,即翻译是基于单词之间的某种对应关系。但是,使用单一的源语言表示根本无法区分源语言句子的不同部分,更不用说对源语言单词和目标语言单词之间的联系进行建模了。
\end{itemize}

曹润柘 committed
754
\parinterval 看一个实际的翻译实例,如图\ref{fig:6-20},目标语中的``very long''仅依赖于源文中的``很长''。这时如果将所有源语编码成一个固定的实数向量,``很长''的信息就很可能被其它词的信息淹没掉,而翻译``very long''时也无法区分不同源语单词的贡献。
曹润柘 committed
755 756 757 758 759

%----------------------------------------------
% 图3.10
\begin{figure}[htp]
\centering
xiaotong committed
760
\input{./Chapter6/Figures/figure-Attention-of-source-and-target-words}
曹润柘 committed
761 762 763 764 765
\caption{源语词和目标语词的关注度}
\label{fig:6-20}
\end{figure}
%----------------------------------------------

曹润柘 committed
766
\parinterval 显然,以上的问题的根本原因在于所使用的表示模型还比较``弱''。因此我们需要一个更强大的表示模型,在生成目标语单词时能够有选择的获取源语言句子中的更有用的部分。更准确的说,对于要生成的目标语单词,相关性更高的源语言片段应该在源语言句子的表示中体现出来,而不是将所有的源语言单词一视同仁。在神经机器翻译中引入注意力机制正是为了达到这个目的\cite{bahdanau2014neural}\cite{DBLP:journals/corr/LuongPM15}。实际上,除了机器翻译,注意力机制也被成功的应用于图像处理、语音识别、自然语言处理的其它任务。而正是注意力机制的引入,使得包括机器翻译在内很多自然语言处理系统得到了新的飞跃。
曹润柘 committed
767 768 769 770 771 772 773

\parinterval 神经机器翻译中的注意力机制并不复杂。对于每个目标语单词$y_j$,我们都生成一个源语言表示向量$\mathbf{C}_j$与之对应,$\mathbf{C}_j$会包含生成$y_j$所需的源语言的信息,或者说$\mathbf{C}_j$是一种包含目标语言单词与源语言单词对应关系的源语言表示。相比用一个静态的表示$\mathbf{C}$,注意机制使用的是动态的表示$\mathbf{C}_j$$\mathbf{C}_j$也被称作对于目标语位置$i$的上下文向量。图\ref{fig:6-21}对比了未引入注意力机制和引入了注意力机制的编码器-解码器结构。可以看出,在注意力模型中,对于每一个目标单词的生成,都会额外引入一个单独的上下文向量参与运算。

%----------------------------------------------
% 图3.10
\begin{figure}[htp]
\centering
xiaotong committed
774
\input{./Chapter6/Figures/figure-encoder-decoder-with-Attention}
曹润柘 committed
775
\caption{不使用(a)和使用(b)注意力机制的翻译模型对比}
曹润柘 committed
776 777 778 779 780 781 782 783 784
\label{fig:6-21}
\end{figure}
%----------------------------------------------
%%%%%%%%%%%%%%%%%%
\subsubsection{上下文向量的计算}\index{Chapter6.3.4.2}

\parinterval 那么注意力机制是如何针对不同单词生成不同的上下文向量的呢?这里,我们可以将注意力机制看做是一种对接收到的信息的加权处理。对于更重要的信息赋予更高的权重即更高的关注度,对于贡献度较低的信息分配较低的权重,弱化其对结果的影响。这样,$\mathbf{C}_j$可以包含更多对当前目标语言位置有贡献的源语言片段的信息。

\parinterval 根据这种思想,上下文向量$\mathbf{C}_j$被定义为对不同时间步编码器输出的状态序列$\{ \mathbf{h}_1, \mathbf{h}_2,…,\mathbf{h}_m \}$进行加权求和,如下:
曹润柘 committed
785
\begin{eqnarray}
曹润柘 committed
786 787
\mathbf{C}_j=\sum_{i} \alpha_{i,j} \mathbf{h}_i
\label{eqC6.22}
曹润柘 committed
788
\end{eqnarray}
曹润柘 committed
789 790 791 792 793 794 795

\noindent 其中,$\alpha_{i,j}$\textbf{注意力权重},它表示目标语第$j$个位置与源语第$i$个位置之间的相关性大小。这里,我们将每个时间步编码器的输出$\mathbf{h}_i$看作源语言位置$i$的表示结果。进行翻译时,解码端可以根据当前的位置$j$,通过控制不同$\mathbf{h}_i$的权重得到$\mathbf{C}_j$,使得对目标语位置$j$贡献大的$\mathbf{h}_i$$\mathbf{C}_j$的影响增大。也就是说,$\mathbf{C}_j$实际上就是\{${\mathbf{h}_1, \mathbf{h}_2,…,\mathbf{h}_m}$\}的一种组合,只不过不同的$\mathbf{h}_i$会根据对目标端的贡献给予不同的权重。图\ref{fig:6-22}展示了上下文向量$\mathbf{C}_j$的计算过程。

%----------------------------------------------
% 图3.10
\begin{figure}[htp]
\centering
xiaotong committed
796
\input{./Chapter6/Figures/figure-Calculation-process-of-context-vector-C}
曹润柘 committed
797 798 799 800 801 802 803 804 805
\caption{上下文向量$\mathbf{C}_j$的计算过程}
\label{fig:6-22}
\end{figure}
%----------------------------------------------

\parinterval 如图5所示,注意力权重$\alpha_{i,j}$的计算分为两步:

\begin{itemize}
\item	我们使用目标语言上一时刻循环单元的输出$\mathbf{s}_{j-1}$与源语言第$i$个位置的表示$\mathbf{h}_i$之间的相关性,来表示目标语言位置$j$对源语言位置$i$的关注程度,记为$\beta_{i,j}$,由函数$\textrm{a}(\cdot)$实现
曹润柘 committed
806
\begin{eqnarray}
曹润柘 committed
807 808
\beta_{i,j} = \textrm{a}(\mathbf{s}_{j-1},\mathbf{h}_i)
\label{eqC6.23}
曹润柘 committed
809
\end{eqnarray}
曹润柘 committed
810

曹润柘 committed
811
$\textrm{a}(\cdot)$可以被看作是目标语表示和源语言表示的一种``统一化'',即把源语和目标语表示映射在同一个语义空间,进而语义相近的内容有更大的相似性。该函数有多种计算方式,比如,向量乘、向量夹角、单词神经网络等,如下:
曹润柘 committed
812
\begin{eqnarray}
曹润柘 committed
813 814 815 816 817 818 819 820
\textrm{a} (\textbf{s},\textbf{h}) =  \left\{ \begin{array}{ll}
    \textbf{s} \textbf{h}^{\textrm{T}} & \textrm{向量乘} \\
    \textrm{cos}(\textbf{s}, \textbf{h}) & \textrm{向量夹角} \\
    \textbf{s} \textbf{W} \textbf{h}^{\textrm{T}} & \textrm{线性模型} \\
    \textrm{TanH}(\textbf{W}[\textbf{s},\textbf{h}])\textbf{v}^{\textrm{T}} & \textrm{拼接}[\textbf{s},\textbf{h}]+\textrm{单层网络}
    \end{array}
    \right.
\label{eqC6.24}
曹润柘 committed
821
\end{eqnarray}
曹润柘 committed
822 823 824

其中$\mathbf{W}$$\mathbf{v}$是可学习的参数。

xiaotong committed
825
\item	进一步,利用Softmax函数,将相关性系数$\beta_{i,j}$进行指数归一化处理,得到注意力权重$\alpha_{i,j}$
曹润柘 committed
826
\begin{eqnarray}
曹润柘 committed
827 828
\alpha_{i,j}=\frac{\textrm{exp}(\beta_{i,j})} {\sum_{i'} \textrm{exp}(\beta_{i',j})}
\label{eqC6.25}
曹润柘 committed
829
\end{eqnarray}
曹润柘 committed
830 831 832 833 834 835 836 837

最终,\{$\alpha_{i,j}$\}可以被看作是一个矩阵,它的长为目标语言句子长度,宽为源语言句子长度,矩阵中的每一项对应一个$\alpha_{i,j}$。图\ref{fig:6-23}给出了\{$\alpha_{i,j}$\}的一个矩阵表示。图中蓝色方框的大小表示不同的注意力权重$\alpha_{i,j}$的大小,方框越大,位置$i$和位置$j$的相关性越高。能够看到,对于互译的中英文句子,\{$\alpha_{i,j}$\}可以较好的反应两种语言之间不同位置之间的对应关系。


%----------------------------------------------
% 图3.10
\begin{figure}[htp]
\centering
xiaotong committed
838
\input{./Chapter6/Figures/figure-Matrix-Representation-of-Attention-Weights-Between-Chinese-English-Sentence-Pairs}
曹润柘 committed
839 840 841 842 843 844
\caption{一个汉英句对之间的注意力权重{$\alpha_{i,j}$}的矩阵表示}
\label{fig:6-23}
\end{figure}
%----------------------------------------------
\end{itemize}

曹润柘 committed
845
\parinterval\ref{fig:6-24}展示了一个上下文向量的计算过程。首先,计算目标语第一个单词``Have''与源语中的所有单词的相关性,即注意力权重,对应图中第一列$\alpha_{i,1}$,则当前时刻所使用的上下文向量$\mathbf{C}_1 = \sum_{i=1}^8 \alpha_{i,1} \mathbf{h}_i$;然后,计算第二个单词``you''的注意力权重对应第二列$\alpha_{i,2}$,其上下文向量$\mathbf{C}_2 = \sum_{i=1}^8 \alpha_{i,2} \mathbf{h}_i$,以此类推,我们可以的得到任意目标语位置$j$的上下文向量$\mathbf{C}_j$。很容易看出,不同目标语单词的上下文向量对应的源语言词的权重$\alpha_{i,j}$是不同的,不同的注意力权重为不同位置赋予了不同重要性,对应了注意力机制的思想。
曹润柘 committed
846 847 848 849 850

%----------------------------------------------
% 图3.10
\begin{figure}[htp]
\centering
xiaotong committed
851
\input{./Chapter6/Figures/figure-Example-of-context-vector-calculation-process}
曹润柘 committed
852 853 854 855 856 857
\caption{上下文向量计算过程实例}
\label{fig:6-24}
\end{figure}
%----------------------------------------------

\parinterval\ref{sec:6.3.1}节中,我们使用公式\ref{eqC6.5}描述了目标语单词生成概率P$(y_j | \mathbf{y}_{<j},\mathbf{x})$。在引入注意力机制后,我们使用不同时刻的上下文向量$\mathbf{C}_j$替换了传统模型中固定的句子表示$\mathbf{C}$。描述如下:
曹润柘 committed
858
\begin{eqnarray}
曹润柘 committed
859 860
\textrm{P} (y_j | \mathbf{y}_{<j},\mathbf{x}) \equiv \textrm{P} (y_j | \mathbf{s}_{j-1},y_{j-1},\mathbf{C}_j )
\label{eqC6.26}
曹润柘 committed
861
\end{eqnarray}
曹润柘 committed
862 863 864 865 866 867 868 869 870 871 872

\parinterval 这样,我们可以在生成每个$y_j$时动态的使用不同的源语言表示$\mathbf{C}_j$,并更准确的捕捉源语言和目标语言不同位置之间的相关性。表\ref{tab:word-translation-examples}展示了引入注意力机制前后译文单词生成公式的对比。

%----------------------------------------------
% 表
\begin{table}[htp]
\centering
\caption{引入注意力机制前后译文单词生成公式}
\label{tab:word-translation-examples}
\begin{tabular}{ l | l }
\rule{0pt}{13pt}	\textbf{引入注意力之前}			&\textbf{引入注意力之后} \\ \hline
xiaotong committed
873 874
\rule{0pt}{16pt}	$\textrm{``have''} = \argmax_{y_1}\mathrm{P}(y_1 | \mathbf{C} , y_0)$		&$\textrm{``have''} = \argmax_{y_1}\mathrm{P}(y_1 | \mathbf{C}_1 , y_0)$	\\
\rule{0pt}{16pt}	$\textrm{``you''} = \argmax_{y_2}\mathrm{P}(y_2 | \mathbf{s}_1 , y_1)$			&$\textrm{``you''} = \argmax_{y_2}\mathrm{P}(y_2 | \mathbf{s}_1, \mathbf{C}_2 , y_1)$	\\
曹润柘 committed
875
\end{tabular}
876

曹润柘 committed
877 878 879 880 881 882 883 884 885
\end{table}
%--------------------------------------
%%%%%%%%%%%%%%%%%%
\subsubsection{注意力机制的解读}\index{Chapter6.3.4.3}
\label{sec:6.3.4.3}
\parinterval 从前面的描述可以看出,注意力机制在机器翻译中就是要回答一个问题:给定一个目标语位置$j$和一系列源语言的不同位置上的表示\{${\mathbf{h}_i}$\},如何得到一个新的表示$\hat{\mathbf{h}}$,使得它与目标语位置$j$对应的最好?

\parinterval 那么,如何理解这个过程?注意力机制的本质又是什么呢?换一个角度来看,实际上,目标语位置$j$本质上是一个查询,我们希望从源语言端找到与之最匹配的源语言位置,并返回相应的表示结果。为了描述这个问题,我们可以建立一个查询系统。假设我们有一个库,里面包含若干个$\mathrm{key}$-$\mathrm{value}$单元,其中$\mathrm{key}$代表这个单元的索引关键字,$\mathrm{value}$代表这个单元的值。比如,我们建立一个学生信息系统,$\mathrm{key}$可以是学号,$\mathrm{value}$可以是学生的身高。当输入一个查询$\mathrm{query}$,我们希望这个系统返回与之最匹配的结果。也就是,我们希望找到匹配的$\mathrm{key}$,并输出其对应的$\mathrm{value}$。比如,我们希望查询某个学生的身高信息,可以输入学生的学号,之后在库中查询与这个学号相匹配的记录,并把这个记录中的$\mathrm{value}$(即身高)作为结果返回。

曹润柘 committed
886
\parinterval\ref{fig:6-25}(a)展示了一个这样的查询系统。里面包含四个$\mathrm{key}$-$\mathrm{value}$单元,当输入查询$\mathrm{query}$,我们就把$\mathrm{query}$与这四个$\mathrm{key}$逐个进行匹配,如果完全匹配就返回相应的$\mathrm{value}$。在图中的例子中,$\mathrm{query}$$\mathrm{key}_3$是完全匹配的(因为都是横纹),因此系统返回第三个单元的值,即$\mathrm{value}_3$。当然,如果库中没有与$\mathrm{query}$匹配的$\mathrm{key}$,则返回一个空结果。
曹润柘 committed
887 888 889 890 891

%----------------------------------------------
% 图3.10
\begin{figure}[htp]
\centering
xiaotong committed
892
\input{./Chapter6/Figures/figure-Query-model-corresponding-to-traditional-query-model-vs-attention-mechanism}
曹润柘 committed
893
\caption{传统查询模型(a)和注意力机制所对应的查询模型(b)}
曹润柘 committed
894 895 896 897
\label{fig:6-25}
\end{figure}
%----------------------------------------------

曹润柘 committed
898
\parinterval 我们也可以用这个系统描述翻译中的注意力问题,其中,$\mathrm{query}$即目标语言位置$j$的某种表示,$\mathrm{key}$$\mathrm{value}$即源语言每个位置$i$上的${\mathbf{h}_i}$(这里$\mathrm{key}$$\mathrm{value}$是相同的)。但是,这样的系统在机器翻译问题上并不好用,因为目标语言的表示和源语言的表示都在多维实数空间上,我们无法要求两个实数向量像字符串一样进行严格匹配,或者说这种严格匹配的模型可能会导致$\mathrm{query}$几乎不会命中任何的$\mathrm{key}$。既然无法严格精确匹配,注意力机制就采用了一个``模糊''匹配的方法。我们定义每个$\mathrm{key}_i$$\mathrm{query}$都有一个0~1之间的匹配度,这个匹配度描述了$\mathrm{key}_i$$\mathrm{query}$之间的相关程度,记为$\alpha_i$。而查询的结果(记为$\overline{\mathrm{value}}$)也不再是某一个单元的$\mathrm{value}$,而是所有单元$\mathrm{value}$$\alpha_i$的加权和:
曹润柘 committed
899
\begin{eqnarray}
曹润柘 committed
900 901
\overline{\mathrm{value}} = \sum_i \alpha_i \cdot {\mathrm{value}}_i
\label{eqC6.27}
曹润柘 committed
902
\end{eqnarray}
曹润柘 committed
903 904 905 906 907 908 909 910 911

\noindent 也就是说所有的$\mathrm{value}_i$都会对查询结果有贡献,只是贡献度不同罢了。我们可以通过设计$\alpha_i$来捕捉$\mathrm{key}$$\mathrm{query}$之间的相关性,以达到相关度越大的$\mathrm{key}$所对应的$\mathrm{value}$对结果的贡献越大。

\parinterval 重新回到神经机器翻译问题上来。这种基于模糊匹配的查询模型可以很好的满足我们对注意力建模的要求。实际上,公式\ref{eqC6.27}中的$\alpha_i$就是前面提到的注意力权重,它可以由注意力函数a($\cdot$)计算得到。这样,$\overline{\mathrm{value}}$就是我们得到上下文向量,它包含了所有\{$\mathbf{h}_i$\}的信息,只是不同$\mathbf{h}_i$的贡献度不同罢了。图\ref{fig:6-26}展示了将基于模糊匹配的查询模型应用于注意力机制的实例。

%----------------------------------------------
% 图3.10
\begin{figure}[htp]
\centering
xiaotong committed
912
\input{./Chapter6/Figures/figure-Query-model-corresponding-to-attention-mechanism}
曹润柘 committed
913 914 915 916 917 918
\caption{注意力机制所对应的查询模型}
\label{fig:6-26}
\end{figure}
%----------------------------------------------

\parinterval 最后,从统计学的角度,如果把$\alpha_i$作为每个$\mathrm{value}_i$出现的概率的某种估计,即:P($\mathrm{value}_i$) $= \alpha_i$,于是我们可以把公式\ref{eqC6.27}重写为:
曹润柘 committed
919
\begin{eqnarray}
曹润柘 committed
920 921
\overline{\mathrm{value}} = \sum_i \textrm{P}( {\mathrm{value}}_i) \cdot {\mathrm{value}}_i
\label{eqC6.28}
曹润柘 committed
922
\end{eqnarray}
曹润柘 committed
923 924 925 926 927

\noindent 显然, $\overline{\mathrm{value}}$就是$\mathrm{value}_i$在分布P($\mathrm{value}_i$)下的期望,即$\mathbb{E}_{\sim \\ \textrm{P}( {\mathrm{\mathrm{value}}}_i )} ({\mathrm{value}}_i) = \sum_i \textrm{P}({\mathrm{value}}_i) \cdot {\mathrm{value}}_i $。从这个观点看,注意力机制实际上是得到了一个变量($\mathrm{value}$)的期望。当然,严格意义上说,$\alpha_i$并不是从概率角度定义的,这里我们也并不是要追求严格的统计学意义。不过这确实说明了,往往看似简单的模型背后的数学原理可能会很深刻。


%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
928
\subsection{训练}\index{Chapter6.3.5}
曹润柘 committed
929
\parinterval 在第五章中,我们已经介绍了神经网络的训练方法。其中最常用的是基于梯度的方法,即:使用一定量样本进行神经网络的前向计算,之后进行反向计算,并得到所有参数的梯度信息,再使用下面的规则进行参数更新:
曹润柘 committed
930
\begin{eqnarray}
曹润柘 committed
931 932
\mathbf{w}_{step+1} = \mathbf{w}_{step} - \alpha \cdot \frac{\partial L(\mathbf{w}_{step})} {\partial \mathbf{w}_{step} }
\label{eqC6.29}
曹润柘 committed
933
\end{eqnarray}
曹润柘 committed
934

曹润柘 committed
935
\noindent 其中,$\mathbf{w}_{step}$表示更新前的模型参数,$\mathbf{w}_{step+1}$表示更新后的模型参数,$L(\mathbf{w}_{step})$表示模型相对于$\mathbf{w}_{step}$的损失,$\frac{\partial L(\mathbf{w}_{step})} {\partial \mathbf{w}_{step} }$表示损失函数的梯度,$\alpha$是更新的步进值。也就是说,给定一定量的训练数据,我们不断运行公式\ref{eqC6.29}的过程。而训练数据也可以反复使用,直至模型参数达到收敛或者损失函数不再变化。通常,把公式的一次执行称为``一步''更新/训练,把访问完所有样本的训练上完称为``一轮''训练。
曹润柘 committed
936 937 938 939

\parinterval 将公式\ref{eqC6.29}应用于神经机器翻译有几个基本问题需要考虑:1)损失函数的选择;2)参数初始化的策略,也就是如何设置$\mathbf{w}_0$;3)优化策略和学习率调整策略;4)训练加速。下面我们对这些问题进行讨论。
%%%%%%%%%%%%%%%%%%
\subsubsection{损失函数}\index{Chapter6.3.5.1}
曹润柘 committed
940 941
\parinterval 因为神经机器翻译在每个目标语位置都会输出一个概率分布,表示这个位置上不同单词出现的可能性,因此我们需要知道当前位置输出的分布相比于标准答案的``损失''。对于这个问题,常用的是交叉熵损失函数\footnote{\ \ 百度百科:\url{https://baike.baidu.com/item/\%E4\%BA\%A4\%E5\%8F\%89\%E7\%86\%B5/8983241?fr=aladdin}}。令$\mathbf{y}$表示机器翻译模型输出的分布,$\hat{\mathbf{y}}$表示标准答案,则交叉熵损失可以被定义为$L_{\textrm{ce}}(\mathbf{y},\hat{\mathbf{y}}) = - \sum_{k=1}^{|V|} \mathbf{y}[k] \textrm{log} (\hat{\mathbf{y}}[k])$,其中$\mathbf{y}[k]$$\hat{\mathbf{y}}[k]$分别表示向量$\mathbf{y}$$\hat{\mathbf{y}}$的第$k$维,$|V|$表示输出向量得维度(等于词表大小)。对于一个模型输出的概率分布$\mathbf{Y} = \{ \mathbf{y}_1,\mathbf{y}_2,…, \mathbf{y}_n \}$和标准答案分布$\hat{\mathbf{Y}}=\{ \hat{\mathbf{y}}_1, \hat{\mathbf{y}}_2,…,\hat{\mathbf{y}}_n \}$,损失函数可以被定义为
%-------------
曹润柘 committed
942
\begin{eqnarray}
曹润柘 committed
943
L(\mathbf{Y},\hat{\mathbf{Y}}) = \sum_{j=1}^n L_{\textrm{ce}}(\mathbf{y}_j,\hat{\mathbf{y}}_j)
曹润柘 committed
944
\label{eqC6.30}
曹润柘 committed
945
\end{eqnarray}
曹润柘 committed
946

xiaotong committed
947
\parinterval 公式\ref{eqC6.30}是一种非常通用的损失函数形式,除了交叉熵,我们也可以使用其它的损失函数,这时只需要替换$L_{ce} (\cdot)$即可。这里使用交叉熵损失函数的好处在于,它非常容易优化,特别是与Softmax组合,其反向传播的实现非常高效。此外,交叉熵损失(在一定条件下)也对应了极大似然的思想,这种方法在自然语言处理中已经被证明是非常有效的。
曹润柘 committed
948 949 950 951 952 953 954 955 956 957 958

\parinterval 除了交叉熵,很多系统也使用了面向评价的损失函数,比如,直接利用评价指标BLEU定义损失函数。不过这类损失函数往往不可微分,因此无法直接获取梯度。这时可以引入强化学习技术,通过策略梯度等方法进行优化。不过这类方法需要采样等手段,这里不做重点讨论,相关内容会在后面前言技术部分进行介绍。
%%%%%%%%%%%%%%%%%%
\subsubsection{长参数初始化}\index{Chapter6.3.5.2}
\parinterval 神经网络的参数主要是各层中的线性变换矩阵和偏置。在训练开始时,需要对参数进行初始化。但是,由于神经机器翻译的网络结构复杂,因此损失函数往往不是凸函数,不同初始化会导致不同的优化结果。而且在大量实践中已经发现,神经机器翻译模型对初始化方式非常敏感,性能优异的系统往往需要特定的初始化方式。

\parinterval 下面我们以LSTM循环神经网络为例\ref{sec:6.3.3.2},介绍机器翻译模型的初始化方法。这些方法也可以推广到GRU等结构。具体内容如下:

\begin{itemize}
\item LSTM遗忘门偏置初始化为1,也就是始终选择遗忘记忆$\mathbf{c}$,这样可以有效防止初始化时$\mathbf{c}$里包含的错误信号传播到后面的所有时刻。

曹润柘 committed
959
\item 网络中的其他偏置一般都初始化为0,可以有效防止加入过大或过小的偏置后使得激活函数的输出跑到``饱和区'',也就是梯度接近0的区域,防止训练一开始就无法跳出局部极小的区域。
曹润柘 committed
960

曹润柘 committed
961
\item 网络的权重矩阵$\mathbf{w}$一般使用Xavier参数初始化方法\cite{pmlr-v9-glorot10a},可以有效稳定训练过程,特别是对于比较``深''的网络。如果用$d_{in}$$d_{out}$分别表示$\mathbf{w}$的输入和输出的维度大小,则该方法的具体实现如下:
曹润柘 committed
962
\begin{eqnarray}
曹润柘 committed
963 964
\mathbf{w} \sim U(-\sqrt{ \frac{6} { d_{in} + d_{out} } } , \sqrt{ \frac{6} { d_{in} + d_{out} } })
\label{eqC6.31}
曹润柘 committed
965
\end{eqnarray}
曹润柘 committed
966 967 968 969 970 971 972 973 974 975 976 977 978 979 980 981 982 983 984 985

其中$U(a,b)$表示以$[a,b]$为范围的均匀分布。
\end{itemize}
%%%%%%%%%%%%%%%%%%
\subsubsection{优化策略}\index{Chapter6.3.5.3}
\parinterval 公式\ref{eqC6.29}展示了最基本的优化策略,也被称为标准的SGD优化器。实际上,训练神经机器翻译模型时,还有非常多的优化器可以选择,在第五章也有详细介绍,这里我们考虑Adam优化器。 Adam通过对梯度的一阶矩估计(First Moment Estimation)和二阶矩估计(Second Moment Estimation)进行综合考虑,计算出更新步长。

\parinterval\ref{tab:Adam vs SGD}从效果上对比了Adam和SGD的区别。通常,Adam收敛的比较快,不同任务基本上可以使用一套配置进行优化,虽性能不算差,但很难达到最优效果。相反,SGD虽能通过在不同的数据集上进行调整,来达到最优的结果,但是收敛速度慢。因此需要根据不同的需求来选择合适的优化器。若需要快速得到模型的初步结果,选择Adam较为合适,若是需要在一个任务上得到最优的结果,选择SGD更为合适。

%----------------------------------------------
% 表
\begin{table}[htp]
\centering
\caption{ Adam / SGD对比}
\label{tab:Adam vs SGD}
\begin{tabular}{l | l  l }
	 		&\textbf{使用}		&\textbf{性能} \\ \hline
\rule{0pt}{13pt}	Adam	&一套配置包打天下	&不算差,但没到极限 \\
\rule{0pt}{13pt}	SGD	&换一个任务就得调	&效果杠杠的 \\
\end{tabular}
986

曹润柘 committed
987 988 989 990 991
\end{table}
%--------------------------------------

%%%%%%%%%%%%%%%%%%
\subsubsection{梯度裁剪}\index{Chapter6.3.5.4}
曹润柘 committed
992
\parinterval 需要注意的是,训练循环神经网络时,反向传播使得网络层之间的梯度重复相乘,在网络层数过深时,如果连乘因子小于1可能造成梯度指数级的减少,甚至趋近于0,导致网络无法优化,也就是梯度消失问题。当连乘因子大于1时,可能会导致梯度的乘积变得异常大,造成梯度爆炸的问题。在这种情况下需要使用``梯度裁剪''来防止梯度$\pi$超过阈值。具体公式如下:
曹润柘 committed
993
\begin{eqnarray}
曹润柘 committed
994 995
\mathbf{w}' = \mathbf{w} \cdot \frac{threshold} {\textrm{max}(threshold,\| \mathbf{w} \|_2)}
\label{eqC6.32}
曹润柘 committed
996
\end{eqnarray}
曹润柘 committed
997 998 999 1000 1001 1002 1003 1004 1005 1006 1007 1008

\noindent 其中$threshold$是手工设定的梯度大小阈值, $\| \cdot \|_2$是L2范数,$\mathbf{w}'$表示梯度裁剪后的参数。这个公式的含义在于只要梯度大小超过阈值,就按照阈值与当前梯度大小的比例进行放缩。
%%%%%%%%%%%%%%%%%%
\subsubsection{学习率策略}\index{Chapter6.3.5.5}
\parinterval 在公式\ref{eqC6.29}中, $\alpha$决定了每次参数更新时更新的步幅大小,称之为学习率。学习率作为基于梯度方法中的重要超参数,它决定目标函数能否收敛到较好的局部最优点以及收敛的速度。合理的学习率能够使模型快速、稳定的达到较好的状态。但是,如果学习率太小,收敛过程会很慢;而学习率太大,则模型的状态可能会出现震荡,很难达到稳定,甚至使模型无法收敛。图\ref{fig:6-27}对比了不同学习率对损失函数的影响。

%----------------------------------------------
% 图3.10
\begin{figure}[htp]
\centering
%\includegraphics[scale=0.7]{./Chapter6/Figures/Big learning rate vs Small learning rate.png}
\input{./Chapter6/Figures/figure-convergence&lr}
曹润柘 committed
1009
\caption{学习率过小(左) vs 学习率过大(右) }
曹润柘 committed
1010 1011 1012 1013 1014 1015 1016 1017 1018 1019
\label{fig:6-27}
\end{figure}
%----------------------------------------------

\parinterval 不同优化器需要的学习率不同,比如Adam一般使用0.001或0.0001,而SGD则在0.1~1之间进行挑选。在梯度下降法中,都是给定的统一的学习率,整个优化过程中都以确定的步长进行更新因此无论使用哪个优化器,为了保证训练又快又好,我们通常都需要根据当前的更新次数来动态调整学习率的大小。

%----------------------------------------------
% 图3.10
\begin{figure}[htp]
\centering
xiaotong committed
1020
\input{./Chapter6/Figures/figure-Relationship-between-learning-rate-and-number-of-updates}
曹润柘 committed
1021 1022 1023 1024 1025
\caption{学习率与更新次数的变化关系}
\label{fig:6-28}
\end{figure}
%----------------------------------------------

曹润柘 committed
1026
\parinterval\ref{fig:6-28}展示了一种常用的学习率调整策略。它分为两个阶段:预热阶段和衰减阶段。模型训练初期梯度通常很大,如果直接使用较大的学习率很容易让模型陷入局部最优。学习率的预热阶段便是通过在训练初期使学习率从小到大逐渐增加来减缓在初始阶段模型``跑偏''的现象。一般来说,初始学习率太高会使得模型进入一种损失函数曲面非常不平滑的区域,进而使得模型进入一种混乱状态,后续的优化过程很难取得很好的效果。一个常用的学习率预热方法是逐渐预热(Gradual Warmup),如果令预热的更新次数为$T'$,初始学习率为$\alpha_0$,则预热阶段第$t$次更新的学习率为:
曹润柘 committed
1027
%-------------------------------
曹润柘 committed
1028
\begin{eqnarray}
曹润柘 committed
1029 1030
\alpha_t = \frac{t}{T'} \alpha_0 \quad,\quad 1 \leq t \leq T'
\label{eqC6.52-new}
曹润柘 committed
1031
\end{eqnarray}
曹润柘 committed
1032 1033 1034 1035 1036
%-------

\noindent 另一方面,当模型训练逐渐接近收敛的时候,使用太大学习率会很容易让模型在局部最优解附近震荡,从而错过局部极小,因此需要通过减小学习率来调整更新的步长,以此来不断的逼近局部最优,这一阶段也称为学习率的衰减阶段。学习率衰减的方法有很多,比如指数衰减,余弦衰减等,图\ref{fig:6-28}展示的是分段常数衰减(Piecewise Constant Decay),即每经过$m$次更新,学习率衰减为原来的$\beta_m$$\beta_m<1$)倍,其中$m$$\beta_m$为经验设置的超参。
%%%%%%%%%%%%%%%%%%
\subsubsection{并行训练}\index{Chapter6.3.5.5}
曹润柘 committed
1037
\parinterval 机器翻译是自然语言处理中很``重''的任务。因为数据量巨大而且模型较为复杂,模型训练的时间往往很长。比如,使用一千万句的训练数据,性能优异的系统往往需要几天甚至一周的时间。更大规模的数据会导致训练时间更长。特别是使用多层网络同时增加模型容量时(比如增加隐层宽度)时,神经机器翻译的训练会更加缓慢。对于这个问题,一个思路是从算法上进行改进。比如前面提到的Adam就是一种高效的训练策略。另一种思路是利用多设备进行加速,也称作分布式训练。
曹润柘 committed
1038 1039 1040 1041 1042 1043 1044 1045 1046 1047 1048 1049

%----------------------------------------------
% 表
\begin{table}[htp]
\centering
\caption{ 数据并行与模型并行优缺点对比}
\label{tab:adv and disadv between Data parallel and model parallel }
\begin{tabular}{l | p{12em}  p{10em} }
	 		 &\textbf{优点}		&\textbf{缺点} \\ \hline
\rule{0pt}{13pt}	数据并行 &并行度高,理论上有多大的batch就可以有多少个设备并行计算	&模型不能大于当个设备的极限 \\
\rule{0pt}{13pt}	模型并行	&可以对很大的模型进行运算	&只能有限并行,比如多少层就多少个设备 \\
\end{tabular}
1050

曹润柘 committed
1051 1052 1053
\end{table}
%--------------------------------------

1054
\parinterval 常用的多设备并行化加速方法有数据并行和模型并行,其优缺点的简单对比如表\ref{tab:adv and disadv between Data parallel and model parallel }所示。数据并行是指把同一个batch的不同样本分到不同设备上进行并行计算。其优点是并行度高,理论上有多大的batch就可以有多少个设备并行计算,但模型体积不能大于单个设备容量的极限。而模型并行是指把``模型''切分成若干模块后分配到不同设备上并行计算。其优点是可以对很大的模型进行运算,但只能有限并行,比如我们按层对模型进行分割,那么有多少层就需要多少个设备,同时这两种方法可以一起使用进一步提高神经网络的训练速度。具体来说:
曹润柘 committed
1055 1056 1057 1058 1059 1060 1061 1062

\begin{itemize}
\item 	数据并行。如果一台设备能完整放下一个神经机器翻译模型,那么数据并行可以把一个大batch均匀切分成$n$个小batch,然后分发到$n$个设备上并行计算,最后把结果汇总,相当于把运算时间变为原来的${1}/{n}$,数据并行的过程如图\ref{fig:6-29}所示。不过,需要注意的是,多设备并行需要对数据在不同设备间传输,特别是多个GPU的情况,设备间传输的带宽十分有限,设备间传输数据往往会造成额外的时间消耗\cite{Zhang2017Fast}。通常,数据并行的训练速度无法随着设备数量增加呈线性增长。不过这个问题也有很多优秀的解决方案,比如采用多个设备的异步训练,但是这些内容已经超出本章的内容,因此这里不做过多讨论。

%----------------------------------------------
% 图3.10
\begin{figure}[htp]
\centering
xiaotong committed
1063
\input{./Chapter6/Figures/figure-Data-parallel-process}
曹润柘 committed
1064 1065 1066 1067 1068 1069 1070 1071 1072 1073 1074 1075 1076 1077 1078 1079 1080 1081 1082 1083 1084
\caption{数据并行过程}
\label{fig:6-29}
\end{figure}
%----------------------------------------------

\item 	模型并行。另一种思路是,把较大的模型分成若干小模型,之后在不同设备上训练小模型。对于循环神经网络,不同层的网络天然就是一个相对独立的模型,因此非常适合使用这种方法。比如,对于$l$层的循环神经网络,把每层都看做一个小模型,然后分发到$l$个设备上并行计算。在序列较长的时候,该方法使其运算时间变为原来的${1}/{l}$

%-------------------------------------------
%figure
\begin{figure}[htp]
\centering
\begin{tabular}{l l}
\subfigure[]{\input{./Chapter6/Figures/figure-process01}} &\subfigure[]{\input{./Chapter6/Figures/figure-process02}} \\
\subfigure[]{\input{./Chapter6/Figures/figure-process03}}  &\subfigure[]{\input{./Chapter6/Figures/figure-process04}} \\
\subfigure[]{\input{./Chapter6/Figures/figure-process05}}  &\subfigure[]{\input{./Chapter6/Figures/figure-process06}}\\
\end{tabular}
\caption{一个三层循环神经网络的模型并行过程}
\label{fig:6-30}
\end{figure}
%----------------------------------------------

曹润柘 committed
1085
\ref{fig:6-30}以三层循环网络为例展示了对句子``你 很 不错 。''进行模型并行的过程。其中,每一层网络都被放到了一个设备上。当模型根据已经生成的第一个词``你''后预测下一个词时(\ref{fig:6-30}(a)),同层的下一个时刻的计算和对``你''的第二层的计算就可以同时开展(\ref{fig:6-30}(b))。以此类推,就完成了模型的并行计算。
曹润柘 committed
1086 1087
\end{itemize}
%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
1088
\subsection{推断}\index{Chapter6.3.6}
曹润柘 committed
1089
\parinterval 神经机器翻译的推断是指:利用已经训练好的模型对新的源语言句子进行翻译的过程。具体来说,首先利用编码器生成源语言句子的表示,之后利用解码器预测目标语译文。也就是,对于源语言句子$\mathbf{x}$,生成一个使翻译概率$\textrm{P}(\mathbf{y} | \mathbf{x})$最大的目标语译文$\hat{\mathbf{y}}$,如下(详细过程见\ref{sec:6.3.1}节):
曹润柘 committed
1090
%-----------------------
曹润柘 committed
1091
\begin{eqnarray}
曹润柘 committed
1092 1093
\hat{\mathbf{y}} & = & \argmax_y \textrm{P}(\mathbf{y} | \mathbf{x}) \nonumber \\
                 & = & \argmax_y \prod_{j=1}^n \textrm{P}(y_j | \mathbf{y}_{<j},\mathbf{x})
曹润柘 committed
1094 1095 1096 1097 1098
\label{eqC6.33}
\end{eqnarray}

\noindent 在具体实现时,由于当前目标语单词的生成需要依赖前面单词的生成,因此无法同时生成所有的目标语单词。理论上,我们可以枚举所有的$\mathbf{y}$,之后利用$\textrm{P}(\mathbf{y} | \mathbf{x})$的定义对每个$\mathbf{y}$进行评价,然后找出最好的$\mathbf{y}$。这也被称作全搜索(full search)。但是,枚举所有的译文单词序列显然是不现实的。因此,在具体实现时,我们并不会访问所有的可能的译文单词序列,而是用某种策略进行有效的搜索。常用的做法是自左向右逐词生成。比如,对于每一个目标语位置,可以执行
%-------------------------------
曹润柘 committed
1099
\begin{eqnarray}
曹润柘 committed
1100
\hat{y}_j = \argmax_{y_j} \textrm{P}(y_j | \hat{\mathbf{y}}_{y<j} , \mathbf{x})
曹润柘 committed
1101
\label{eqC6.34}
曹润柘 committed
1102
\end{eqnarray}
曹润柘 committed
1103

xiaotong committed
1104
\noindent 其中,$\hat{y}_j$表示位置$j$概率最高的单词,$\hat{\mathbf{y}}_{<j} = \{ \hat{y}_1,...,\hat{y}_{j-1} \}$表示已经生成的最优译文单词序列。也就是,我们把最优的译文看作是所有位置上最优单词的组合。显然,这是一个贪婪的搜索(greedy search),因为我们无法保证$\{ \hat{y}_1,...,\hat{y}_{n} \}$是全局最优解。一种缓解这个问题的方法是,在每步中引入更多的候选。我们定义$\hat{y}_{jk} $表示在目标语第$j$个位置排名在第$k$位的单词。在每一步,我们可以生成$K$个最可能的单词,而不是1个,这个过程可以被描述为
曹润柘 committed
1105
\begin{eqnarray}
1106
\{ \hat{y}_{j1},...,\hat{y}_{jk} \} = \argmax_{ \{ \hat{y}_{j1},...,\hat{y}_{jk} \} }
曹润柘 committed
1107 1108
\textrm{P}(y_j | \{ \hat{\mathbf{y}}_{<{j^{\textrm{*}}}} \},\mathbf{x})
\label{eqC6.35}
曹润柘 committed
1109
\end{eqnarray}
曹润柘 committed
1110 1111 1112 1113 1114

\noindent 这里,$\{ \hat{y}_{j1},...,\hat{y}_{jk} \}$表示对于位置$j$翻译概率最大的$K$的单词,$\{ \hat{\mathbf{y}}_{<j^{\ast}} \}$表示前$j-1$步top-K单词组成的所有历史。${\hat{\mathbf{y}}_{<j^{\ast}}}$可以被看作是一个集合,里面每一个元素都是一个目标语单词序列,这个序列是前面生成的一系列top-K单词的某种组成。$\textrm{P}(y_j | \{ \hat{\mathbf{y}}_{<{j^{\textrm{*}}}} \},\mathbf{x})$表示基于\{$ \hat{\mathbf{y}}_{<j^{\ast}} $\}的某一条路径生成$y_j$的概率\footnote{严格来说,P$(y_j | {\hat{\mathbf{y}}_{<j^{\ast}} })$不是一个准确的数学表达,这里我们通过这种写法强调$y_j$是由\{$ \hat{\mathbf{y}}_{<j^{\ast}} $\}中的某个译文单词序列作为条件生成的。} 。这种方法也被称为束搜索(beam search),意思是搜索时始终考虑一个集束内的候选。

\parinterval 不论是贪婪搜索还是束搜索都是一个自左向右的过程,也就是每个位置的处理需要等前面位置处理完才能执行。这是一种典型的自回归模型(autoregressive model),它通常用来描述时序上的随机过程,其中每一个时刻的结果对时序上其它部分的结果有依赖\cite{NIPS2017_7181}。相对应的,也有非自回归模型(non-autoregressive model),它消除了不同时刻结果之间的直接依赖\cite{Gu2017NonAutoregressiveNM}。由于自回归模型是当今神经机器翻译主流的推断方法,这里我们仍以自回归的贪婪搜索和束搜索为基础进行讨论。
%%%%%%%%%%%%%%%%%%
xiaotong committed
1115
\subsubsection{贪婪搜索}\index{Chapter6.3.6.1}
曹润柘 committed
1116 1117 1118 1119 1120 1121
\parinterval\ref{fig:6-31}展示了一个基于贪婪方法的神经机器翻译解码过程。每一个时间步的单词预测都依赖于其前一步单词的生成。在解码第一个单词时,由于没有之前的单词信息,会用<eos>进行填充,作为起始的单词,且会用一个零向量(可以理解为没有之前时间步的信息)表示第0步的中间层状态。

%----------------------------------------------
% 图3.10
\begin{figure}[htp]
\centering
xiaotong committed
1122
\input{./Chapter6/Figures/figure-Decoding-process-based-on-greedy-method}
曹润柘 committed
1123 1124 1125 1126 1127
\caption{基于贪婪方法的解码过程}
\label{fig:6-31}
\end{figure}
%----------------------------------------------

xiaotong committed
1128
\parinterval 解码端的每一步Softmax层会输出所有单词的概率,由于是基于贪心的方法,这里会选择概率最大(top-1)的单词作为输出。这个过程可以参考图\ref{fig:6-32}的内容。\\我们选择分布中概率最大的单词``Have''作为得到的第一个单词,并再次送入解码器,作为第二步的输入同时预测下一个单词。以此类推,直到生成句子的终止符为止,就得到了完整的译文。
曹润柘 committed
1129 1130 1131 1132 1133

%----------------------------------------------
% 图3.10
\begin{figure}[htp]
\centering
xiaotong committed
1134
\input{./Chapter6/Figures/figure-Decode-the-word-probability-distribution-at-the-first-position}
曹润柘 committed
1135
\caption{解码第一个位置输出的单词概率分布(``Have''的概率最高)}
曹润柘 committed
1136 1137 1138 1139 1140 1141 1142
\label{fig:6-32}
\end{figure}
%----------------------------------------------

\parinterval 贪婪搜索的优点在于速度快。在对翻译速度有较高要求的场景中,贪婪搜索是一种十分有效的加速系统的方法。而且贪婪搜索的原理非常简单,易于快速原型。不过,由于每一步只保留一个最好的局部结果,贪婪搜索往往会带来翻译品质上的损失。
%%%%%%%%%%%%%%%%%%
\subsubsection{束搜索}\index{Chapter6.3.6.2}
曹润柘 committed
1143
\parinterval 束搜索是一种启发式图搜索算法。相比于全搜索,它可以减少搜索所占用的空间和时间,在每一步扩展的时候,剪掉一些质量比较差的结点,保留下一些质量较高的结点。具体到机器翻译任务,对于每一个目标语位置,束搜索选择了概率最大的前$K$个单词进行扩展(其中$K$叫做束宽度,或简称为束宽)。如图\ref{fig:6-33}所示,当$K=3$时,若令\{$y_1, y_2,…, y_n$\}表示生成的目标语序列,则束搜索的具体过程为:在预测第一个位置时,我们通过模型得到$y_1$的概率分布,选取概率最大的前3个单词作为候选结果(假设分别为``have'', ``has'', ``it'')。在预测第二个位置的单词时,模型针对已经得到的三个候选结果(``have'', ``has'', ``it'')计算第二个单词的概率分布。例如,我们可以在将``have''作为第二步的输入,计算$y_2$的概率分布。此时,译文序列的概率为
曹润柘 committed
1144 1145
%--------------------------------------------
\begin{eqnarray}
曹润柘 committed
1146 1147
\textrm{P} (y_2,y_1 | \mathbf{x}) & = & \textrm{P} (y_2, \textrm{``have''} | \mathbf{x}) \nonumber \\
								  & = & \textrm{P}(y_2 | \textrm{``have''} , \mathbf{x}) \textrm{P} (\textrm{``have''} | \mathbf{x})								
曹润柘 committed
1148 1149 1150
\label{eqC6.36}
\end{eqnarray}

曹润柘 committed
1151
\noindent 类似的,对``has''和``it''进行同样的操作,分别计算得到$ \textrm{P} (y_2, \textrm{``have''} | \mathbf{x})$$ \textrm{P} (y_2, \textrm{``has''} | \mathbf{x})$\\ $ \textrm{P} (y_2, \textrm{``it''} | \mathbf{x})$,因为$y_2$对应$|V|$种可能,总共可以得到$3 \times |V|$种结果。然后从中选取使序列概率$\textrm{P}(y_2,y_1| \mathbf{x})$最大的前三个$y_2$作为新的输出结果,这样我们便得到了前两个位置的top-3译文。在预测其它位置时也是如此,不断重复此过程直到推断结束。可以看到,束搜索的搜索空间大小与束宽度有关,也就是:束宽度越大,搜索空间越大,更有可能搜索到质量更高的译文,但是搜索会更慢。束宽度等于3,意味着我们每次考虑三个最有可能的结果,贪婪搜索实际上便是集束宽度为1的情况。在神经机器翻译系统实现中,一般束宽度设置在4~8之间。
曹润柘 committed
1152 1153 1154 1155 1156

%----------------------------------------------
% 图3.10
\begin{figure}[htp]
\centering
xiaotong committed
1157
\input{./Chapter6/Figures/figure-Beam-search-process}
曹润柘 committed
1158 1159 1160 1161 1162 1163 1164 1165 1166 1167 1168 1169 1170 1171
\caption{束搜索过程}
\label{fig:6-33}
\end{figure}
%----------------------------------------------
%%%%%%%%%%%%%%%%%%
\subsubsection{长度惩罚}\index{Chapter6.3.6.3}
\parinterval 本章中,我们用P$(\mathbf{y} | \mathbf{x}) = \prod_{j=1}^n \textrm{P}(y_j | \mathbf{y}_{<j},\mathbf{x}) $作为翻译模型。直接实现这个公式有一个明显的缺点:当句子过长时乘法运算容易产生溢出,也就是多个数相乘可能会产生浮点数无法表示的运算结果。为了解决这个问题,可以利用对数操作将乘法转换为加法,得到新的概率公式:$\textrm{log P}(\mathbf{y} | \mathbf{x}) = \sum_{j=1}^n \textrm{log P} (y_j | \mathbf{y}_{<j}, \mathbf{x}) $,对数函数不会改变函数的单调性,因此在具体实现时,通常用$\textrm{log P}(\mathbf{y} | \mathbf{x})$表示句子的得分,而不用$\textrm{P}(\mathbf{y} | \mathbf{x})$


\parinterval 不管是使用$\textrm{P}(\mathbf{y} | \mathbf{x})$还是$\textrm{log P}(\mathbf{y} | \mathbf{x})$计算句子得分,还面临两个问题:

\begin{itemize}
\item $\textrm{P}(\mathbf{y} | \mathbf{x})$的范围是[0,1],如果句子过长,那么句子的得分就是很多个小于1的数相乘,或者说取log之后很多个小于0的数相加。这也就是说,句子的得分会随着长度的增加而变小,即模型倾向于生成短句子。

曹润柘 committed
1172
\item 模型本身并没有考虑每个源语言单词被使用的程度,比如一个单词可能会被翻译很多``次''。这个问题在统计机器翻译中并不存在,因为所有词在翻译中必须被``覆盖''到。但是神经机器翻译原始的模型没有所谓覆盖度的概念,因此也无法保证每个单词被翻译的``程度''是合理的\cite{li-etal-2018-simple}\cite{TuModeling}
曹润柘 committed
1173 1174 1175 1176 1177
\end{itemize}


\parinterval 为了解决上面提到的问题,我们可以使用其它特征与$\textrm{log P}(\mathbf{y} | \mathbf{x})$一起组成新的模型得分$\textrm{score} ( \mathbf{y} , \mathbf{x})$。针对模型倾向于生成短句子的问题,常用的做法是引入惩罚机制。比如,可以定义一个惩罚因子,形式如下:

曹润柘 committed
1178
\begin{eqnarray}
曹润柘 committed
1179 1180
\textrm{lp}(\mathbf{y}) = \frac {(5+ |\mathbf{y}|)^{\alpha}} {(5+1)^{\alpha}}
\label{eqC6.37}
曹润柘 committed
1181
\end{eqnarray}
曹润柘 committed
1182

曹润柘 committed
1183
\noindent 其中,$|\mathbf{y}|$代表已经得到的译文长度,$\alpha$是一个固定的常数(通常取[0.6-0.7]),用于控制惩罚的强度。同时我们在句子得分的计算时,额外引入覆盖度的因子,如下:
曹润柘 committed
1184

曹润柘 committed
1185
\begin{eqnarray}
曹润柘 committed
1186 1187
\textrm{cp}(\mathbf{y} , \mathbf{x}) = \beta \cdot \sum_{i=1}^{|\mathbf{x}|} \textrm{log} (\textrm{min}(\sum_j^{|\mathbf{y}|} \alpha_{ij},1 ) )
\label{eqC6.38}
曹润柘 committed
1188
\end{eqnarray}
曹润柘 committed
1189

曹润柘 committed
1190
\noindent $\textrm{cp}(\cdot)$会惩罚把某些源语单词对应到很多目标语单词的情况(覆盖度),被覆盖的程度用$\sum_j^{|\mathbf{y}|} \alpha_{ij}$度量。$\beta$也是需要经验性设置的超参数(通常取1),用于对覆盖度惩罚的强度进行控制。
曹润柘 committed
1191 1192 1193

\parinterval 最终,模型得分定义如下:

曹润柘 committed
1194
\begin{eqnarray}
曹润柘 committed
1195 1196
\textrm{score} ( \mathbf{y} , \mathbf{x}) = \frac{\textrm{log P}(\mathbf{y} | \mathbf{x})} {\textrm{lp}(\mathbf{y})} + \textrm{cp}(\mathbf{y} , \mathbf{x})
\label{eqC6.39}
曹润柘 committed
1197
\end{eqnarray}
曹润柘 committed
1198 1199

\noindent 显然,当目标语$y$过短时,$\textrm{lp}(\mathbf{y})$的值越小,因为$\textrm{log P}(\mathbf{y} | \mathbf{x})$是负数,所以句子得分$\textrm{score} ( \mathbf{y} , \mathbf{x})$越小。也就是说,模型会惩罚译文过短的结果。当覆盖度较高时,同样会使得分变低。通过这样的惩罚机制,使模型得分更为合理,从而帮助我们选择出质量更高的译文。
曹润柘 committed
1200

曹润柘 committed
1201 1202
%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
\subsection{实例-GNMT}\index{Chapter6.3.7}
xiaotong committed
1203
\parinterval 循环神经网络在机器翻译中有很多成功的应用,比如、RNNSearch\cite{bahdanau2014neural}、Nematus\\ \cite{DBLP:journals/corr/SennrichFCBHHJL17}等系统就被很多研究者作为实验系统。在众多基于循环神经网络的系统中,Google's Neural Machine Translation System(GNMT)系统是最成功的一个\cite{Wu2016GooglesNM}。GNMT是谷歌2016年发布的神经机器翻译系统。在GNMT之前,神经机器翻译有三个弱点:训练和推理速度较慢、在翻译稀有单词上缺乏鲁棒性和有时无法完整翻译源语言句子中的所有单词。GNMT的提出有效的解决了上述问题。
曹润柘 committed
1204 1205

\parinterval GNMT使用了编码器解码器结构,构建了一个8层的深度网络,每层网络均由LSTM组成,且在编码器解码器之间使用了多层注意力连接。其结构如图\ref{fig:6-59},编码器只有最下面2层为双向LSTM。GNMT在束搜索中也加入了长度惩罚和覆盖度因子来确保输出高质量的翻译结果(公式\ref{eqC6.39})。
曹润柘 committed
1206 1207 1208 1209 1210

%----------------------------------------------
% 图3.10
\begin{figure}[htp]
\centering
xiaotong committed
1211
\input{./Chapter6/Figures/figure-structure-of-GNMT}
曹润柘 committed
1212 1213 1214 1215 1216 1217 1218 1219 1220 1221 1222
\caption{GNMT结构}
\label{fig:6-59}
\end{figure}
%----------------------------------------------

\parinterval 实际上,GNMT的主要贡献在于集成了多种优秀的技术,而且在大规模数据上证明了神经机器翻译的有效性。在引入注意力机制之前,神经机器翻译在较大规模的任务上的性能弱于统计机器翻译。加入注意力机制和深层网络后,神经机器翻译性能有了很大的提升。在英德和英法的任务中,GNMT的BLEU值不仅超过了当时优秀的神经机器翻译系统RNNSearch和LSTM(6层),还超过了当时处于领导地位的基于短语的统计机器翻译系统(PBMT)(表\ref{tab:gnmt vs state-of-the-art models})。相比谷歌的基于短语的系统,在人工评价中,该模型能将翻译错误平均减少了60\%。这一结果也充分表明了神经机器翻译带来的巨大性能提升。

%----------------------------------------------
% 表
\begin{table}[htp]
\centering
曹润柘 committed
1223
\caption{GNMT与其它翻译模型对比\cite{Wu2016GooglesNM}}
曹润柘 committed
1224 1225
\label{tab:gnmt vs state-of-the-art models}
\begin{tabular}{l l l l}
1226
\multicolumn{1}{l|}{\multirow{2}{*}{\#}} & \multicolumn{2}{c}{\textbf{BLEU}} & \multirow{2}{*}{\textbf{CPU decoding time}} \\
曹润柘 committed
1227 1228 1229 1230 1231 1232
\multicolumn{1}{l|}{}                    & \textbf{EN-DE}  & \textbf{EN-FR}  &                                             \\ \hline
\multicolumn{1}{l|}{PBMT}                & 20.7            & 37.0            & -                                           \\
\multicolumn{1}{l|}{RNNSearch}           & 16.5            & -               & -                                           \\
\multicolumn{1}{l|}{LSTM(6 layers)}      & -               & 31.5            & -                                           \\
\multicolumn{1}{l|}{Deep-Att}            & 20.6            & 37.7            & -                                           \\
\multicolumn{1}{l|}{GNMT}                & 24.6            & 39.0            & 0.2s per sentence                           \\
1233
%\multicolumn{4}{l}{GNMT versus previous state-of-the-art models}
曹润柘 committed
1234 1235 1236
\end{tabular}
\end{table}
%--------------------------------------
曹润柘 committed
1237 1238
%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
\section{Transformer}\index{Chapter6.4}
曹润柘 committed
1239
\parinterval 编码器-解码器框架提供了一个非常灵活的机制,因为我们只需要设计编码器和解码器的结构就能完成机器翻译。但是,架构的设计是深度学习中最具挑战的工作,优秀的架构往往需要长时间的探索和大量的实验验证,而且还需要一点点``灵感''。
曹润柘 committed
1240

曹润柘 committed
1241
\parinterval 前面介绍的基于循环神经网络的翻译模型和注意力机制就是研究人员通过长期的实践发现的神经网络架构。除了神经机器翻译,它们也被广泛的应用于语音处理、图像处理等领域。虽然循环神经网络很强大,但是人们也发现了一些弊端。一个突出的问题是,循环神经网络每个循环单元都有向前依赖性,也就是当前时间步的处理依赖前一时间步处理的结果。这个性质可以使序列的``历史''信息不断被传递,但是也造成模型运行效率的下降。特别是对于自然语言处理任务,序列往往较长,无论是传统的RNN结构,还是更为复杂的LSTM结构,都需要很多次循环单元的处理才能够捕捉到单词之间的长距离依赖。由于需要多个循环单元的处理,距离较远的两个单词之间的信息传递变得很复杂。
曹润柘 committed
1242 1243 1244 1245 1246 1247 1248 1249 1250

\parinterval 针对这些问题,谷歌的研究人员提出了一种全新的模型 - Transformer\cite{NIPS2017_7181}。与循环神经网络等传统模型不同,Transformer模型仅仅使用一种被称作自注意力机制的模型和标准的前馈神经网络,完全不依赖任何循环单元或者卷积操作。自注意力机制的优点在于可以直接对序列中任意两个单元之间的关系进行建模,这使得长距离依赖等问题可以更好的被求解。此外,自注意力机制非常适合在GPU上进行并行化,因此模型训练的速度更快。表\ref{tab:rnn vs cnn vs trf}对比了RNN、CNN、Transformer三种模型的复杂度。

%----------------------------------------------
% 表
\begin{table}[htp]
\centering
\caption{ RNN、CNN、Transformer的对比\cite{NIPS2017_7181}  }
\label{tab:rnn vs cnn vs trf}
1251
\begin{tabular}{l | l l l}
曹润柘 committed
1252
%\rule{0pt}{20pt} \textbf{Layer Type} &\parbox{5em}{\textbf{Complexity per Layer} }&\parbox{6em}{\textbf{Sequential Operations} } &\parbox{6em}{\textbf{Maximum Path Length}}\\ \hline
xiaotong committed
1253
\rule{0pt}{20pt} Layer Type & \begin{tabular}[l]{@{}l@{}}Complexity\\ per Layer\end{tabular} & \begin{tabular}[l]{@{}l@{}}Sequential\\ Operations\end{tabular} & \begin{tabular}[l]{@{}l@{}}Maximum\\ Path Length\end{tabular} \\ \hline
曹润柘 committed
1254 1255 1256
\rule{0pt}{13pt}Self-Attention &$O(n^2\cdot d)$	&$O(1)$	&$O(1)$       \\
\rule{0pt}{13pt}Recurrent &$O(n \cdot d^2)$		&$O(n)$	&$O(n)$ 	\\
\rule{0pt}{13pt}Convolutional  &$O(k\cdot n \cdot d^2)$	&$O(1)$	&$O(\mathrm{log}_k(n))$ \\
1257
\rule{0pt}{13pt}Self-Attention(restricted)  &$O(r \cdot n \cdot d)$		&$O(1)$	&$O(n/r)$
曹润柘 committed
1258 1259 1260 1261 1262 1263 1264 1265 1266 1267 1268 1269 1270 1271
\end{tabular}
\end{table}
%--------------------------------------

\parinterval 在Transformer被推出之后,这个模型很快就席卷了整个自然语言处理领域。实际上,Transformer也可以当作一种表示模型,因此也被大量的使用在自然语言处理的其它领域,甚至图像处理和语音处理中也能看到它的影子。比如,目前非常流行的预训练模型BERT就是基于Transformer。表\ref{tab:performence form different models}展示了Transformer在机器翻译上的性能。它能用更少的计算量(FLOPS)达到比其它模型更好的翻译品质\footnote{FLOPS = floating-point operations per second,即每秒浮点运算次数。它是度量计算机运算规模的常用单位}

%----------------------------------------------
% 表
\begin{table}[htp]
\centering
\caption{ 不同翻译模型性能对比\cite{NIPS2017_7181}}
\label{tab:performence form different models}
\begin{tabular}{l l l l}

1272
\multicolumn{1}{l|}{\multirow{2}{*}{\#}} & \multicolumn{2}{c}{BLEU} & \multirow{2}{*}{\parbox{6em}{Training Cost(FLOPs)}} \\
xiaotong committed
1273
\multicolumn{1}{l|}{}                    & EN-DE  & EN-FR  &                                       \\ \hline
曹润柘 committed
1274 1275 1276
\multicolumn{1}{l|}{GNMT+RL}             & 24.6            & 39.92           & 1.4$\times 10^{20}$                   \\
\multicolumn{1}{l|}{ConvS2S}             & 25.16           & 40.46           & 1.5$\times 10^{20}$                   \\
\multicolumn{1}{l|}{MoE}                 & 26.03           & 40.56           & 1.2$\times 10^{20}$                   \\
1277 1278
\multicolumn{1}{l|}{Transformer(Big)}    & \textbf{28.4}   & \textbf{41.8}   & 2.3$\times 10^{19}$                   \\
%\multicolumn{4}{l}{Transformer versus previous state-of-the-art models}
曹润柘 committed
1279 1280 1281 1282 1283 1284 1285 1286 1287 1288 1289 1290 1291 1292
\end{tabular}
\end{table}
%--------------------------------------

\parinterval 注意,Transformer并不简单的等同于自注意力机制。Transformer模型还包含了很多优秀的技术,比如:多头注意力、新的训练学习率调整策略等等。这些因素一起组成了真正的Transformer。下面就一起看一看自注意力机制和Transformer是如何工作的。
%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
\subsection{自注意力模型}\index{Chapter6.4.1}
\label{sec:6.4.1}
\parinterval 首先,让我们再回顾一下循环神经网络处理文字序列的过程。如图\ref{fig:6-34}所示,对于单词序列$\{ w_1,…,w_m \}$,处理第$m$个单词$w_m$时(绿色方框部分),需要输入前一时刻的信息(即处理单词$w_{m-1}$),而$w_{m-1}$又依赖于$w_{m-2}$,以此类推。也就是说,如果想建立$w_m$$w_1$之间的关系,需要$m-1$次信息传递。对于长序列来说,词汇之间信息传递距离过长会导致信息在传递过程中丢失,同时这种按顺序建模的方式也使得系统对序列的处理十分缓慢。

%----------------------------------------------
% 图3.10
\begin{figure}[htp]
\centering
xiaotong committed
1293
\input{./Chapter6/Figures/figure-Dependencies-between-words-in-a-recurrent-neural-network}
曹润柘 committed
1294 1295 1296 1297 1298
\caption{循环神经网络中单词之间的依赖关系}
\label{fig:6-34}
\end{figure}
%----------------------------------------------

曹润柘 committed
1299
\parinterval 那么能否摆脱这种顺序传递信息的方式,直接对不同位置单词之间的关系进行建模,即将信息传递的距离拉近为1?\textbf{自注意力机制}(Self-Attention)的提出便有效解决了这个问题\cite{DBLP:journals/corr/LinFSYXZB17}。图\ref{fig:6-35}给出了自注意力机制对序列进行建模的示例。对于单词$w_m$,自注意力机制直接建立它与前$m-1$个单词之间的关系。也就是说,$w_m$与序列中所有其它单词的距离都是1。这种方式很好的解决了长距离依赖问题,同时由于单词之间的联系都是相互独立的,因此也大大提高了模型的并行度。
曹润柘 committed
1300 1301 1302 1303 1304

%----------------------------------------------
% 图3.10
\begin{figure}[htp]
\centering
曹润柘 committed
1305
\input{./Chapter6/Figures/figure-Dependencies-between-words-of-Attention}
曹润柘 committed
1306
\caption{自注意力机制中单词之间的依赖关系}
曹润柘 committed
1307 1308 1309 1310 1311 1312 1313 1314 1315 1316
\label{fig:6-35}
\end{figure}
%----------------------------------------------

\parinterval 在传统的注意力机制中,我们要做的是对一个序列进行表示。比如,对于每个目标位置$j$,都生成一个与之对应的源语言句子表示,它的形式为:$\mathbf{C}_j = \sum_i \alpha_{i,j}\mathbf{h}_i$,其中$\mathbf{h}_i$为源语言句子每个位置的表示结果,$\alpha_{i,j}$是目标位置$j$$\mathbf{h}_i$的注意力权重。而自注意力机制不仅可以处理两种语言句子之间的对应,它也可以对单语句子进行表示。以源语言句子为例,同时参考\ref{sec:6.3.4.3}节的内容,自注意力机制将序列中每个位置的表示$\mathbf{h}_i$看作$\mathrm{query}$(查询),并且将所有位置的表示看作$\mathrm{key}$(键)和$\mathrm{value}$(值)。自注意力模型通过计算当前位置与所有位置的匹配程度,也就是在注意力机制中提到的注意力权重,来对各个位置的$\mathrm{value}$进行加权求和。得到的结果可以被看作是在这个句子中当前位置的抽象表示。这个过程,可以叠加多次,形成多层注意力模型,对输入序列中各个位置进行更深层的表示。

%----------------------------------------------
% 图3.10
\begin{figure}[htp]
\centering
xiaotong committed
1317
\input{./Chapter6/Figures/figure-Example-of-self-attention-mechanism-calculation}
曹润柘 committed
1318 1319 1320 1321 1322
\caption{自注意力计算实例}
\label{fig:6-36}
\end{figure}
%----------------------------------------------

曹润柘 committed
1323
\parinterval 举个例子,如图\ref{fig:6-36}所示,一个汉语句子包含5个词。这里,我们用$\mathbf{h}$(``你'')表示``你''当前的表示结果。如果把``你''看作目标,这时$\mathrm{query}$就是$\mathbf{h}$(``你''),$\mathrm{key}$$\mathrm{value}$\\是图中所有位置的表示,即:{$\mathbf{h}$(``你'')、$\mathbf{h}$(``什么'')、$\mathbf{h}$(``也'')、$\mathbf{h}$(``没'')、$\mathbf{h}$(``学'')}。在自注意力模型中,首先计算$\mathrm{query}$$\mathrm{key}$的相关度,这里用$\alpha_i$表示$\mathbf{h}$(``你'')和位置$i$的表示之间的相关性。然后,把$\alpha_i$作为权重,对不同位置上的$\mathrm{value}$进行加权求和。最终,得到新的表示结果$\tilde{\mathbf{h}}$ (``你'' ):
曹润柘 committed
1324
\begin{eqnarray}
曹润柘 committed
1325
\tilde{\mathbf{h}} (\textrm{``你''} ) = \alpha_0 {\mathbf{h}} (\textrm{``你''} )
1326
+ \alpha_1 {\mathbf{h}} (\textrm{``什么 ''})
曹润柘 committed
1327 1328 1329
+ \alpha_2 {\mathbf{h}} (\textrm{``也''} )
+ \alpha_3 {\mathbf{h}} (\textrm{``没''} )
+\alpha_4 {\mathbf{h}} (\textrm{``学''} )
曹润柘 committed
1330
\label{eqC6.40}
曹润柘 committed
1331
\end{eqnarray}
曹润柘 committed
1332

曹润柘 committed
1333
\parinterval 同理,也可以用同样的方法处理这个句子中的其它单词。可以看出,在注意力机制中,我们并不是使用类似于循环神经网络的记忆能力去访问历史信息。序列中所有单词之间的信息都是通过同一种操作($\mathrm{query}$$\mathrm{key}$的相关度)进行处理。这样,表示结果$\tilde{\mathbf{h}} (\textrm{``你''})$在包含``你''这个单词的信息的同时,也包含了序列中其它词的信息。也就是,序列中每一个位置的表示结果中,都包含了其它位置的信息。从这个角度说,$\tilde{\mathbf{h}} (\textrm{``你''})$已经不在是单词''你''自身的表示结果,而是一种在单词``你''的位置上的全局信息的表示。
曹润柘 committed
1334 1335 1336 1337 1338 1339 1340 1341 1342 1343 1344 1345 1346

\parinterval 通常,也把生成\{ $\tilde{\mathbf{h}}(\mathbf{w}_i)$ \}的过程称为\textbf{特征提取},而实现这个过程的模型被称为特征提取器。循环神经网络、自注意力模型都是典型的特征提取器。特征提取是神经机器翻译系统的关键步骤,在随后的内容中可以看到自注意力模型是一个非常适合机器翻译任务的特征提取器。

%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
\subsection{Transformer架构}\index{Chapter6.4.2}

\parinterval\ref{fig:6-38}展示了经典的Transformer结构。解码器由若干层组成(绿色虚线框就代表一层)。每一层(layer)的输入都是一个向量序列,输出是同样大小的向量序列,而Transformer层的作用是对输入进行进一步的抽象,得到新的表示结果。不过这里的层并不是指单一的神经网络结构,它里面由若干不同的模块组成,包括:

\begin{itemize}
\item \textbf{自注意力子层}(self-attention sub-layer):使用自注意力机制对输入的序列进行新的表示

\item \textbf{前馈神经网络子层}(feed forward sub-layer):使用全连接的前馈神经网络对输入向量序列进行进一步变换

曹润柘 committed
1347
\item \textbf{残差连接}(residual connection,标记为``Add''):对于自注意力子层和前馈神经网络子层,都有一个从输入直接到输出的额外连接,也就是一个跨子层的直连。残差连接可以使深层网络的信息传递更为有效。
曹润柘 committed
1348 1349 1350 1351 1352 1353

\item \textbf{层正则化}(layer normalization):自注意力子层和前馈神经网络子层进行最终输出之前,会对输出的向量进行层正则化,规范结果向量取值范围,这样易于后面进一步的处理。
\end{itemize}

\parinterval 以上操作就构成了Transformer的一层,各个模块执行的顺序可以简单描述为:Self-Attention -> Residual Connection -> Layer Normalization -> Feed Forward Network -> Residual Connection -> Layer Normalization。编码器可以包含多个这样的层,比如,我们可以构建一个六层编码器,每层都只执行上面的操作。最上层的结果作为整个编码的结果,会被传入解码器。

1354
\parinterval 解码器的结构与编码器十分类似。它也是由若干层组成,每一层包含编码器中的所有结构,即:自注意力子层、前馈神经网络子层、残差连接和层正则化模块。此外,为了捕捉源语言的信息,解码器又引入了一个额外的\textbf{编码-解码注意力子层}(encoder-decoder attention sub-layer)。这个新的子层,可以帮助模型使用源语言句子的表示信息生成目标语不同位置的表示。编码-解码注意力子层仍然基于自注意力机制,因此它和自注意力子层的结构是相同的,只是$\mathrm{query}$$\mathrm{key}$$\mathrm{value}$的定义不同。比如,在解码端,自注意力子层的$\mathrm{query}$$\mathrm{key}$$\mathrm{value}$是相同的,它们都等于解码端每个位置的表示。而在编码-解码注意力子层中,$\mathrm{query}$是解码端每个位置的表示,而$\mathrm{key}$$\mathrm{value}$是相同的,等于编码端每个位置的表示。图\ref{fig:6-37}给出了这两种不同注意力子层输入的区别。
曹润柘 committed
1355 1356 1357 1358 1359

%----------------------------------------------
% 图3.30
\begin{figure}[htp]
    \centering
xiaotong committed
1360
   \input{./Chapter6/Figures/figure-self-att-vs-enco-deco-att}
曹润柘 committed
1361 1362 1363 1364 1365
    \caption{ 注意力模型的输入(自注意力子层 vs 编码-解码注意力子层)}
    \label{fig:6-37}
\end{figure}
%---------------------------

xiaotong committed
1366
\parinterval 此外,编码端和解码端都有输入的词序列。编码端的词序列输入是为了对其进行表示,进而解码端能从编码端访问到源语言句子的全部信息。解码端的词序列输入是为了进行目标语的生成,本质上它和语言模型是一样的,在得到前$n-1$个单词的情况下输出第$n$个单词。除了输入的词序列的词嵌入,Transformer中也引入了位置嵌入,以表示每个位置信息。原因是,自注意力机制没有显性的对位置进行表示,因此也无法考虑词序。在输入中引入位置信息可以让自注意力机制间接的感受到每个词的位置,进而保证对序列表示的合理性。而最终,整个模型的输出由一个Softmax层完成,它和循环神经网络中的输出层是完全一样的(\ref{sec:6.3.2}节)。
曹润柘 committed
1367 1368 1369 1370 1371 1372 1373 1374 1375 1376 1377

%----------------------------------------------
% 图3.10
\begin{figure}[htp]
\centering
\input{./Chapter6/Figures/figure-transformer}
\caption{ Transformer结构}
\label{fig:6-38}
\end{figure}
%----------------------------------------------

曹润柘 committed
1378
\parinterval 在进行更详细的介绍前,我们先利用图\ref{fig:6-38}简单了解一下Transformer模型是如何进行翻译的。首先,Transformer将源语``我 很 好''的词向量表示(word Embedding)融合位置编码(Position Embedding)后作为输入。然后,编码器对输入的源语言句子进行逐层抽象,得到包含丰富的上下文信息的源语表示并传递给解码器。解码器的每一层,使用自注意力子层对输入的解码端表示进行加工,之后再使用编码-解码注意力子层融合源语言句子的表示信息。就这样逐词生成目标语译文单词序列。解码器的每个位置的输入是当前单词(比如,``I''),而这个位置输出是下一个单词(比如,``am''),这个设计和标准的神经语言模型是完全一样的。
曹润柘 committed
1379 1380 1381 1382 1383 1384

\parinterval 了解到这里,可能大家还有很多疑惑,比如,什么是位置编码?Transformer的自注意力机制具体是怎么进行计算的,其结构是怎样的?Add\& LayerNorm又是什么?等等。下面就一一展开介绍。

%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
\subsection{位置编码}\index{Chapter6.4.3}

曹润柘 committed
1385
\parinterval 在使用循环神经网络进行序列的信息提取时,每个时刻的运算都要依赖前一个时刻的输出,具有一定的时序性,这也与语言具有顺序的特点相契合。而采用自注意力机制对源语言和目标语言序列进行处理时,直接对当前位置和序列中的任意位置进行建模,忽略了词之间的顺序关系,例如下面两个语义不同的句子,通过自注意力得到的表示$\mathbf{C}$(``机票'')却是相同的。
曹润柘 committed
1386 1387 1388 1389 1390

%----------------------------------------------
% 图3.10
\begin{figure}[htp]
\centering
xiaotong committed
1391
\input{./Chapter6/Figures/figure-Calculation-of-context-vector-C}
曹润柘 committed
1392 1393 1394 1395 1396 1397 1398 1399 1400 1401 1402
\caption{上下文向量C的计算}
\label{fig:6-39}
\end{figure}
%----------------------------------------------

\parinterval 为了解决这个问题,Transformer在原有的词向量输入基础上引入了位置编码,来表示单词之间的顺序关系。位置编码在Transformer结构中的位置如图\ref{fig:6-40},它是Transformer成功的一个重要因素。

%----------------------------------------------
% 图3.10
\begin{figure}[htp]
\centering
xiaotong committed
1403
\input{./Chapter6/Figures/figure-Transformer-input-and-position-encoding}
曹润柘 committed
1404 1405 1406 1407 1408 1409
\caption{Transformer输入与位置编码}
\label{fig:6-40}
\end{figure}
%----------------------------------------------

\parinterval 位置编码的计算方式有很多种,Transformer使用不同频率的正余弦函数:
曹润柘 committed
1410
\begin{eqnarray}
曹润柘 committed
1411 1412
\textrm{PE}(pos,2i) = \textrm{sin} (\frac{pos}{10000^{2i/d_{model}}})
\label{eqC6.41}
曹润柘 committed
1413
\end{eqnarray}
曹润柘 committed
1414
%----------------------------------------------
曹润柘 committed
1415
\begin{eqnarray}
曹润柘 committed
1416 1417
\textrm{PE}(pos,2i+1) = \textrm{cos} (\frac{pos}{10000^{2i/d_{model}}})
\label{eqC6.42}
曹润柘 committed
1418
\end{eqnarray}
曹润柘 committed
1419

1420
\noindent 式中PE($\cdot$)表示位置编码的函数,$pos$表示单词的位置,$i$代表位置编码向量中的第几维。因为,正余弦函数的编码各占一半,因此当位置编码的维度为512时,$i$的范围是0-255。在Transformer中,位置编码的维度和词嵌入向量的维度相同,模型通过将二者相加作为模型输入,如图\ref{fig:6-41}所示。
曹润柘 committed
1421 1422 1423 1424 1425

%----------------------------------------------
% 图3.10
\begin{figure}[htp]
\centering
xiaotong committed
1426
\input{./Chapter6/Figures/figure-A-combination-of-position-encoding-and-word-encoding}
曹润柘 committed
1427 1428 1429 1430 1431 1432
\caption{位置编码与词编码的组合}
\label{fig:6-41}
\end{figure}
%----------------------------------------------

\parinterval 那么为什么通过这种计算方式可以很好的表示位置信息?有三方面原因。首先,正余弦函数是具有上下界的周期函数,用正余弦函数可将长度不同的序列的位置编码的范围都固定到[-1,1],这样在与词的编码进行相加时,不至于产生太大差距。另外位置编码的不同维度对应不同的正余弦曲线,这为多维的表示空间赋予一定意义。最后,根据三角函数的性质:
曹润柘 committed
1433 1434 1435 1436
%------------------------
\begin{eqnarray}
\textrm{sin}(\alpha + \beta) &=& \textrm{sin}\alpha \textrm{cos} \beta + \textrm{cos} \alpha \textrm{sin} \beta \nonumber  \\
\textrm{cos}(\alpha + \beta) &=&  \textrm{cos} \alpha  \textrm{cos} \beta - \textrm{sin} \alpha \textrm{sin} \beta
曹润柘 committed
1437
\label{eqC6.43}
曹润柘 committed
1438
\end{eqnarray}
曹润柘 committed
1439

曹润柘 committed
1440
\parinterval 可以得到``$pos+k$''的位置编码为:
曹润柘 committed
1441 1442 1443 1444 1445
\begin{eqnarray}
\textrm{PE}(pos+k,2i) &=& \textrm{PE}(pos,2i) \times \textrm{PE}(k,2i+1)
+ \textrm{PE}(pos,2i+1) \times \textrm{PE}(k,2i) \nonumber \\
\textrm{PE}(pos+k ,2i+1) &=& \textrm{PE}(pos,2i+1) \times \textrm{PE}(k,2i+1)
- \textrm{PE}(pos,2i) \times \textrm{PE}(k,2i) \nonumber \\
曹润柘 committed
1446
\label{eqC6.44}
曹润柘 committed
1447
\end{eqnarray}
曹润柘 committed
1448 1449 1450 1451 1452 1453 1454 1455

\noindent 即对于任意固定的偏移量$k$$\textrm{PE}(pos+k)$能被表示成$\textrm{PE}(pos)$的线性函数,换句话说,位置编码可以表示词之间的距离。在实践中发现,位置编码对Transformer系统的性能有很大影响。对其进行改进也会带来性能的进一步提升\cite{Shaw2018SelfAttentionWR}
%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
\subsection{基于点乘的注意力机制}\index{Chapter6.4.4}
%----------------------------------------------
% 图3.10
\begin{figure}[htp]
\centering
xiaotong committed
1456
\input{./Chapter6/Figures/figure-Position-of-self-attention-mechanism-in-the-model}
曹润柘 committed
1457 1458 1459 1460 1461 1462 1463 1464 1465 1466 1467 1468 1469
\caption{自注意力机制在模型中的位置}
\label{fig:6-42}
\end{figure}
%----------------------------------------------

\parinterval Transformer模型摒弃了循环单元和卷积等结构,完全基于注意力机制来构造模型,其中包含着大量的注意力计算。比如,我们通过自注意力机制对源语言和目标语言序列进行信息提取,通过编码-解码注意力对双语句对之间的关系进行提取。图\ref{fig:6-42}中红色方框部分是Transformer中使用自注意力机制的模块。

\parinterval\ref{sec:6.4.1}节中已经介绍,自注意力机制中,至关重要的是获取相关性系数,也就是在融合不同位置的表示向量时各位置的权重。在\ref{sec:6.3}节基于循环神经网络的机器翻译模型中,注意力机制的相关性系数有很多种计算方式,如余弦相似度等。而在Transformer模型中,则采用了一种基于点乘的方法来计算相关性系数。使用点乘的注意力机制,也称为点乘注意力机制(Scaled Dot-Product Attention)。它的运算速度快,同时并不消耗太多的存储空间。

\parinterval 具体来看,在注意力机制的计算过程中,包含三个重要的参数,分别是Query,\\Key和Value。在下面的描述中我们分别用$\mathbf{Q}$$\mathbf{K}$$\mathbf{V}$来进行表示,其中$\mathbf{Q}$$\mathbf{K}$的维度为$L\times d_k$$\mathbf{V}$的维度为$L\times d_v$$L$为序列的长度。在自注意力机制中,它们都对应着源语言或目标语言的表示。而在编码解码注意力机制中,由于要对双语之间的信息进行建模,因此,将目标语每个位置的表示视为编码-解码注意力机制的$\mathbf{Q}$,源语言句子的表示视为$\mathbf{K}$$\mathbf{V}$

\parinterval 在得到$\mathbf{Q}$$\mathbf{K}$$\mathbf{V}$后,我们便可以进行注意力机制的运算,这个过程可以被形式化为:

曹润柘 committed
1470
\begin{eqnarray}
xiaotong committed
1471
\textrm{Attention}(\mathbf{Q},\mathbf{K},\mathbf{V}) = \textrm{Softmax}
曹润柘 committed
1472 1473
 ( \frac{\mathbf{Q}\mathbf{K}^{T}} {\sqrt{d_k}} + \mathbf{Mask} ) \mathbf{V}
\label{eqC6.45}
曹润柘 committed
1474
\end{eqnarray}
曹润柘 committed
1475

xiaotong committed
1476
\noindent 首先,我们通过对$\mathbf{Q}$$\mathbf{K}$的转置进行点乘操作,计算得到一个维度大小为$L \times L$的相关性矩阵,即$\mathbf{Q}\mathbf{K}^{T}$,它表示一个序列上任意两个位置($i, i’$)的相关性。再通过系数1/$\sqrt{d_k}$进行放缩操作,放缩可以尽量减少相关性矩阵的方差,具体体现在运算过程中实数矩阵中的数值不会过大,有利于模型训练。在此基础上,我们通过对相关性矩阵累加一个掩码矩阵,来屏蔽掉矩阵中的无用信息。比如,在编码端对句子的补齐,在解码端则屏蔽掉未来信息,这一部分内容将在下一小节进行详细介绍。随后我们使用Softmax函数对相关性矩阵在行的维度上进行归一化操作,这可以理解为对第$i$行进行归一化,结果对应了$\mathbf{V}$中的不同位置上向量的注意力权重。对于$\mathrm{value}$的加权求和,可以直接用相关性性系数和$\mathbf{V}$进行矩阵乘法得到,即$\textrm{Softmax}
曹润柘 committed
1477 1478 1479 1480 1481 1482
 ( \frac{\mathbf{Q}\mathbf{K}^{T}} {\sqrt{d_k}} + \mathbf{Mask} )$$\mathbf{V}$进行矩阵乘。最终我们就到了自注意力的输出,它和输入的$\mathbf{V}$的大小是一模一样的。图\ref{fig:6-43}展示了点乘注意力计算的全过程。

%----------------------------------------------
% 图3.10
\begin{figure}[htp]
\centering
xiaotong committed
1483
\input{./Chapter6/Figures/figure-Point-product-attention-model}
曹润柘 committed
1484 1485 1486 1487 1488
\caption{点乘注意力力模型 }
\label{fig:6-43}
\end{figure}
%----------------------------------------------

xiaotong committed
1489
\parinterval 下面我们举个简单的例子介绍点乘注意力的具体计算过程。如图\ref{fig:6-44}所示,我们用黄色、蓝色和橙色的矩阵分别表示$\mathbf{Q}$$\mathbf{K}$$\mathbf{V}$$\mathbf{Q}$$\mathbf{K}$$\mathbf{V}$中的每一个小格都对应一个单词在模型中的表示(即一个向量)。首先,通过点乘、放缩、掩码等操作得到相关性矩阵,即粉色部分。其次,我们将得到的中间结果矩阵(粉色)的每一行使用Softmax激活函数进行归一化操作,得到最终的权重矩阵,也就是图中的红色矩阵。红色矩阵中的每一行都对应一个注意力分布。最后,我们按行对$\mathbf{V}$进行加权求和,便得到了每个单词通过点乘注意力机制计算得到的表示。这里面,主要的计算消耗是两次矩阵乘法,即$\mathbf{Q}$$\mathbf{K}^{T}$的乘法、相关性矩阵和$\mathbf{V}$的乘法。这两个操作都可以在GPU上高效的完成,因此可以一次性计算出序列中所有单词之间的注意力权重,并完成所有位置表示的加权求和过程,这样大大提高了模型的计算速度。
曹润柘 committed
1490 1491 1492 1493 1494 1495

%----------------------------------------------
% 图3.10
\begin{figure}[htp]
\centering
%\includegraphics[scale=0.4]{./Chapter6/Figures/process of 5.png}
xiaotong committed
1496
\input{./Chapter6/Figures/figure-process-of-5}
曹润柘 committed
1497
\caption{公式(5)的执行过程示例}
曹润柘 committed
1498 1499 1500 1501 1502 1503
\label{fig:6-44}
\end{figure}
%----------------------------------------------

%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
\subsection{掩码操作}\index{Chapter6.4.5}
xiaotong committed
1504
\parinterval 我们在公式\ref{eqC6.45}中提到了Mask(掩码),它的目的是对向量中某些值进行掩盖,避免无关位置的数值对运算造成影响。Transformer中的Mask主要应用在注意力机制中的相关性系数计算,具体方式是在相关性系数矩阵上累加一个Mask矩阵。该矩阵在需要Mask的位置的值为负无穷-inf(具体实现时是一个非常小的数,比如-1e-9),其余位置为0,这样在进行了Softmax归一化操作之后,被掩码掉的位置计算得到的权重便近似为0,也就是说对无用信息分配的权重为0,从而避免了其对结果产生影响。Transformer包含两种Mask:
曹润柘 committed
1505 1506

\begin{itemize}
曹润柘 committed
1507
\item Padding Mask。在批量处理多个样本时(训练或解码),由于要对源言语和目标语言的输入进行批次化处理,而每个批次内序列的长度不一样,为了方便对批次内序列进行矩阵表示,需要进行对齐操作,即在较短的序列后面填充0来占位(padding操作)。而这些填充的位置没有意义,不参与注意力机制的计算,因此,需要进行Mask操作,屏蔽其影响。
曹润柘 committed
1508 1509 1510 1511 1512 1513 1514

\item Future Mask。对于解码器来说,由于在预测的时候是自左向右进行的,即第$t$时刻解码器的输出只能依赖于$t$时刻之前的输出。且为了保证训练解码一致,避免在训练过程中观测到目标语端每个位置未来的信息,因此需要对未来信息进行屏蔽。具体的做法是:构造一个上三角值全为-inf的Mask矩阵,也就是说,在解码端计算中,在当前位置,我们通过Future Mask把序列之后的信息屏蔽掉了,避免了$t$之后的位置对当前的计算产生影响。图\ref{fig:6-45}给出了一个具体的实例。

%----------------------------------------------
% 图3.10
\begin{figure}[htp]
\centering
xiaotong committed
1515
\input{./Chapter6/Figures/figure-Mask-instance-for-future-positions-in-Transformer}
曹润柘 committed
1516 1517 1518 1519 1520 1521 1522
\caption{Transformer中对于未来位置进行的屏蔽的Mask实例}
\label{fig:6-45}
\end{figure}
%----------------------------------------------
\end{itemize}
%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
\subsection{多头注意力}\index{Chapter6.4.6}
xiaotong committed
1523
\parinterval Transformer中使用的另一项重要技术是\textbf{多头注意力机制}(Multi-head attention)。``多头''可以理解成将原来的$\mathbf{Q}$$\mathbf{K}$$\mathbf{V}$按照隐层维度平均切分成多份。假设切分$h$份,那么最终我们会得到$\mathbf{Q} = \{ \mathbf{q}_1, \mathbf{q}_2,...,\mathbf{q}_h \}$$\mathbf{K}=\{ \mathbf{k}_1,\mathbf{k}_2,...,\mathbf{k}_h \}$$\mathbf{V}=\{ \mathbf{v}_1, \mathbf{v}_2,...,\mathbf{v}_h \}$。多头注意力机制就是用每一个切分得到的$\mathbf{q}$$\mathbf{k}$$\mathbf{v}$独立的进行注意力计算。即第$i$个头的注意力计算结果$\mathbf{head}_i = \textrm{Attention}(\mathbf{q}_i,\mathbf{k}_i, \mathbf{v}_i)$
曹润柘 committed
1524 1525 1526 1527 1528 1529 1530 1531

\parinterval 下面我们根据如图\ref{fig:6-46}详细介绍多头注意力的计算过程:

\begin{itemize}
\item	首先将$\mathbf{Q}$$\mathbf{K}$$\mathbf{V}$分别通过线性变换的方式映射为成$h$个子集(Transformer中$h$一般为8)。即$\mathbf{q}_i = \mathbf{Q}\mathbf{W}_i^Q $$\mathbf{k}_i = \mathbf{K}\mathbf{W}_i^K $$\mathbf{v}_i = \mathbf{V}\mathbf{W}_i^V $,其中$i$表示第$i$个头, $\mathbf{W}_i^Q  \in \mathbb{R}^{d_{model} \times d_k}$,  $\mathbf{W}_i^K  \in \mathbb{R}^{d_{model} \times d_k}$,  $\mathbf{W}_i^V  \in \mathbb{R}^{d_{model} \times d_v}$是参数矩阵; $d_k=d_v=d_{model} / h$,对于不同的头我们采用不同的变换矩阵,这里$d_{model}$是Transformer的一个参数,表示每个隐层向量的维度。

\item 其次对每个头分别执行Scaled Dot-Product Attention操作,得到每个头的注意力操作的输出$\mathbf{head}_i$

曹润柘 committed
1532
\item	最后将$h$个头的注意力输出在最后一维$d_v$进行拼接(Concat)重新得到维度为$h \times d_v$的输出,并通过对其左乘一个权重矩阵$\mathbf{W}^o$进行线性变换,从而对多头计算得到的信息进行融合同时将多头注意力输出的维度映射为模型的隐层大小(即$d_{model}$),这里参数矩阵$\mathbf{W}^o \in \mathbb{R}^{h \times d_v \times d_{model}}$
曹润柘 committed
1533 1534 1535 1536 1537 1538
\end{itemize}

%----------------------------------------------
% 图3.10
\begin{figure}[htp]
\centering
xiaotong committed
1539
\input{./Chapter6/Figures/figure-Multi-Head-Attention-Model}
曹润柘 committed
1540 1541 1542 1543 1544 1545 1546 1547
\caption{多头注意力模型}
\label{fig:6-46}
\end{figure}
%----------------------------------------------

\parinterval 多头机制具体的计算公式如下:
%-------------------------------------------------------
\begin{eqnarray}
曹润柘 committed
1548
\textrm{MultiHead}(\mathbf{Q}, \mathbf{K} , \mathbf{V})& = & \textrm{Concat} (\mathbf{head}_1, ... , \mathbf{head}_h ) \mathbf{W}^o \\
xiaotong committed
1549
\mathbf{head}_i & = &\textrm{Attention} (\mathbf{Q}\mathbf{W}_i^Q , \mathbf{K}\mathbf{W}_i^K  , \mathbf{V}\mathbf{W}_i^V )
曹润柘 committed
1550 1551 1552 1553 1554 1555 1556 1557 1558 1559 1560 1561 1562 1563
\label{eqC6.46}
\end{eqnarray}

\parinterval 多头机制的好处是允许模型在不同的表示子空间里学习。在很多实验中发现,不同表示空间的头捕获的信息是不同的,比如,在使用Transformer处理自然语言时,有的头可以捕捉句法信息,有头可以捕捉词法信息。
%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
\subsection{残差和层正则化}\index{Chapter6.4.7}
\parinterval Transformer编码器、解码器分别由多层网络组成(通常为6层),每层网络又包含多个子层(自注意力网络、前馈神经网络)。因此Transformer实际上是一个很深的网络结构。再加上前面介绍的点乘注意力机制,包含很多线性和非线性变换;另外,注意力函数Attention($\cdot$)的计算也涉及多层网络,整个网络的信息传递非常复杂。从反向传播的角度来看,每次回传的梯度都会经过若干步骤,容易产生梯度爆炸或者消失。

\parinterval 解决这个问题的一种办法就是使用\textbf{残差连接}\cite{DBLP:journals/corr/HeZRS15}。残差连接是一种用来训练深层网络的技术,其结构如图\ref{fig:6-47},即在子层之前通过增加直接连接的方式,将底层信息直接传递给上层。

%----------------------------------------------
% 图3.10
\begin{figure}[htp]
\centering
xiaotong committed
1564
\input{./Chapter6/Figures/figure-Residual-network-structure}
曹润柘 committed
1565 1566 1567 1568 1569 1570 1571
\caption{残差网络结构}
\label{fig:6-47}
\end{figure}
%----------------------------------------------

\parinterval 残差连接从广义上讲也叫短连接(short-cut connection),指的是这种短距离的连接。它的思想很简单,就是把层和层之间的距离拉近。如图\ref{fig:6-47}所示,子层1通过残差连接跳过了子层2,直接和子层3进行信息传递。使信息传递变得更高效,有效解决了深层网络训练过程中容易出现的梯度消失/爆炸问题,使得深层网络的训练更加容易。其计算公式为:

曹润柘 committed
1572
\begin{eqnarray}
曹润柘 committed
1573 1574
x_{l+1} = x_l + \digamma (x_l)
\label{eqC6.47}
曹润柘 committed
1575
\end{eqnarray}
曹润柘 committed
1576 1577 1578 1579 1580 1581 1582

\noindent 其中$\digamma (x_l)$是子层运算。如果$l=2$,那么公式\ref{eqC6.47}可以解释为,第3层的输出等于第2层的输出加上第二层的输入。图\ref{fig:6-48}中的红色方框展示了Transformer中残差连接的位置。

%----------------------------------------------
% 图3.10
\begin{figure}[htp]
\centering
xiaotong committed
1583
\input{./Chapter6/Figures/figure-Position-of-difference-and-layer-regularization-in-the-model}
曹润柘 committed
1584 1585 1586 1587 1588 1589 1590
\caption{残差和层正则化在模型中的位置}
\label{fig:6-48}
\end{figure}
%----------------------------------------------

\parinterval 在Transformer的训练过程中,由于引入了残差操作,将前面所有层的输出加到一起。这样会导致不同层(或子层)的结果之间的差异性很大,造成训练过程不稳定、训练时间较长。为了避免这种情况,在每层中加入了层正则化操作\cite{Ba2016LayerN}。层正则化的计算公式如下:

曹润柘 committed
1591
\begin{eqnarray}
曹润柘 committed
1592 1593
\textrm{LN}(x) = g \cdot \frac{x- \mu} {\sigma} + b
\label{eqC6.48}
曹润柘 committed
1594
\end{eqnarray}
曹润柘 committed
1595 1596 1597 1598 1599 1600 1601 1602 1603

\noindent 该公式使用均值$\mu$和方差$\sigma$对样本进行平移缩放,将数据规范化为均值为0,方差为1的标准分布。$g$$b$是可学习的参数。

\parinterval 在Transformer中经常使用的层正则化操作有两种结构,分别是后正则化(Post-norm)和前正则化(Pre-norm)。后正则化中先进行残差连接再进行层正则化,而前正则化则是在子层输入之前进行层正则化操作。在很多实践中已经发现,前正则化(Pre-norm)的方式更有利于信息传递,因此适合训练深层的Transformer模型\cite{WangLearning}

%----------------------------------------------
% 图3.10
\begin{figure}[htp]
\centering
xiaotong committed
1604
\input{./Chapter6/Figures/figure-Different-regularization-methods}
曹润柘 committed
1605 1606 1607 1608 1609 1610 1611 1612 1613 1614 1615 1616
\caption{不同正则化方式 }
\label{fig:6-49}
\end{figure}
%----------------------------------------------
%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
\subsection{前馈全连接网络子层}\index{Chapter6.4.8}
\parinterval 在Transformer的结构中,每一个编码层或者解码层中都包含一个前馈神经网络,它在模型中的位置如图\ref{fig:6-50}中红色方框所示。

%----------------------------------------------
% 图3.10
\begin{figure}[htp]
\centering
xiaotong committed
1617
\input{./Chapter6/Figures/figure-Position-of-feedforward-neural-network-in-the-model}
曹润柘 committed
1618 1619 1620 1621 1622 1623
\caption{前馈神经网络在模型中的位置}
\label{fig:6-50}
\end{figure}
%----------------------------------------------

\parinterval Transformer使用了全连接网络。全连接网络的作用主要体现在将经过注意力操作之后的表示映射到新的空间中,新的空间会有利于接下来的非线性变换等操作。实验证明,去掉全连接网络会对模型的性能造成影响。Transformer的全连接前馈神经网络包含两次线性变换和一次非线性变换(ReLU激活函数:ReLU$(x)=\textrm{max}(0,x)$),每层的前馈神经网络参数不共享,计算公式如下:
曹润柘 committed
1624
%---------------------------
曹润柘 committed
1625
\begin{eqnarray}
曹润柘 committed
1626 1627
\textrm{FFN}(x) = \textrm{max} (0,\mathbf{x}\mathbf{W}_1 + \mathbf{b}_1)\mathbf{W}_2 + \mathbf{b}_2
\label{eqC6.49}
曹润柘 committed
1628
\end{eqnarray}
曹润柘 committed
1629 1630 1631

\noindent 其中,$\mathbf{W}_1$$\mathbf{W}_2$$\mathbf{b}_1$$\mathbf{b}_2$为模型的参数。通常情况下,前馈神经网络的隐层维度要比注意力部分的隐层维度大,比如,注意力部分的隐层维度为512,前馈神经网络部分的隐层维度为2048。当然,继续增大前馈神经网络的隐层大小,比如设为4096,甚至8192,还可以带来性能的增益,但是前馈部分的存储消耗较大,需要更大规模GPU设备的支持。因此在具体实现时,往往需要在翻译准确性和存储/速度之间找到一个平衡。
%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
1632
\subsection{训练}\index{Chapter6.4.9}
曹润柘 committed
1633 1634 1635 1636 1637 1638
\parinterval 与前面介绍的神经机器翻译模型的训练一样,Transformer的训练流程为:首先对模型进行初始化,然后在编码器输入包含结束符的源语言单词序列。前面已经介绍过,解码端每个位置单词的预测都要依赖已经生成的序列。我们在解码端输入包含起始符号的目标语序列,通过起始符号预测目标语的第一个单词,用真实的目标语第一个单词去预测第二个单词,以此类推,然后用真实的目标语序列和预测的结果比较,计算它的损失。损失越小说明模型的预测越接近真实输出。然后利用反向传播来调整模型中的参数。Transformer使用了交叉熵损失函数(Cross Entropy Loss),如图\ref{fig:6-51}。由于Transformer将任意时刻输入信息之间的距离拉近为1,摒弃了RNN中每一个时刻的计算都要基于前一时刻的计算这种具有时序性的训练方式,因此Transformer中训练的不同位置可以并行化训练,大大提高了训练效率。

%----------------------------------------------
% 图3.10
\begin{figure}[htp]
\centering
xiaotong committed
1639
\input{./Chapter6/Figures/figure-Structure-of-the-network-during-Transformer-training}
曹润柘 committed
1640 1641 1642 1643 1644 1645 1646 1647 1648 1649 1650 1651
\caption{Transformer训练时网络的结构}
\label{fig:6-51}
\end{figure}
%----------------------------------------------

\parinterval 需要注意的时候,Transformer也包含很多工程方面的技巧。首先,在训练优化器方面,需要注意以下几点:

\begin{itemize}
\item	Transformer使用Adam优化器优化参数,并设置$\beta_1=0.9$$\beta_2=0.98$$\epsilon=10^{-9}$

\item Transformer在学习率中同样应用了学习率预热(warmup)策略,其计算公式如下:

曹润柘 committed
1652
\begin{eqnarray}
曹润柘 committed
1653 1654
lrate = d_{model}^{-0.5} \cdot \textrm{min} (step^{-0.5} , step \cdot warmup\_steps^{-1.5})
\label{eqC6.50}
曹润柘 committed
1655
\end{eqnarray}
曹润柘 committed
1656 1657 1658 1659 1660 1661 1662 1663

其中,$step$表示更新的次数(或步数)。通常设置网络更新的前4000步为预热阶段即$warmup\_steps=4000$。Transformer的学习率曲线如图\ref{fig:6-52}所示。在训练初期,学习率从一个较小的初始值逐渐增大(线性增长),当到达一定的步数,学习率再逐渐减小。这样做可以减缓在训练初期的不稳定现象,同时在模型达到相对稳定之后,通过逐渐减小的学习率让模型进行更细致的调整。这种学习率的调整方法是Transformer的一个很大的工程贡献。
\end{itemize}

%----------------------------------------------
% 图3.10
\begin{figure}[htp]
\centering
xiaotong committed
1664
\input{./Chapter6/Figures/figure-lrate-of-transformer}
曹润柘 committed
1665
\caption{Transformer模型的学习率曲线}
曹润柘 committed
1666 1667 1668 1669 1670 1671 1672 1673 1674 1675 1676 1677 1678
\label{fig:6-52}
\end{figure}
%----------------------------------------------

\parinterval 另外,Transformer为了提高模型训练的效率和性能,还进行了以下几方面的操作:

\begin{itemize}
\item 小批量训练(Mini-batch Training):每次使用一定数量的样本进行训练,即每次从样本中选择一小部分数据进行训练。这种方法的收敛较快,同时易于提高设备的利用率。Batch大小通常设置为2048/4096(token数即每个批次中的单词个数)。每一个Batch中的句子并不是随机选择的,模型通常会根据句子长度进行排序,选取长度相近的句子组成一个Batch。这样做可以减少padding数量,提高训练效率,如图\ref{fig:6-53}

%----------------------------------------------
% 图3.10
\begin{figure}[htp]
\centering
xiaotong committed
1679
\input{./Chapter6/Figures/figure-Comparison-of-the-number-of-padding-in-batch}
曹润柘 committed
1680 1681 1682 1683 1684 1685 1686 1687 1688 1689
\caption{batch中padding数量对比(白色部分为padding)}
\label{fig:6-53}
\end{figure}
%----------------------------------------------

\item Dropout:由于Transformer模型网络结构过于复杂,参数过多,具有很强的学习能力,导致过度拟合训练数据,从而对未见数据的预测结果变差。这种现象也被称作\textbf{过拟合}(over fitting)。为了避免这种现象,Transformer加入了Dropout操作\cite{JMLR:v15:srivastava14a}。Transformer中这四个地方用到了Dropout:词嵌入和位置编码、残差连接、注意力操作和前馈神经网络。Dropout比例通常设置为0.1。

\item 标签平滑(Label Smoothing):在计算损失的过程中,需要用预测概率去拟合真实概率。在分类任务中,往往使用one-hot向量代表真实概率,即真实答案位置那一维对应的概率为1,其余维为0,而拟合这种概率分布会造成两个问题:1)无法保证模型的泛化能力,容易造成过拟合;2) 1和0概率鼓励所属类别和其它类别之间的差距尽可能加大,会造成模型过于相信预测的类别。因此Transformer里引入标签平滑\cite{Szegedy_2016_CVPR}来缓解这种现象,简单的说就是给正确答案以外的类别分配一定的概率,而不是采用非0即1的概率。这样,可以学习一个比较平滑的概率分布,从而提升泛化能力,防止过拟合。\\
\end{itemize}

1690
\parinterval 不同的Transformer可以适应不同的任务,常见的Transformer模型有Transformer Base、Transformer Big和Transformer Deep\cite{NIPS2017_7181}\cite{WangLearning},具体设置如下:
曹润柘 committed
1691 1692 1693 1694 1695 1696 1697 1698 1699 1700 1701 1702 1703 1704 1705

\begin{itemize}
\item  Transformer Base:标准的Transformer结构,解码器编码器均包含6层,隐层维度为512,前馈神经网络维度为2048,多头注意力机制为8头,Dropout设为0.1。

\item  Transformer Big:为了提升网络的容量,使用更宽的网络。在Base的基础上增大隐层维度至1024,前馈神经网络的维度变为4096,多头注意力机制为16头,Dropout设为0.3。

\item Transformer Deep:加深编码器网络层数可以进一步提升网络的性能,它的参数设置与Transformer Base基本一致,但是层数增加到48层,同时使用Pre-Norm作为层正则化的结构。
\end{itemize}

\parinterval 在WMT'16数据 上的实验对比如表\ref{tab:word-translation-examples}所示。可以看出,Transformer Base的BLE\\U得分虽不如另外两种模型,但其参数量是最少的。而Transformer Deep的性能整体好于Transformer Big。

%----------------------------------------------
% 表
\begin{table}[htp]
\centering
曹润柘 committed
1706
\caption{三种Transformer模型的对比}
曹润柘 committed
1707 1708 1709
\label{tab:word-translation-examples}
\begin{tabular}{l | l l l}

曹润柘 committed
1710 1711
\multirow{2}{*}{\#}   & \multicolumn{2}{c}{BLEU} & \multirow{2}{*}{params} \\
                      & EN-DE  & EN-FR  &                                  \\ \hline
曹润柘 committed
1712 1713 1714 1715 1716 1717 1718 1719 1720 1721
Transformer Base      & 27.3            & 38.1            & 65$\times 10^{6}$                \\
Transformer Big       & 28.4            & 41.8            & 213$\times 10^{6}$               \\
Transformer Deep(48层) & 30.2            & 43.1            & 194$\times 10^{6}$              \\
\end{tabular}
\end{table}
%--------------------------------------



%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
1722
\subsection{推断}\index{Chapter6.4.10}
曹润柘 committed
1723
\parinterval Transformer解码器生成目标语的过程和前面介绍的循环网络翻译模型类似,都是从左往右生成,且下一个单词的预测依赖已经生成的上一个单词。其具体推断过程如图\ref{fig:6-54}所示,其中$\mathbf{C}_i$是编解码注意力的结果,解码器首先根据``<eos>''和$\mathbf{C}_1$生成第一个单词``how'',然后根据``how''和$\mathbf{C}_2$生成第二个单词``are'',以此类推,当解码器生成``<eos>''时结束推断。
曹润柘 committed
1724

曹润柘 committed
1725
\parinterval 但是,Transformer在推断阶段无法对所有位置进行并行化操作,因为对于每一个目标语单词都需要对前面所有单词进行注意力操作,因此它推断速度非常慢。可以采用的加速手段有:低精度\cite{DBLP:journals/corr/CourbariauxB16}、Cache(缓存需要重复计算的变量)\cite{DBLP:journals/corr/abs-1805-00631}、共享注意力网络等\cite{Xiao2019SharingAW}
曹润柘 committed
1726 1727 1728 1729 1730

%----------------------------------------------
% 图3.10
\begin{figure}[htp]
\centering
xiaotong committed
1731
\input{./Chapter6/Figures/figure-decode-of-transformer}
曹润柘 committed
1732 1733 1734 1735 1736 1737
\caption{Transformer推断过程示例}
\label{fig:6-54}
\end{figure}
%----------------------------------------------
%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
\section{序列到序列问题及应用}\index{Chapter6.5}
曹润柘 committed
1738
\parinterval 虽然翻译的目的是进行自然语言文字的转化,但是我们并不需要限制机器翻译只能进行两种语言之间的转换。从某种意义上讲,一个输入序列转化到一个输出序列的过程都可以被看作``翻译''。这类问题通常被称作\textbf{序列到序列}的转换/生成问题(sequence to sequence problem)。而机器翻译模型也是一种典型的序列到序列模型。
曹润柘 committed
1739 1740 1741 1742 1743

\parinterval 实际上,很多自然语言处理问题都可以被看作是序列到序列的任务。比如,在自动问答中,可以把问题看作是输入序列,把回答看作是输出序列;在自动对联生成中,可以把上联看作是输入序列,把下联看作是输出序列。这样的例子还有很多。对于这类问题,我们都可以使用神经机器翻译来进行建模。比如,使用编码器-解码器框架对输入和输出的序列进行建模。下面我们就来看几个序列到序列的问题,以及如何使用神经机器翻译类似的思想对它们进行求解。
%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
\subsection{自动问答}\index{Chapter6.5.1}

曹润柘 committed
1744
\parinterval 自动问答,即能够根据给定的问题和与该问题有关的文档,生成问题所对应的答案。自动问答的应用场景很多,智能语音助手、自动客服都是自动问答的典型应用。在自动问答中,我们希望系统能够根据输入问题的文字序列,匹配相关文档,然后整合问题和相关知识,输出答案的文字序列。这也可以被看作是一个编码-解码的过程。普遍的做法是,通过编码器对问题编码,然后融合外部知识后,通过解码器生成答案。具体的实现机制有很多,比如基于阅读理解、基于知识库的方法等。但是,不论是何种类型的问答任务,本质上还是要找到问题和答案之间的对应关系,因此可以直接使用类似于神经机器翻译的这种序列到序列模型对其进行求解。
曹润柘 committed
1745 1746 1747
%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
\subsection{自动文摘}\index{Chapter6.5.2}

曹润柘 committed
1748
\parinterval 自动文本摘要,即在不改变文本原意的情况下,自动生成文本的主要内容。自动文本摘要技术被广泛应用于新闻报道、信息检索等领域。文本自动摘要是根据输入的文档得到摘要,因此可以把原始文档看作输入序列,把得到的摘要看作输出序列。常见的解决思路有:抽取式文摘和生成式文摘。前者试图从输入的文本中抽取能表达原文主要内容的句子,进行重新组合、提炼;后者则试图让计算机``理解''并``表达''出原文的主要内容。生成式文摘也可以用端到端框架实现。比如,我们可以利用编码器将整个输入序列编码成一个具有输入序列信息的固定维度向量,然后利用解码器对这个向量解码,获取所需要文本摘要\cite{DBLP:journals/corr/RushCW15}。下图展示了一个文本自动摘要的例子\cite{DBLP:journals/corr/PaulusXS17}
曹润柘 committed
1749 1750 1751 1752 1753

%----------------------------------------------
% 图3.6.1
\begin{figure}[htp]
    \centering
xiaotong committed
1754
\input{./Chapter6/Figures/figure-Generate-summary}
曹润柘 committed
1755
\caption{文本自动摘要实例}
曹润柘 committed
1756 1757 1758 1759 1760 1761 1762 1763 1764 1765
   \label{fig:6-64}
\end{figure}
%---------------------------
%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
\subsection{文言文翻译}\index{Chapter6.5.3}
\parinterval 文言文翻译,即能够根据输入的文言文,输出相应的现代汉语翻译。中国几千年的文化都是用文言文记载的,不同时代的古文之间存在巨大差异,普通人在阅读古籍时会面临很大困难。为此,有研究者致力于将古籍翻译成现代汉语。实际上,文言文翻译也是机器翻译的一个典型应用。想要训练一个文言文翻译系统并不难,我们只需要将文言文看作源语言,将现代文看作目标语言,并送入机器翻译模型,就可以获得一个古文翻译系统。不过,由于古文短,现代文长,过翻译或欠翻译等问题会在机器翻译中表现得更为突出。在此,如果想要获得一个性能优异的文言文翻译系统,就需要考虑如何对长度进行更精准的建模。另外,不同时代语言差异性大,因此还需要能够进行自动适应和风格迁移。下图展示了使用神经机器翻译模型得到的文言文翻译系统的实例。输入古文,系统就能为我们生成其现代文翻译。当然,我们也可以用类似的方法训练现代文-古文的翻译系统。
%----------------------------------------------
% 图3.6.1
\begin{figure}[htp]
    \centering
xiaotong committed
1766
\input{./Chapter6/Figures/figure-Example-of-automatic-translation-of-classical-Chinese}
曹润柘 committed
1767 1768 1769 1770 1771 1772 1773 1774
   \caption{文言文自动翻译实例}
   \label{fig:6-56}
\end{figure}
%---------------------------

%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
\subsection{对联生成}\index{Chapter6.5.4}

曹润柘 committed
1775
\parinterval 对联生成,即能够根据输入的上联,生成与之匹配的下联。春节、结婚、寿诞、乔迁、丧事等都用得到对联。对联非常符合序列到序列问题的定义。比如,只需要把整理好的对联数据(上下联对应)送给神经机器翻译系统,系统就可以学习上下联之间的对应关系。当用户输入新的上联,系统可以自动``翻译''出下联。图\ref{fig:6-57}展示了几个使用神经取机器翻译技术生成的对联。当然,对联也有自身特有的问题。比如,对联的上下联有较严格的长度、押韵和词义的对应要求。如何让系统学习到这些要求,并且能够``灵活''运用是很有挑战的。除此之外,由于缺乏数据,如何生成高度概括上下联内容的横批,难度也很大。这些都是值得探索的研究方向。
曹润柘 committed
1776 1777 1778 1779 1780 1781

%----------------------------------------------
% 图3.5.4

\begin{figure}[htp]
    \centering
xiaotong committed
1782
\input{./Chapter6/Figures/figure-Automatically-generate-instances-of-couplets}
曹润柘 committed
1783 1784 1785 1786 1787 1788 1789 1790 1791 1792 1793 1794 1795 1796 1797
    \caption{对联自动生成实例(人工给定上联)}
    \label{fig:6-57}
\end{figure}
%-------------------------------------------

%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
\subsection{古诗生成}\index{Chapter6.5.5}

\parinterval 古诗生成,即能够根据输入的关键词,输出与关键词相关的古诗。古诗生成也是大家喜闻乐见的一种传统文化体验形式。古诗生成问题也可以用神经机器翻译技术解决。比如,可以把一些关键词作为输入,把古诗作为输出。那写一个藏头诗呢?对于藏头诗生成,本质上对应了机器翻译中的一类经典问题,即使用约束干预机器翻译结果。当然这里不会开展深入的讨论。我们可以使用一种简单的方法,使用强制解码技术,在生成过程中排除掉所有不满足藏头诗约束的候选。当然,藏头诗生成系统还面临很多困难,比如如何体现关键词的意境等。这些都需要设计独立的模块进行建模。下图展示了藏头诗生成系统的一个简单实例。

%----------------------------------------------
% 图3.5.4

\begin{figure}[htp]
    \centering
xiaotong committed
1798
\input{./Chapter6/Figures/figure-Automatic-generation-of-ancient-poems-based-on-encoder-decoder-framework}
曹润柘 committed
1799 1800 1801 1802 1803 1804 1805 1806 1807 1808 1809 1810 1811 1812 1813
    \caption{基于编码器-解码器框架的古诗自动生成}
    \label{fig:6-58}
\end{figure}
%-------------------------------------------

%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
\section{小结及深入阅读}\index{Chapter6.6}%Index的作用,目前不清晰

\parinterval 神经机器翻译是近几年的热门方向。无论是前沿性的技术探索,还是面向应用落地的系统研发,神经机器翻译已经成为我们最好的选择之一。研究人员对神经机器翻译的热情使得这个领域得到了快速的发展。本章作为神经机器翻译的入门章节,对神经机器翻译的建模思想和基础框架进行了描述。同时,对常用的神经机器翻译架构 - 循环神经网络和Transformer - 进行了讨论与分析。在下一章,我们会对神经机器翻译中的一些常用技术和前沿方法进行进一步介绍。

\parinterval 经过几年的积累,神经机器翻译的细分方向已经十分多样,由于篇幅所限,这里也无法覆盖所有内容(虽然笔者尽所能全面介绍相关的基础知识,但是难免会有疏漏)。很多神经机器翻译的模型和方法值得进一步学习和探讨:

\begin{itemize}
\item 无论是循环神经网络还是Transformer都有很多变种结构。比如,除了RNN、\\LSTM、GRU,还有其它改进的循环单元结构,如LRN\cite{DBLP:journals/corr/abs-1905-13324}、SRU\cite{Lei2017TrainingRA}、ATR\cite{Zhang2018SimplifyingNM}\\。Transformer是近些年的热门,它也衍生出很多的改进版本,如相对位置编码\cite{Shaw2018SelfAttentionWR}、局部注意力机制\cite{DBLP:journals/corr/abs-1904-03107}、多层信息交互\cite{wang-etal-2018-multi-layer}、深层网络\cite{WangLearning}。此外,其它神经网络架构,如卷积神经网络,也是研发神经机器翻译系统很好的选择\cite{DBLP:journals/corr/GehringAGYD17}\cite{Wu2019PayLA}。最近,也有一些研究者探索异构系统,使用不同的神经网络结构搭建编码器和解码器\cite{Chen2018TheBO},比如,编码端使用性能更强的Transformer,而解码端使用速度更快的循环神经网络。

曹润柘 committed
1814
\item 注意力机制的使用是机器翻译乃至整个自然语言处理近几年获得成功的重要因素之一\cite{Liu_2019_CVPR}\cite{DBLP:journals/corr/abs-1811-00498}\cite{MoradiInterrogating}。早期,有研究者尝试将注意力机制和统计机器翻译的词对齐进行统一\cite{WangNeural}。近两年,也有研究已经发现注意力模型可以捕捉一些语言现象\cite{DBLP:journals/corr/abs-1905-09418},比如,在Transformer的多头注意力中,不同头往往会捕捉到不同的信息,比如,有些头对低频词更加敏感,有些头更适合词意消歧,甚至有些头可以捕捉句法信息。此外,由于注意力机制增加了模型的复杂性,而且随着网络层数的增多,神经机器翻译中也存在大量的冗余,因此研发轻量的注意力模型也是具有实践意义的方向\cite{Xiao2019SharingAW}
曹润柘 committed
1815

曹润柘 committed
1816
\item 一般来说,神经机器翻译的计算过程是没有人工干预的,翻译流程也无法用人类的知识直接进行解释,因此一个有趣的方向是在神经机器翻译中引入先验知识,使得机器翻译的行为更``像''人。比如,可以使用句法树来引入人类的语言学知识\cite{Yang2017TowardsBH}\cite{Wang2019TreeTI},基于句法的神经机器翻译也包含大量的树结构的神经网络建模\cite{DBLP:journals/corr/abs-1809-01854}\cite{DBLP:journals/corr/abs-1808-09374}。此外,也可以把用户定义的词典或者翻译记忆加入到翻译过程来\cite{DBLP:journals/corr/ZhangZ16c}\cite{Dai2019TransformerXLAL},使得用户的约束可以直接反映到机器翻译的结果上来。先验知识的种类还有很多,包括词对齐\cite{li-etal-2019-word}\cite{Zhang2017PriorKI}、篇章信息\cite{Werlen2018DocumentLevelNM}\cite{DBLP:journals/corr/abs-1805-10163}等等,都是神经机器翻译中能够使用的信息。
曹润柘 committed
1817

曹润柘 committed
1818
\item 神经机器翻译依赖成本较高的GPU设备,因此对模型的裁剪和加速也是很多系统研发人员所感兴趣的方向。比如,从工程上,可以考虑减少运算强度,比如低精度浮点或者整数计算,或者引入缓存机制来加速模型的推断\cite{DBLP:journals/corr/abs-1906-00532}\cite{DBLP:journals/corr/CourbariauxB16};也可以通过对模型参数矩阵的剪枝,甚至对模块的剪枝,来减小整个模型的体积\cite{Zhang2018SpeedingUN}\cite{DBLP:journals/corr/SeeLM16};另一种方法是知识精炼。利用大模型训练小模型,这样往往可以得到比单独训练小模型更好的效果\cite{DBLP:journals/corr/ChenLCL17}\cite{Hinton2015Distilling}\cite{Sun2019PatientKD}
曹润柘 committed
1819
\end{itemize}
曹润柘 committed
1820 1821 1822 1823
%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%第一章附录
\begin{appendices}
\chapter{附录A}
\label{appendix-A}
曹润柘 committed
1824 1825


曹润柘 committed
1826 1827 1828 1829 1830 1831 1832 1833 1834 1835 1836 1837 1838 1839 1840 1841 1842 1843 1844 1845 1846 1847 1848 1849 1850 1851 1852 1853 1854 1855 1856 1857 1858 1859 1860
\end{appendices}

%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%第二章附录
\begin{appendices}
\chapter{附录B}
\label{appendix-B}
\section{IBM模型3训练方法}
\parinterval 模型3的参数估计与模型1和模型2采用相同的方法。这里直接给出辅助函数。
\begin{eqnarray}
h(t,d,n,p, \lambda,\mu, \nu, \zeta) & = &  \textrm{P}_{\theta}(\mathbf{s}|\mathbf{t})-\sum_{e}\lambda_{e}(\sum_{s}t(\mathbf{s}|\mathbf{t})-1)-\sum_{i}\mu_{iml}(\sum_{j}d(j|i,m,l)-1) \nonumber \\
& & -\sum_{e}\nu_{e}(\sum_{\varphi}n(\varphi|e)-1)-\zeta(p^0+p^1-1)
\label{eq:1.1}
\end{eqnarray}
%----------------------------------------------
\parinterval 由于篇幅所限这里略去了推导步骤直接给出一些用于参数估计的等式。
\begin{eqnarray}
c(s|t,\mathbf{s},\mathbf{t}) = \sum_{\mathbf{a}}(\textrm{p}_{\theta}(\mathbf{s},\mathbf{a}|\mathbf{t}) \times \sum_{i=1}^{m} (\delta(s_i,\mathbf{s}) \cdot \delta(t_{a_{i}},\mathbf{t})))
\label{eq:1.2}
\end{eqnarray}
\begin{eqnarray}
c(i|j,m,l;\mathbf{s},\mathbf{t}) = \sum_{\mathbf{a}}(\textrm{p}_{\theta}(\mathbf{s},\mathbf{a}|\mathbf{t}) \times \delta(j,a_i))
\label{eq:1.3}
\end{eqnarray}
\begin{eqnarray}
c(\varphi|e;\mathbf{s},\mathbf{t}) = \sum_{\mathbf{a}}(\textrm{p}_{\theta}(\mathbf{s},\mathbf{a}|\mathbf{t}) \times \sum_{j=1}^{l}\delta(\varphi,\varphi_{j})\delta(e,e_j))
\label{eq:1.4}
\end{eqnarray}
\begin{eqnarray}
c(0|\mathbf{s},\mathbf{t}) = \sum_{\mathbf{a}}(\textrm{p}_{\theta}(\mathbf{s},\mathbf{a}|\mathbf{t})  \times (m-2\varphi_0) )
\label{eq:1.5}
\end{eqnarray}
\begin{eqnarray}
c(1|\mathbf{s},\mathbf{t}) = \sum_{\mathbf{a}}(\textrm{p}_{\theta}(\mathbf{s},\mathbf{a}|\mathbf{t}) \times \varphi_0)
\label{eq:1.6}
\end{eqnarray}
1861
%----------------------------------------------
曹润柘 committed
1862 1863 1864 1865 1866 1867 1868 1869 1870 1871 1872 1873 1874 1875 1876 1877 1878 1879 1880 1881 1882 1883 1884 1885 1886 1887 1888 1889 1890 1891 1892 1893 1894 1895 1896 1897 1898 1899 1900 1901 1902 1903 1904 1905 1906 1907 1908 1909 1910 1911 1912 1913 1914 1915 1916 1917 1918 1919 1920 1921 1922 1923 1924 1925 1926 1927 1928 1929 1930 1931 1932 1933 1934 1935 1936 1937 1938 1939 1940 1941 1942 1943 1944 1945 1946 1947 1948 1949 1950 1951 1952 1953 1954 1955 1956 1957 1958 1959 1960 1961 1962 1963 1964 1965 1966 1967 1968 1969 1970 1971 1972 1973 1974 1975 1976 1977 1978 1979 1980 1981 1982 1983 1984 1985 1986 1987 1988 1989 1990 1991 1992 1993 1994 1995 1996 1997 1998 1999 2000 2001 2002 2003 2004 2005 2006 2007 2008 2009 2010 2011 2012 2013 2014 2015 2016 2017 2018 2019 2020 2021 2022 2023

\parinterval 进一步,
\begin{eqnarray}
t(\mathbf{s}|\mathbf{t}) = \lambda_{t}^{-1} \times \sum_{k=1}^{S}c(\mathbf{s}|\mathbf{t};\mathbf{s}(k),\mathbf{t}(k))
\label{eq:1.7}
\end{eqnarray}
\begin{eqnarray}
d(i|j,m,l) = \mu_{jml}^{-1} \times \sum_{k=1}^{S}c(i|j,m,l;\mathbf{s}(k),\mathbf{t}(k))
\label{eq:1.8}
\end{eqnarray}
\begin{eqnarray}
n(\varphi|\mathbf{t}) = \nu_{t}^{-1} \times \sum_{s=1}^{S}c(\varphi |t;\mathbf{s}(k),\mathbf{t}(k))
\label{eq:1.9}
\end{eqnarray}
\begin{eqnarray}
pk = \zeta^{-1} \sum_{k=1}^{S}c(k;\mathbf{s}(k),\mathbf{t}(k))
\label{eq:1.10}
\end{eqnarray}
%----------------------------------------------

\parinterval 在模型3中,因为产出率的引入,我们并不能像在模型1和模型2中那样,在保证正确性的情况下加速参数估计的过程。这就使得每次迭代过程中,我们都不得不面对大小为$(l+1)^m$的词对齐空间。遍历所有$(l+1)^m$个词对齐所带来的高时间复杂度显然是不能被接受的。因此就要考虑是不是可以仅利用词对齐空间中的部分词对齐对这些参数进行估计。比较简单且直接的方法就是仅利用Viterbi对齐来进行参数估计。遗憾的是,在模型3中我们没有方法直接获得Viterbi对齐。这样只能采用一种折中的方法,即仅考虑那些使得$\textrm{P}_{\theta}(\mathbf{s},\mathbf{a}|\mathbf{t})$值较高的词对齐。这里把这部分词对齐组成的集合记为S。式(\ref{eq:1.2})可以被修改为,
\begin{eqnarray}
c(s|t,\mathbf{s},\mathbf{t}) \approx \sum_{\mathbf{a} \in \mathbf{S}}(\textrm{P}_{\theta}(\mathbf{s},\mathbf{a}|\mathbf{t}) \times \sum_{i=1}^{m}(\delta(s_i,\mathbf{s}) \cdot \delta(t_{a_{i}},\mathbf{t})))
\label{eq:1.11}
\end{eqnarray}
%----------------------------------------------

\parinterval 同理可以获得式(\ref{eq:1.3})、式(\ref{eq:1.4})、式(\ref{eq:1.5})和式(\ref{eq:1.6})的修改结果。

\parinterval 在模型3中,可以如下定义\textrm{S}
\begin{eqnarray}
\textrm{S} = N(b^{\infty}(V(\mathbf{s}|\mathbf{t};2))) \cup (\mathop{\cup}\limits_{ij} N(b_{i \leftrightarrow j}^{\infty}(V_{i \leftrightarrow j}(\mathbf{s}|\mathbf{t},2))))
\label{eq:1.12}
\end{eqnarray}
%----------------------------------------------

\parinterval 其中 $b^{\infty}(V(\mathbf{s}|\mathbf{t};2))$$b_{i \leftrightarrow j}^{\infty}(V_{i \leftrightarrow j}(\mathbf{s}|\mathbf{t},2))$ 分别是对 $V(\mathbf{s}|\mathbf{t};3)$$V_{i \leftrightarrow j}(\mathbf{s}|\mathbf{t},3)$ 的估计。在计算\textrm{S}的过程中,我们需要知道一个对齐$\bf{a}$的邻居$\bf{a}'$的概率,即如何通过$\textrm{p}_{\theta}(\mathbf{a},\mathbf{s}|\mathbf{t})$计算$\textrm{p}_{\theta}(\mathbf{a}',\mathbf{s}|\mathbf{t})$。在模型3总,如果$\bf{a}$$\bf{a}'$区别于某个源语单词的对齐到的目标位置上($a_j$不等于$a_{j}'$),那么
\begin{small}
\begin{eqnarray}
\textrm{p}_{\theta}(\mathbf{a}',\mathbf{s}|\mathbf{t}) = \textrm{p}_{\theta}(\mathbf{a},\mathbf{s}|\mathbf{t}) \cdot \frac{\varphi_{j'}+1}{\varphi_j} \cdot \frac{n(\varphi_{j'}+1|t_{j'})}{n(\varphi_{j'}|t_{j'})} \cdot \frac{n(\varphi_{j-1}|t_{j})}{n(\varphi_{j}|t_{j})} \cdot \frac{t(s_i|t_{j'})}{t(s_{i}|t_{j})} \cdot \frac{d(i|j',m,l)}{d(i|j,m,l)}
\label{eq:1.13}
\end{eqnarray}
\end{small}
%----------------------------------------------

\parinterval 如果$\bf{a}$$\bf{a}'$区别于两个位置$i_1$$i_2$的对齐上,$a_{j_{1}}=a{j_{2}}'$$a_{j_{2}}=a{j_{1}}'$,那么
\begin{eqnarray}
\textrm{P}_{\theta}(\mathbf{a'},\mathbf{s}|\mathbf{t}) = \textrm{P}_{\theta}(\mathbf{a},\mathbf{s}|\mathbf{t}) \cdot \frac{t(s_{i_{2}}|t_{a_{i_{2}}})}{t(s_{i_{1}}|t_{a{i_{1}}})} \cdot \frac{d(i_{2})|a{i_{2}},m,l)}{d(i_{1}|a_{i_{1}},m,l)}
\label{eq:1.14}
\end{eqnarray}
%----------------------------------------------

\parinterval 这样每次迭代就可以仅在\textrm{S}上进行计数。相比整个词对齐空间,\textrm{S}只是一个非常小的子集,因此运算复杂度可以大大被降低。本质上说,这里定义\textrm{S}是为了用模型2的Viterbi对齐来估计模型3的Viterbi对齐。

\parinterval 对于模型3的参数估计过程,实际上是建立在模型1和模型2的参数估计结果上的。这不仅是因为模型3要利用模型2的Viterbi对齐,而且还因为模型3参数的初值也要直接利用模型2的参数。从这个角度说,模型1,2,3是有序的且向前依赖的。单独的对模型3的参数进行估计是极其困难的。实际上IBM的模型4和模型5也具有这样的性质,即他们都可以利用前一个模型参数估计的结果作为自身参数的初始值。

\section{IBM模型4训练方法}

\parinterval 模型4的参数估计基本与模型3一致。需要修改的是扭曲度的估计公式,如下:
\begin{eqnarray}
c_1(\Delta_i|ca,cb;\mathbf{s},\mathbf{t}) = \sum_{\mathbf{a}}(\textrm{P}_{\theta}(\mathbf{s},\mathbf{a}|\mathbf{t}) \times s_1(\Delta_i|ca,cb;\mathbf{a},\mathbf{s},\mathbf{t}))
\label{eq:1.15}
\end{eqnarray}
\begin{small}
\begin{eqnarray}
s_1(\Delta_i|ca,cb;\rm{a},\mathbf{s},\mathbf{t}) = \sum_{p=1}^l (\varepsilon(\phi_p) \cdot \delta(\pi_{p1}-\odot _{[p]},\Delta_i) \cdot \delta(A(e_{p-1}),ca) \cdot \delta(B(\tau_{p1}),cb))
\label{eq:1.16}
\end{eqnarray}
\end{small}
\begin{eqnarray}
d_1(\Delta_i|ca,cb;\mathbf{s},\mathbf{t}) = \mu_{1cacb}^{-1} \times \sum_{s=1}^{S}c(\Delta_i|ca,cb;\mathbf{s}(s),\mathbf{t}(s))
\label{eq:1.17}
\end{eqnarray}
\begin{eqnarray}
c_{>1}(\Delta_i|cb;\mathbf{s},\mathbf{t}) = \sum_{\mathbf{a}}(\textrm{p}_{\theta}(\mathbf{s},\mathbf{a}|\mathbf{t}) \times s_{>1}(\Delta_i|cb;\mathbf{a},\mathbf{s},\mathbf{t}))
\label{eq:1.18}
\end{eqnarray}
\begin{eqnarray}
s_{>1}(\Delta_i|cb;\mathbf{a},\mathbf{s},\mathbf{t}) = \sum_{p=1}^l(\varepsilon(\phi_p-1)\sum_{k=2}^{\phi_p}\delta(p-\pi_{[p]k-1},\Delta_i) \cdot \delta(B(\tau_{[p]k}),cb))
\label{eq:1.19}
\end{eqnarray}
\begin{eqnarray}
d_{>1}(\Delta_i|cb;\mathbf{s},\mathbf{t}) = \mu_{>1cb}^{-1} \times \sum_{s=1}^{S}c_{>1}(\Delta_i|cb;\mathbf{s}(s),\mathbf{t}(s))
\label{eq:1.20}
\end{eqnarray}
%----------------------------------------------

\parinterval 其中,
\begin{eqnarray}
\varepsilon(x) = \begin{cases}
0 & x \leq 0 \\
1 & x > 0
\end{cases}
\label{eq:1.21}
\end{eqnarray}
%----------------------------------------------

\parinterval $ca$$cb$分别表示目标语和源语的某个词类。

\parinterval 模型4需要像模型3一样,通过定义一个词对齐集合\textrm{S},使得每次迭代都在\textrm{S}上进行,进而降低运算量。模型4中\textrm{S}的定义为,
\begin{eqnarray}
\textrm{S} = N(\tilde{b}^{\infty}(V(\mathbf{s}|\mathbf{t};2))) \cup (\mathop{\cup}\limits_{ij} N(\tilde{b}_{i \leftrightarrow j}^{\infty}(V_{i \leftrightarrow j}(\mathbf{s}|\mathbf{t},2))))
\label{eq:1.22}
\end{eqnarray}
%----------------------------------------------

\parinterval 对于一个对齐$\mathbf{a}$,可用模型3对它的邻居进行排名,即按$\textrm{p}_{\theta}(b(\mathbf{a})|\mathbf{s},\mathbf{t};3)$排序。$\tilde{b}(\mathbf{a})$ \\ 表示这个排名表中满足$\textrm{p}_{\theta}(\mathbf{a}'|\mathbf{s},\mathbf{t};4) > \textrm{P}_{\theta}(\mathbf{a}|\mathbf{s},\mathbf{t};4)$的最高排名的$\mathbf{a}'$。同理可知$\tilde{b}_{i \leftrightarrow j}^{\infty}(\mathbf{a})$ \\ 的意义。这里之所以不用模型3中采用的方法直接利用$b^{\infty}(\mathbf{a})$得到模型4中高概率的对齐,是因为模型4中,要想获得某个对齐$\mathbf{a}$的邻居$\mathbf{a}'$,必须做很大调整,比如:调整$\tau_{[j]1}$$\odot_{[j]}$等等。这个过程要比模型3的相应过程复杂得多。因此在模型4中只能借助于模型3的中间步骤来进行估计。
\setlength{\belowdisplayskip}{3pt}%调整空白大小
%%%%%%%%%%%%%%%%%%%%%%%%%%%%
\section{IBM模型5训练方法}
\parinterval 模型5的参数估计过程也与模型3的过程基本一致,二者的区别在于扭曲度的估计公式。在模型5中,
\begin{eqnarray}
c_1(\Delta_i|cb,v1,v2;\mathbf{s},\mathbf{t}) = \sum_{\mathbf{a}}(\textrm{P}(\mathbf{s},\mathbf{a}|\mathbf{t}) \times s_1(\Delta_i|cb,v1,v2;\mathbf{a},\mathbf{s},\mathbf{t}))
\label{eq:1.23}
\end{eqnarray}
\begin{eqnarray}
s_1(\Delta_i|cb,v1,v2;\rm{a},\mathbf{s},\mathbf{t}) & = & \sum_{p=1}^l (\varepsilon(\phi_p) \cdot \delta(v_{\pi_{p1}},\Delta_i) \cdot \delta(X_{\{p-1\}},v1) \nonumber \\
& & \cdot \delta(v_m-\phi_p+1,v2) \cdot \delta(v_{\pi_{p1}},v_{\pi_{p1-1}})
\label{eq:1.24}
\end{eqnarray}
\begin{eqnarray}
d_1(\Delta_i|cb;\mathbf{s},\mathbf{t}) = \mu_{1cb}^{-1} \times \sum_{s=1}^{S}c(\Delta_i|cb;\mathbf{f}(s),\mathbf{e}(s))
\label{eq:1.25}
\end{eqnarray}
\begin{eqnarray}
c_{>1}(\Delta_i|cb,v;\mathbf{s},\mathbf{t}) = \sum_{\mathbf{a}}(\textrm{p}(\mathbf{f},\mathbf{s}|\mathbf{t}) \times s_{>1}(\Delta_i|cb,v;\mathbf{a},\mathbf{s},\mathbf{t}))
\label{eq:1.26}
\end{eqnarray}
%\begin{small}
\begin{eqnarray}
s_{>1}(\Delta_i|cb,v;\mathbf{a},\mathbf{s},\mathbf{t}) & = & \sum_{p=1}^l(\varepsilon(\phi_p-1)\sum_{k=2}^{\phi_p}(\delta(v_{\pi_{pk}}-V_{\pi_{[p]k-1}},\Delta_i)  \nonumber \\
& & \cdot \delta(B(\tau_{[p]k}) ,cb) \cdot \delta(vm-v_{\pi_{p(k-1)}}-\phi_p+k,v) \nonumber \\
& & \cdot \delta(v_{\pi_{p1}},v_{\pi_{p1-1}})))
\label{eq:1.27}
\end{eqnarray}
%\end{small}
\begin{eqnarray}
d_{>1}(\Delta_i|cb,v;\mathbf{s},\mathbf{t}) = \mu_{>1cb}^{-1} \times \sum_{s=1}^{S}c_{>1}(\Delta_i|cb,v;\mathbf{f}(s),\mathbf{e}(s))
\label{eq:1.28}
\end{eqnarray}
%----------------------------------------------
\vspace{0.5em}

\parinterval 这里$X_{\{p-1\}}$表示在位置小于$p$的非空对的目标语单词对应的源语单词的平均置位。

\parinterval 从式(\ref{eq:1.24})中可以看出因子$\delta(v_{\pi_{p1}},v_{\pi_{p1-1}})$保证了,即使对齐$\mathbf{a}$不合理(一个源语位置对应多个目标语位置)也可以避免在这个不合理的对齐上计算结果。需要注意的是因子$\delta(v_{\pi_{p1}},v_{\pi_{p1-1}})$,只能保证$\mathbf{a}$中不合理的部分不产生坏的影响,而$\mathbf{a}$中其它正确的部分仍会参与迭代。

\parinterval 不过上面的参数估计过程与前面4个模型中参数估计过程并不完全一样。前面四个模型在每次迭代中,可以在给定$\mathbf{s}$$\mathbf{t}$和一个对齐$\mathbf{a}$的情况下直接计算并更新参数。但是在模型5的参数估计过程中,如公式(\ref{eq:1.24})中,需要模拟出由$\mathbf{t}$生成$\mathbf{s}$的过程才能得到正确的结果,因为从$\mathbf{t}$$\mathbf{s}$$\mathbf{a}$中是不能直接得到 的正确结果的。具体说,就是要从目标语句子的第一个单词开始到最后一个单词结束,依次生成每个目标语单词对应的源语单词,每处理完一个目标语单词就要暂停,然后才能计算式(\ref{eq:1.24})中求和符号里面的内容。这也就是说即使给定了$\mathbf{s}$$\mathbf{t}$和一个对齐$\mathbf{a}$,也不能直接在它们上计算,必须重新模拟$\mathbf{t}$$\mathbf{s}$的生成过程。

\parinterval 从前面的分析可以看出,虽然模型5比模型4更精确,但是模型5过于复杂以至于给参数估计增加了巨大的计算量(对于每组$\mathbf{t}$$\mathbf{s}$$\mathbf{a}$都要模拟$\mathbf{t}$生成$\mathbf{s}$的翻译过程,时间复杂度成指数增加)。因此模型5并不具有很强的实际意义。

\parinterval 在模型5中同样需要定义一个词对齐集合S,使得每次迭代都在\textrm{S}上进行。这里对\textrm{S}进行如下定义
\begin{eqnarray}
\textrm{S} = N(\tilde{\tilde{b}}^{\infty}(V(\mathbf{s}|\mathbf{t};2))) \cup (\mathop{\cup}\limits_{ij} N(\tilde{\tilde{b}}_{i \leftrightarrow j}^{\infty}(V_{i \leftrightarrow j}(\mathbf{s}|\mathbf{t},2))))
\label{eq:1.29}
\end{eqnarray}
\vspace{0.5em}

%----------------------------------------------
\parinterval 这里$\tilde{\tilde{b}}(\mathbf{a})$借用了模型4中$\tilde{b}(\mathbf{a})$的概念。不过$\tilde{\tilde{b}}(\mathbf{a})$表示在利用模型3进行排名的列表中满足$\textrm{p}_{\theta}(\mathbf{a}'|\mathbf{s},\mathbf{t};5)$的最高排名的词对齐。
\end{appendices}

曹润柘 committed
2024 2025 2026 2027 2028 2029 2030 2031 2032 2033 2034 2035 2036