chapter5.tex 191 KB
Newer Older
曹润柘 committed
1 2 3
% !Mode:: "TeX:UTF-8"
% !TEX encoding = UTF-8 Unicode

曹润柘 committed
4
\part{神经机器翻译}
曹润柘 committed
5 6 7 8 9 10
%----------------------------------------------------------------------------------------
%	CHAPTER 2
%----------------------------------------------------------------------------------------
\renewcommand\figurename{}%将figure改为图
\renewcommand\tablename{}%将figure改为图
%\renewcommand\arraystretch{1.5}%将表格高度调整为1.5倍
孟霞 committed
11
\chapterimage{fig-NEU-6.jpg} % Chapter heading image
曹润柘 committed
12 13 14

\chapter{人工神经网络和神经语言建模}

孟霞 committed
15
\parinterval {\small\sffamily\bfseries{人工神经网络}}\index{人工神经网络}(Artificial Neural Networks)\index{Artificial Neural Networks}{\small\sffamily\bfseries{神经网络}}\index{神经网络}(Neural Networks)\index{Neural Networks}是描述客观世界的一种数学模型。这种模型的行为和生物学上的神经系统有一些相似之处,但是人们更多的是把它作为一种计算工具,而非一个生物学模型。近些年,随着机器学习领域的快速发展,人工神经网络被更多的使用在对图像和自然语言处理问题的建模上。特别是,研究人员发现深层神经网络可以被成功训练后,学术界也逐渐形成了一种新的机器学习范式\ \dash \ 深度学习。可以说,深度学习是近几年最受瞩目的研究领域,其应用也十分广泛。比如,图像识别的很多重要进展都来自深度学习模型的使用。包括机器翻译在内的很多自然语言处理任务中,深度学习也已经成为了一种标准模型。基于深度学习的表示学习方法也为自然语言处理开辟了新的思路。
曹润柘 committed
16

孟霞 committed
17
\parinterval 本章将对深度学习的概念和技术进行介绍,目的是为第六章和第七章神经机器翻译的内容进行铺垫。此外,本章也会对深度学习在语言建模方面的应用进行介绍。这样,读者可以更容易地理解如何使用深度学习方法描述自然语言处理问题。同时,进一步了解一些相关的学术前沿,如预训练模型。\\ \\ \\ \\ \\ \\ \\
曹润柘 committed
18
%--5.1深度学习与人工神经网络-----------------------------------------
孟霞 committed
19
\section{深度学习与人工神经网络}
曹润柘 committed
20

孟霞 committed
21
\parinterval {\small\sffamily\bfseries{深度学习}}\index{深度学习}(Deep Learning)\index{Deep Learning}是机器学习研究中一个非常重要的分支,其概念来源于对人工神经网络的研究:通过人工神经元之间的连接建立一种数学模型,使计算机可以像人一样进行分析、学习和推理。
曹润柘 committed
22

xiaotong committed
23
\parinterval 近几年来,随着深度学习技术的广泛传播与使用,``人工智能''这个名词在有些场合下甚至与``深度学习''划上了等号。这种理解非常片面,比较准确地说,``深度学习''是实现``人工智能''的一种技术手段。但从这种现象中也可以看出,深度学习的火爆情况可见一斑。深度学习的技术浪潮以惊人的速度席卷世界,也改变了很多领域的现状,在数据挖掘、自然语言处理、语音识别、图像识别等各个领域随处可见深度学习的身影。自然语言处理领域中,深度学习在很多任务中已经处于``统治''地位。特别是,基于深度学习的表示学习方法已经成为自然语言处理的新范式,在机器翻译任务中更是衍生出了``神经机器翻译''这样全新的模型。
曹润柘 committed
24
%--5.1.1发展简史---------------------
孟霞 committed
25
\subsection{发展简史}
曹润柘 committed
26 27 28 29 30

\parinterval 神经网络最早出现在控制论中,随后更多地在连接主义中被提及。神经网络被提出的初衷并不是利用神经网络做一个简单的计算模型,而是希望将神经网络应用到一些自动控制相关的场景中。然而随着神经网络技术的持续发展,神经网络方法已经被广泛应用到各行各业的研究和实践工作中。

\parinterval 人工神经网络自1943年诞生至今,经历了多次高潮和低谷,这是任何一种技术都无法绕开的命运。然而,好的技术和方法终究不会被埋没,直到今天,神经网络和深度学习迎来了最好的20年。
%--5.1.1.1早期的人工神经网络和第一次寒冬---------------------
孟霞 committed
31
\subsubsection{早期的人工神经网络和第一次寒冬}
曹润柘 committed
32

xiaotong committed
33
\parinterval 最初,神经网络设计的初衷是用计算模型来模拟生物大脑中神经元的运行机理,这种想法哪怕在现在看来也是十分超前的。例如,目前很多机构关注的概念\ \dash \ ``类脑计算''就是希望研究人脑的运行机制及相关的计算机实现方法。然而模拟大脑这件事并没有想象中的那么简单,众所周知,生物学中对人脑机制的研究是十分困难的,我们对人脑的运行机制尚不明确又何谈模拟呢?因而,神经网络技术一直在摸索着前行,发展到现在,其计算过程与人脑的运行机制已经大相径庭。
曹润柘 committed
34

孟霞 committed
35
\parinterval 人工神经网络的第一个发展阶段是在二十世纪40年代到70年代,这个时期的人工神经网络还停留在利用线性模型模拟生物神经元的阶段,比如使用线性加权函数来描述输入$ \mathbf x $和输出$ y $ 之间的联系:$y=x_1 \cdot w_1 + \dots + x_n \cdot w_n $。举一个简单例子,输入$ \mathbf x $是某个地区的坐标和时间,输出$ y $是该地区的温度,尽管真实的问题可能要复杂的多,但是线性模型确实有能力去拟合简单的函数关系。
曹润柘 committed
36

孟霞 committed
37
\parinterval 这种线性模型在现在看来可能比较``简陋'',但是这类模型对后来的随机梯度下降等经典方法产生了深远影响。不过,显而易见的是,这种结构也存在着非常明显的缺陷,单层结构限制了它的学习能力,使它无法描述非线性问题,如著名的异或函数(XOR)学习问题,然而非线性才是现实世界的普遍特征,第一代人工神经网络对很多事物的规律都无法准确描述。此后,神经网络的研究陷入了很长一段时间的低迷期。
曹润柘 committed
38
%--5.1.1.2神经网络的第二次高潮和第二次寒冬---------------------
孟霞 committed
39
\subsubsection{神经网络的第二次高潮和第二次寒冬}
曹润柘 committed
40

孟霞 committed
41
\parinterval 虽然第一代神经网络受到了打击,但是20世纪80年代开始,第二代人工神经网络开始萌发新的生机。在这个发展阶段,生物属性已经不再是神经网络的唯一灵感来源,在{\small\bfnew{连接主义}}\index{连接主义}(Connectionism)\index{Connectionism}{\small\bfnew{分布式表示}}\index{分布式表示}(Distributed representation)\index{Distributed representation}两种思潮的影响下,神经网络方法再次走入了人们的视线。
曹润柘 committed
42

xiaotong committed
43
\vspace{0.3em}
曹润柘 committed
44
\parinterval (1)符号主义与连接主义
xiaotong committed
45
\vspace{0.3em}
曹润柘 committed
46

孟霞 committed
47
\parinterval 人工智能领域始终存在着符号主义和连接主义之争。早期的人工智能研究在认知学中被称为{\small\bfnew{符号主义}}\index{符号主义}(Symbolicism)\index{Symbolicism},符号主义认为人工智能源于数理逻辑,希望将世界万物的所有运转方式归纳成像文法一样符合逻辑规律的推导过程。符号主义的支持者们坚信基于物理符号系统(即符号操作系统)假设和有限合理性原理,就能通过逻辑推理来模拟智能。但被他们忽略的一点是,模拟智能的推理过程需要大量的先验知识支持,哪怕是在现代,生物学界也很难解释大脑中神经元的工作原理,因此也很难用符号系统刻画人脑逻辑。另一方面,连接主义则侧重于利用人工神经网络中神经元的连接去探索并模拟输入与输出之间存在的某种关系,这个过程不需要任何先验知识,其核心思想是``大量简单的计算单元连接到一起可以实现智能行为'',这种思想也推动了反向传播等多层神经网络方法的应用,并发展了包括长短时记忆模型在内的经典建模方法。2019年3月27日,ACM 正式宣布将图灵奖授予 Yoshua Bengio, Geoffrey Hinton 和 Yann LeCun,以表彰他们提出的概念和工作使得深度学习神经网络有了重大突破,这三位获奖人均是人工智能连接主义学派的主要代表,从这件事中也可以看出连接主义对当代人工智能和深度学习的巨大影响。
曹润柘 committed
48

xiaotong committed
49
\vspace{0.3em}
曹润柘 committed
50
\parinterval (2)分布式表示
xiaotong committed
51
\vspace{0.3em}
曹润柘 committed
52

53
\parinterval 分布式表示的主要思想是``一个复杂系统的任何部分的输入都应该是多个特征共同表示的结果'',这种思想在自然语言处理领域的影响尤其深刻,它改变了刻画世界的角度,将世界万物从离散空间映射到多维连续空间。例如,在现实世界中,``张三''这个代号就代表着一个人。如果想要知道这个人亲属都有谁,因为有``A和B如果姓氏相同,在一个家谱中,那么A和B是本家''这个先验知识在,在知道代号``张三''的情况下,可以得知``张三''的亲属是谁。但是如果不依靠这个先验知识,就无法得知``张三''的亲属是谁。但在分布式表示中,可以用一个实数向量,如$ (0.1,0.3,0.4) $来表示``张三''这个人,这个人的所有特征信息都包含在这个实数向量中,通过在向量空间中的一些操作(如计算距离等),哪怕没有任何先验知识的存在,也完全可以找到这个人的所有亲属。在自然语言处理中,一个单词也用一个实数向量(词向量或词嵌入)表示,通过这种方式将语义空间重新刻画,将这个离散空间转化成了一个连续空间,这时单词就不再是一个简单的词条,而是由成百上千个特征共同描述出来,而每个特征都描述这个词的某个`` 方面''。
曹润柘 committed
54

孟霞 committed
55
\parinterval 随着第二代人工神经网络的``脱胎换骨'',学者们又对神经网络方法燃起了希望之火,这也导致有些时候过分夸大了神经网络的能力。20世纪90年代后期,由于在语音识别、自然语言处理等应用中,人们对神经网络方法期望过高,但是结果并没有达到预期,这也让很多人丧失了对神经网络方法的信任。相反,核方法、图模型等机器学习方法取得了很好的效果,这导致神经网络研究又一次进入低谷。
xiaotong committed
56

曹润柘 committed
57
%--5.1.1.3深度学习和神经网络的崛起---------------------
孟霞 committed
58
\subsubsection{深度学习和神经网络方法的崛起}
曹润柘 committed
59

孟霞 committed
60
\parinterval 21世纪初,随着深度学习浪潮席卷世界,人工神经网络又一次出现在人们的视野中。深度学习的流行源于2006年Hinton等人成功训练了一个深度信念网络(Deep Belief Network),在深度神经网络方法完全不受重视的情况下,大家突然发现深度神经网络完全是一个魔鬼般的存在,可以解决很多当时其他方法无法解决的问题。神经网络方法终于在一次又一次的否定后,迎来了它的春天。随之针对神经网络和深度学习的一系列研究前赴后继地展开了,延续至今。
曹润柘 committed
61 62 63 64 65 66 67

\parinterval 回过头来看,现代深度学习的成功主要有三方面的原因:

\vspace{0.5em}
\begin{itemize}
\item 第一,模型和算法的不断完善和改进。这个方面的进步是现代深度学习能够获得成功的最主要原因;
\vspace{0.5em}
xiaotong committed
68
\item 第二,并行计算能力的提升使大规模的实践成为了可能。早期的计算机设备根本无法支撑深度神经网络训练所需要的计算量,导致实践变得十分困难。而设备的进步、计算能力的提升则彻底改变了这种窘境;
曹润柘 committed
69 70 71 72 73
\vspace{0.5em}
\item 第三,以Hinton等人为代表的学者的坚持和持续投入。
\end{itemize}
\vspace{0.5em}

曹润柘 committed
74
\parinterval 另外,从应用的角度,数据量的快速提升和模型容量的增加也为深度学习的成功提供了条件,数据量的增加使得深度学习有了用武之地,例如,2000年以来,双文本数据量无论在学术研究还是在工业实践中的使用数量都在逐年上升(如图\ref{fig:the-amount-of-data-in-a-bilingual-corpus}所示)。现在的统计模型参数量往往很大,因此需要大规模数据才能保证模型学习的充分性,而大数据时代的到来为训练这样的模型提供了数据基础。
曹润柘 committed
75 76 77 78 79 80 81 82 83 84 85 86

%----------------------------------------------
% 图1.7
\begin{figure}[htp]
\centering
 \input{./Chapter5/Figures/fig-the-amount-of-data-in-a-bilingual-corpus}
\caption{2000年以来各年的双语数据量}
\label{fig:the-amount-of-data-in-a-bilingual-corpus}
\end{figure}
%-------------------------------------------

%--5.1.2为什么需要深度学习---------------------
孟霞 committed
87
\subsection{为什么需要深度学习}
曹润柘 committed
88

孟霞 committed
89
\parinterval 深度神经网络提供了一种简单的学习机制,即直接学习输入与输出的关系,通常把这种机制称为{\small\bfnew{端到端学习}}\index{端到端学习}(End-to-End Learning)\index{End-to-End Learning}。与传统方法不同,端到端学习并不需要人工定义特征或者进行过多的先验性假设,所有的学习过程都是由一个模型完成。从外面看这个模型只是建立了一种输入到输出的映射,而这种映射具体是如何形成的完全由模型的结构和参数决定。这样做的最大好处是,模型可以更加``自由''的进行学习。此外,端到端学习也引发了一个新的思考\ \dash \ 如何表示问题?这也就是所谓的{\small\bfnew{表示学习}}\index{表示学习}(Representation Learning)\index{Representation Learning}问题。在深度学习时代,问题的输入和输出的表示已经不再是人类通过简单的总结得到的规律,而是可以让计算机自己进行描述的一种可计算``量'',比如一个实数向量。由于这种表示可以被自动学习,因此也大大促进了计算机对语言文字等复杂现象的处理能力。
曹润柘 committed
90
%--5.1.2.1端到端学习和表示学习---------------------
孟霞 committed
91
\subsubsection{端到端学习和表示学习}
曹润柘 committed
92

孟霞 committed
93
\parinterval 端到端学习使机器学习不再像以往传统的特征工程方法一样需要经过繁琐的数据预处理、特征选择、降维等过程,而是直接利用人工神经网络自动从简单特征中提取、组合更复杂的特征,大大提升了模型能力和工程效率。以图\ref{fig:vs}中的图像分类为例,在传统方法中,图像分类需要很多阶段的处理。首先,需要提取一些手工设计的图像特征,在将其降维之后,需要利用SVM等分类算法对其进行分类。与这种多阶段的流水线似的处理流程相比,端到端深度学习只训练一个神经网络,输入就是图片的像素表示,输出直接是分类类别。
曹润柘 committed
94 95 96 97 98 99 100 101 102 103 104 105 106 107 108 109 110
%----------------------------------------------
% 图
    \begin{figure}
    \centering
    \subfigure[基于特征工程的机器学习方法做图像分类]{
    \begin{minipage}{.9\textwidth}
    \centering
        \includegraphics[width=8cm]{./Chapter5/Figures/feature-engineering.jpg}
    \end{minipage}%
    }
 \vfill
    \subfigure[端到端学习方法做图像分类]{
    \begin{minipage}{.9\textwidth}
        \centering
        \includegraphics[width=8cm]{./Chapter5/Figures/deep-learning.jpg}
    \end{minipage}%
    }
曹润柘 committed
111
\caption{特征工程{\small\sffamily\bfseries{vs}}端到端学习}
曹润柘 committed
112 113 114 115
\label{fig:vs}
\end {figure}
%-------------------------------------------

xiaotong committed
116
\parinterval 传统的机器学习需要大量人工定义的特征,这些特征的构建往往会带来对问题的隐含假设。这种方法存在三方面的问题:
曹润柘 committed
117 118 119

\vspace{0.5em}
\begin{itemize}
曹润柘 committed
120
\item 特征的构造需要耗费大量的时间和精力。在传统机器学习的特征工程方法中,特征提取过程往往依赖于大量的先验假设,都基于人力完成的,这样导致相关系统的研发周期也大大增加;
曹润柘 committed
121 122 123
\vspace{0.5em}
\item 最终的系统性能强弱非常依赖特征的选择。有一句话在业界广泛流传:``数据和特征决定了机器学习的上限'',但是人的智力和认知是有限的,因此人工设计的特征的准确性和覆盖度会受到限制;
\vspace{0.5em}
xiaotong committed
124
\item 通用性差。针对不同的任务,传统机器学习的特征工程方法需要选择出不同的特征,在这个任务上表现很好的特征在其他任务上可能没有效果。
曹润柘 committed
125 126 127
\end{itemize}
\vspace{0.5em}

孟霞 committed
128
\parinterval 端到端学习将人们从大量的特征提取工作之中解放出来,可以不需要太多人的先验知识。从某种意义上讲,对问题的特征提取全是自动完成的,这也意味着哪怕我们不是该任务的``专家''也可以完成相关系统的开发。此外,端到端学习实际上也隐含了一种新的对问题的表示形式\ $\dash$\ {\small\bfnew{分布式表示}}\index{分布式表示}(Distributed Representation)\index{Distributed Representation}。在这种框架下,模型的输入可以被描述为分布式的实数向量,这样模型可以有更多的维度描述一个事物,同时避免传统符号系统对客观事物离散化的刻画。比如,在自然语言处理中,表示学习重新定义了什么是词,什么是句子。在本章后面的内容中也会看到,表示学习可以让计算机对语言文字的描述更加准确和充分。
曹润柘 committed
129
%--5.1.2.2深度学习的效果---------------------
孟霞 committed
130
\subsubsection{深度学习的效果}
曹润柘 committed
131

xiaotong committed
132
\parinterval 相比于传统的基于特征工程的方法,基于深度学习的模型更加方便、通用,在系统性能上也普遍更优。这里以语言建模任务为例。语言建模的目的是开发一个模型来描述词串出现的可能性(见第二章)。这个任务已经有着很长时间的历史。表\ref{tab1}给出了不同方法在标准的PTB上的困惑度结果 \footnote{困惑度越低标明语言建模的效果越好。} 。传统的$ n$-gram语言模型由于面临维度灾难和数据稀疏问题,最终语言模型的性能并不是很好。而在深度学习模型中,通过引入循环神经网络等结构,所得到的语言模型可以更好地描述序列生成的问题。而最新的基于Transformer架构的语言模型将PPL从最初的178.0下降到了惊人的35.7。可见深度学习为这个任务所带来的进步是巨大的。
曹润柘 committed
133 134 135 136

%表1--------------------------------------------------------------------
\begin{table}[htp]
\centering
孟霞 committed
137
\caption{不同方法在PTB语言建模任务上的困惑度(PPL)}
曹润柘 committed
138
\label{tab1}
孟霞 committed
139
\small
曹润柘 committed
140
\begin{tabular}{l | l l l}
曹润柘 committed
141
\rule{0pt}{15pt}     模型 & 作者 & 年份 & PPL  \\
曹润柘 committed
142
\hline
曹润柘 committed
143 144 145 146 147 148 149 150
\rule{0pt}{15pt}     3-gram LM\upcite{brown1992class} & Brown et al. & 1992 & 178.0  \\
\rule{0pt}{15pt}     Feed-forward Neural LM\upcite{bengio2003a} & Bengio et al. & 2003 & 162.2  \\
\rule{0pt}{15pt}     Recurrent NN-based LM\upcite{mikolov2010recurrent} & Mikolov et al. & 2010 & 124.7  \\
\rule{0pt}{15pt}     Recurrent NN-LDA\upcite{mikolov2012context} & Mikolov et al. & 2012 & 92.0  \\
\rule{0pt}{15pt}     LSTM \upcite{zaremba2014recurrent}& Zaremba et al. & 2014 & 78.4  \\
\rule{0pt}{15pt}     RHN\upcite{zilly2016recurrent} & Zilly et al. & 2016 & 65.4  \\
\rule{0pt}{15pt}     AWD-LSTM\upcite{merity2017regularizing} & Merity et al. & 2018 & 58.8  \\
\rule{0pt}{15pt}     GPT-2 (Transformer)\upcite{radford2019language} & Radford et al. & 2019 & 35.7  \\
曹润柘 committed
151 152
\end{tabular}
\end{table}
孟霞 committed
153
%表1------------------------
曹润柘 committed
154 155

%--5.2神经网络基础-----------------------------------------
孟霞 committed
156 157
<<<<<<< HEAD
=======
xiaotong committed
158
\sectionnewpage
孟霞 committed
159
>>>>>>> master
孟霞 committed
160
\section{神经网络基础}
曹润柘 committed
161

xiaotong committed
162
\parinterval 神经网络是一种由大量的节点(或称神经元)之间相互连接构成的计算模型。那么什么是神经元?神经元之间又是如何连接的?神经网络的数学描述又是什么样的?这一节将围绕这些问题对神经网络的基础知识作进行系统的介绍。
曹润柘 committed
163
%--5.2.1线性代数基础---------------------
孟霞 committed
164
\subsection{线性代数基础} \label{sec:5.2.1}
曹润柘 committed
165

166
\parinterval 线性代数作为一个数学分支,广泛应用于科学和工程中,神经网络的数学描述中也大量使用了线性代数工具。因此,这里对线性代数的一些概念进行简要介绍,以方便后续对神经网络的数学建模。
曹润柘 committed
167
%--5.2.1.1标量、向量和矩阵---------------------
孟霞 committed
168
\subsubsection{标量、向量和矩阵}
曹润柘 committed
169

孟霞 committed
170
\parinterval {\small\sffamily\bfseries{标量}}\index{标量}(Scalar)\index{Scalar}:标量亦称``无向量'',是一种只具有数值大小而没有方向的量,通俗地说,一个标量就是一个单独的数,这里特指实数\footnote{严格意义上,标量可以是复数等其他形式。这里为了方便讨论,仅以实数为对象。}。一般用小写斜体表示标量。比如,对于$ a=5 $$ a $就是一个标量。
曹润柘 committed
171

孟霞 committed
172
\parinterval {\small\sffamily\bfseries{向量}}\index{向量}(Vector)\index{Vector}:向量是由一组实数组成的有序数组。与标量不同,向量既有大小也有方向。可以把向量看作空间中的点,每个元素是不同坐标轴上的坐标。公式\ref{eqa1.1}和公式\ref{eqa1.2}展示了一个行向量和一个列向量。本章默认使用行向量,如$ \mathbf a=(a_1, a_2, a_3) $$ \mathbf a $对应的列向量记为$ \mathbf a^{\rm T} $
曹润柘 committed
173 174
%公式--------------------------------------------------------------------
\begin{eqnarray}
xiaotong committed
175
\mathbf a &=& \begin{pmatrix}
曹润柘 committed
176 177
  1 & 2 & 5 & 7
\end{pmatrix}\label{eqa1.1}\\
xiaotong committed
178
\mathbf{a^{\textrm{T}}} &=& \begin{pmatrix}
曹润柘 committed
179 180 181 182 183 184 185
    &1& \\
    &2&\\
    &5& \\
    &7&\end{pmatrix}
\label{eqa1.2}
\end{eqnarray}
%公式--------------------------------------------------------------------
孟霞 committed
186
\parinterval {\small\sffamily\bfseries{矩阵}}\index{矩阵}(Matrix)\index{Matrix}:矩阵是一个按照长方阵列排列的实数集合,最早来自于方程组的系数及常数所构成的方阵。在计算机领域,通常将矩阵看作二维数组。我们用粗体的符号$ \mathbf a $表示一个矩阵,如果该矩阵有$ m $$ n $列,那么有$ \mathbf a\in R^{m\times n} $。这里,用不加粗的符号来表示矩阵中的元素,其中每个元素都被一个行索引和一个列索引所确定。例如,$ a_{ij} $表示第$ i $行、第$ j $列的矩阵元素。如下,$ \mathbf a $就定义了一个2行2列的矩阵。
曹润柘 committed
187 188
%公式--------------------------------------------------------------------
\begin{eqnarray}
xiaotong committed
189
\mathbf a & = & \begin{pmatrix}
曹润柘 committed
190 191
   a_{11} & a_{12}\\
   a_{21} & a_{22}
xiaotong committed
192 193
\end{pmatrix} \nonumber \\
& = & \begin{pmatrix}
曹润柘 committed
194 195 196 197 198 199 200
   1 & 2\\
   3 & 4
\end{pmatrix}
\label{eqa1.3}
\end{eqnarray}
%公式--------------------------------------------------------------------
%--5.2.1.2矩阵的转置---------------------
孟霞 committed
201
\subsubsection{矩阵的转置}
曹润柘 committed
202

孟霞 committed
203
\parinterval {\small\sffamily\bfseries{转置}}\index{转置}(Transpose)\index{Transpose}是矩阵的重要操作之一。矩阵的转置可以看作是将矩阵以对角线为镜像进行翻转:假设$ \mathbf a $$ m $$ n $列的矩阵,第$ i $行、第$ j $ 列的元素是$ a_{ij} $,即:$ \mathbf a={(a_{ij})}_{m\times n} $,把$ m\times n $矩阵$ \mathbf a $的行换成同序数的列得到一个$ n\times m $矩阵,则得到$ \mathbf a $的转置矩阵,记为$ \mathbf a^{\rm T} $,其中$ a_{ji}^{\rm T}=a_{ij} $。例如:
曹润柘 committed
204
\begin{eqnarray}
xiaotong committed
205 206
\mathbf a & = & \begin{pmatrix} 1 & 3 & 2 & 6\\5 & 4 & 8 & 2\end{pmatrix} \\
{\mathbf a}^{\rm T} & = &\begin{pmatrix} 1 & 5\\3 & 4\\2 & 8\\6 & 2\end{pmatrix}
曹润柘 committed
207 208 209
\end{eqnarray}
\parinterval 向量可以看作只有一行(列)的矩阵。对应地,向量的转置可以看作是只有一列(行)的矩阵。标量可以看作是只有一个元素的矩阵。因此,标量的转置等于它本身,即$ a^{\rm T}=a $
%--5.2.1.3矩阵加法和数乘---------------------
孟霞 committed
210
\subsubsection{矩阵加法和数乘}
曹润柘 committed
211

孟霞 committed
212
\parinterval 矩阵加法又被称作{\small\sffamily\bfseries{按元素加法}}\index{按元素加法}(Element-wise Addition)\index{Element-wise Addition}。它是指两个矩阵把其相对应元素加在一起的运算,通常的矩阵加法被定义在两个形状相同的矩阵上。两个$ m\times n $矩阵$ \mathbf a $$ \mathbf b $的和,标记为$ \mathbf a + \mathbf b $,它也是个$ m\times n $矩阵,其内的各元素为其相对应元素相加后的值。如果矩阵$ \mathbf c = \mathbf a + \mathbf b $,则$ c_{ij} = a_{ij} + b_{ij} $。公式\ref{eqa1.4}展示了矩阵之间进行加法的计算过程。
曹润柘 committed
213 214 215 216 217 218
%公式--------------------------------------------------------------------
\begin{eqnarray}
\begin{pmatrix}
   1 & 3\\
   1 & 0\\
   1 & 2
曹润柘 committed
219
\end{pmatrix}\;\;+\;\;\begin{pmatrix}
曹润柘 committed
220 221 222
   0 & 0\\
   7 & 5\\
   2 & 1
曹润柘 committed
223
\end{pmatrix}&=&\begin{pmatrix}
曹润柘 committed
224 225 226
   1+0 & 3+0\\
   1+7 & 0+5\\
   1+2 & 2+1
曹润柘 committed
227
\end{pmatrix}\;\;=\;\;\begin{pmatrix}
曹润柘 committed
228 229 230 231 232 233 234 235 236
   1 & 3\\
   8 & 5\\
   3 & 3
\end{pmatrix}
\label{eqa1.4}
\end{eqnarray}
%公式--------------------------------------------------------------------
\parinterval 矩阵加法满足以下运算规律:

xiaotong committed
237 238 239 240 241 242
\begin{itemize}
\item 交换律:$ \mathbf a+\mathbf b = \mathbf b +\mathbf a $
\item 结合律:$ (\mathbf a+\mathbf b)+\mathbf c = \mathbf a+(\mathbf b+\mathbf c) $
\item $ \mathbf a+\mathbf 0=\mathbf a $,其中$ \mathbf 0 $指的是零矩阵,即元素皆为0的矩阵。
\item $ \mathbf a+(-\mathbf a)=\mathbf 0 $,其中$ -\mathbf a $是矩阵$ \mathbf a $的负矩阵,即将矩阵$ \mathbf a $的每个元素取负得到的矩阵。
\end{itemize}
曹润柘 committed
243

孟霞 committed
244
\parinterval 矩阵的{\small\bfnew{数乘}}\index{数乘}(Scalar Multiplication)\index{Scalar Multiplication}是指标量(实数)与矩阵的乘法运算,计算过程是将标量与矩阵的每个元素相乘,最终得到与原矩阵形状相同的矩阵。例如,矩阵$ \mathbf a={(a_{ij})}_{m\times n} $与标量$ k $进行数乘运算,其结果矩阵$ \mathbf b={(ka_{ij})}_{m\times n} $,即$ k{(a_{ij})}_{m\times n}={(ka_{ij})}_{m\times n} $。下面的式子展示了矩阵数乘的计算过程。
曹润柘 committed
245 246
%公式--------------------------------------------------------------------
\begin{eqnarray}
xiaotong committed
247
\mathbf a & = &
曹润柘 committed
248 249 250
\begin{pmatrix}
   3 & 2 & 7\\
   5 & 8 & 1
xiaotong committed
251 252 253
\end{pmatrix}
\\
2\mathbf a & = &
曹润柘 committed
254 255 256 257 258 259 260 261 262
\begin{pmatrix}
   6 & 4 & 14\\
   10 & 16 & 2
\end{pmatrix}
\label{eqa1.5}
\end{eqnarray}
%公式--------------------------------------------------------------------
\parinterval 矩阵的数乘满足以下运算规律,其中$ k $$ l $是实数,$ \mathbf a $$ \mathbf b $是矩阵:

xiaotong committed
263 264 265 266 267
\begin{itemize}
\item 右分配律:$ k(\mathbf a+\mathbf b)=k\mathbf a+k\mathbf b $
\item 左分配律:$ (k+l)\mathbf a=k\mathbf a+l\mathbf a $
\item 结合律:$ (kl)\mathbf a=k(l\mathbf a) $
\end{itemize}
xiaotong committed
268

曹润柘 committed
269
%--5.2.1.4矩阵乘法和矩阵点乘---------------------
孟霞 committed
270
\subsubsection{矩阵乘法和矩阵点乘}
曹润柘 committed
271

孟霞 committed
272
\parinterval 矩阵乘法是矩阵运算中最重要的操作之一,为了与矩阵点乘区分,通常也把矩阵乘法叫做矩阵的叉乘。假设$ \mathbf a $$ m\times p $的矩阵,$ \mathbf b $$ p\times n $的矩阵,对$ \mathbf a $$ \mathbf b $作矩阵乘法的结果是一个$ m\times n $的矩阵$ \mathbf c $,其中矩阵$ \mathbf c $中第$ i $行、第$ j $列的元素可以表示为:
曹润柘 committed
273 274
%公式--------------------------------------------------------------------
\begin{eqnarray}
曹润柘 committed
275
{(\mathbf a\mathbf b)}_{ij} &=& \prod_{k=1}^p a_{ik}b_{kj}
曹润柘 committed
276 277 278
\label{eqa1.6}
\end{eqnarray}
%公式--------------------------------------------------------------------
曹润柘 committed
279
\parinterval 注意只有当第一个矩阵的列数与第二个矩阵的行数相等时,两个矩阵才可以作矩阵乘法。公式\ref{eqa1.7}展示了矩阵乘法的运算过程,若$\mathbf a=\begin{pmatrix}a_{11} & a_{12}& a_{13}\\a_{21} & a_{22} & a_{23}\end{pmatrix}$\\$\mathbf b=\begin{pmatrix}b_{11} & b_{12}\\b_{21} & b_{22}\\b_{31} & b_{32}\end{pmatrix} $,则有:
xiaotong committed
280

曹润柘 committed
281 282
%公式--------------------------------------------------------------------
\begin{eqnarray}
xiaotong committed
283 284
\mathbf c & = & \mathbf a\mathbf b \nonumber \\
          & = & \begin{pmatrix}
曹润柘 committed
285 286 287 288 289 290 291 292
   a_{11}b_{11}+a_{12}b_{21}+a_{13}b_{31} & a_{11}b_{12}+a_{12}b_{22}+a_{13}b_{32}\\
   a_{21}b_{11}+a_{22}b_{21}+a_{23}b_{31} & a_{21}b_{12}+a_{22}b_{22}+a_{23}b_{32}
\end{pmatrix}
\label{eqa1.7}
\end{eqnarray}
%公式--------------------------------------------------------------------
\parinterval 矩阵乘法满足以下运算规律:

xiaotong committed
293 294 295 296 297
\begin{itemize}
\item 结合律:若$ \mathbf a\in R^{m\times n} $$ \mathbf b\in R^{n\times p} $$ \mathbf c\in R^{p\times q} $,则$ (\mathbf {ab})\mathbf c=\mathbf a(\mathbf {bc}) $
\item 左分配律:若$ \mathbf a\in R^{m\times n} $$ \mathbf b\in R^{m\times n} $$ \mathbf c\in R^{n\times p} $,则$ (\mathbf a+\mathbf b)\mathbf c=\mathbf {ac}+\mathbf {bc} $
\item 右分配律:若$ \mathbf a\in R^{m\times n} $$ \mathbf b\in R^{n\times p} $$ \mathbf c\in R^{n\times p} $,则$ \mathbf a(\mathbf b+\mathbf c)=\mathbf {ab}+\mathbf {ac} $
\end{itemize}
曹润柘 committed
298 299 300

\begin{spacing}{1.4}
\parinterval 可以将线性方程组用矩阵乘法表示,如对于线性方程组$ \begin{cases} 5x_1+2x_2=y_1\\3x_1+x_2=y_2\end{cases} $,可以表示为$ \mathbf {ax}^{\rm T}=\mathbf y^{\rm T}$,其中$ \mathbf a = \begin{pmatrix} 5 & 2\\3 & 1\end{pmatrix} $$ \mathbf x^{\rm T} = \begin{pmatrix} x_1\\x_2\end{pmatrix} $$ \mathbf y^{\rm T} = \begin{pmatrix} y_1\\y_2\end{pmatrix} $
xiaotong committed
301
\end{spacing}
曹润柘 committed
302

孟霞 committed
303
\parinterval 矩阵的点乘就是两个形状相同的矩阵各个对应元素相乘,矩阵点乘也被称为{\small\bfnew{按元素乘积}}\index{按元素乘积}(Element-wise Product)\index{Element-wise Product}或Hadamard乘积,记为$ \mathbf a \odot \mathbf b$。例如,对于
xiaotong committed
304

曹润柘 committed
305 306
%公式--------------------------------------------------------------------
\begin{eqnarray}
xiaotong committed
307
\mathbf a &=&
曹润柘 committed
308 309 310
\begin{pmatrix}
   1 & 0\\
   -1 & 3
xiaotong committed
311 312 313
\end{pmatrix}
\\
\mathbf b &=&
曹润柘 committed
314 315 316
\begin{pmatrix}
   3 & 1\\
   2 & 1
xiaotong committed
317
\end{pmatrix}
xiaotong committed
318 319 320 321 322 323 324
\end{eqnarray}

\parinterval 矩阵点乘的计算如下:

\begin{eqnarray}
\mathbf c & = & \mathbf a\odot \mathbf b \nonumber \\
          & = & \begin{pmatrix}
曹润柘 committed
325 326 327 328 329 330 331
   1\times 3 & 0\times1\\
   -1\times2 & 3\times1
\end{pmatrix}
\label{eqa1.8}
\end{eqnarray}
%公式--------------------------------------------------------------------
%--5.2.1.5线性映射---------------------
孟霞 committed
332
\subsubsection{线性映射}
曹润柘 committed
333

孟霞 committed
334
\parinterval {\small\sffamily\bfseries{线性映射}}\index{线性映射}( Linear Mapping)\index{Linear Mapping}{\small\sffamily\bfseries{线性变换}}\index{线性变换}(Linear Transformation)\index{Linear Transformation}是从一个向量空间V到另一个向量空间W的映射函数$ f:v\rightarrow w$,且该映射函数保持加法运算和数量乘法运算,即对于空间V中任何两个向量$ \mathbf u $$ \mathbf v $以及任何标量$ c $,有:
曹润柘 committed
335 336 337 338 339 340 341
%公式--------------------------------------------------------------------
\begin{eqnarray}
f(\mathbf u+\mathbf v)&=&f(\mathbf u)+f(\mathbf v)\label{eqa1.9}\\
f(c\mathbf v)&=&cf(\mathbf v)
\label{eqa1.10}
\end{eqnarray}
%公式--------------------------------------------------------------------
xiaotong committed
342
\parinterval 利用矩阵$ \mathbf a\in R^{m\times n} $,可以实现两个有限维欧氏空间的映射函数$f:R^n\rightarrow R^m$。例如$ n $维列向量$ \mathbf x $$ m\times n $的矩阵$ \mathbf a $,向量$ \mathbf x $左乘矩阵$ \mathbf a $,可将向量$ \mathbf x $映射为$ m $列向量,对于:
曹润柘 committed
343
\begin{eqnarray}
xiaotong committed
344
\mathbf x^{\textrm{T}} & = & {\begin{pmatrix} x_1, & x_2, & \dots &, x_n \end{pmatrix}}^{\rm T}
曹润柘 committed
345 346 347 348 349 350 351 352 353 354 355 356
\label{eqa1.11}
\end{eqnarray}
\begin{eqnarray}
\mathbf a&=&
\begin{pmatrix}
   a_{11} & a_{12} & \dots & a_{1n}\\
   a_{21} & \dots & \dots & \dots \\
   \dots & \dots & \dots & \dots \\
   a_{m1} & \dots & \dots & a_{mn}
\end{pmatrix}
\label{eqa1.12}
\end{eqnarray}
357

xiaotong committed
358 359
\parinterval 可以得到:

曹润柘 committed
360
\begin{eqnarray}
xiaotong committed
361
\mathbf y^{\textrm{T}}& = &\mathbf a\mathbf x^{\textrm{T}} \nonumber \\
362
               & = &
曹润柘 committed
363 364 365 366 367 368 369 370
\begin{pmatrix}
   a_{11}x_{1}+a_{12}x_{2}+\dots+a_{1n}x_{n}\\
   a_{21}x_{1}+a_{22}x_{2}+\dots+a_{2n}x_{n}\\
   \vdots \\
   a_{m1}x_{1}+a_{m2}x_{2}+\dots+a_{mn}x_{n}
\label{eqa1.13}\end{pmatrix}
\end{eqnarray}
%公式--------------------------------------------------------------------
371

xiaotong committed
372
\parinterval 上例中矩阵$ \mathbf a $定义了一个从$ R^n $$ R^m $的线性映射:向量$ \mathbf x^{\textrm{T}}\in R^n $$ \mathbf y^{\textrm{T}}\in R^m $别为两个空间中的列向量,即大小为$ n\times 1 $$ m\times 1 $ 的矩阵。
373

曹润柘 committed
374
%--5.2.1.6范数---------------------
孟霞 committed
375 376
\subsubsection{范数}
\parinterval 工程领域,经常会使用被称为{\small\bfnew{范数}}\index{范数}(Norm)\index{Norm}的函数衡量向量大小,范数为向量空间内的所有向量赋予非零的正长度或大小。对于一个$n$维向量$ \mathbf x $,一个常见的范数函数为$ l_p $ 范数,通常表示为$ {\Vert{\mathbf x}\Vert}_p $ ,其中$p\ge 0$,是一个标量形式的参数。常用的$ p $的取值有$ 1 $$ 2 $$ \infty $等。范数的计算公式为:
xiaotong committed
377

曹润柘 committed
378 379
%公式--------------------------------------------------------------------
\begin{eqnarray}
xiaotong committed
380 381
l_p(\mathbf x) & = & {\Vert{\mathbf x}\Vert}_p \nonumber \\
               & = & {\left (\sum_{i=1}^{n}{{\vert x_{i}\vert}^p}\right )}^{\frac{1}{p}}
曹润柘 committed
382 383
\label{eqa1.14}
\end{eqnarray}
xiaotong committed
384

曹润柘 committed
385 386 387 388
%公式--------------------------------------------------------------------
\parinterval $ l_1 $范数为向量的各个元素的绝对值之和:
%公式--------------------------------------------------------------------
\begin{eqnarray}
曹润柘 committed
389
{\Vert{\mathbf x}\Vert}_1&=&\sum_{i=1}^{n}{\vert x_{i}\vert}
曹润柘 committed
390 391 392 393 394 395
\label{eqa1.15}
\end{eqnarray}
%公式--------------------------------------------------------------------
\parinterval $ l_2 $范数为向量的各个元素平方和的二分之一次方:
%公式--------------------------------------------------------------------
\begin{eqnarray}
396 397
{\Vert{\mathbf x}\Vert}_2&=&\sqrt{\sum_{i=1}^{n}{{x_{i}}^2}} \nonumber \\
                                      &=&\sqrt{{\mathbf x}^{\rm T}\mathbf x}
曹润柘 committed
398 399 400
\label{eqa1.16}
\end{eqnarray}
%公式--------------------------------------------------------------------
孟霞 committed
401
\parinterval $ l_2 $范数被称为{\small\bfnew{欧几里得范数}}\index{欧几里得范数}(Euclidean Norm)\index{Euclidean Norm}。从几何角度,向量也可以表示为从原点出发的一个带箭头的有向线段,其$ l_2 $范数为线段的长度,也常被称为向量的模。$ l_2 $ 范数在机器学习中非常常用,向量$ \mathbf x $$ l_2 $范数经常简化为$ \Vert{\mathbf x}\Vert $,可以简单地通过点积$ {\mathbf x}^{\rm T}\mathbf x $计算。
曹润柘 committed
402 403 404 405

\parinterval $ l_{\infty} $范数为向量的各个元素的最大绝对值:
%公式--------------------------------------------------------------------
\begin{eqnarray}
曹润柘 committed
406
{\Vert{\mathbf x}\Vert}_{\infty}&=&{\rm{max}}\{x_1,x_2,\dots,x_n\}
曹润柘 committed
407 408 409
\label{eqa1.17}
\end{eqnarray}
%公式--------------------------------------------------------------------
xiaotong committed
410
\parinterval 广义上讲,范数是将向量映射到非负值的函数,其作用是衡量向量$ \mathbf x $到坐标原点的距离。更严格的说,范数并不拘于$ l_p $范数,任何一个同时满足下列性质的函数都可以作为范数:
曹润柘 committed
411

xiaotong committed
412 413 414 415 416
\begin{itemize}
\item$ f(x)=0 $,则$ x=0 $
\item 三角不等式:$ f(x+y)\leqslant f(x)+f(y) $
\item 任意实数$ \alpha $$ f(\alpha x)=\vert \alpha \vert f(x) $
\end{itemize}
曹润柘 committed
417

孟霞 committed
418
\parinterval 在深度学习中,有时候希望衡量矩阵的大小,这时可以考虑使用 {\small\bfnew{Frobenius 范数}}\index{Frobenius 范数}(Frobenius Norm)\index{Frobenius Norm}。计算方式为:
曹润柘 committed
419 420
%公式--------------------------------------------------------------------
\begin{eqnarray}
曹润柘 committed
421
{\Vert{\mathbf A}\Vert}_F&=&\sqrt{\sum_{i,j} A_{i,j}^2}
曹润柘 committed
422 423 424 425
\label{eqa1.18}
\end{eqnarray}
%公式--------------------------------------------------------------------
%--5.2.2人工神经元和感知机---------------------
孟霞 committed
426
\subsection{人工神经元和感知机}
曹润柘 committed
427 428 429 430 431 432 433 434 435 436 437 438

\parinterval 生物学中,神经元是神经系统的基本组成单元。图\ref{fig:biological-neuron}展示了一个生物神经元实例。
%----------------------------------------------
% 图
\begin{figure}[htp]
\centering
\includegraphics[width=8cm]{./Chapter5/Figures/biological-neuron.jpg}
\caption{生物神经元}
\label{fig:biological-neuron}
\end{figure}
%-------------------------------------------

孟霞 committed
439
\parinterval 同样,人工神经元是人工神经网络的基本单元。在人们的想象中,人工神经元应该与生物神经元类似。但事实上,二者在形态上是有明显差别的。如图\ref{fig:artificial-neuron} 是一个典型的人工神经元,其本质是一个形似$ y=f(\mathbf x\cdot \mathbf w+b) $的函数。显而易见,一个神经元主要由$ \mathbf x $$ \mathbf w $$ b $$ f $四个部分构成。其中$ \mathbf x $是一个形如$ (x_0,x_1,\dots,x_n) $的实数向量,在一个神经元中担任``输入''的角色。$ \mathbf w $是一个权重矩阵,其中的每一个元素都对应着一个输入和一个输出,代表着``某输入对某输出的贡献程度'',通常也被理解为神经元连接的{\small\sffamily\bfseries{权重}}\index{权重}(weight)\index{weight}$ b $被称作偏置,是一个实数。$ f $被称作激活函数,其本质是一个非线性函数。可见,一个人工神经元的功能是将输入向量与权重矩阵右乘(做内积)后,加上偏置量,经过一个非线性激活函数得到一个标量结果。
曹润柘 committed
440 441 442 443 444 445 446 447 448 449
%----------------------------------------------
% 图
\begin{figure}[htp]
\centering
\input{./Chapter5/Figures/fig-artificial-neuron}
\caption{人工神经元}
\label{fig:artificial-neuron}
\end{figure}
%-------------------------------------------

曹润柘 committed
450
%--5.2.2.1感知机\ \dash \ 最简单的人工神经元模型---------------------
孟霞 committed
451
\subsubsection{感知机\ \dash \ 最简单的人工神经元模型}
曹润柘 committed
452

xiaotong committed
453
\parinterval 感知机是人工神经元的一种实例,在上世纪50-60年代被提出后,对神经网络研究产生了深远的影响。感知机模型如图\ref {fig:perceptron-mode}所示,其输入是一个$n$维二值向量$ \mathbf x=(x_0,x_1,\dots,x_n) $,其中$ x_i=0 $$ 1 $。权重$ \mathbf w=(w_0,w_1,\dots,w_n) $,每个输入变量对应一个权重$ w_i $(实数)。偏置$ b $是一个实数变量($ -\sigma $)。输出也是一个二值结果,即$ y=0 $$ 1 $$ y $值的判定由输入的加权和是否大于(或小于)一个阈值$ \sigma $决定(图\ref{fig:perceptron-mode}):
曹润柘 committed
454 455 456 457 458 459 460 461 462 463 464
%公式--------------------------------------------------------------------
\begin{eqnarray}
y=\begin{cases} 0 & \sum_{i}{x_i\cdot w_i}-\sigma <0\\1 & \sum_{i}{x_i\cdot w_i}-\sigma \geqslant 0\end{cases}
\label{eqa1.19}
\end{eqnarray}
%公式--------------------------------------------------------------------

%----------------------------------------------
% 图
\begin{figure}[htp]
\centering
曹润柘 committed
465
\input{./Chapter5/Figures/fig-perceptron-mode}
曹润柘 committed
466
\caption{感知机模型}
曹润柘 committed
467
\label{fig:perceptron-mode}
曹润柘 committed
468 469 470
\end{figure}
%-------------------------------------------

471
\parinterval 感知机可以做一些简单的决策。举一个非常简单的例子,有一场音乐会,你正在纠结是否去参加,有三个因素会影响你的决定:
曹润柘 committed
472

xiaotong committed
473 474 475 476 477
\begin{itemize}
\item $ x_0 $:剧场是否离你足够近(是,则$ x_0=1 $;否则$ x_0=0 $);
\item $ x_1 $:票价是否低于300元(是,则$ x_1=1 $;否则$ x_1=0 $);
\item $ x_2 $:女朋友是否喜欢音乐会(是,则$ x_2=1 $;否则$ x_2=0 $)。
\end{itemize}
曹润柘 committed
478

479
\parinterval 在这种情况下应该如何做出决定呢?比如,女朋友很希望和你一起去看音乐会,但是剧场很远而且票价500元,如果这些因素对你都是同等重要的(即$ w_0=w_1=w_2 $,假设这三个权重都设置为1)那么会得到一个综合得分:
曹润柘 committed
480 481
%公式--------------------------------------------------------------------
\begin{eqnarray}
482 483
x_0\cdot w_0+x_1\cdot w_1+x_2\cdot w_2 & = & 0\cdot 1+0\cdot 1+1\cdot 1 \nonumber \\
                                                                     & = & 1
曹润柘 committed
484 485 486
\label{eqa1.20}
\end{eqnarray}
%公式--------------------------------------------------------------------
xiaotong committed
487
\parinterval 如果你不是十分纠结的人,能够接受不完美的事情,你可能会把$ \sigma $设置为1,于是$ \sum{w_i\cdot x_i}-\sigma \ge 0 $,那么你会去音乐会。可以看出,上面的例子的本质就是一个如图\ref{fig:perceptron-to-predict-1}的感知机:
曹润柘 committed
488 489 490 491 492 493 494 495 496 497
%----------------------------------------------
% 图
\begin{figure}[htp]
\centering
\input{./Chapter5/Figures/fig-perceptron-to-predict-1}
\caption{预测是否去剧场的感知机:权重相同}
\label{fig:perceptron-to-predict-1}
\end{figure}
%-------------------------------------------
%--5.2.2.2神经元内部权重---------------------
孟霞 committed
498
\subsubsection{神经元内部权重}
曹润柘 committed
499

xiaotong committed
500
\parinterval 在上面的例子中,连接权重代表着每个输入因素对最终输出结果的重要程度,为了得到令人满意的决策,需要不断调整权重。如果你是守财奴,则会对票价看得更重一些,这样你会用不均匀的权重计算每个因素的影响,比如:$ w_0=0.5 $$ w_1=2 $$ w_2=0.5 $,此时感知机模型如图\ref{fig:perceptron-to-predict-2}所示。在这种情况下,女友很希望和你一起去看音乐会,但是剧场很远而且票价有500元,会导致你不去看音乐会,因为
曹润柘 committed
501 502
%公式--------------------------------------------------------------------
\begin{eqnarray}
503 504 505
\sum_{i}{x_i\cdot w_i} & = & 0\cdot 0.5+0\cdot 2+1\cdot 0.5 \nonumber \\
                                   & = & 0.5 \nonumber \\
                                   & < & \sigma = 1
曹润柘 committed
506 507 508 509 510 511 512 513 514 515 516 517 518 519
\label{eqa1.21}
\end{eqnarray}
%公式--------------------------------------------------------------------
%----------------------------------------------
% 图
\begin{figure}[htp]
\centering
\input{./Chapter5/Figures/fig-perceptron-to-predict-2}
\caption{预测是否去剧场的感知机:改变权重}
\label{fig:perceptron-to-predict-2}
\end{figure}
%-------------------------------------------

\parinterval 当然,结果是女友对这个结果非常不满意,让你跪键盘上反思一下自己。
xiaotong committed
520

曹润柘 committed
521
%--5.2.2.3神经元的输入\ \dash \ 离散 vs 连续---------------------
孟霞 committed
522
\subsubsection{神经元的输入\ \dash \ 离散 vs 连续}
曹润柘 committed
523 524 525 526 527 528 529 530 531 532 533 534 535 536 537 538 539 540 541 542 543 544 545

\parinterval 在遭受了女友一万点伤害之后,你意识到决策考虑的因素(即输入)不应该只是非0即1,而应该把``程度''考虑进来,于是你改变了三个输入的形式:

\parinterval $ x_0 $:10/距离

\parinterval $ x_1 $:150/票价

\parinterval $ x_2 $:女朋友是否喜欢

\parinterval 在新修改的模型中,$ x_0 $$ x_1 $变成了连续变量,$ x_2 $仍然是离散变量,如图\ref{fig:different-forms-of-neuronal-input}
%----------------------------------------------
% 图
\begin{figure}[htp]
\centering
\input{./Chapter5/Figures/fig-different-forms-of-neuronal-input}
\caption{神经元输入的不同形式}
\label{fig:different-forms-of-neuronal-input}
\end{figure}
%-------------------------------------------

\parinterval 使用修改后的模型做决策:女朋友很希望和你一起,但是剧场有20km远而且票价有500元。于是有$ x_0=10/20 $$ x_1=150/500 $$ x_2=1 $
%公式--------------------------------------------------------------------
\begin{eqnarray}
546 547 548
\sum_{i}{x_i\cdot w_i} & = & 0.5\cdot 0.5+0.3\cdot 2+1\cdot 0.5 \nonumber \\
                                   & = & 1.35 \nonumber \\
                                   & > & \sigma =1
曹润柘 committed
549 550 551 552 553
\label{eqa1.22}
\end{eqnarray}
%公式--------------------------------------------------------------------
\parinterval 虽然剧场很远,价格有点贵,但是女友很满意,你还是很高兴。
%--5.2.2.4神经元内部的参数学习---------------------
孟霞 committed
554
\subsubsection{神经元内部的参数学习}
曹润柘 committed
555

xiaotong committed
556
\parinterval 一次成功的音乐会之后,你似乎掌握了一个真理:其他什么都不重要,女友的喜好最重要,所以你又将决策模型的权重做出了调整:最简单的方式就是$ w_0=w_1=0 $,同时令$ w_2>0 $,相当于只考虑$ x_2 $的影响而忽略其他因素,于是你得到了如图\ref {fig:perceptron-to-predict-3}所示的决策模型:
曹润柘 committed
557 558 559 560 561 562 563 564 565 566 567 568
%----------------------------------------------
% 图
\begin{figure}[htp]
\centering
\input{./Chapter5/Figures/fig-perceptron-to-predict-3}
\caption{预测是否去剧场的决策模型:只考虑女友喜好}
\label{fig:perceptron-to-predict-3}
\end{figure}
%-------------------------------------------

\parinterval 很快又有了一场音乐会,距你1000公里,票价3000元,当然女友是一直喜欢音乐会的。根据新的决策模型,你义无反顾地选择去看音乐会。然而,女友又不高兴了,喜欢浪漫的女友觉得去看这场音乐会太奢侈了。在这几次看音乐会的经历中,你发现每个因素的权重需要准确地设置才能达到最好的决策效果。

曹润柘 committed
569
\parinterval 那么如何确定最好的权重的?方法其实很简单,不断地尝试,根据结果不断地调整权重。在经过成百上千次的尝试之后,终于找到了一组合适的权重,使每次决策的正确率都很高。上面这个过程就类似于参数训练的过程,利用大量的数据来模拟成百上千次的尝试,根据输出的结果来不断地调整权重。
曹润柘 committed
570

571
\parinterval 可以看到,在``是否参加音乐会''这个实际问题中,主要涉及到三方面的问题:
曹润柘 committed
572 573 574

\vspace{0.5em}
\begin{itemize}
xiaotong committed
575
\item 对问题建模,即定义输入$ \{x_i\} $的形式。
曹润柘 committed
576
\vspace{0.5em}
xiaotong committed
577
\item 设计有效的决策模型,即定义$ y $
曹润柘 committed
578 579 580 581 582
\vspace{0.5em}
\item 决定模型所涉及的参数(如权重$ \{w_i\} $)的最优值。
\end{itemize}
\vspace{0.5em}

孟霞 committed
583
\parinterval 上面的例子对这三个问题都简要地做出了回答。下面的内容将继续对它们进行详细阐述。
xiaotong committed
584

曹润柘 committed
585
%--5.2.3多层神经网络---------------------
孟霞 committed
586
\subsection{多层神经网络}
曹润柘 committed
587

xiaotong committed
588
\parinterval 感知机是一种最简单的单层神经网络。一个非常自然的问题是:能否把多个这样的网络叠加在一起,获得建模更复杂问题的能力?如果可以,那么在多层神经网络的每一层,神经元之间是怎么组织、工作的呢?单层网络又是通过什么方式构造成多层的呢?
曹润柘 committed
589
%--5.2.3.1线性变换和激活函数---------------------
孟霞 committed
590
\subsubsection{线性变换和激活函数}
曹润柘 committed
591

xiaotong committed
592 593 594 595 596 597 598 599 600
\parinterval 为了建立多层神经网络,首先需要把前面提到的简单的神经元进行扩展,把多个神经元组成一``层''神经元。比如,很多实际问题需要同时有多个输出,这时可以把多个相同的神经元并列起来,每个神经元都会有一个单独的输出,这就构成一``层'',形成了单层神经网络。单层神经网络中的每一个神经元都对应着一组权重和一个输出,可以把单层神经网络中的不同输出看作一个事物不同角度的描述。

举个简单的例子,预报天气时,往往需要预测温度、湿度和风力,这就意味着如果使用单层神经网络进行预测,需要设置3个神经元。如图\ref{fig:corresponence-between-matrix-element-and-output},权重矩阵为:

\begin{equation}
\mathbf w=\begin{pmatrix} w_{00} & w_{01} & w_{02}\\ w_{10} & w_{11} & w_{12}\end{pmatrix}
\end{equation}

\noindent 它的第一列元素$ \begin{pmatrix} w_{00}\\ w_{10}\end{pmatrix} $是输入相对第一个输出$ y_0 $ 的权重,参数向量$ \mathbf b=(b_0,b_1,b_2) $的第一个元素$ b_0 $是对应于第一个输出$ y_0 $ 的偏置量;类似的,可以得到$ y_1 $$ y_2 $。预测天气的单层模型如图\ref{fig:single-layer-of-neural-network-for-weather-prediction}所示(在本例中,假设输入$ \mathbf x=(x_0,x_1) $)。
曹润柘 committed
601 602 603 604 605 606 607 608 609 610 611 612 613 614 615 616 617 618 619 620
%----------------------------------------------
% 图
\begin{figure}[htp]
\centering
\input{./Chapter5/Figures/fig-corresponence-between-matrix-element-and-output}
\caption{权重矩阵中的元素与输出的对应关系}
\label{fig:corresponence-between-matrix-element-and-output}
\end{figure}
%-------------------------------------------

%----------------------------------------------
% 图
\begin{figure}[htp]
\centering
\input{./Chapter5/Figures/fig-single-layer-of-neural-network-for-weather-prediction}
\caption{预测天气的单层神经网络}
\label{fig:single-layer-of-neural-network-for-weather-prediction}
\end{figure}
%-------------------------------------------

xiaotong committed
621
\parinterval 在神经网络中,对于输入向量$ \mathbf x\in R^m $,一层神经网络首先将其经过线性变换映射到$ R^n $,再经过激活函数变成$  \mathbf y\in R^n $。还是上面天气预测的例子,每个神经元获得相同的输入,权重矩阵$ \mathbf w $是一个$ 2\times 3 $矩阵,矩阵中每个元素$ w_{ij} $代表第$ j $个神经元中$ x_{i} $对应的权重值,假设编号为0的神经元负责预测温度,则$ w_{0j} $含义为预测温度时,输入$ x_{i} $对其影响程度。此外所有神经元的偏置$ b_{0} $$ b_{1} $$ b_{2} $组成了最终的偏置向量$ \mathbf b $。在该例中则有,权重矩阵$ \mathbf w=\begin{pmatrix} w_{00} & w_{01} & w_{02}\\ w_{10} & w_{11} & w_{12}\end{pmatrix} $,偏置向量$ \mathbf b=(b_0,b_1,b_2) $
曹润柘 committed
622 623 624

\parinterval 那么,线性变换的本质是什么?

625
\begin{itemize}
xiaotong committed
626 627 628
\item 从代数角度看,对于线性空间$ \rm V $,任意$ a,b\in {\rm V} $和数域中的任意$ \alpha $,线性变换$ T(\cdot) $需满足:$ T(a+b)=T(a)+T(b) $,且$ T(\alpha a)=\alpha T(a) $
\item 从几何角度上看,公式中的$ \mathbf x\cdot \mathbf w+\mathbf b $$ \mathbf x $右乘$ \mathbf w $相当于对$ \mathbf x $进行旋转变换,如图\ref{fig:rotation}所示,对三个点$ (0,0) $$ (0,1) $$ (1,0) $及其围成的矩形区域右乘如下矩阵:
    \begin{equation}
xiaotong committed
629
    \mathbf w=\begin{pmatrix} 1 & 0 & 0\\ 0 & -1 & 0\\ 0 & 0 & 1\end{pmatrix}
xiaotong committed
630 631
    \end{equation}
    这样,矩形区域由第一象限旋转90度到了第四象限。
632
\end{itemize}
曹润柘 committed
633 634 635 636 637 638 639 640 641 642 643 644 645 646 647 648 649 650 651 652 653 654

%----------------------------------------------
% 图
\begin{figure}[htp]
\centering
\input{./Chapter5/Figures/fig-rotation}
\caption{ $ \mathbf w $$ \mathbf x $的旋转作用}
\label{fig:rotation}
\end{figure}
%-------------------------------------------

\parinterval 公式$ \mathbf x\cdot \mathbf w+\mathbf b $中的公式中的$ \mathbf b $相当于对其进行平移变换。其过程如图\ref{fig:translation}所示,偏置矩阵$ \mathbf b=\begin{pmatrix} 0.5 & 0 & 0\\ 0 & 0 & 0\\ 0 & 0 & 0\end{pmatrix} $将矩形区域沿x轴向右平移了一段距离。
%----------------------------------------------
% 图
\begin{figure}[htp]
\centering
\input{./Chapter5/Figures/fig-translation}
\caption{线性变换示意图}
\label{fig:translation}
\end{figure}
%-------------------------------------------

xiaotong committed
655
\parinterval 也就是说,线性变换提供了对输入数据进行空间中旋转、平移的能力。当然,线性变换也适用于更加复杂的情况,这也为神经网络提供了拟合不同函数的能力。比如,可以利用线性变换将三维图形投影到二维平面上,或者将二维平面上的图形映射到三维平面。如图\ref{fig:linear-transformation},通过一个简单的线性变换,可以将三维图形投影到二维平面上。
曹润柘 committed
656 657 658 659 660 661 662 663 664 665
%----------------------------------------------
% 图
\begin{figure}[htp]
\centering
\input{./Chapter5/Figures/fig-linear-transformation}
\caption{线性变换3维$ \rightarrow $2维数学示意}
\label{fig:linear-transformation}
\end{figure}
%-------------------------------------------

孟霞 committed
666
\parinterval 那激活函数又是什么?神经元在接收到经过线性变换的结果后,通过激活函数的处理,得到最终的输出$ \mathbf y $。激活函数的目的是解决实际问题中的非线性变换,线性变换只能拟合直线,而激活函数的加入,使神经网络具有了拟合曲线的能力。 特别是在实际问题中,很多现象都无法用简单的线性关系描述,这时激活函数的非线性就为描述更加复杂的问题提供了工具。常见的非线性函数有Sigmoid、ReLU、Tanh等。如图\ref{fig:activation}列举了几种激活函数的形式。
曹润柘 committed
667 668 669
%----------------------------------------------
% 图
    \begin{figure}\centering
xiaotong committed
670
    \subfigure[Softplus]{
曹润柘 committed
671 672 673 674 675 676
    \centering
    \begin{minipage}{.23\textwidth}
        \input{./Chapter5/Figures/fig-softplus}
    \end{minipage}%
    }
    \qquad
xiaotong committed
677
    \subfigure[Sigmoid]{
曹润柘 committed
678 679
    \centering
    \begin{minipage}{.23\textwidth}
680
        \input{./Chapter5/Figures/fig-Sigmoid}
曹润柘 committed
681 682 683
    \end{minipage}%
    }
    \qquad
xiaotong committed
684
    \subfigure[Tanh]{
曹润柘 committed
685 686
    \centering
    \begin{minipage}{.23\textwidth}
687
        \input{./Chapter5/Figures/fig-Tanh}
曹润柘 committed
688 689
    \end{minipage}
    }\\    \vspace{-0.5em}
孟霞 committed
690
    \subfigure[ReLU]{
曹润柘 committed
691 692
    \centering
    \begin{minipage}{.23\textwidth}
693
        \input{./Chapter5/Figures/fig-Relu}
曹润柘 committed
694 695 696
    \end{minipage}%
    }
    \qquad
xiaotong committed
697
    \subfigure[Gaussian]{
曹润柘 committed
698 699 700 701 702 703
    \centering
    \begin{minipage}{.23\textwidth}
        \input{./Chapter5/Figures/fig-gaussian}
    \end{minipage}%
    }
    \qquad
xiaotong committed
704
    \subfigure[Identity]{
曹润柘 committed
705 706 707 708 709 710 711 712 713 714 715
    \centering
    \begin{minipage}{.23\textwidth}
       \input{./Chapter5/Figures/fig-identity}
    \end{minipage}
    }
\caption{几种常见的激活函数}
\label{fig:activation}
\end {figure}
%-------------------------------------------

%--5.2.3.2单层神经网络->多层神经网络---------------------
孟霞 committed
716
\subsubsection{单层神经网络$\rightarrow$多层神经网络}
曹润柘 committed
717

孟霞 committed
718
\parinterval 单层神经网络由线性变换和激活函数两部分构成,但在实际问题中,单层网络并不能很好地拟合复杂函数。因此很自然地想到将单层网络扩展到多层神经网络,即深层神经网络。将一层神经网络的最终输出向量作为另一层神经网络的输入向量,通过这种方式可以将多层神经网络连接在一起,如图\ref{fig:more-layers}所示。
曹润柘 committed
719 720 721 722 723 724 725 726 727 728 729 730 731 732 733 734 735 736 737 738 739 740
%----------------------------------------------
% 图
\begin{figure}[htp]
\centering
\input{./Chapter5/Figures/fig-more-layers}
\caption{单层神经网络$\to$多层神经网路}
\label{fig:more-layers}
\end{figure}
%-------------------------------------------

\parinterval 在多层神经网络中,通常包括输入层、输出层和至少一个隐藏层。如图\ref{fig:four-layers-of-neural-network}是一个由四层神经网络构成的模型,包括输入层、输出层和两个隐藏层。
%----------------------------------------------
% 图
\begin{figure}[htp]
\centering
\input{./Chapter5/Figures/fig-four-layers-of-neural-network}
\caption{具有三层神经元的四层神经网络}
\label{fig:four-layers-of-neural-network}
\end{figure}
%-------------------------------------------

%--5.2.4函数拟合能力---------------------
孟霞 committed
741
\subsection{函数拟合能力}
曹润柘 committed
742

xiaotong committed
743
\parinterval 神经网络方法之所以受到青睐一方面是由于它提供了端到端学习的模式,另一方面是由于它强大的函数拟合能力。理论上说,神经网络可以拟合任何形状的函数。下面就来看一下为什么神经网络会有这样的能力。
曹润柘 committed
744

孟霞 committed
745
\parinterval 众所周知,单层神经网络无法解决线性不可分问题,比如经典的异或问题。但是具有一个隐藏层的两层神经网络在理论上就可以拟合所有的函数了。接下来我们分析一下为什么仅仅是多了一层,神经网络就能变得如此强大。在此之前,需要明确的一点是,``拟合''是把平面上一系列的点,用一条光滑的曲线连接起来,并用函数来表示这条拟合的曲线。在用神经网络解决问题时,可以通过拟合训练数据中的``数据点''来获得输入与输出之间的函数关系,并利用其对未知数据做出判断。可以假设输入与输出之间存在一种函数关系,而神经网络的``拟合''能力是要尽可能地逼近原函数输出值,与原函数输出值越逼近,则意味着拟合得越优秀。
曹润柘 committed
746

孟霞 committed
747
\parinterval 如图\ref{fig:two-layer-neural-network}是一个以Sigmoid作为隐藏层激活函数的两层神经网络。通过调整参数$ \mathbf w=(w_1,w_2) $$ \mathbf b=(b_1,b_2) $$ \mathbf w^{'}=(w'_{1},w'_{2}) $ 的值,可以不断地改变目标函数的形状。
曹润柘 committed
748 749 750 751 752
%----------------------------------------------
% 图
\begin{figure}[htp]
\centering
\input{./Chapter5/Figures/fig-two-layer-neural-network}
753
\caption{以Sigmoid作为隐藏层激活函数的两层神经网络}
曹润柘 committed
754 755 756 757 758
\label{fig:two-layer-neural-network}
\end{figure}
%-------------------------------------------


孟霞 committed
759
\parinterval 设置$ w'_1=1 $$ w_1=1 $$ b_1=0 $,其他参数设置为0。可以得到如图\ref{fig:w_1}(a)所示的目标函数,此时目标函数还是比较平缓的。通过调大$ w_1 $,可以将图\ref{fig:w_1}(a) 中函数的坡度调得更陡:当$ w_1=10 $时,如图\ref{fig:w_1}(b)所示,目标函数的坡度与图\ref{fig:w_1}(a)相比变得更陡了;当$ w_1=100 $时,如图\ref{fig:w_1}(c)所示,目标函数的坡度变得更陡、更尖锐,已经逼近一个阶梯函数。
曹润柘 committed
760 761 762 763 764 765 766 767 768 769
%----------------------------------------------
% 图
\begin{figure}[htp]
\centering
\input{./Chapter5/Figures/fig-weight}
\caption{通过改变权重$ w_1 $改变目标函数平滑程度}
\label{fig:w_1}
\end {figure}
%-------------------------------------------

孟霞 committed
770
\parinterval 设置$ w'_1=1 $$ w_1=100 $$ b_1=0 $,其他参数设置为0。可以得到如图\ref{fig:b}(a)所示的目标函数,此时目标函数是一个阶梯函数,其``阶梯''恰好与y轴重合。通过改变$ b_1 $,可以将整个函数沿x轴向左右平移:当$ b_1=-2 $时,如图\ref{fig:b}(b)所示,与图\ref{fig:b}(a)相比目标函数的形状没有发生改变,但其位置沿x轴向右平移;当$ b_1=-4 $时,如图\ref{fig:b}(c)所示,目标函数的位置继续沿x轴向右平移。
曹润柘 committed
771 772 773 774 775 776 777 778 779 780
%----------------------------------------------
% 图
\begin{figure}[htp]
\centering
\input{./Chapter5/Figures/fig-bias}
\caption{通过改变偏移量$ b_1 $改变目标函数位置}
\label{fig:b}
\end {figure}
%-------------------------------------------

孟霞 committed
781
\parinterval 设置$ w'_1=1 $$ w_1=100 $$ b_1=-4 $,其他参数设置为0。可以得到如图\ref{fig:w'_1}\\(a)所示的目标函数,此时目标函数是一个阶梯函数,该阶梯函数取得最大值的分段处为$ y=1 $。 通过改变$ w'_1 $,可以将目标函数``拉高''或是``压扁''。如图\ref{fig:w'_1}(b)和(c)所示,目标函数变得 ``扁''了。最终,该阶梯函数取得最大值的分段处约为$ y=0.7 $
曹润柘 committed
782 783 784 785 786
%----------------------------------------------
% 图
\begin{figure}[htp]
\centering
\input{./Chapter5/Figures/fig-w1}
孟霞 committed
787
\caption{通过改变偏移量$ w'_1 $将目标函数``拉高''或``压扁''}
曹润柘 committed
788 789 790 791
\label{fig:w'_1}
\end {figure}
%-------------------------------------------

孟霞 committed
792
\parinterval 设置$ w'_1=0.7 $$ w_1=100 $$ b_1=-4 $,其他参数设置为0。可以得到如图\ref{fig:w2}\\(a)所示的目标函数,此时目标函数是一个阶梯函数。若是将其他参数设置为$ w'_2=0.7 $$ w_2=100 $$ b_2=16 $,由图\ref{fig:w2}(b)可以看出,原来目标函数的``阶梯''由一级变成了两级,由此可以推测,由于将第二组参数进行设置,使目标函数分段数增多;若将第二组参数中的$ w'_2 $由原来的$ 0.7 $设置为$ -0.7 $,可得到如图\ref{fig:w2}(c)所示的目标函数,与图\ref{fig:w2}(b)相比,原目标函数的``第二级阶梯''向下翻转,由此可见$ w' $的符号决定了目标函数的翻转方向。
曹润柘 committed
793 794 795 796 797 798 799 800 801 802
%----------------------------------------------
% 图
\begin{figure}[htp]
\centering
\input{./Chapter5/Figures/fig-w2}
\caption{通过设置第二组参数将目标函数分段数增加}
\label{fig:w2}
\end {figure}
%-------------------------------------------

803
\parinterval 由上面的内容,已经看到通过设置神经元中的参数将目标函数的形状做各种变换,但是看起来目标函数的类型还是比较单一的。而在实际问题中,输入与输出之间的函数关系甚至复杂到无法人为构造或是书写,神经网络又是如何拟合这种复杂的函数关系的呢?
曹润柘 committed
804

805
\parinterval 以如图\ref{fig:piecewise}(a)所示的目标函数为例,为了拟合该函数,可以将其看成分成无数小段的分段函数,如图\ref{fig:piecewise}(b)所示。
曹润柘 committed
806 807 808 809 810 811 812 813 814 815 816 817 818 819 820 821 822 823 824 825 826
%----------------------------------------------
% 图
\begin{figure}[htp]
\centering
\input{./Chapter5/Figures/fig-piecewise}
\caption{将目标函数作分段处理}
\label{fig:piecewise}
\end {figure}
%-------------------------------------------

\parinterval 如图\ref{fig:fit}(a)所示,上例中两层神经网络的函数便可以拟合出目标函数的一小段。为了使两层神经网络可以拟合出目标函数更多的一小段,需要增加隐层神经元的个数。如图\ref{fig:fit}(b),将原本的两层神经网络神经元个数增多一倍,由2个神经元扩展到4个神经元,其函数的分段数也增加一倍,而此时的函数恰好可以拟合目标函数中的两个小段。以此类推,理论上,该两层神经网络便可以通过不断地增加隐层神经元数量去拟合任意函数。
%----------------------------------------------
% 图
\begin{figure}[htp]
\centering
\input{./Chapter5/Figures/fig-fit}
\caption{扩展隐层神经元个数去拟合目标函数更多的``一小段''}
\label{fig:fit}
\end {figure}
%-------------------------------------------

827
\parinterval 两层神经元的神经网络在理论上可以拟合所有函数了,但是在实际问题中所使用的神经网络都远远超过了两层,这也是对深度学习这个概念中``深度''的一种体现。主要是有以下几方面的原因:
曹润柘 committed
828 829 830

\vspace{0.5em}
\begin{itemize}
曹润柘 committed
831
\item 使用较浅的神经网络去拟合一个比较复杂的函数关系,需要数量极其庞大的神经元和参数,训练难度大。在上面的例子中可以看出,两层神经元仅仅拟合目标函数的两小段,其隐层就需要4个神经元。从另一个角度说,加深网络也可能会达到与宽网络(更多神经元)类似的效果。
曹润柘 committed
832 833 834 835 836 837
\vspace{0.5em}
\item 更多层的网络可以提供更多的线性变换和激活函数,对输入的抽象程度更好,因而可以更好的表示数据的特征。
\end{itemize}
\vspace{0.5em}

\parinterval 在本书后面的内容中还会看到,深层网络在机器翻译中可以带来明显的性能提升。
xiaotong committed
838

曹润柘 committed
839
%--5.3神经网络的张量实现-----------------------------------------
孟霞 committed
840 841
<<<<<<< HEAD
=======
xiaotong committed
842
\sectionnewpage
孟霞 committed
843
>>>>>>> master
孟霞 committed
844
\section{神经网络的张量实现}
曹润柘 committed
845

xiaotong committed
846
\parinterval 在神经网络内部,输入经过若干次变换,最终得到输出的结果。这个过程类似于一种逐层的数据``流动''。不禁会产生这样的疑问:在神经网络中,数据是以哪种形式``流动''的?如何去编程实现这种数据``流动''呢?
曹润柘 committed
847

孟霞 committed
848
\parinterval 为了解决上面的问题,本节将介绍人工神经网络更加通用的描述形式 \ \dash \ 张量计算。随后也会看到,使用基于张量的数学工具,可以方便的搭建神经网络。
曹润柘 committed
849
%--5.3.1 张量及其计算---------------------
孟霞 committed
850
\subsection{ 张量及其计算}
曹润柘 committed
851 852

%--5.3.1.1张量---------------------
孟霞 committed
853
\subsubsection{张量}
曹润柘 committed
854

孟霞 committed
855
\parinterval 对于神经网络中的某层神经元$ \mathbf y=f(\mathbf x\cdot \mathbf w+\mathbf b) $,其中$ \mathbf w $是权重矩阵,例如$ \begin{pmatrix} 1 & 2\\ 3 & 4\end{pmatrix} $$ \mathbf b $ 是偏移向量,例如$ (1,3) $。在这里,输入$ \mathbf x $和输出$ \mathbf y $,可以不是简单的向量或是矩阵形式,而是深度学习中更加通用的数学量\ \dash \ {\small\bfnew{张量}}\index{张量}(Tensor)\index{Tensor},比如下式中的几种情况都可以看作是深度学习中定义数据的张量:
曹润柘 committed
856 857
%公式--------------------------------------------------------------------
\begin{eqnarray}
曹润柘 committed
858 859
\mathbf x&=&\begin{pmatrix} -1 & 3\end{pmatrix}\qquad
\mathbf x\;\;=\;\;\begin{pmatrix} -1 & 3\\ 0.2 & 2\end{pmatrix}\qquad
860
\mathbf x\;\;=\;\;\begin{pmatrix}{\begin{pmatrix} -1 & 3\\ 0.2 & 2\end{pmatrix}}\\{\begin{pmatrix} -1 & 3\\ 0.2 & 2\end{pmatrix}}\end{pmatrix} \nonumber
曹润柘 committed
861 862 863
\label{}
\end{eqnarray}
%公式--------------------------------------------------------------------
孟霞 committed
864
\parinterval 简单来说,张量是一种通用的工具,用于描述由多个数据构成的量。比如,输入的量有三个维度在变化,用矩阵不容易描述,但是用张量却很容易。
曹润柘 committed
865

孟霞 committed
866
\parinterval 从计算机实现的角度来看,现在所有深度学习框架都把张量定义为``多维数组''。张量有一个非常重要的属性\ \dash \ {\small\bfnew{}}\index{}(Rank)\index{Rank}。可以将多维数组中``维''的属性与张量的``阶''的属性作类比,这两个属性都表示多维数组(张量)有多少个独立的方向。例如,3是一个标量(Scalar),相当于一个0维数组或0阶张量;$ {(\begin{array}{cccc} 2 & -3 & 0.8 & 0.2\end{array})}^{\rm T} $ 是一个向量(Vector),相当于一个1维数组或1阶张量;$ \begin{pmatrix} -1 & 3 & 7\\ 0.2 & 2 & 9\end{pmatrix} $是一个矩阵(Matrix),相当于一个2维数组或2阶张量;如图\ref{fig:tensor-sample},这是一个3 维数组或3阶张量,其中,每个$4 \times 4$的方形代表一个2阶张量,这样的方形有4个,最终形成3阶张量。
曹润柘 committed
867 868 869 870 871
%----------------------------------------------
% 图
\begin{figure}[htp]
\centering
\input{./Chapter5/Figures/fig-tensor-sample}
872
\caption{3阶张量示例($4 \times 4 \times 4$}
曹润柘 committed
873 874 875 876
\label{fig:tensor-sample}
\end{figure}
%-------------------------------------------

877
\parinterval 虽然这里所使用的张量是出于编程实现的视角,但是数学中张量有严格的定义。从数学上看``张量并不是向量和矩阵的简单扩展,多维数组也并不是张量所必须的表达形式''。从某种意义上说,矩阵才是张量的扩展。当然,这个逻辑可能和大家在深度学习中的认知是不一致的。现在就一起看一下,张量究竟为何物。
曹润柘 committed
878 879 880

\parinterval 张量的严格定义是利用线性映射来描述的。与矢量相类似,定义由若干坐标系改变时满足一定坐标转化关系的有序数组成的集合为张量。从几何角度讲,它是一个真正的几何量,也就是说,它是不随参照系的坐标变换而变化的,是若干向量和协向量通过张量乘法定义的量。

xiaotong committed
881
\parinterval 不过,更广泛接受的定义是:张量是多重线性函数,是定义在一些向量空间和笛卡尔积上的多重线性映射。张量的多重线性表现在,对于每一个输入函数都是线性的。比如,张量$ \mathbf T(v_0,v_1,\dots,v_r) $,其输入是$r$个向量$ \{v_0,v_1,\dots,v_r\} $,对于张量$ \mathbf T $的任意一个$ v_i $,都有$ \mathbf T(v_0,\dots,v_i+c\cdot u,\dots,v_r)=\mathbf T(v_0,\dots,v_i,\dots,v_r)+c\cdot{\mathbf T(v_0,\dots,u,\dots,v_r)} $,其中,$ c $为任意实数。这个性质非常重要,根据这个性质可以推导出张量的其他定义。
曹润柘 committed
882

孟霞 committed
883
\parinterval 从我们的物理世界看,如果一个物理量在物体的某个位置上只是一个单值,那么它是一个标量,例如密度;如果一个物理量在同一个位置、从多个方向上看,有不同的值,那么这个物理量就是一个张量。比如物理学中常用的应力的描述就是一个典型的张量。举一个简单的例子:$ \mathbf T(\mathbf v,\mathbf u) $是一个三维空间$(\textrm{x},\textrm{y},\textrm{z})$上的2阶张量,其中$ \mathbf v $$ \mathbf u $ 是两个向量,如图\ref{fig:tensor}所示,向量$ \mathbf v $在某个两两垂直的三维坐标系中可以表示为$ {(\begin{array}{ccc} a & b & c\end{array})}^{\rm T} $,同理向量$ \mathbf u $在某个两两垂直的三维坐标系中可以表示为$ {(\begin{array}{ccc} a' & b' & c' \end{array})}^{\rm T} $。但在三维空间$(\textrm{x},\textrm{y},\textrm{z})$中,向量$ \mathbf v $和向量$ \mathbf u $分别被表示为$ {(\begin{array}{ccc} v_x & v_y & v_z\end{array})}^{\rm T} $$ {(\begin{array}{ccc} u_x & u_y & u_z\end{array})}^{\rm T} $
曹润柘 committed
884 885 886 887 888 889 890 891 892 893 894 895 896
%----------------------------------------------
% 图
\begin{figure}[htp]
\centering
\input{./Chapter5/Figures/fig-tensor}
\caption{向量v和向量u在不同坐标系中的值}
\label{fig:tensor}
\end {figure}
%-------------------------------------------

\parinterval 2阶张量$ \mathbf T(\mathbf v,\mathbf u) $可表示为:
%公式--------------------------------------------------------------------
\begin{eqnarray}
曹润柘 committed
897
\mathbf T(\mathbf v,\mathbf u)&=&{\begin{pmatrix} v_x\\v_y\\v_z\end{pmatrix}}^{\rm T}\begin{pmatrix}
曹润柘 committed
898 899 900 901 902 903
   T_{xx} & T_{xy} & T_{xz}\\
   T_{yx} & T_{yy} & T_{yz}\\
   T_{zx} & T_{zy} & T_{zz}\end{pmatrix} \begin{pmatrix} u_x\\u_y\\u_z\end{pmatrix}
\label{eqa1.23}
\end{eqnarray}
%公式--------------------------------------------------------------------
xiaotong committed
904
\parinterval 其中,$ \begin{pmatrix} v_x\\v_y\\v_z\end{pmatrix} $是向量$ \mathbf v $在基向量$(\textrm{x},\textrm{y},\textrm{z})$上的投影,$ \begin{pmatrix} u_x\\u_y\\u_z\end{pmatrix} $是向量$ \mathbf u $在基向量$(\textrm{x},\textrm{y},\textrm{z})$上的投影,$ \begin{pmatrix}T_{xx} & T_{xy} & T_{xz}\\T_{yx} & T_{yy} & T_{yz}\\T_{zx} & T_{zy} & T_{zz}\end{pmatrix} $是张量$ \mathbf T $$3 \times 3$个方向上的分量,恰巧用``矩阵''表示,记为$ [\mathbf T] $
曹润柘 committed
905

xiaotong committed
906
\parinterval 以上的内容是要明确张量的原始定义,以避免对这个概念的误解。但是,本书仍然遵循深度学习中常用的概念,把张量理解为多维数组。在保证数学表达的简洁性的同时,使程序实现接口更加统一。
xiaotong committed
907

曹润柘 committed
908
%--5.3.1.2张量的矩阵乘法---------------------
孟霞 committed
909
\subsubsection{张量的矩阵乘法}
曹润柘 committed
910

xiaotong committed
911
\parinterval 对于一个单层神经网络,$ \mathbf y=f(\mathbf x\cdot \mathbf w+\mathbf b) $中的$ \mathbf x\cdot \mathbf w $表示对输入$ \mathbf x $进行线性变换,其中$ \mathbf x $是输入张量,$ \mathbf w $是权重矩阵。$ \mathbf x\cdot \mathbf w $表示的是矩阵乘法,需要注意的是这里是矩阵乘法而不是张量乘法。
曹润柘 committed
912

xiaotong committed
913
\parinterval 张量乘以矩阵是怎样计算呢?可以先回忆一下\ref{sec:5.2.1}节的线性代数的知识。假设$ \mathbf a $$ m\times p $的矩阵,$ \mathbf b $$ p\times n $的矩阵,对$ \mathbf a $$ \mathbf b $ 作矩阵乘积的结果是一个$ m\times n $的矩阵$ \mathbf c $,其中矩阵$ \mathbf c $中第$ i $行、第$ j $列的元素可以表示为:
曹润柘 committed
914 915
%公式--------------------------------------------------------------------
\begin{eqnarray}
曹润柘 committed
916
{(\mathbf a\mathbf b)}_{ij}&=&\sum_{k=1}^{p}{a_{ik}b_{kj}}
曹润柘 committed
917 918 919 920 921 922 923
\label{eqa1.24}
\end{eqnarray}
%公式--------------------------------------------------------------------

\noindent 例如$ \mathbf a= \begin{pmatrix} a_{11} & a_{12} & a_{13}\\a_{21} & a_{22} & a_{23}\end{pmatrix} $$ \mathbf b= \begin{pmatrix} b_{11} & b_{12}\\b_{21} & b_{22}\\b_{31} & b_{32}\end{pmatrix} $,则
%公式--------------------------------------------------------------------
\begin{eqnarray}
924 925
\mathbf c & = & \mathbf a\mathbf b \nonumber \\
                & = & \begin{pmatrix} a_{11}b_{11}+a_{12}b_{21}+a_{13}b_{31} & a_{11}b_{12}+a_{12}b_{22}+a_{13}b_{32}\\a_{21}b_{11}+a_{22}b_{21}+a_{23}b_{31} & a_{21}b_{12}+a_{22}b_{22}+a_{23}b_{32}\end{pmatrix}
曹润柘 committed
926 927 928
\label{}
\end{eqnarray}
%公式--------------------------------------------------------------------
xiaotong committed
929
\parinterval 将矩阵乘法扩展到高阶张量中:一个张量$ \mathbf x $若要与矩阵$ \mathbf w $做矩阵乘法,则$ \mathbf x $的第一维度需要与$ \mathbf w $的行数大小相等,即:若张量$ \mathbf x $的形状为$ \cdot \times n $$ \mathbf w $须为$ n\times \cdot $的矩阵。如下是一个例子,
曹润柘 committed
930 931 932 933 934 935 936

%公式--------------------------------------------------------------------
\begin{eqnarray}
\mathbf x(1:4,1:4,{\red{1:4}})\times {\mathbf w({\red{1:4}},1:2)}=\mathbf s(1:4,1:4,1:2)
\label{eqa1.25}
\end{eqnarray}
%公式--------------------------------------------------------------------
xiaotong committed
937 938

\noindent 其中,张量$ \mathbf x $沿第1阶所在的方向与矩阵$ \mathbf w $进行矩阵运算(张量$ \mathbf x $第1阶的每个维度都可以看做一个$ 4\times 4 $的矩阵)。图\ref{fig:tensor-mul}演示了这个计算过程。张量$ \mathbf x $中编号为\ding{172}的子张量(可看作矩阵)与矩阵$ \mathbf w $进行矩阵乘法,其结果对应张量$ \mathbf s $中编号为\ding{172}的子张量。这个过程会循环四次,因为有四个这样的矩阵(子张量)。最终,图\ref{fig:tensor-mul}给出了结果张量的形式($ 4 \times 4 \times 2 $)。
曹润柘 committed
939 940 941 942 943 944 945 946 947 948 949
%----------------------------------------------
% 图
\begin{figure}[htp]
\centering
\input{./Chapter5/Figures/fig-tensor-mul}
\caption{张量与矩阵的矩阵乘法}
\label{fig:tensor-mul}
\end {figure}
%-------------------------------------------

%--5.3.1.3张量的单元操作---------------------
孟霞 committed
950
\subsubsection{张量的单元操作}
曹润柘 committed
951

xiaotong committed
952
\parinterval 对于神经网络中的某层神经元$ \mathbf y=f(\mathbf x\cdot \mathbf w+\mathbf b) $,也包含有其他张量单元操作:1)加法:$ \mathbf s+\mathbf b $,其中张量$ \mathbf s=\mathbf x\cdot \mathbf w $;2)激活函数:$ f(\cdot) $。具体来说:
曹润柘 committed
953 954 955

\vspace{0.5em}
\begin{itemize}
孟霞 committed
956
\item $ \mathbf s+\mathbf b $中的单元加就是对张量中的每个位置都进行加法。在本例中$ \mathbf s $是形状为$ (1:4,1:4,1:2) $的3阶张量,而$ \mathbf b $是含有4个元素的向量,在形状不同的情况下是怎样进行单元加的呢?在这里需要引入{\small\sffamily\bfseries{广播机制}}\index{广播机制}:如果两个数组的后缘维度(即从末尾开始算起的维度)的轴长度相符或其中一方的长度为1,则认为它们是广播兼容的。广播会在缺失或长度为1的维度上进行,它是深度学习框架中常用的计算方式。来看一个具体的例子,如图\ref{fig:broadcast}所示,$ \mathbf s $是一个$ 2\times 4 $的矩阵而$ \mathbf b $是一个长度为4的向量,这两者进行单元加运算时,广播机制会将$ \mathbf b $沿第一个维度复制后,再与$ \mathbf s $做加法运算。
曹润柘 committed
957 958 959 960 961 962 963 964 965 966 967
%----------------------------------------------
% 图
\begin{figure}[htp]
\centering
\input{./Chapter5/Figures/fig-broadcast}
\caption{广播机制}
\label{fig:broadcast}
\end {figure}
%-------------------------------------------

\vspace{0.5em}
孟霞 committed
968
\item 除了单位加之外,张量之间也可以使用减法操作、乘法操作,也可以对张量作激活操作。这里将其称作为函数的{\small\bfnew{向量化}}\index{向量化}(Vectorization)\index{Vectorization}。例如,对向量(1阶张量)作ReLU激活,其中ReLU激活函数的公式为:
曹润柘 committed
969 970
%公式--------------------------------------------------------------------
\begin{eqnarray}
xiaotong committed
971
f(x)=\begin{cases} 0 & x\le 0 \\x & x>0\end{cases}
曹润柘 committed
972 973 974
\label{eqa1.26}
\end{eqnarray}
%公式--------------------------------------------------------------------
孟霞 committed
975
例如$ {\rm{ReLU}}\left( \begin{pmatrix} 2\\-.3\end{pmatrix}\right)=\begin{pmatrix} 2\\0\end{pmatrix} $
曹润柘 committed
976 977 978
\end{itemize}
\vspace{0.5em}
%--5.3.2 张量的物理存储形式---------------------
孟霞 committed
979
\subsection{张量的物理存储形式}
曹润柘 committed
980 981 982 983 984 985 986 987 988

\parinterval 在深度学习世界中,张量就是多维数组,无论是向量还是矩阵都可以看作是数学上``张量''的扩展。因此,张量的物理存储方式也与多维数组相同:

\vspace{0.5em}
\begin{itemize}
\item 张量$ \mathbf T(1:3) $表示一个含有三个元素的向量(1阶张量),其物理存储如图\ref{fig:save}(a)所示。
\vspace{0.5em}
\item 张量$ \mathbf T(1:2,1:3) $表示一个$ 3\times 2 $的矩阵(2阶张量),其物理存储如图\ref{fig:save}(b)所示。
\vspace{0.5em}
xiaotong committed
989
\item 张量$ \mathbf T(1:2,1:2,1:3) $表示一个大小$ 3\times 2\times 2 $的3阶张量,其物理存储如图\ref{fig:save}(c)所示。
曹润柘 committed
990 991 992 993 994 995 996
\end{itemize}
\vspace{0.5em}
%----------------------------------------------
% 图
\begin{figure}[htp]
\centering
\input{./Chapter5/Figures/fig-save}
xiaotong committed
997
\caption{1阶(a)、2阶(b)、3阶张量(c)的物理存储}
曹润柘 committed
998 999 1000 1001 1002
\label{fig:save}
\end{figure}
%-------------------------------------------
\parinterval 高阶张量的物理存储方式与多维数组在C++、Python中的物理存储方式相同。
%--5.3.3 使用开源框架实现张量计算---以NiuTensor为例---------------------
孟霞 committed
1003
\subsection{使用开源框架实现张量计算}
曹润柘 committed
1004

1005
\parinterval 实现神经网络的开源系统有很多,比如,一个简单好用的Python工具包\ \dash \ Numpy(\url{https://numpy.org/})。Numpy提供了张量表示和使用的范式,可以很方便地定义、使用多维数组。
曹润柘 committed
1006

xiaotong committed
1007
\parinterval 此外,如今深度学习框架已经非常成熟。比如, Tensorflow和Pytorch就是非常受欢迎的深度学习工具包,除此之外还有很多其他优秀的框架:CNTK、MXNet、\\PaddlePaddle、Keras、Chainer、dl4j、NiuTensor等。开发者可以根据自身的喜好和开发项目的要求选择所采用的框架。
曹润柘 committed
1008

孟霞 committed
1009
\parinterval 本节将使用NiuTensor来描述张量计算。NiuTensor是一个面向自然语言处理任务的张量库,它支持丰富的张量计算接口。此外,该NiuTensor内核基于C++语言编写,代码高度优化。该工具包获取网址为\url{https://developer.niutrans.com/ArticleContent/technicaldoc/doc1/1.NiuTensor}
曹润柘 committed
1010 1011 1012 1013 1014 1015 1016 1017 1018 1019 1020 1021 1022 1023 1024 1025 1026 1027 1028 1029 1030 1031 1032 1033 1034 1035 1036 1037 1038 1039 1040

\parinterval NiuTensor的使用非常简单,如图\ref{fig:code-tensor-define}是一个使用NiuTensor声明、定义张量的C++代码:
%----------------------------------------------
% 图
\begin{figure}[htp]
\centering
\input{./Chapter5/Figures/fig-code-tensor-define}
\caption{使用NiuTensor声明定义张量}
\label{fig:code-tensor-define}
\end{figure}
%-------------------------------------------

\parinterval 这段程序定义了一个形状为$ 2\times 2 $${\rm{dimsize}}=2,2 $),数据类型是单精度浮点($ \rm{dtype=X\_FLOAT} $),非稀疏($ \rm{dense}=1.00 $)的2阶($ \rm{order}=2 $)张量。运行这个程序会显示张量每个元素的值,如图\ref{fig:code-out}所示。
%----------------------------------------------
% 图
\begin{figure}[htp]
\centering
\input{./Chapter5/Figures/fig-code-out}
\caption{程序运行结果}
\label{fig:code-out}
\end{figure}
%-------------------------------------------

\parinterval 在NiuTensor中,张量由类XTensor表示,利用InitTensor定义,主要有四个参数:

\vspace{0.5em}
\begin{itemize}
\item 指向XTensor类型变量的指针,如$ \& $tensor。
\vspace{0.5em}
\item 张量的阶,如6。
\vspace{0.5em}
孟霞 committed
1041
\item 各个方向维度的大小,约定该参数形式与传统的多维数组形式相同,如$ \{2,3,4,\\2,3,4\} $
曹润柘 committed
1042 1043 1044 1045 1046 1047 1048 1049 1050 1051 1052 1053 1054 1055 1056 1057
\vspace{0.5em}
\item 张量的数据类型,该参数有缺省值。
\end{itemize}
\vspace{0.5em}

\parinterval 定义XTensor的程序示例如图\ref{fig:code-tensor-define-2}所示:
%----------------------------------------------
% 图
\begin{figure}[htp]
\centering
\input{./Chapter5/Figures/fig-code-tensor-define-2}
\caption{ NiuTensor定义张量程序示例}
\label{fig:code-tensor-define-2}
\end{figure}
%-------------------------------------------

xiaotong committed
1058 1059
\parinterval 除此之外,NiuTensor还提供更简便的张量定义方式,如图\ref{fig:code-tensor-define-3}所示。也可以在GPU上定义张量,如图\ref{fig:code-tensor-define-GPU}所示。NiuTensor支持张量的各种代数运算,各种单元算子,如$ + $$ - $$ \ast $$ / $、Log(取对数)、Exp(指数运算)、Power(幂方运算)、Absolute(绝对值)等,还有Sigmoid、Softmax等激活函数。如图\ref{fig:code-tensor-operation}是一段对张量进行1阶运算的程序示例。

曹润柘 committed
1060 1061 1062 1063 1064 1065 1066 1067 1068 1069
%----------------------------------------------
% 图
\begin{figure}[htp]
\centering
\input{./Chapter5/Figures/fig-code-tensor-define-3}
\caption{ 定义张量的简便方式程序示例}
\label{fig:code-tensor-define-3}
\end{figure}
%-------------------------------------------

xiaotong committed
1070

曹润柘 committed
1071 1072 1073 1074 1075 1076 1077 1078 1079 1080
%----------------------------------------------
% 图
\begin{figure}[htp]
\centering
\input{./Chapter5/Figures/fig-code-tensor-define-GPU}
\caption{ 在GPU上定义张量程序示例}
\label{fig:code-tensor-define-GPU}
\end{figure}
%-------------------------------------------

xiaotong committed
1081

曹润柘 committed
1082 1083 1084 1085 1086 1087 1088 1089 1090 1091
%----------------------------------------------
% 图
\begin{figure}[htp]
\centering
\input{./Chapter5/Figures/fig-code-tensor-operation}
\caption{ 张量进行1阶运算}
\label{fig:code-tensor-operation}
\end{figure}
%-------------------------------------------

xiaotong committed
1092 1093
\parinterval 除了上述单元算子外,NiuTensor还支持张量之间的高阶运算,其中最常用的数矩阵乘法,如图\ref{fig:code-tensor-mul}是张量之间进行矩阵乘法的程序示例。表\ref{tab2}展示了一些NiuTensor支持的其他函数操作,除此还有很多其他操作无法在此一一列举,有兴趣可以参考网站上的详细说明。

曹润柘 committed
1094 1095 1096 1097 1098 1099 1100 1101 1102 1103 1104 1105 1106 1107
%----------------------------------------------
% 图
\begin{figure}[htp]
\centering
\input{./Chapter5/Figures/fig-code-tensor-mul}
\caption{张量之间的矩阵乘法}
\label{fig:code-tensor-mul}
\end{figure}
%-------------------------------------------


%表2--------------------------------------------------------------------
\begin{table}[htp]
\centering
xiaotong committed
1108
\caption{NiuTensor支持的部分函数}
曹润柘 committed
1109 1110 1111
\label{tab2}
\small
\begin{tabular}{l | l}
曹润柘 committed
1112
\rule{0pt}{15pt}     函数 & 描述  \\
曹润柘 committed
1113 1114 1115 1116 1117 1118 1119 1120 1121 1122 1123 1124 1125 1126
\hline
\rule{0pt}{15pt}     a.Reshape(o,s) &$ \mathbf a $变换成阶为o、形状为s的张量  \\
\rule{0pt}{15pt}     a.Get(pos) & 取张量中位置为pos的元素  \\
\rule{0pt}{15pt}     a.Set(v,pos) & 把张量中位置为pos的元素值设为v  \\
\rule{0pt}{15pt}     a.Dump(file) & 把张量存到file中,file为文件句柄  \\
\rule{0pt}{15pt}     a.Read(file) & 从file中读取张量,file为文件句柄  \\
\rule{0pt}{15pt}     Power(a,p) & 计算指数$ a^p $  \\
\rule{0pt}{15pt}     Linear(a,s,b) & 计算$ \mathbf a\ast s+b $,s和b都是一个实数  \\
\rule{0pt}{15pt}     CopyValue(a) & 构建$ \mathbf a $的一个拷贝  \\
\rule{0pt}{15pt}     ReduceMax(a,d) &$ \mathbf a $沿着方向d进行规约,得到最大值  \\
\rule{0pt}{15pt}     ReduceSum(a,d) &$ \mathbf a $沿着方向d进行规约,得到和  \\
\rule{0pt}{15pt}     Concatenate(a,b,d) & 把两个张量$ \mathbf a $$ \mathbf b $沿d方向级联  \\
\rule{0pt}{15pt}     Merge(a,d) & 对张量$ \mathbf a $沿d方向合并  \\
\rule{0pt}{15pt}     Split(a,d,n) & 对张量$ \mathbf a $沿d方向分裂成n份  \\
xiaotong committed
1127 1128
\rule{0pt}{15pt}     Sigmoid(a) &$ \mathbf a $进行Sigmoid变换  \\
\rule{0pt}{15pt}     Softmax(a) &$ \mathbf a $进行Softmax变换,沿最后一个方向  \\
1129
\rule{0pt}{15pt}     HardTanh(a) &$ \mathbf a $进行hard Tanh变换(双曲正切的近似)  \\
孟霞 committed
1130
\rule{0pt}{15pt}     Relu(a) &$ \mathbf a $进行ReLU变换  \\
曹润柘 committed
1131 1132 1133 1134
\end{tabular}
\end{table}
%表2--------------------------------------------------------------------

xiaotong committed
1135
\parinterval 随后的内容会使用NiuTensor作为一种张量``语言''来完成神经网络的描述,以便于读者理解一个抽象的神经网络是如何和具体的程序对应起来的。当然,神经网络也可以使用TensorFlow和PyTorch等框架进行定义,方法都是非常相似的。
曹润柘 committed
1136
%--5.3.4 神经网络中的前向传播---------------------
孟霞 committed
1137
\subsection{前向传播与计算图}
曹润柘 committed
1138

孟霞 committed
1139
\parinterval 有了张量这个工具,可以很容易的实现任意的神经网络。反过来,神经网络都可以被看作是张量的函数。一种经典的神经网络计算模型是:给定输入张量,通过各个神经网络层所对应的张量计算之后,最后得到输出张量。这个过程也被称作{\small\sffamily\bfseries{前向传播}}\index{前向传播},它常常被应用在使用神经网络对新的样本进行推断中。
曹润柘 committed
1140

1141
\parinterval 来看一个具体的例子,如图\ref{fig:weather}(a)是一个根据天气情况判断穿衣指数(穿衣指数是人们穿衣薄厚的依据)的过程,将当天的天空状况、低空气温、水平气压作为输入,通过一层神经元在输入数据中提取温度、风速两方面的特征,并根据这两方面的特征判断穿衣指数。需要注意的是,在实际的神经网络中,并不能准确地知道神经元究竟可以提取到哪方面的特征,以上表述是为了让读者更好地理解神经网络的建模过程和前向传播过程。这里将上述过程建模为如图\ref{fig:weather}(b)所示的两层神经网络。
xiaotong committed
1142

曹润柘 committed
1143 1144 1145 1146 1147
%----------------------------------------------
% 图
\begin{figure}[htp]
\centering
\input{./Chapter5/Figures/fig-weather}
xiaotong committed
1148
\caption{判断穿衣指数问题的神经网络过程}
曹润柘 committed
1149 1150 1151 1152
\label{fig:weather}
\end{figure}
%-------------------------------------------

1153
\parinterval 它可以被描述为公式\ref{eqa1.27},其中隐藏层的激活函数是Tanh函数,输出层的激活函数是Sigmoid函数:
曹润柘 committed
1154 1155
%公式------------------------------------------
\begin{eqnarray}
1156
y&=&{\rm{Sigmoid}}({\rm{Tanh}}(\mathbf x\cdot \mathbf w^1+\mathbf b^1)\cdot \mathbf w^2+\mathbf b^2 )
曹润柘 committed
1157 1158 1159 1160 1161 1162 1163 1164
\label{eqa1.27}
\end{eqnarray}
%公式------------------------------------------
%----------------------------------------------
% 图
\begin{figure}[htp]
\centering
\input{./Chapter5/Figures/fig-weather-forward}
xiaotong committed
1165
\caption{前向计算示例(计算图)}
曹润柘 committed
1166 1167 1168 1169
\label{fig:weather-forward}
\end{figure}
%-------------------------------------------

孟霞 committed
1170
\parinterval 前向计算实现如图\ref{fig:weather-forward}所示,图中对各张量和其他参数的形状做了详细说明。输入$ \mathbf x=(x_1,x_2,x_3) $是一个$1\times 3$的张量,其三个维度分别对应天空状况、低空气温、水平气压三个方面的数据。输入数据经过隐藏层的线性变换$ \mathbf x\cdot \mathbf w^1+\mathbf b^1 $和Tanh函数的激活,得到新的张量$ \mathbf a=(a_1,a_2) $,其中$a_1$$a_2$分别对应着从输入数据中提取出的温度和风速两方面特征;神经网络在获取到天气情况的特征$ \mathbf a $后,继续对其进行线性变换$ \mathbf a\cdot \mathbf w^2+ b^2 $(其中$b^2$是标量)和Sigmoid函数的激活操作,得到神经网络的最终输出$ y $,即神经网络此时预测的穿衣指数。
xiaotong committed
1171

孟霞 committed
1172
\parinterval\ref{fig:weather-forward}实际上是神经网络的一种{\small\bfnew{计算图}}\index{计算图}(Computation Graph)\index{Computation Graph}表示。现在很多深度学习框架都是把神经网络转化为计算图,这样可以把复杂的运算分解为简单的运算。通过对计算图中节点的遍历,可以方便的完成神经网络的计算。比如,可以对图中节点进行拓扑排序(由输入到输出),之后依次访问每个节点同时完成相应的计算。这也就实现了一个前向计算的过程。构建计算图的方式有很多,比如,动态图、静态图等。在\ref{sec5:para-training}节会进一步对计算图在模型参数训练中的应用进行介绍。
曹润柘 committed
1173 1174

%--5.3.5 神经网络实例---------------------
孟霞 committed
1175
\subsection{神经网络实例}
曹润柘 committed
1176

xiaotong committed
1177
\parinterval 下面用几个实例来说明搭建神经网络的过程。注意,搭建神经网络的过程本质上就是定义前向计算的过程。首先构造一个单层神经网络。如图\ref{fig:code-niutensor-one}所示,简单的定义输入、权重和偏置后,定义激活函数为Sigmoid函数,输入$ \mathbf x $经过线性变换和激活函数,得到输出$ \mathbf y $
曹润柘 committed
1178 1179 1180 1181 1182
%----------------------------------------------
% 图
\begin{figure}[htp]
\centering
\input{./Chapter5/Figures/fig-code-niutensor-one}
xiaotong committed
1183
\caption{构建单层神经网络的示例}
曹润柘 committed
1184 1185 1186 1187
\label{fig:code-niutensor-one}
\end{figure}
%-------------------------------------------

孟霞 committed
1188
	\parinterval 如图\ref{fig:code-niutensor-three}是一个构造三层神经网络的程序示例。在第一层中,$ \mathbf x $作为输入,$ \mathbf h1 $作为输出,其中$ \mathbf h1={\rm{Sigmoid}}(\mathbf x\cdot \mathbf w1+\mathbf b1) $。在第二层中,$ \mathbf h1 $作为输入,$ \mathbf h2 $作为输出,其中$ \mathbf h2={\rm{Tanh}}(\mathbf h1\cdot \mathbf w2) $。在第三层中,$ \mathbf h2 $作为输入,$ \mathbf y $作为输出,其中$ \mathbf y={\rm{ReLU}}(\mathbf h2\cdot \mathbf w3) $$ \mathbf y $也会作为整个神经网络的输出。
xiaotong committed
1189

曹润柘 committed
1190 1191 1192 1193 1194
%----------------------------------------------
% 图
\begin{figure}[htp]
\centering
\input{./Chapter5/Figures/fig-code-niutensor-three}
xiaotong committed
1195
\caption{构建三层神经网络的示例}
曹润柘 committed
1196 1197 1198 1199
\label{fig:code-niutensor-three}
\end{figure}
%-------------------------------------------

xiaotong committed
1200
\parinterval 除了简单对若干全连接网络进行堆叠,也可以用张量定义更加复杂的神经网络结构,如循环神经网络和Transformer等结构(见\ref{sec5:nlm}节)。如图\ref{fig:code-niutensor-rnn}所示,输入$ \mathbf x_1 $$ \mathbf x_2 $$ \mathbf x_3 $经过一个循环神经网络送给更上层的网络进行处理。关于循环神经网络及其它神经网络结构在本章的后续内容还会有进一步介绍。
曹润柘 committed
1201 1202 1203 1204 1205
%----------------------------------------------
% 图
\begin{figure}[htp]
\centering
\input{./Chapter5/Figures/fig-code-niutensor-rnn}
xiaotong committed
1206
\caption{构建含有循环结构的神经网络的示例}
曹润柘 committed
1207 1208 1209 1210 1211
\label{fig:code-niutensor-rnn}
\end{figure}
%-------------------------------------------

%--5.4神经网络的参数训练-----------------------------------------
孟霞 committed
1212 1213
<<<<<<< HEAD
=======
xiaotong committed
1214
\sectionnewpage
孟霞 committed
1215
>>>>>>> master
孟霞 committed
1216
\section{神经网络的参数训练}
曹润柘 committed
1217

孟霞 committed
1218
\parinterval 简单来说,神经网络可以被看作是由变量和函数组成的表达式,例如:$ \mathbf y=\mathbf x+\mathbf b $$ \mathbf y={\rm{ReLU}}(\mathbf x\cdot \mathbf w+\mathbf b) $$ \mathbf y={\rm{Sigmoid}}({\rm{ReLU}}(\mathbf x\cdot \mathbf w^1+\mathbf b^1)\cdot \mathbf w^2+\mathbf b^2) $等等,其中的$ \mathbf x $$ \mathbf y $作为输入和输出变量, $ \mathbf w $$ \mathbf b $等其他变量作为{\small\sffamily\bfseries{模型参数}}\index{模型参数}(Model Parameters)\index{Model Parameters}。确定了函数表达式和模型参数,也就确定了神经网络模型。通常,表达式的形式需要系统开发者设计,而模型参数的数量有时会非常巨大,因此需要自动学习,这个过程也被称为模型学习或{\small\bfnew{训练}}\index{训练}(Training)\index{Training}。为了实现这个目标,通常会准备一定量的带有标准答案的数据,称之为{\small\sffamily\bfseries{有标注数据}}\index{有标注数据}(Annotated Data/Labeled Data)\index{Annotated Data/Labeled Data}。这些数据会用于对模型参数的学习,这也对应了统计模型中的参数估计过程。在机器学习中,一般把这种使用有标注数据进行统计模型参数训练的过程称为{\small\sffamily\bfseries{有指导的训练}}\index{有指导的训练}{\small\sffamily\bfseries{有监督的训练}}\index{有监督的训练}(Supervised Training)\index{Supervised Training}。在本章中,如果没有特殊说明,模型训练都是指有监督的训练。那么神经网络内部是怎样利用有标注数据对参数进行训练的呢?
曹润柘 committed
1219

1220
\parinterval 为了回答这个问题,可以把模型参数的学习过程看作是一个优化问题,即找到一组参数,使得模型达到某种最优的状态。这个问题又可以被转化为两个新的问题:
曹润柘 committed
1221 1222 1223 1224 1225 1226 1227 1228 1229

\vspace{0.5em}
\begin{itemize}
\item 优化的目标是什么?
\vspace{0.5em}
\item 如何调整参数以达到优化目标?
\end{itemize}
\vspace{0.5em}

1230
\parinterval 下面会围绕这两个问题对神经网络的参数学习方法展开介绍。
曹润柘 committed
1231 1232

%--5.4.1 损失函数---------------------
孟霞 committed
1233
\subsection{损失函数}
曹润柘 committed
1234

孟霞 committed
1235
\parinterval 在神经网络的有监督学习中,训练模型的数据是由输入和正确答案所组成的样本构成的。假设有多个输入样本$ \{\mathbf x_1,\mathbf x_2,\dots,\mathbf x_n\} $,每一个$ \mathbf x_i $都对应一个正确答案$ \mathbf {\widetilde y}_i $$ \{\mathbf x_i,\mathbf {\widetilde y}_i\} $就构成一个优化神经网络的{\small\sffamily\bfseries{训练数据集合}}\index{训练数据集合}(Training Data Set)\index{Training Data Set}。对于一个神经网络模型$ \mathbf y=f(\mathbf x) $,每个$ \mathbf x_i $也会有一个输出$ \mathbf y_i $。如果可以度量正确答案$ \mathbf {\widetilde y}_i $和神经网络输出$ \mathbf y_i $之间的偏差,进而通过调整网络参数减小这种偏差,就可以得到更好的模型。
曹润柘 committed
1236

孟霞 committed
1237
\parinterval 通常,可以通过设计{\small\sffamily\bfseries{损失函数}}\index{损失函数}(Loss Function)\index{Loss Function}来度量正确答案$ \mathbf {\widetilde y}_i $和神经网络输出$ \mathbf y_i $之间的偏差。而这个损失函数往往充当训练的{\small\sffamily\bfseries{目标函数}}\index{目标函数}(Objective Function)\index{Objective Function},神经网络训练就是通过不断调整神经网络内部的参数而使损失函数最小化。图\ref{fig:absolute-loss}展示了一个绝对值损失函数的实例。
曹润柘 committed
1238 1239 1240 1241 1242 1243 1244 1245 1246 1247
%----------------------------------------------
% 图
\begin{figure}[htp]
\centering
\input{./Chapter5/Figures/fig-absolute-loss}
\caption{正确答案与神经网络输出之间的偏差}
\label{fig:absolute-loss}
\end{figure}
%-------------------------------------------

1248
\parinterval 这里用$ Loss(\mathbf {\widetilde y}_i,\mathbf y_i) $表示网络输出$ \mathbf y_i $相对于答案$ \mathbf {\widetilde y}_i $的损失,简记为$ L $。表\ref{tab3}是几种常见损失函数的定义。需要注意的是,没有一种损失函数可以适用于所有的问题。损失函数的选择取决于许多因素,包括:数据中是否有离群点、模型结构的选择、是否易于找到函数的导数以及预测结果的置信度等。对于相同的神经网络,不同的损失函数会对训练得到的模型产生不同的影响。对于新的问题,如果无法找到已有的、适合于该问题的损失函数,研究人员也可以自定义损失函数。因此设计新的损失函数也是神经网络中有趣的研究方向。
曹润柘 committed
1249 1250 1251 1252 1253 1254 1255 1256

%表3--------------------------------------------------------------------
\begin{table}[htp]
\centering
\caption{常见的损失函数}
\label{tab3}
\small
\begin{tabular}{l | l l}
曹润柘 committed
1257
\rule{0pt}{15pt}     名称 & 定义 & 应用  \\
曹润柘 committed
1258
\hline
曹润柘 committed
1259 1260 1261 1262 1263 1264 1265
\rule{0pt}{15pt}     0-1损失 & $ L=\begin{cases} 0 & \mathbf {\widetilde y}_i=\mathbf y_i \\1 & \mathbf {\widetilde y}_i\not =\mathbf y_i\end{cases} $ & 感知机  \\
\rule{0pt}{15pt}     Hinge损失 & $ L={\rm {max}}(0,1-\mathbf {\widetilde y}_i\cdot \mathbf y_i) $ & SVM  \\
\rule{0pt}{15pt}     绝对值损失 & $ L=\vert \mathbf {\widetilde y}_i-\mathbf y_i\vert $ & 回归  \\
\rule{0pt}{15pt}     Logistic损失 & $ L={\rm{log}}(1+\mathbf {\widetilde y}_i\cdot \mathbf y_i) $ & 回归  \\
\rule{0pt}{15pt}     平方损失 & $ L={(\mathbf {\widetilde y}_i-\mathbf y_i)}^2 $ & 回归  \\
\rule{0pt}{15pt}     指数损失 & $ L={\rm{exp}}(-\mathbf {\widetilde y}_i\cdot \mathbf y_i) $ & AdaBoost  \\
\rule{0pt}{15pt}     交叉熵损失 & $ L=-\sum_{k}{\mathbf y_i^{[k]}{\rm {log}}\mathbf {\widetilde y}_i^{[k]}} $ & 多分类  \\
曹润柘 committed
1266 1267 1268 1269
\end{tabular}
\end{table}
%表3--------------------------------------------------------------------

曹润柘 committed
1270
\parinterval 在实际系统开发中,损失函数中除了损失项(即用来度量正确答案$ \mathbf {\widetilde y}_i $和神经网络输出$ \mathbf y_i $之间的偏差的部分)之外,还可以包括正则项,比如L1正则和L2正则。设置正则项本质上是要加入一些偏置,使模型在优化的过程中偏向某个方向多一些。关于正则项的内容将在\ref{sec:5.4.5}节详细阐述。此外,在第七章的内容中还会看到,使用恰当的正则项可以大大提升基于神经网络的机器翻译系统性能。
曹润柘 committed
1271
%--5.4.2 基于梯度的参数优化---------------------
孟霞 committed
1272
\subsection{基于梯度的参数优化}\label{sec5:para-training}
曹润柘 committed
1273

xiaotong committed
1274
\parinterval 对于第$ i $个样本$ (\mathbf x_i,\mathbf {\widetilde y}_i) $,把损失函数$ Loss(\mathbf {\widetilde y}_i,\mathbf y_i) $看作是参数$ \mathbf w $的函数\footnote{为了简化描述,可以用$ \mathbf w $表示神经网络中的所有参数}。因为输出$ \mathbf y_i $是由输入$ \mathbf x_i $和模型参数$ \mathbf w $决定,因此也把损失函数写为$ L(\mathbf x_i,\mathbf {\widetilde y}_i;\mathbf w) $。参数学习过程可以被描述为
曹润柘 committed
1275 1276
%公式--------------------------------------------------------------------
\begin{eqnarray}
xiaotong committed
1277
\widehat{\mathbf w}&=&\mathop{\arg\min}_{\mathbf w}\frac{1}{n}\sum_{i=1}^{n}{L(\mathbf x_i,\mathbf {\widetilde y}_i;\mathbf w)}
曹润柘 committed
1278 1279 1280
\label{eqa1.28}
\end{eqnarray}
%公式--------------------------------------------------------------------
孟霞 committed
1281
\noindent 其中,$ \widehat{\mathbf w} $表示在训练数据上使损失的平均值达到最小的参数。$ \frac{1}{n}\sum_{i=1}^{n}{L(\mathbf x_i,\mathbf {\widetilde y}_i;\mathbf w)} $也被称作{\small\sffamily\bfseries{代价函数}}\index{代价函数}(Cost Function)\index{Cost Function},它是损失函数均值期望的估计,记为$ J(\mathbf w) $
曹润柘 committed
1282

孟霞 committed
1283
\parinterval 参数优化的核心问题是:找到使代价函数$ J(\mathbf w) $达到最小的$ \mathbf w $。然而$ J(\mathbf w) $可能会包含大量的参数,比如,基于神经网络的机器翻译模型的参数量可能会超过一亿个。这时不可能用手动方法进行调参。为了实现高效的参数优化,比较常用的手段是使用{\small\bfnew{梯度下降方法}}\index{梯度下降方法}(Gradient Descent Method)\index{Gradient Descent Method}
曹润柘 committed
1284
%--5.4.2.1梯度下降---------------------
孟霞 committed
1285
\subsubsection{梯度下降}
曹润柘 committed
1286

xiaotong committed
1287
\parinterval 梯度下降法是一种常用的优化方法,非常适用于目标函数可微分的问题。它基本思想是,给定函数上的第一个点,可以找到使函数值变化最大的方向,然后前进一``步'',这样模型就可以朝着更大(或更小)的函数值以最快的速度移动\footnote{梯度下降的一种实现是{\scriptsize\bfnew{最速下降}}(Steepest Descent)。该方法的每一步移动都选取合适的步长,进而使目标函数能得到最大程度的增长(或下降)。}。具体来说,梯度下降通过迭代更新参数$ \mathbf w $,不断沿着梯度的反方向让参数$ \mathbf w $朝着损失函数更小的方向移动:如果$ J(\mathbf w) $$ \mathbf w $可微分,则$ \frac{\partial J(\mathbf w)}{\partial \mathbf w} $将指向$ J(\mathbf w) $$ \mathbf w $处变化最大的方向,这里将其称之为梯度方向。$ \mathbf w $沿着梯度方向更新,新的$ \mathbf w $可以使函数更接近极值,其过程如图\ref{fig:gradient-descent}所示。
曹润柘 committed
1288 1289 1290 1291
%----------------------------------------------
% 图
\begin{figure}[htp]
\centering
曹润柘 committed
1292
\includegraphics{./Chapter5/Figures/fig-gradient-descent.pdf}
xiaotong committed
1293
\caption{函数上一个点沿着不同方向移动的示例}
曹润柘 committed
1294 1295 1296 1297
\label{fig:gradient-descent}
\end{figure}
%-------------------------------------------

孟霞 committed
1298
\parinterval 应用梯度下降算法时,首先需要初始化参数w。一般情况下深度学习中的参数应该初始化为一个不太大的随机数。一旦初始化$\mathbf{w}$后,就开始对模型进行不断的更新,{\small\sffamily\bfseries{参数更新的规则}}\index{参数更新的规则}(Update Rule)\index{Update Rule}为:
曹润柘 committed
1299 1300
%公式--------------------------------------------------------------------
\begin{eqnarray}
曹润柘 committed
1301
\mathbf w_{t+1}&=&\mathbf w_{t}-\alpha \cdot \frac{\partial J(\mathbf w)}{\partial \mathbf w}
曹润柘 committed
1302 1303 1304
\label{eqa1.29}
\end{eqnarray}
%公式--------------------------------------------------------------------
孟霞 committed
1305
\noindent 其中$t $表示更新的步数,$ \alpha $是一个参数,被称作{\small\sffamily\bfseries{学习率}}\index{学习率}(Learning Rate)\index{Learning Rate},表示更新步幅的大小。$ \alpha $的设置需要根据任务进行调整。
曹润柘 committed
1306

孟霞 committed
1307
\parinterval 从优化的角度看,梯度下降是一种典型的 {\small\bfnew{基于梯度的方法}}\index{基于梯度的方法}(Gradient-based Method)\index{Gradient-based Method},属于基于一阶导数的方法。其他类似的方法还有牛顿法、共轭方向法、拟牛顿法等。在具体实现时,公式\ref{eqa1.29}可以有以下不同的形式。
曹润柘 committed
1308 1309 1310

%--批量梯度下降---------------------
\vspace{0.5em}
孟霞 committed
1311
\noindent {\small\sffamily\bfseries{a)批量梯度下降\index{批量梯度下降}(Batch Gradient Descent)\index{Batch Gradient Descent}}}
曹润柘 committed
1312 1313 1314 1315 1316

\vspace{0.5em}
\parinterval 批量梯度下降是梯度下降方法中最原始的形式,这种梯度下降方法在每一次迭代时使用所有的样本进行参数更新。参数优化的目标函数是
%公式--------------------------------------------------------------------
\begin{eqnarray}
曹润柘 committed
1317
J(\mathbf w)&=&\frac{1}{n}\sum_{i=1}^{n}{L(\mathbf x_i,\mathbf {\widetilde y}_i;\mathbf w)}
曹润柘 committed
1318 1319 1320 1321 1322
\label{eqa1.30}
\end{eqnarray}
%公式--------------------------------------------------------------------
\parinterval\ref{eqa1.30}是式\ref{eqa1.29}的严格实现,也就是将全部训练样本的平均损失作为目标函数。由全数据集确定的方向能够更好地代表样本总体,从而朝着模型在数据上整体优化所在的方向更新参数。

xiaotong committed
1323
\parinterval 不过,这种方法的缺点也十分明显,因为要在全部训练数据上最小化损失,每一次参数更新都需要计算在所有样本上的损失。在使用海量数据进行训练的情况下,这种计算是非常消耗时间的。当训练数据规模很大时,很少使用这种方法。
曹润柘 committed
1324 1325 1326

%--随机梯度下降---------------------
\vspace{0.5em}
孟霞 committed
1327
\noindent {\small\sffamily\bfseries{b)随机梯度下降\index{随机梯度下降}(Stochastic Gradient Descent)\index{Stochastic Gradient Descent}}}
曹润柘 committed
1328 1329 1330 1331 1332

\vspace{0.5em}
\parinterval 随机梯度下降(简称SGD)不同于批量梯度下降,每次迭代只使用一个样本对参数进行更新。SGD的目标函数是
%公式--------------------------------------------------------------------
\begin{eqnarray}
曹润柘 committed
1333
J(\mathbf w)&=&L(\mathbf x_i,\mathbf {\widetilde y}_i;\mathbf w)
曹润柘 committed
1334 1335 1336
\label{eqa1.31}
\end{eqnarray}
%公式--------------------------------------------------------------------
孟霞 committed
1337
\noindent 由于每次只随机选取一个样本$(\mathbf x_i,\mathbf {\widetilde y}_i)$进行优化,这样更新的计算代价低,参数更新的速度大大加快,而且也适用于利用少量样本进行在线学习的情况\footnote{比如,训练数据不是一次给定的,而是随着模型的使用不断追加的。这时,需要不断地用新的训练样本更新模型,这种模式也被称作{\scriptsize\bfnew{在线学习}}(Online Learning)}
曹润柘 committed
1338

xiaotong committed
1339
\parinterval 因为随机梯度下降算法每次优化的只是某一个样本上的损失,所以它的问题也非常明显:单个样本上的损失无法代表在全部样本上的损失,因此参数更新的效率低,方法收敛速度极慢。即使在目标函数为强凸函数的情况下,SGD仍旧无法做到线性收敛。
曹润柘 committed
1340 1341 1342

%--小批量梯度下降---------------------
\vspace{0.5em}
孟霞 committed
1343
\noindent {\small\sffamily\bfseries{c)小批量梯度下降\index{小批量梯度下降}(Mini-Batch Gradient Descent)\index{Mini-Batch Gradient Descent}}}
曹润柘 committed
1344 1345

\vspace{0.5em}
曹润柘 committed
1346
\parinterval 为了综合批量梯度下降和随机梯度下降的优缺点,在实际应用中一般采用这两个算法的折中\ \dash \ 小批量梯度下降。其思想是:每次迭代计算一小部分训练数据的损失函数,并对参数进行更新。这一小部分数据被称为一个批次(mini-batch或者batch)。小批量梯度下降的参数优化的目标函数如下:
曹润柘 committed
1347 1348
%公式--------------------------------------------------------------------
\begin{eqnarray}
xiaotong committed
1349
J(\mathbf w)&=&\frac{1}{m}\sum_{i=j}^{j+m-1}{L(\mathbf x_i,\mathbf {\widetilde y}_i;\mathbf w)}
曹润柘 committed
1350 1351 1352
\label{eqa1.32}
\end{eqnarray}
%公式--------------------------------------------------------------------
xiaotong committed
1353 1354
\noindent 其中$ m $表示一个批次中的样本的数量,$ j $表示这个批次在全体训练数据的起始位置。这种方法可以更充分的利用GPU设备,因为批次中的样本可以一起计算。而且每次使用多个样本可以大大减小使模型收敛所需要的参数更新次数。但是需要注意的是批次大小的选择对模型的最终性能是存在一定影响的。

曹润柘 committed
1355
%--5.4.2.2梯度获取---------------------
孟霞 committed
1356
\subsubsection{梯度获取}
曹润柘 committed
1357

曹润柘 committed
1358
\parinterval 梯度下降算法的一个核心是要得到目标函数相对于参数的梯度。下面将介绍三种常见的求梯度方法:数值微分、符号微分和自动微分,深度学习实现过程中多是采用自动微分方法计算梯度\upcite{baydin2017automatic}
曹润柘 committed
1359 1360 1361

%--数值微分---------------------
\vspace{0.5em}
孟霞 committed
1362
\noindent {\small\sffamily\bfseries{a) 数值微分\index{数值微分}(Numerical Differentiation)\index{Numerical Differentiation}}}
曹润柘 committed
1363 1364 1365 1366 1367

\vspace{0.5em}
\parinterval 数学上,梯度的求解其实就是求函数偏导的问题。导数是用极限来定义的,如下:
%公式--------------------------------------------------------------------
\begin{eqnarray}
曹润柘 committed
1368
\frac{\partial L(\mathbf w)}{\partial \mathbf w}&=&\lim\limits_{\Delta \mathbf w \to 0}\frac{L(\mathbf w+\Delta \mathbf w)-L(\mathbf w-\Delta \mathbf w)}{2\Delta \mathbf w}
曹润柘 committed
1369 1370 1371
\label{eqa1.33}
\end{eqnarray}
%公式--------------------------------------------------------------------
1372
\noindent 其中,$ \Delta \mathbf w $表示参数的一个很小的变化值。式\ref{eqa1.33}也被称作导数的双边定义。如果一个函数是初等函数,可以用求导法则来求得其导函数。如果不知道函数导数的解析式,则必须利用数值方法来求解该函数在某个点上的导数,这种方法就是数值微分。
曹润柘 committed
1373 1374 1375

\parinterval 数值微分根据导数的原始定义完成,根据公式可知,要得到损失函数在某个参数状态$ \mathbf w $下的梯度,可以将$ \mathbf w $增大或减小一点($ \Delta \mathbf w $),例如,取$ \Delta \mathbf w=0.0001 $,之后观测损失函数的变化与$ \Delta \mathbf w $的比值。$ \Delta \mathbf w $的取值越小计算的结果越接近导数的真实值,但是对计算的精度要求越高。

孟霞 committed
1376
\parinterval 这种求梯度的方法很简单,但是计算量很大,求解速度非常慢,而且这种方法会造成{\small\sffamily\bfseries{截断误差}}\index{截断误差}(Truncation Error)\index{Truncation Error}{\small\sffamily\bfseries{舍入误差}}\index{舍入误差}(Round-off Error)\index{Round-off Error}。在网络比较复杂、参数量稍微有点大的模型上一般不会使用这种方法。
曹润柘 committed
1377

xiaotong committed
1378
\parinterval 截断误差和舍入误差是如何造成的呢?数值微分方法求梯度时,需用极限或无穷过程来求得。然而计算机需要将求解过程化为一系列有限的算术运算和逻辑运算。这样就要对某种无穷过程进行``截断'',即仅保留无穷过程的前段有限序列而舍弃它的后段。这就带来截断误差;舍入误差,是指运算得到的近似值和精确值之间的差异。由于数值微分方法计算复杂函数的梯度问题时,经过无数次的近似,每一次近似都产生了舍入误差,在这样的情况下,误差会随着运算次数增加而积累得很大,最终得出没有意义的运算结果。实际上,截断误差和舍入误差在训练复杂神经网络中,特别是使用低精度计算时,也会出现,因此是实际系统研发中需要注意的问题。
曹润柘 committed
1379

xiaotong committed
1380
\parinterval 尽管数值微分不适用于大模型中的梯度求解,但是由于其非常简单,因此经常被用于检验其他梯度计算方法的正确性。比如在实现反向传播的时候(详见\ref{sec:5.4.6}节),可以检验求导是否正确(Gradient Check),这个过程就是利用数值微分实现的。
曹润柘 committed
1381 1382 1383

%--符号微分---------------------
\vspace{0.5em}
孟霞 committed
1384
\noindent {\small\sffamily\bfseries{b) 符号微分\index{符号微分}(Symbolic Differentiation)\index{Symbolic Differentiation}}}
曹润柘 committed
1385 1386

\vspace{0.5em}
xiaotong committed
1387
\parinterval 顾名思义,符号微分就是通过建立符号表达式求解微分的方法:借助符号表达式和求导公式,推导出目标函数关于自变量的微分表达式,最后再带入具体数值得到微分结果。例如,对于表达式$ L(\mathbf w)=\mathbf x\cdot \mathbf w+2\mathbf w^2 $,可以手动推导出微分表达式$ \frac{\partial L(\mathbf w)}{\partial \mathbf w}=\mathbf x+4\mathbf w  $,最后将具体数值$ \mathbf x = {(\begin{array}{cc} 2 & -3\end{array})} $$ \mathbf w = {(\begin{array}{cc} -1 & 1\end{array})} $带入后,得到微分结果$\frac{\partial L(\mathbf w)}{\partial \mathbf w}= {(\begin{array}{cc} 2 & -3\end{array})}+4{(\begin{array}{cc} -1 & 1\end{array})}= {(\begin{array}{cc} -2 & 1\end{array})}$
曹润柘 committed
1388

孟霞 committed
1389
\parinterval  使用这种求梯度的方法,要求必须将目标函数转化成一种完整的数学表达式,这个过程中存在{\small\bfnew{表达式膨胀}}\index{表达式膨胀}(Expression Swell)\index{Expression Swell}的问题,很容易导致符号微分求解的表达式急速``膨胀'',大大增加系统存储和处理表达式的负担。关于这个问题的一个实例请看表\ref{tab4}。在深层的神经网络中,神经元数量和参数量极大,损失函数的表达式会非常冗长,不易存储和管理,而且,仅仅写出损失函数的微分表达式就是一个很庞大的工作量。从另一方面来说,这里真正需要的是微分的结果值,而不是微分表达式,推导微分表达式仅仅是求解过程中的中间产物。
曹润柘 committed
1390 1391 1392 1393 1394 1395 1396 1397

%表4--------------------------------------------------------------------
\begin{table}[htp]
\centering
\caption{符号微分的表达式随函数的规模增加而膨胀}
\label{tab4}
\small
\begin{tabular}{l | l l}
曹润柘 committed
1398
\rule{0pt}{18pt}     函数 & 微分表达式 & 化简的微分表达式  \\
曹润柘 committed
1399
\hline
xiaotong committed
1400 1401
\rule{0pt}{18pt}     $x$ & $1$ & $1$ \\
\rule{0pt}{18pt}     $x\cdot(x+1)$ & $(x+1)+x$ & $2x + 1$ \\
曹润柘 committed
1402 1403
\rule{0pt}{18pt}     $x\cdot(x+1)\cdot$ & $(x+1)\cdot(x^2+x+1)$ & $4x^3+6x^2$ \\
$(x^2+x+1)$ & $+x\cdot(x^2+x+1)$ & $+4x+1$ \\
xiaotong committed
1404
                     & $+x\cdot(x+1)\cdot(2x+1)$ & \\
曹润柘 committed
1405 1406 1407 1408 1409 1410 1411 1412 1413 1414
\rule{0pt}{18pt}     $(x^2+x)\cdot$ & $(2x+1)\cdot(x^2+x+1)\cdot$ & $8x^7+28x^6$ \\
$(x^2+x+1)\cdot$ & $(x^4+2x^3+2x^2+x+1)$ & $+48x^5+50x^4$ \\
$(x^4+2x^3$ & $+(2x+1)\cdot(x^2+x)\cdot$ & $+36x^3+18x^2$ \\
$+2x^2+x+1)$ & \ \ $(x^4+2x^3+2x^2+x+1)$ & $+6x+1$ \\
 & $+(x^2+x)\cdot(x^2+x+1)\cdot$ & \\
 & \ \ $(4x^3+6x^2+4x+1)$ & \\
\end{tabular}
\end{table}
%表4--------------------------------------------------------------------
%--自动微分---------------------
孟霞 committed
1415
\noindent {\small\sffamily\bfseries{c) 自动微分\index{自动微分}(Automatic Differentiation)\index{Automatic Differentiation}}}
曹润柘 committed
1416 1417 1418 1419

\vspace{0.5em}
\parinterval  自动微分是一种介于数值微分和符号微分的方法:将符号微分应用于最基本的算子,如常数、幂函数、指数函数、对数函数、三角函数等,然后代入数值,保留中间结果,最后再应用于整个函数。通过这种方式,将复杂的微分变成了简单的步骤,这些步骤完全自动化,而且容易进行存储和计算。

xiaotong committed
1420
\parinterval  由于它只对基本函数或常数运用符号微分法则,所以它非常适合嵌入编程语言的循环条件等结构中,形成一种程序化的微分过程。在具体实现时,自动微分往往被当做是一种基于图的计算,相关的理论和技术方法相对成熟,因此是深度学习中使用最广泛的一种方法。不同于一般的编程模式,图计算先生成计算图,然后按照计算图执行计算过程。
曹润柘 committed
1421

孟霞 committed
1422
\parinterval  自动微分可以用一种{\small\sffamily\bfseries{反向模式}}\index{反向模式}(Backward Mode)\index{Backward Mode}即反向传播思想进行描述。首先,从神经网络的输入,逐层计算每层网络的输出值。如图\ref{fig:forward-propagationt},第$ i $层的输出$ \mathbf h_i $作为第$ i+1 $层的输入,数据流在神经网络内部逐层传递。
曹润柘 committed
1423 1424 1425 1426 1427 1428 1429 1430 1431 1432 1433 1434 1435 1436 1437 1438 1439 1440 1441 1442
%----------------------------------------------
% 图
\begin{figure}[htp]
\centering
\input{./Chapter5/Figures/fig-forward-propagation}
\caption{前向计算示意图}
\label{fig:forward-propagationt}
\end{figure}
%-------------------------------------------

\parinterval  前向计算实际上就是网络构建的过程,所有的计算都会被转化为计算图上的节点,前向计算和反向计算都依赖计算图来完成。通常,构建计算图有以下两种实现方式。

\vspace{0.5em}
\begin{itemize}
\item 动态图(如Pytorch、NiuTensor等):前向计算与计算图的搭建同时进行,函数表达式写完即能得到前向计算的结果,有着灵活、易于调试的优点。
\vspace{0.5em}
\item 静态图(如Tensorflow):先搭建计算图,后执行运算,函数表达式完成后,并不能得到前向计算结果,需要显性调用一个Forward函数。但是计算图可以进行深度优化,执行效率较高。
\end{itemize}
\vspace{0.5em}

xiaotong committed
1443
\parinterval  对于反向计算的实现,一般从神经网络的输出开始,逆向逐层计算每层网络输入所对应的微分结果。如图\ref{fig:back-propagationt},在第$ i $层计算此处的梯度$ \frac{\partial L}{\partial \mathbf h_i} $,并将微分值向前一层传递,根据链式法则继续计算梯度。
曹润柘 committed
1444 1445 1446 1447 1448 1449 1450 1451 1452 1453
%----------------------------------------------
% 图
\begin{figure}[htp]
\centering
\input{./Chapter5/Figures/fig-back-propagation}
\caption{反向计算示意图}
\label{fig:back-propagationt}
\end{figure}
%-------------------------------------------

曹润柘 committed
1454
\parinterval  反向计算也是深度学习中反向传播方法的基础。其实现的内部细节将在\ref{sec:5.4.6}节详细阐述,所以在这里不再赘述。
曹润柘 committed
1455
%--5.4.2.3梯度下降---------------------
孟霞 committed
1456
\subsubsection{基于梯度的方法的变种和改进}\label{sec:5.4.2.3}
曹润柘 committed
1457 1458 1459

\parinterval  参数优化通常基于梯度下降算法,即在每个更新步骤$ t $,沿梯度方向更新参数:
\begin{eqnarray}
曹润柘 committed
1460
\mathbf w_{t+1}&=&\mathbf w_{t}-\alpha \cdot \frac{\partial J(\mathbf w_t)}{\partial \mathbf w_t}
曹润柘 committed
1461 1462
\label{}
\end{eqnarray}
孟霞 committed
1463
\noindent 其中$ \alpha $是一个参数,表示更新步幅的大小,称作{\small\bfnew{学习率}}\index{学习率}(Learning Rate)\index{Learning Rate}。当然,这是一种最基本的梯度下降方法。如果函数的形状非均向,比如呈延伸状,搜索最优点的路径就会非常低效,因为这时梯度的方向并没有指向最小值的方向,并且随着参数的更新,梯度方向往往呈锯齿状,这将是一条相当低效的路径;此外这种梯度下降算法并不是总能到达最优点,而是在其附近徘徊;还有一个最令人苦恼的问题\ \dash \ 设置学习率,如果学习率设置的比较小,会导致训练收敛速度慢,如果学习率设置的比较大,会导致训练过程中因为优化幅度过大而频频跳过最优点。我们希望网络在优化的时候损失函数有一个很好的收敛速度同时又不至于摆动幅度太大。
曹润柘 committed
1464 1465 1466 1467 1468

\parinterval  针对以上问题,很多学者尝试对梯度下降方法做出改进,如Momentum, Adagrad, Adadelta, RMSprop, Adam, AdaMax, Nadam, AMSGrad等等,在这里将介绍Momentum、AdaGrad、RMSprop、Adam这4 种方法。

%--Momentum---------------------
\vspace{0.5em}
孟霞 committed
1469
\noindent {\small\sffamily\bfseries{a) Momentum \index{Momentum}}}
曹润柘 committed
1470 1471

\vspace{0.5em}
曹润柘 committed
1472
\parinterval  Momentum梯度下降算法的参数更新公式如下\footnote{在梯度下降算法的几种改进方法的公式中,其更新对象是某个具体参数而非参数矩阵,因此不再使用加粗样式}
曹润柘 committed
1473 1474 1475 1476 1477 1478 1479
%公式--------------------------------------------------------------------
\begin{eqnarray}
v_t&=&\beta v_{t-1}+(1-\beta)\frac{\partial L}{\partial w_t}\label{eqa1.34}\\
w_{t+1}&=&w_t-\alpha v_t
\label{eqa1.35}
\end{eqnarray}
%公式--------------------------------------------------------------------
曹润柘 committed
1480
\parinterval  该算法引入了一个``动量''的理念\upcite{qian1999momentum},它是基于梯度的移动指数加权平均。公式中的$ v_t $是损失函数在前$ t-1 $次更新中累积的梯度动量,$ \beta $是梯度累积的一个指数,这里一般设置值为0.9。所以Momentum梯度下降算法的主要思想就是对网络的参数进行平滑处理,让梯度的摆动幅度变得更小。
曹润柘 committed
1481

xiaotong committed
1482
\parinterval  这里的``梯度''不再只是现在的损失函数的梯度,而是之前的梯度的加权和。在原始的梯度下降算法中,如果在某个参数状态下,梯度方向变化特别大,甚至与上一次参数更新中梯度方向成90度夹角,下一次参数更新中梯度方向可能又是一次90度的改变,这时参数优化路径将会成``锯齿''状(如图\ref{fig:sawtooth }所示),优化效率极慢。而Momentum梯度下降算法不会让梯度发生90度的变化,而是让梯度慢慢发生改变:如果当前的梯度方向与之前的梯度方向相同,在原梯度方向上加速更新参数;如果当前的梯度方向与之前的梯度方向相反,并不会产生一个急转弯,而是尽量把优化路径平滑地进行改变。这样做的优点也非常明显,一方面杜绝了``锯齿''状优化路径的出现,另一方面将优化幅度变得更加平滑,不会导致频频跳过最优点。
曹润柘 committed
1483 1484 1485 1486 1487
%----------------------------------------------
% 图
\begin{figure}[htp]
\centering
\input{./Chapter5/Figures/fig-sawtooth}
孟霞 committed
1488
\caption{Momentum梯度下降 vs 普通梯度下降}
曹润柘 committed
1489 1490 1491 1492 1493
\label{fig:sawtooth }
\end{figure}
%-------------------------------------------

%--AdaGrad---------------------
孟霞 committed
1494
\noindent {\small\sffamily\bfseries{b) AdaGrad \index{AdaGrad}}}
曹润柘 committed
1495 1496

\vspace{0.5em}
曹润柘 committed
1497
\parinterval  在神经网络的学习中,学习率的设置很重要。学习率过小, 会导致学习花费过多时间;反过来,学习率过大,则会导致学习发散,甚至造成模型的``跑偏''。在深度学习实现过程中,有一种被称为学习率{\small\bfnew{衰减}}\index{衰减}(Decay)\index{Decay}的方法,即最初设置较大的学习率,随着学习的进行,使学习率逐渐减小,这种方法相当于将``全体''参数的学习率值一起降低。AdaGrad梯度下降算法进一步发展了这个思想\upcite{duchi2011adaptive}
曹润柘 committed
1498 1499 1500 1501 1502 1503 1504 1505 1506 1507 1508 1509 1510

\parinterval  AdaGrad会为参数的每个元素适当地调整学习率,与此同时进行学习。其参数更新公式为:
%公式--------------------------------------------------------------------
\begin{eqnarray}
z_t&=&z_{t-1}+\frac{\partial L}{\partial w_t} \cdot  \frac{\partial L}{\partial w_t}\label{eqa1.36}\\
w_{t+1}&=&w_t-\eta \frac{1}{\sqrt{z_t}}\cdot \frac{\partial L}{\partial w_t}
\label{eqa1.37}
\end{eqnarray}
%公式--------------------------------------------------------------------
\parinterval  这里新出现了变量$ z $,它保存了以前的所有梯度值的平方和,在更新参数时,通过乘以$ \frac{1}{\sqrt{z_t}} $ ,就可以调整学习的尺度。这意味着,变动较大(被大幅更新)的参数的学习率将变小。也就是说,可以按参数的元素进行学习率衰减,使变动大的参数的学习率逐渐减小。

%--RMSprop ---------------------
\vspace{0.5em}
孟霞 committed
1511
\noindent {\small\sffamily\bfseries{c) RMSprop \index{RMSprop}}}
曹润柘 committed
1512 1513

\vspace{0.5em}
曹润柘 committed
1514
\parinterval  RMSprop算法是一种自适应学习率的方法\upcite{tieleman2012rmsprop},它是对AdaGrad算法的一种改进,可以避免AdaGrad算法中学习率不断单调下降以至于过早衰减的缺点。
曹润柘 committed
1515 1516 1517 1518 1519 1520 1521 1522 1523 1524 1525 1526 1527 1528 1529

\parinterval  RMSProp 算法沿袭了Momentum梯度下降算法中指数加权平均的思路,不过Momentum算法中加权平均的对象是梯度(即$ \frac{\partial L}{\partial w}$),而RMSProp 算法加权平均的对象是梯度的平方(即$ \frac{\partial L}{\partial w} \cdot  \frac{\partial L}{\partial w} $)。RMSProp 算法的参数更新公式为:
%公式--------------------------------------------------------------------
\begin{eqnarray}
z_t&=&\gamma z_{t-1}+(1-\gamma) \frac{\partial L}{\partial w_t} \cdot  \frac{\partial L}{\partial w_t}\label{eqa1.38}\\
w_{t+1}&=&w_t-\frac{\eta}{\sqrt{z_t+\epsilon}}\cdot \frac{\partial L}{\partial w_t}
\label{eqa1.39}
\end{eqnarray}
%公式--------------------------------------------------------------------
\parinterval  公式中的$ \epsilon $是为了维持数值稳定性而添加的常数,例如 $ 10^{-8} $。和 AdaGrad 的想法类似,模型参数中每个元素都拥有各自的学习率。

\parinterval  RMSProp与AdaGrad相比,学习率的分母部分(即两种梯度下降算法迭代公式中的$ z $)的计算由累积方式变成了指数衰减移动平均。于是,每个参数的学习率并不是呈衰减趋势,而是既可以变小也可以变大,从而避免AdaGrad算法中学习率不断单调下降以至于过早衰减的缺点。

%--Adam ---------------------
\vspace{0.5em}
孟霞 committed
1530
\noindent {\small\sffamily\bfseries{d) Adam \index{Adam} }}
曹润柘 committed
1531 1532

\vspace{0.5em}
曹润柘 committed
1533
\parinterval  Adam梯度下降算法是在RMSProp算法的基础上进行改进的,可以将其看成是带有动量项的RMSProp算法\upcite{kingma2014adam}。该算法在自然语言处理领域非常流行。Adam 算法的参数更新公式如下,
xiaotong committed
1534

曹润柘 committed
1535 1536 1537 1538 1539 1540 1541 1542
%公式--------------------------------------------------------------------
\begin{eqnarray}
v_t&=&\beta v_{t-1}+(1-\beta)\frac{\partial L}{\partial w_t}\label{eqa1.40}\\
z_t&=&\gamma z_{t-1}+(1-\gamma) \frac{\partial L}{\partial w_t} \cdot  \frac{\partial L}{\partial w_t}\label{eqa1.41}\\
w_{t+1}&=&w_t-\frac{\eta}{\sqrt{z_t+\epsilon}} v_t
\label{eqa1.42}
\end{eqnarray}
%公式--------------------------------------------------------------------
xiaotong committed
1543 1544 1545

\noindent 可以看到Adam 算法相当于在RMSProp算法中引入了Momentum算法中的动量项,这样做使得Adam算法兼具了Momentum算法和RMSProp算法的优点:既能使梯度更为``平滑''地更新,同时可以为神经网络中的每个参数设置不同的学习率。

孟霞 committed
1546
\parinterval  需要注意的是包括Adam在内的很多参数更新算法中的学习率都需要人为设置。而且模型学习的效果与学习率的设置关系极大,甚至在研发实际系统时工程师需要进行大量的实验,以得到最佳的模型。第六章还会具体介绍在机器翻译中参数更新学习率设置的策略。
xiaotong committed
1547

曹润柘 committed
1548
%--5.4.3 参数更新的并行化策略---------------------
孟霞 committed
1549
\subsection{参数更新的并行化策略}
曹润柘 committed
1550

孟霞 committed
1551
\parinterval  虽然通过GPU可以加速神经网络的运算,但当神经网络较为复杂时,模型训练还是需要几天甚至几周的时间。如果希望尽可能缩短一次学习所需的时间,最直接的想法就是把不同的训练样本分配给多个GPU 或CPU,然后在这些设备上同时进行训练,即实现并行化训练。这种方法也被称作{\small\sffamily\bfseries{数据并行}}\index{数据并行}。具体实现时,有两种常用的并行化策略:(参数)同步更新和(参数)异步更新。
xiaotong committed
1552 1553 1554

\begin{itemize}

孟霞 committed
1555
\item {\small\sffamily\bfseries{同步更新}}\index{同步更新}(Synchronous Update)\index{Synchronous Update}是指所有计算设备完成计算后,统一汇总并更新参数。当所有设备的反向传播算法完成之后同步更新参数,不会出现单个设备单独对参数进行更新的情况。这种方法效果稳定,但是效率比较低,在同步更新时,每一次参数更新都需要所有设备统一开始、统一结束,如果设备的运行速度不一致,那么每一次参数更新都需要等待最慢的设备结束才能开始。
xiaotong committed
1556

孟霞 committed
1557
\item {\small\sffamily\bfseries{异步更新}}\index{异步更新}(Asynchronous Update)\index{Asynchronous Update}是指每个计算设备可以随时更新参数。不同设备可以随时读取参数的最新值,然后根据当前参数值和分配的训练样本,各自执行反向传播过程并独立更新参数。由于设备间不需要相互等待,这种方法并行度高。但是不同设备读取参数的时间可能不同,会造成不同设备上的参数不同步,导致这种方法不十分稳定,有可能无法达到较好的训练结果。
曹润柘 committed
1558

xiaotong committed
1559
\end{itemize}
曹润柘 committed
1560 1561 1562 1563 1564 1565

%----------------------------------------------
% 图
\begin{figure}[htp]
\centering
\input{./Chapter5/Figures/fig-parallel}
1566
\caption{同步更新与异步更新对比}
曹润柘 committed
1567 1568 1569 1570
\label{fig:parallel}
\end {figure}
%-------------------------------------------

孟霞 committed
1571
\parinterval\ref{fig:parallel}对比了同步更新和异步更新的区别,在这个例子中,使用4台设备对一个两层神经网络中的参数进行更新,其中使用了一个{\small\bfnew{参数服务器}}\index{参数服务器}(Parameter Server\index{Parameter Server},图中的G4)来保存最新的参数,不同设备(Worker,图中的G1、G2、G3)可以通过同步或者异步的方式访问参数服务器。图中的$ \mathbf w_o $$ \mathbf w_h $分别代表输出层和隐藏层的全部参数,操作push(P) 表示设备向参数服务器传送梯度,操作fetch(F)表示参数服务器向设备传送更新后的参数。
曹润柘 committed
1572

曹润柘 committed
1573
\parinterval  此外,在使用多个设备进行并行训练的时候,由于设备间带宽的限制,大量的数据传输会有较高的延时。对于复杂神经网络来说,设备间参数和梯度传递的时间消耗也会成为一个不得不考虑的因素。有时候,设备间数据传输的时间甚至比模型计算的时间都长,大大降低了并行度\upcite{xiao2017fast}。对于这种问题,可以考虑对数据进行压缩或者减少传输的次数来缓解问题。
曹润柘 committed
1574
%--5.4.4 梯度消失、梯度爆炸和稳定性训练---------------------
孟霞 committed
1575
\subsection{梯度消失、梯度爆炸和稳定性训练}\label{sec:5.4.4}
曹润柘 committed
1576

孟霞 committed
1577
\parinterval  深度学习中随着神经网络层数的增加,导数可能会出现指数级的下降或者指数级的增加,这种现象分别称为{\small\sffamily\bfseries{梯度消失}}\index{梯度消失}(Gradient Vanishing)\index{Gradient Vanishing}{\small\sffamily\bfseries{梯度爆炸}}\index{梯度爆炸}(Gradient Explosion)\index{Gradient Explosion}。出现这两种现象的本质原因是反向传播过程中链式法则导致梯度矩阵的多次相乘。这类问题很容易导致训练的不稳定。
曹润柘 committed
1578
%--5.4.4.1梯度消失现象及解决方法---------------------
孟霞 committed
1579
\subsubsection{易于优化的激活函数}
曹润柘 committed
1580

孟霞 committed
1581
\parinterval  网络训练过程中,如果每层网络的梯度都小于1,各层梯度的偏导数会与后面层传递而来的梯度相乘得到本层的梯度,并向前一层传递。该过程循环进行,最后导致梯度指数级地减小,这就产生了梯度消失现象。这种情况会导致神经网络层数较浅的部分梯度接近0。一般来说,产生很小梯度的原因是使用了类似于Sigmoid这样的激活函数,当输入的值过大或者过小的时候这类函数曲线会趋于直线,梯度近似为零。针对这个问题,主要的解决办法是使用更加易于优化的激活函数,比如,使用ReLU代替Sigmoid和Tanh作为激活函数。
曹润柘 committed
1582

1583
\parinterval  缓解梯度消失问题最直接的想法就是希望各层的偏导数大于或等于1。图\ref{fig:derivative1}展示了Sigmoid激活函数$ y=\frac{1}{1+e^{-x}}$的函数曲线和导函数曲线,如果使用Sigmoid作为损失函数,其梯度不可能超过0.25,这样经过链式求导之后,很容易发生梯度消失。
曹润柘 committed
1584 1585 1586 1587 1588
%----------------------------------------------
% 图
\begin{figure}[htp]
\centering
\input{./Chapter5/Figures/fig-derivative1}
1589
\caption{Sigmoid激活函数的函数曲线和导函数曲线}
曹润柘 committed
1590 1591 1592 1593
\label{fig:derivative1}
\end {figure}
%-------------------------------------------

1594
\parinterval  同理,Tanh作为激活函数也容易出现梯度消失现象,图\ref{fig:derivative2}展示了Tanh激活函数$ y=\frac{e^x-e^{-x}}{e^x+e^{-x}}$的函数曲线和导函数曲线,可以看出,Tanh激活函数比Sigmoid激活函数要好一些,但是Tanh激活函数的导数也小于1,因此无法避免梯度消失现象。
曹润柘 committed
1595 1596 1597 1598 1599
%----------------------------------------------
% 图
\begin{figure}[htp]
\centering
\input{./Chapter5/Figures/fig-derivative2}
1600
\caption{Tanh激活函数的函数曲线和导函数曲线}
曹润柘 committed
1601 1602 1603 1604
\label{fig:derivative2}
\end {figure}
%-------------------------------------------

孟霞 committed
1605
\parinterval  ReLU激活函数的思想也很简单,如果激活函数的导数为1,那么就不存在梯度消失爆炸的问题了。图\ref{fig:derivative3}展示了ReLU激活函数$ y={\rm{max}}(0,x)$的函数曲线和导函数曲线。可以很容易看出,ReLU函数的导数在正数部分是恒等于1的,因此在深层网络中使用ReLU激活函数就不会产生很小的梯度。
曹润柘 committed
1606 1607 1608 1609 1610
%----------------------------------------------
% 图
\begin{figure}[htp]
\centering
\input{./Chapter5/Figures/fig-derivative3}
孟霞 committed
1611
\caption{ReLU激活函数的函数曲线和导函数曲线}
曹润柘 committed
1612 1613 1614 1615
\label{fig:derivative3}
\end {figure}
%-------------------------------------------

1616
\parinterval  当然,梯度消失并不是仅仅可以通过改变激活函数就可以完全消除掉。随着网络层数的增加,很多因素都可能会造成梯度消失。后面也会进一步介绍其他手段,可以综合运用这些方法达到很好的缓解梯度消失问题的目的。
曹润柘 committed
1617
%--5.4.4.2梯度消失现象及解决方法---------------------
孟霞 committed
1618
\subsubsection{梯度裁剪}
曹润柘 committed
1619

孟霞 committed
1620
\parinterval  网络训练过程中,如果参数的初始值过大,而且每层网络的梯度都大于1,反向传播过程中,各层梯度的偏导数都会比较大,会导致梯度指数级地增长直至超出浮点数表示的范围,这就产生了梯度爆炸现象。如果发生这种情况,模型中离输入近的部分比离输入远的部分参数更新得更快,使网络变得非常不稳定。在极端情况下,模型的参数值变得非常大,甚至于溢出。针对梯度爆炸的问题,常用的解决办法为{\small\sffamily\bfseries{梯度裁剪}}\index{梯度裁剪}(Gradient Clipping)\index{Gradient Clipping}
曹润柘 committed
1621

孟霞 committed
1622
\parinterval    梯度裁剪的思想是设置一个梯度剪切阈值。在更新梯度的时候,如果梯度超过这个阈值,就将其强制限制在这个范围之内。假设梯度为$ \mathbf g $,梯度剪切阈值为$ \theta $,梯度裁剪的公式为
曹润柘 committed
1623 1624
%公式--------------------------------------------------------------------
\begin{eqnarray}
曹润柘 committed
1625
\mathbf g&=&{\rm{min}}(\frac{\theta}{\Vert \mathbf g\Vert},1)\mathbf g
曹润柘 committed
1626 1627 1628 1629 1630
\label{eqa1.43}
\end{eqnarray}
%公式--------------------------------------------------------------------
\noindent 其中,$ \Vert \cdot \Vert $表示$ l_2 $范数。梯度裁剪经常被使用在层数较多的模型中,如循环神经网络。
%--5.4.4.3稳定性训练---------------------
孟霞 committed
1631
\subsubsection{稳定性训练}
曹润柘 committed
1632

xiaotong committed
1633
\parinterval  为了使神经网络模型训练更加稳定,通常还会考虑其他策略。
曹润柘 committed
1634

孟霞 committed
1635
\parinterval  (1){\small\bfnew{批量归一化}}\index{批量归一化}(Batch Normalization)\index{Batch Normalization}
曹润柘 committed
1636

曹润柘 committed
1637
\parinterval  批量归一化,顾名思义,是以进行学习时的小批量样本为单位进行归一化\upcite{ioffe2015batch}。具体而言,就是对神经网络隐层输出的每一个维度,沿着批次的方向进行均值为0、方差为1的归一化。在深层神经网络中,每一层网络都可以使用批量归一化操作。这样使神经网络任意一层的输入不至于过大或过小,从而防止隐层中异常值导致模型状态的巨大改变。
曹润柘 committed
1638

孟霞 committed
1639
\parinterval  (2){\small\bfnew{层归一化}}\index{层归一化}(Layer Normalization)\index{Layer Normalization}
曹润柘 committed
1640

孟霞 committed
1641
\parinterval  类似的,层归一化更多是针对自然语言这种序列处理任务\upcite{Ba2016LayerN},它和批量归一化的原理是一样的,只是归一化操作是在序列上同一层网络的输出结果上进行的,也就是归一化操作沿着序列方向进行。这种方法可以很好的避免序列上不同位置神经网络输出结果的不可比性。同时由于归一化后所有的结果都转化到一个可比的范围,使得隐层状态可以在不同层之间进行自由组合。
曹润柘 committed
1642

孟霞 committed
1643
\parinterval  (3){\small\bfnew{残差网络}}\index{残差网络}(Residual Networks)\index{Residual Networks}
曹润柘 committed
1644

孟霞 committed
1645
\parinterval  最初,残差网络是为了解决神经网络持续加深时的模型退化问题\upcite{DBLP:journals/corr/HeZRS15},但是残差结构对解决梯度消失和梯度爆炸问题也有所帮助。有了残差结构,可以很轻松的构建几十甚至上百层的神经网络,而不用担心层数过深而造成的梯度消失问题。残差网络的结构如图\ref{fig:residual-structure}所示:
曹润柘 committed
1646 1647 1648 1649 1650 1651 1652 1653 1654 1655
%----------------------------------------------
% 图
\begin{figure}[htp]
\centering
\input{./Chapter5/Figures/fig-residual-structure}
\caption{残差网络的结构}
\label{fig:residual-structure}
\end{figure}
%-------------------------------------------

孟霞 committed
1656
\parinterval\ref{fig:residual-structure}中右侧的曲线叫做{\small\bfnew{跳接}}\index{跳接}(Shortcut Connection)\index{Shortcut Connection},通过跳接在激活函数前,将上一层(或几层)之前的输出与本层计算的输出相加,将求和的结果输入到激活函数中作为本层的输出。假设残差结构的输入为$ \mathbf x_l $,输出为$ \mathbf x_{l+1} $,则有
曹润柘 committed
1657 1658
%公式--------------------------------------------------------------------
\begin{eqnarray}
曹润柘 committed
1659
\mathbf x_{l+1}&=&F(\mathbf x_l)+\mathbf x_l
曹润柘 committed
1660 1661 1662
\label{eqa1.44}
\end{eqnarray}
%公式--------------------------------------------------------------------
孟霞 committed
1663
\parinterval  相比较于简单的多层堆叠的结构,残差网络提供了跨层连接结构。这种结构在反向传播中有很大的好处,比如,对于$ \mathbf x_l $处的梯度可以进行如下计算:
曹润柘 committed
1664 1665 1666 1667 1668 1669 1670 1671
%公式--------------------------------------------------------------------
\begin{eqnarray}
\frac{\partial L}{\partial \mathbf x_l}&=&\frac{\partial L}{\partial \mathbf x_{l+1}} \cdot  \frac{\partial \mathbf x_{l+1}}{\partial \mathbf x_l}\nonumber\\
&=&\frac{\partial L}{\partial \mathbf x_{l+1}} \cdot \left(1+\frac{\partial F(\mathbf x_l)}{\partial \mathbf x_l}\right)\nonumber\\
&=&\frac{\partial L}{\partial \mathbf x_{l+1}}+\frac{\partial L}{\partial \mathbf x_{l+1}} \cdot  \frac{\partial F(\mathbf x_l)}{\partial \mathbf x_l}
\label{eqa1.45}
\end{eqnarray}
%公式--------------------------------------------------------------------
1672
\parinterval  由上式可知,残差网络可以将后一层的梯度$ \frac{\partial L}{\partial \mathbf x_{l+1}} $不经过任何乘法项直接传递到$ \frac{\partial L}{\partial \mathbf x_l} $,从而缓解了梯度经过每一层后多次累乘造成的梯度消逝问题。在第六章中还会看到,在机器翻译中残差结构可以和层归一化一起使用,而且这种组合可以取得很好的效果。
曹润柘 committed
1673
%--5.4.5 过拟合---------------------
孟霞 committed
1674
\subsection{过拟合}\label{sec:5.4.5}
曹润柘 committed
1675

孟霞 committed
1676
\parinterval  理想中,我们总是希望尽可能地拟合输入和输出之间的函数关系,即让模型尽量模拟训练数据的中由输入预测答案的行为。然而,在实际应用中,模型在训练数据上的表现不一定代表了其在未见数据上的表现。如果模型训练过程中过度拟合训练数据,最终可能无法对未见数据做出准确的判断,这种现象叫做{\small\sffamily\bfseries{过拟合}}\index{过拟合}(Overfitting)\index{Overfitting}。随着模型复杂度增加,特别在神经网络变得更深、更宽时,过拟合问题会表现得更为突出。如果训练数据量较小,而模型又很复杂,可以``完美''的拟合这些数据,这时过拟合也很容易发生。所以在模型训练时,往往不希望去完美拟合训练数据中的每一个样本。
曹润柘 committed
1677

孟霞 committed
1678
\parinterval  {\small\sffamily\bfseries{正则化}}\index{正则化}(Regularization)\index{Regularization}是常见的缓解过拟合问题的手段,通过在损失函数中加上用来刻画模型复杂程度的正则项来惩罚过度复杂的模型,从而避免神经网络过度学习造成过拟合。引入正则化处理之后目标函数变为$ J(\mathbf w)+\lambda R(\mathbf w) $,其中$ J(\mathbf w) $是原来的代价函数,$ R(\mathbf w) $即为正则项,$ \lambda $用来调节正则项对结果影响的程度。
曹润柘 committed
1679

孟霞 committed
1680
\parinterval  过拟合的模型通常会表现为部分非零参数过多或者参数的值过大。这种参数产生的原因在于模型需要复杂的参数才能匹配样本中的个别现象甚至噪声。基于此,常见的正则化方法有L1正则化和L2正则化,其命名方式是由$ R(\mathbf w) $的计算形式来决定的。在L1正则化中,$ R(\mathbf w) $即为参数$ w $$ l_1 $范数,即$ R(\mathbf w) ={\Vert \mathbf w\Vert}_1=\sum_{i=1}^{n}{\vert w_i\vert} $;在L2正则化中,$ R(\mathbf w) $即为参数$ w $$ l_2 $范数的平方,即$ R(\mathbf w) =({\Vert \mathbf w\Vert}_2)^2=\sum_{i=1}^{n}{w_i^2} $。L1正则化中的正则项衡量了模型权数中的绝对值大小,倾向于生成值为0的参数,从而让参数变得更加稀疏;而L2正则化由于平方的加入,当参数中的某一项小到一定程度,比如0.001的时候,参数的平方结果已经可以忽略不计了,因此L2正则化会倾向生成很小的参数,在这种情况下,即便训练数据中含有少量随机噪音,模型也不太容易通过增加个别参数的值来对噪声进行过度拟合,即提高了模型的抗扰动能力。
曹润柘 committed
1681 1682 1683

\parinterval  此外,在第六章即将介绍的Dropout和Label Smoothing方法也可以被看作是一种正则化操作。它们都可以提高模型在未见数据上的泛化能力。
%--5.4.6 反向传播---------------------
孟霞 committed
1684
\subsection{反向传播}\label{sec:5.4.6}
曹润柘 committed
1685

孟霞 committed
1686
\parinterval  为了获取梯度,最常用的做法是使用自动微分技术,通常通过{\small\sffamily\bfseries{反向传播}}\index{反向传播}(back propagation)\index{back propagation}来实现。该方法分为两个计算过程:前向计算和反向计算。前向计算的目的是从输入开始,逐层计算,得到网络的输出,并记录计算图中每个节点的局部输出。反向计算过程从输出端反向计算梯度,这个过程可以被看作是一种梯度的``传播'',最终计算图中所有节点都会得到相应的梯度结果。
曹润柘 committed
1687 1688 1689 1690 1691 1692 1693 1694 1695 1696 1697 1698

\parinterval  这里,首先对反向传播算法中涉及到的符号进行统一说明。图\ref{fig:multilayer-neural-network-example}是一个多层神经网络,其中层$ k-1 $、层$ k $、层$ k+1 $均为神经网络中的隐藏层,层$ K $为神经网络中的输出层。为了化简问题,这里每层网络没有使用偏置项。
%----------------------------------------------
% 图1.7
\begin{figure}[htp]
\centering
\input{./Chapter5/Figures/fig-multilayer-neural-network-example}
\caption{多层神经网络实例}
\label{fig:multilayer-neural-network-example}
\end{figure}
%-------------------------------------------

xiaotong committed
1699
\parinterval  下面是一些符号的定义:
曹润柘 committed
1700

xiaotong committed
1701 1702 1703
\begin{itemize}

\item  $ h_i^k $:第$ k $层第$ i $个神经元的输出;
曹润柘 committed
1704

xiaotong committed
1705 1706 1707 1708
\item  $ \mathbf h^k $:第$ k $层的输出。若第$ k $层有$ n $个神经元,则:
       \begin{equation}
       \mathbf h^k=(h_1^k,h_2^k,\dots,h_n^k)
       \end{equation}
曹润柘 committed
1709

xiaotong committed
1710
\item  $ w_{j,i}^k $:第$ k-1 $层神经元$ j $与第$ k $层神经元$ i $的连接权重;
曹润柘 committed
1711

xiaotong committed
1712 1713 1714 1715
\item  $ \mathbf w^k $:第$ k-1 $层与第$ k $层的连接权重。若第$ k-1 $层有$ m $个神经元,第$ k $层有$ n $个神经元,则:
       \begin{equation}
       \mathbf w^k = \begin{pmatrix} w_{1,1}^k & w_{1,2}^k & \dots & w_{1,n}^k\\w_{2,1}^k & \dots & \dots & \dots\\ \dots & \dots & \dots & \dots\\w_{m,1}^k & \dots & \dots & w_{m,n}^k\end{pmatrix}
       \end{equation}
曹润柘 committed
1716

xiaotong committed
1717
\item  $ \mathbf h^K $:整个网络的输出;
曹润柘 committed
1718

xiaotong committed
1719 1720 1721 1722 1723
\item  $ \mathbf s^k $:第$ k $层的线性变换结果,有:
       \begin{eqnarray}
       \mathbf s^k & = & \mathbf h^{k-1}\mathbf w^k \nonumber \\
                   & = & \sum{h_j^{k-1}w_{j,i}^k}
       \end{eqnarray}
曹润柘 committed
1724

xiaotong committed
1725 1726 1727
\item  $ f^k $:第$ k $层的激活函数,$ \mathbf h_k=f^k(\mathbf s^k)$

\end{itemize}
曹润柘 committed
1728

xiaotong committed
1729 1730 1731
\vspace{0.5em}

\parinterval  于是,在神经网络的第$ k $层,前向计算过程为:
曹润柘 committed
1732 1733
%公式--------------------------------------------------------------------
\begin{eqnarray}
xiaotong committed
1734
\mathbf h^k & = & f^k(\mathbf s^k) \nonumber \nonumber \\
1735
            & = & f^k(\mathbf h^{k-1}\mathbf w^k)
曹润柘 committed
1736 1737 1738 1739
\label{eqa1.46}
\end{eqnarray}
%公式--------------------------------------------------------------------
%--5.4.6.1输出层的反向传播---------------------
孟霞 committed
1740
\subsubsection{输出层的反向传播}
曹润柘 committed
1741 1742 1743 1744 1745 1746 1747 1748 1749 1750 1751 1752 1753 1754 1755 1756 1757 1758 1759 1760 1761 1762 1763 1764 1765 1766 1767 1768

\parinterval  反向传播是由输出层开始计算梯度,之后逆向传播到每一层网络,直至到达输入层。这里首先讨论输出层的反向传播机制。输出层(即第$ K $层)可以被描述为:
%公式--------------------------------------------------------------------
\begin{eqnarray}
\mathbf h^K&=&f^K(\mathbf s^K)\label{eqa1.47}\\
\mathbf s^K&=&\mathbf h^{K-1}\mathbf w^K
\label{eqa1.48}
\end{eqnarray}
%公式--------------------------------------------------------------------
\noindent  也就是,输出层(第$ K $层)的输入$ \mathbf h^{K-1} $先经过线性变换右乘$ \mathbf w^K $转换为中间状态$ \mathbf s^K $,之后$ \mathbf s^K $再经过激活函数$ f^K(\cdot) $变为$ \mathbf h^K $$ \mathbf h^K $即为第$ K $层(输出层)的输出。最后,$ \mathbf h^K $和标准答案一起计算得到损失函数的值,记为$ L $。以上过程如图\ref{fig:forward-propagation-output}所示。这里将输出层的前向计算过程细化为两个阶段:线性变换阶段和激活函数+损失函数阶段。
%----------------------------------------------
% 图
\begin{figure}[htp]
\centering
\input{./Chapter5/Figures/fig-forward-propagation-output}
\caption{输出层的前向计算过程}
\label{fig:forward-propagation-output}
\end{figure}
%-------------------------------------------

\parinterval  在前向过程中,计算次序为$ \mathbf h^{K-1}\rightarrow \mathbf s^K\rightarrow \mathbf h^K  \rightarrow L $。而反向计算中节点访问的次序与之相反:

\vspace{0.5em}
\begin{itemize}
\item 第一步,获取$ \frac{\partial L}{\partial \mathbf h^K} $,即计算损失函数$ L $关于网络输出结果$ \mathbf h^K $的梯度,并将梯度向前传递;
\vspace{0.5em}
\item 第二步,获取$ \frac{\partial L}{\partial \mathbf s^K} $,即计算损失函数$ L $关于中间状态$ \mathbf s^K $的梯度,并将梯度向前传递;
\vspace{0.5em}
xiaotong committed
1769
\item 第三步,获取$ \frac{\partial L}{\partial \mathbf h^{K-1}} $$ \frac{\partial L}{\partial \mathbf w^K} $,即计算损失函数$ L $关于第$ K-1 $层输出结果$ \mathbf h^{K-1} $的梯度,并将梯度向前传递;同时计算损失函数$ L $关于第$K$层参数$ \mathbf w^K $的梯度,并用于参数更新。
曹润柘 committed
1770 1771 1772 1773 1774 1775 1776 1777 1778 1779 1780 1781 1782 1783
\end{itemize}
\vspace{0.5em}

\parinterval  对于前两个步骤,如图\ref{fig:back-propagation-output1}所示:
%----------------------------------------------
% 图
\begin{figure}[htp]
\centering
\input{./Chapter5/Figures/fig-back-propagation-output1}
\caption{从损失到中间状态的反向传播(输出层)}
\label{fig:back-propagation-output1}
\end{figure}
%-------------------------------------------

xiaotong committed
1784
\parinterval  在第一阶段,计算的目标是得到损失函数$ L $关于第$ K $层中间状态$ \mathbf s^K $的梯度,这里令$ {\pi}^K= \frac{\partial L}{\partial \mathbf s^K} $,利用链式法则有:
曹润柘 committed
1785 1786 1787 1788 1789 1790 1791 1792 1793 1794 1795 1796 1797 1798 1799
%公式--------------------------------------------------------------------
\begin{eqnarray}
{\pi}^K&=& \frac{\partial L}{\partial \mathbf s^K}\nonumber\\
&=&\frac{\partial L}{\partial \mathbf h^K}\cdot \frac{\partial \mathbf h^K}{\partial \mathbf s^K}\nonumber\\
&=&\frac{\partial L}{\partial \mathbf h^K}\cdot \frac{\partial f^K(\mathbf s^K)}{\partial \mathbf s^K}
\label{eqa1.49}
\end{eqnarray}
%公式--------------------------------------------------------------------
\noindent  其中:

\vspace{0.5em}
\begin{spacing}{1.6}
\begin{itemize}
\item $ \frac{\partial L}{\partial \mathbf h^K} $表示损失函数$ L $相对网络输出$ \mathbf h^K $表的梯度。比如,对于平方损失$ L=\frac{1}{2}{\Vert \widetilde {\mathbf y}-\mathbf h^K\Vert}^2 $,有$ \frac{\partial L}{\partial \mathbf h^K}= \widetilde{ \mathbf y} -\mathbf h^K $。计算结束后,将$ \frac{\partial L}{\partial \mathbf h^K} $向前传递。
\vspace{0.5em}
1800
\item $ \frac{\partial f^T(\mathbf s^K)}{\partial \mathbf s^K} $表示激活函数相对于其输入$ \mathbf s^K $的梯度。比如,对于Sigmoid函数$ f(\mathbf s)=\frac{1}{1+e^{- \mathbf s}}$,有$ \frac{\partial f(\mathbf s)}{\partial \mathbf s}=f(\mathbf s) (1-f(\mathbf s))$
曹润柘 committed
1801 1802 1803 1804
\end{itemize}
\end{spacing}
\vspace{0.5em}

xiaotong committed
1805
\parinterval  这个过程可以得到$ \mathbf s^K $节点处的梯度$ {\pi}^K= \frac{\partial L}{\partial \mathbf s^K} $,在后续的过程中可以直接使用其作为前一层提供的梯度计算结果,而不需要从$ \mathbf h^K $节点处重新计算。这也体现了自动微分与符号微分的差别,对于计算图的每一个阶段,并不需要得到完成的微分表达式,而是通过前一层提供的梯度,直接计算当前的梯度即可,这样避免了大量的重复计算。
曹润柘 committed
1806 1807 1808 1809 1810 1811 1812 1813 1814 1815 1816 1817 1818 1819 1820 1821 1822 1823 1824

\parinterval  在得到$ {\pi}^K= \frac{\partial L}{\partial \mathbf s^K} $之后,下一步的目标是:1)计算损失函数$ L $相对于第$ K-1 $层与输出层之间连接权重$ \mathbf w^K $的梯度;2)计算损失函数$ L $相对于神经网络网络第$ K-1 $层输出结果$ \mathbf h^{K-1} $的梯度。这部分内容如图\ref{fig:back-propagation-output2}所示。
%----------------------------------------------
% 图
\begin{figure}[htp]
\centering
\input{./Chapter5/Figures/fig-back-propagation-output2}
\caption{从中间状态到输入的反向传播(输出层)}
\label{fig:back-propagation-output2}
\end{figure}
%-------------------------------------------

\noindent  具体来说:

\vspace{0.5em}
\begin{itemize}
\item 计算$ \frac{\partial L}{\partial \mathbf w^K} $ :由于$ \mathbf s^K=\mathbf h^{K-1}\mathbf w^K $,且损失函数$ L $关于$ \mathbf s^K $的梯度$ {\pi}^K= \frac{\partial L}{\partial \mathbf s^K} $已经得到,于是有
%公式--------------------------------------------------------------------
\begin{eqnarray}
曹润柘 committed
1825
\frac{\partial L}{\partial \mathbf w^K}&=&{\left[\mathbf h^{K-1}\right]}^{\rm T} {\pi}^K
曹润柘 committed
1826 1827 1828
\label{eqa1.50}
\end{eqnarray}
%公式--------------------------------------------------------------------
xiaotong committed
1829
其中${[\cdot]}^{\rm T}$表示转置操作\footnote{如果$ \mathbf h^{K-1} $是一个向量,$ {\left[\mathbf h^{K-1}\right]}^{\rm T} $表示向量的转置,比如,行向量变成列向量;如果$ \mathbf h^{K-1} $ 是一个高阶张量,$ {\left[\mathbf h^{K-1}\right]}^{\rm T} $表示沿着张量最后两个方向的转置。}
曹润柘 committed
1830 1831 1832 1833
\vspace{0.5em}
\item 计算$ \frac{\partial L}{\partial \mathbf h^{K-1}} $ :与求解$ \frac{\partial L}{\partial \mathbf w^K} $类似,可以得到
%公式--------------------------------------------------------------------
\begin{eqnarray}
曹润柘 committed
1834
\frac{\partial L}{\partial \mathbf h^{K-1}}&=&{\pi}^K{\left[\mathbf w^K\right]}^{\rm T}
曹润柘 committed
1835 1836 1837 1838 1839 1840 1841
\label{eqa1.51}
\end{eqnarray}
%公式--------------------------------------------------------------------
梯度$ \frac{\partial L}{\partial \mathbf h^{K-1}} $ 需要继续向前一层传递,用于计算网络中间层的梯度。$ \frac{\partial L}{\partial \mathbf w^K} $会作为参数$ \mathbf w^K $的梯度计算结果,用于模型参数的更新\footnote{$ \mathbf w^K $可能会在同一个网络中被多次使用(类似于网络不同部分共享同一个参数),这时需要累加相关计算节点处得到的$ \frac{\partial L}{\partial \mathbf w^K} $}
\end{itemize}
\vspace{0.5em}
%--5.4.6.2隐藏层的反向传播---------------------
孟霞 committed
1842
\subsubsection{隐藏层的反向传播}
曹润柘 committed
1843

1844
\parinterval  对于第$ k $个隐藏层,有:
曹润柘 committed
1845 1846 1847 1848 1849 1850 1851
%公式--------------------------------------------------------------------
\begin{eqnarray}
\mathbf h^k&=&f^k(\mathbf s^k) \label{eqa1.52}\\
\mathbf s^k&=&\mathbf h^{k-1}\mathbf w^k
\label{eqa1.53}
\end{eqnarray}
%公式--------------------------------------------------------------------
xiaotong committed
1852
\noindent  其中,$ \mathbf h^k $$ \mathbf s^k $$ \mathbf h^{k-1} $$\mathbf w^k $和分别表示隐藏层的输出、中间状态、隐藏层的输入和参数矩阵。隐藏层的前向计算过程如图\ref{fig:forward-propagation-hid}所示,第$ k-1 $ 层神经元的输出$ \mathbf h^{k-1} $经过线性变换和激活函数后,将计算结果$ \mathbf h^k $向后一层传递。
曹润柘 committed
1853 1854 1855 1856 1857 1858 1859 1860 1861 1862 1863 1864 1865 1866 1867 1868 1869 1870 1871 1872
%----------------------------------------------
% 图
\begin{figure}[htp]
\centering
\input{./Chapter5/Figures/fig-forward-propagation-hid}
\caption{隐藏层的前向计算过程}
\label{fig:forward-propagation-hid}
\end{figure}
%-------------------------------------------

\parinterval  与输出层类似,隐藏层的反向传播也是逐层逆向计算。

\vspace{0.5em}
\begin{itemize}
\item 第一步,获取$\frac{\partial L}{\partial \mathbf s^k} $,即计算损失函数$ L $关于第$ k $层中间状态$ \mathbf s^k$的梯度,并将梯度向前传递;
\vspace{0.5em}
\item 第二步,获取$\frac{\partial L}{\partial \mathbf h^{k-1}} $$\frac{\partial L}{\partial \mathbf w^k} $,即计算损失函数$ L $关于第$ k-1 $层输出结果$ \mathbf h^{k-1} $的梯度,并将梯度向前传递。同时计算损失函数$ L $关于参数$ \mathbf w^k $的梯度,并用于参数更新。
\end{itemize}
\vspace{0.5em}

1873
\parinterval  这两步和输出层的反向传播十分类似。可以利用链式法则得到:
曹润柘 committed
1874 1875 1876 1877 1878 1879 1880 1881 1882 1883 1884 1885 1886 1887 1888 1889 1890 1891 1892 1893 1894 1895 1896 1897 1898 1899 1900 1901 1902
%公式--------------------------------------------------------------------
\begin{eqnarray}
\frac{\partial L}{\partial \mathbf s^k}&=&\frac{\partial L}{\partial \mathbf h^k}\cdot \frac{\partial \mathbf h^k}{\partial \mathbf s^k}\nonumber\\
&=&\frac{\partial L}{\partial \mathbf h^k}\cdot \frac{\partial f^k(\mathbf s^k)}{\partial \mathbf s^k}
\label{eqa1.54}
\end{eqnarray}
%公式--------------------------------------------------------------------
\noindent  其中$ \frac{\partial L}{\partial \mathbf h^k} $表示损失函数$ L $相对该隐藏层输出$ \mathbf h^k $的梯度。进一步,由于$ \mathbf s^k =\mathbf h^{k-1}\mathbf w^k$,可以得到
%公式--------------------------------------------------------------------
\begin{eqnarray}
\frac{\partial L}{\partial \mathbf w^k}&=&{\left[\mathbf h^{k-1}\right]}^{\rm T}\cdot \frac{\partial L}{\partial \mathbf s^k}\label{eqa1.55}
\label{eqa1.56}
\end{eqnarray}
\begin{eqnarray}
\frac{\partial L}{\partial \mathbf h^{k-1}}&= &\frac{\partial L}{\partial \mathbf s^k} \cdot {\left[\mathbf w^k\right]}^{\rm T}
\label{eqa1.56-2}
\end{eqnarray}
%公式--------------------------------------------------------------------
\parinterval  $ \frac{\partial L}{\partial \mathbf h^{k-1}} $需要继续向第$ k-1 $隐藏层传递。$ \frac{\partial L}{\partial \mathbf w^k} $会作为参数的梯度用于参数更新。图\ref{fig:back-propagation-hid}展示了隐藏层反向传播的计算过程。
%----------------------------------------------
% 图
\begin{figure}[htp]
\centering
\input{./Chapter5/Figures/fig-back-propagation-hid}
\caption{隐藏层的反向传播}
\label{fig:back-propagation-hid}
\end{figure}
%-------------------------------------------

1903
\parinterval  综合输出层和隐藏层的反向传播方法,可以得到神经网络中任意位置和任意参数的梯度信息。只需要根据网络的拓扑结构,逆向访问每一个节点,并执行上述反向计算过程。
曹润柘 committed
1904
%--5.4.6.3程序实现---------------------
孟霞 committed
1905
\subsubsection{程序实现}
曹润柘 committed
1906

xiaotong committed
1907
\parinterval  在了解了反向传播的原理之后,实现反向传播就变得非常容易了。实际上,现在主流的深度学习框架都支持自动微分。这里,为了进一步说明反向传播的过程,这里使用NiuTensor工具构建两个简单的实例,并分别尝试手动编写反向传播代码和使用NiuTensor自带的自动微分模块。
曹润柘 committed
1908 1909 1910 1911 1912 1913 1914 1915 1916 1917 1918 1919

\parinterval\ref{fig:code-back-propagation-1}展示了实现一个简单的神经网络的反向传播代码。这种反向传播的实现方式正是上一节内容的代码实现:按层实现自动微分并将梯度向前一层传播。
%----------------------------------------------
% 图
\begin{figure}[htp]
\centering
\input{./Chapter5/Figures/fig-code-back-propagation-1}
\caption{手动编写反向传播代码(NiuTensor)}
\label{fig:code-back-propagation-1}
\end{figure}
%-------------------------------------------

xiaotong committed
1920
\parinterval  此外,NiuTensor还提供了一种更简单的一步完成神经网络反向传播的实现方式。如图\ref{fig:code-back-propagation-2}所示,在完成神经网络的搭建后,无论前向计算过程是怎样的,直接利用Backward 函数就可以实现整个神经网络的反向传播,系统开发人员可以完全不用关心其求解过程。
曹润柘 committed
1921 1922 1923 1924 1925 1926 1927 1928 1929 1930 1931
%----------------------------------------------
% 图
\begin{figure}[htp]
\centering
\input{./Chapter5/Figures/fig-code-back-propagation-2}
\caption{反向传播的自动微分实现(NiuTensor)}
\label{fig:code-back-propagation-2}
\end{figure}
%-------------------------------------------

%--5.5神经语言模型-----------------------------------------
孟霞 committed
1932 1933
<<<<<<< HEAD
=======
xiaotong committed
1934
\sectionnewpage
孟霞 committed
1935
>>>>>>> master
孟霞 committed
1936
\section{神经语言模型}\label{sec5:nlm}
曹润柘 committed
1937

xiaotong committed
1938
\parinterval  神经网络给我们提供了一种工具,只要将问题的输入和输出定义好,就可以学习输入和输出之间的对应关系。显然,很多自然语言处理任务都可以用神经网络进行实现。比如,在机器翻译中,可以把输入的源语言句子和输出的目标语言句子用神经网络建模;在文本分类中,可以把输入的文本内容和输出的类别标签进行神经网络建模,等等。
曹润柘 committed
1939

孟霞 committed
1940
\parinterval  为了更好地理解神经网络和深度学习在自然语言处理中的应用。这里介绍一种基于神经网络的语言建模方法\ \dash \ {\small\sffamily\bfseries{神经语言模型}}\index{神经语言模型}(Neural Language Model)\index{Neural Language Model}。可以说,神经语言模型是深度学习时代下自然语言处理的标志性成果,它所涉及的许多概念至今仍是研究的热点,比如:词嵌入、表示学习、预训练等。此外,神经语言模型也为机器翻译的建模提供了很好的思路。从某种意义上说,机器翻译的深度学习建模的很多灵感均来自神经语言模型,二者在一定程度上是统一的。
xiaotong committed
1941

曹润柘 committed
1942
%--5.5.1基于神经网络的语言建模---------------------
孟霞 committed
1943
\subsection{基于神经网络的语言建模}
曹润柘 committed
1944 1945 1946 1947

\parinterval  回顾一下第二章的内容,语言建模的问题被定义为:对于一个词序列$ w_1w_2\dots w_m$,如何计算它的可能性?词序列出现的概率可以通过链式法则得到:
%公式--------------------------------------------------------------------
\begin{eqnarray}
曹润柘 committed
1948
{\rm P}(w_1w_2\dots w_m)&=&{\rm P}(w_1){\rm P}(w_2|w_1){\rm P}(w_3|w_1w_2)\dots {\rm P}(w_m|w_1\dots w_{m-1})
曹润柘 committed
1949 1950 1951
\label{eqa1.57}
\end{eqnarray}
%公式--------------------------------------------------------------------
xiaotong committed
1952
\parinterval  由于$ {\rm P}(w_m|w_1\dots w_{m-1}) $需要建模$ m-1 $个词构成的历史信息,这个模型仍然很复杂。于是就有了基于局部历史的$n$-gram语言模型,即:
曹润柘 committed
1953 1954
%公式--------------------------------------------------------------------
\begin{eqnarray}
曹润柘 committed
1955
{\rm P}(w_m|w_1\dots w_{m-1})&=&{\rm P}(w_m|w_{m-n+1}\dots w_{m-1})
曹润柘 committed
1956 1957 1958 1959 1960 1961
\label{eqa1.58}
\end{eqnarray}
%公式--------------------------------------------------------------------
\noindent  其中,$ {\rm P}(w_m|w_{m-n+1}\dots w_{m-1}) $可以通过相对频次估计进行计算,$ {\rm{count}}(\cdot) $表示在训练数据上的频次:
%公式--------------------------------------------------------------------
\begin{eqnarray}
曹润柘 committed
1962
{\rm P}(w_m|w_{m-n+1}\dots w_{m-1})&=&\frac{{\rm{count}}(w_{m-n+1}\dots w_m)}{{\rm{count}}(w_{m-n+1}\dots w_{m-1})}
曹润柘 committed
1963 1964 1965 1966
\label{}
\end{eqnarray}
%公式--------------------------------------------------------------------

xiaotong committed
1967 1968 1969 1970
\noindent 这里,$ w_{m-n+1}\dots w_m $也被称作$n$-gram,即$ n $元语法单元。$n$-gram语言模型是一种典型的基于离散表示的模型。在这个模型中,所有的词都被看作是离散的符号。因此,不同单词之间是``完全''不同的。另一方面,语言现象是十分多样的,即使在很大的语料库上也无法得到所有$n$-gram的准确统计。甚至很多$n$-gram在训练数据中从未出现过。由于不同$n$-gram 间没有建立直接的联系, $n$-gram语言模型往往面临数据稀疏的问题。比如,虽然在训练数据中见过``景色''这个词,但是测试数据中却出现了``风景''这个词,恰巧``风景''在训练数据中没有出现过。即使``风景''和``景色''表达的是相同的意思,$n$-gram语言模型仍然会把``风景''看作未登录词,赋予一个很低的概率值。

\parinterval  上面这个问题的本质是$n$-gram语言模型对词使用了离散化表示,即每个单词都孤立的对应词表中的一个索引,词与词之间在语义上没有任何``重叠''。神经语言模型重新定义了这个问题。这里并不需要显性的通过统计离散的$n$-gram的频度,而是直接设计一个神经网络模型$ g(\cdot)$来估计单词生成的概率,

曹润柘 committed
1971 1972
%公式--------------------------------------------------------------------
\begin{eqnarray}
曹润柘 committed
1973
{\rm P}(w_m|w_1\dots w_{m-1})&=&g(w_1\dots w_m)
曹润柘 committed
1974 1975 1976
\label{eqa1.59}
\end{eqnarray}
%公式--------------------------------------------------------------------
xiaotong committed
1977 1978 1979

\parinterval  $ g(w_1\dots w_m) $实际上是一个多层神经网络。与$n$-gram语言模型不同的是$ g(w_1\dots \\ w_m) $并不包含对$ w_1\dots w_m $的任何假设,比如,在神经网络模型中,单词不再是离散的符号,而是连续空间上的点。这样两个单词之间也不再是简单的非0即1的关系,而是具有可计算的距离。此外,由于没有对$ w_1\dots w_m $进行任何结构性的假设,神经语言模型对问题进行端到端学习。通过设计不同的神经网络$ g(\cdot)$,可以从不同的角度``定义''序列的表示问题。当然,这么说可能还有一些抽象,下面就一起看看神经语言模型究竟是什么样子的。

曹润柘 committed
1980
%--5.5.1.1基于前馈神经网络的语言模型---------------------
孟霞 committed
1981
\subsubsection{基于前馈神经网络的语言模型}
曹润柘 committed
1982

曹润柘 committed
1983
\parinterval  最具代表性的神经语言模型是Bengio等人提出的{\small\sffamily\bfseries{前馈神经网络语言模型}}\index{前馈神经网络语言模型}(Feed-forward Neural Network Language Model\index{Feed-forward Neural Network Language Model},简称FNNLM)。这种语言模型的目标是用神经网络计算$ {\rm P}(w_m|w_{m-n+1}\dots w_{m-1}) $,之后将多个$n$-gram的概率相乘得到整个序列的概率\upcite{bengio2003neural}
曹润柘 committed
1984

xiaotong committed
1985
\parinterval  为了有一个直观的认识,这里以4-gram的FNNLM语言模型为例,即根据前三个单词$ w_{i-3} $$ w_{i-2} $$ w_{i-1} $预测当前单词$ w_i $的概率。如图\ref{fig:4-gram}所示,$ w_{i-3} $$ w_{i-2} $$ w_{i-1} $为该语言模型的输入(绿色方框),输入为每个词的One-hot向量表示(维度大小与词表大小一致),每个One-hot向量仅一维为1,其余为0,比如:$ (0,0,1,\dots,0) $表示词表中第三个单词。之后把One-hot向量乘以一个矩阵$ \mathbf C $得到单词的分布式表示(紫色方框)。令$ w_i $为第$ i $个词的One-hot表示,$ \mathbf e_i $为第$ i $个词的分布式表示,有:
曹润柘 committed
1986 1987
%公式--------------------------------------------------------------------
\begin{eqnarray}
曹润柘 committed
1988
\mathbf e_i&=&w_i\mathbf C
曹润柘 committed
1989 1990 1991
\label{eqa1.60}
\end{eqnarray}
%公式--------------------------------------------------------------------
xiaotong committed
1992
\noindent  这里的$ \mathbf C $可以被理解为一个查询表,根据$ w_i $中为1的那一维,在$ \mathbf C $中索引到相应的行进行输出(结果是一个行向量)。随后,把得到的$ \mathbf e_0 $$ \mathbf e_1 $$ \mathbf e_2 $三个向量级联在一起,经过两层网络,最后通过Softmax函数(橙色方框)得到输出:
曹润柘 committed
1993 1994
%公式--------------------------------------------------------------------
\begin{eqnarray}
xiaotong committed
1995 1996
\mathbf y&=&{\rm{Softmax}}(\mathbf h_0\mathbf U)\label{eqa1.61}\\
\mathbf h_0&=&{\rm{Tanh}}([\mathbf e_{i-3},\mathbf e_{i-2},\mathbf e_{i-1}]\mathbf H+\mathbf d)
曹润柘 committed
1997 1998 1999
\label{eqa1.62}
\end{eqnarray}
%公式--------------------------------------------------------------------
孟霞 committed
2000
\parinterval  输出$ \mathbf y $是词表上的一个分布,通过单词$ w_i $可以索引到对应概率$ {\rm P}(w_i|w_{i-1},w_{i-2},\\w_{i-3}) $$ \mathbf U $$ \mathbf H $$ \mathbf d $是模型的参数。从结构上看,FNNLM主要有三层:1)词的分布式表示层,即把输入的离散的单词变为分布式表示对应的实数向量;2)隐藏层,即将得到的词的分布式表示进行线性和非线性变换;3)输出层,根据隐藏层的输出预测单词的概率分布。这三层堆叠在一起构成了整个网络,而且也可以加入从词的分布式表示直接到输出层的连接(红色虚线箭头)。
曹润柘 committed
2001

xiaotong committed
2002
\parinterval  值得注意的是,在FNNLM中,单词已经不再是一个孤立的符号串,而是被表示为一个实数向量。这样,两个单词之间可以通过向量计算某种相似度或距离。这导致相似的单词会具有相似的分布,进而缓解$n$-gram语言模型的问题\ \dash \ 明明意思很相近的两个词但是概率估计的结果差异性却很大。
曹润柘 committed
2003 2004 2005 2006 2007 2008 2009 2010 2011 2012
%----------------------------------------------
% 图
\begin{figure}[htp]
\centering
\input{./Chapter5/Figures/fig-4-gram}
\caption{4-gram前馈神经网络语言架构}
\label{fig:4-gram}
\end{figure}
%-------------------------------------------

曹润柘 committed
2013
\parinterval  在FNNLM中,所有的参数、输入、输出都是连续变量,因此FNNLM也是典型的一个连续空间模型。通过使用交叉熵等损失函数,FNNLM很容易进行优化。比如,可以使梯度下降方法对FNNLM的模型参数进行训练。
曹润柘 committed
2014

xiaotong committed
2015
\parinterval  FNNLM的实现也非常简单,图\ref{fig:code-FNNLM}展示了基于NiuTensor的FNNLM的部分代码。需要注意的是,在程序实现时, Tanh函数一般会用HardTanh函数代替。因为 Tanh函数中的指数运算容易导致溢出:
曹润柘 committed
2016 2017
%公式--------------------------------------------------------------------
\begin{eqnarray}
2018
{\rm{Tanh}}(x)&=&\frac{{\rm{exp}}(x)-{\rm{exp}}(-x)}{{\rm{exp}}(x)+{\rm{exp}}(-x)}
曹润柘 committed
2019 2020 2021
\label{}
\end{eqnarray}
%公式--------------------------------------------------------------------
xiaotong committed
2022
\noindent 而HardTanh函数不存在这个问题,因此具有数值计算的稳定性。HardTanh函数表达式如下:
曹润柘 committed
2023 2024
%公式--------------------------------------------------------------------
\begin{eqnarray}
xiaotong committed
2025
{\rm{HardTanh}}(x)&=&\begin{cases} -1 & x<-1\\x & -1\leqslant x\leqslant 1\\1 & x>1\end{cases}
曹润柘 committed
2026 2027 2028 2029 2030 2031 2032 2033 2034 2035 2036 2037 2038
\label{}
\end{eqnarray}
%公式--------------------------------------------------------------------
%----------------------------------------------
% 图
\begin{figure}[htp]
\centering
\input{./Chapter5/Figures/fig-code-FNNLM}
\caption{FNNLM模型代码示例(NiuTensor)}
\label{fig:code-FNNLM}
\end{figure}
%-------------------------------------------

xiaotong committed
2039 2040 2041
\parinterval  虽然FNNLM模型形式简单,却为处理自然语言提供了一个全新的视角。首先,该模型重新定义了``词是什么''\ \dash \ 它并非词典的一项,而是可以用一个连续实数向量进行表示的可计算的``量''。此外,由于$n$-gram不再是离散的符号序列,模型不需要记录$n$-gram,所以很好的缓解了上面所提到的数据稀疏问题,模型体积也大大减小。

\parinterval  当然,FNNLM模型也引发后人的许多思考,比如:神经网络每一层都学到了什么?是词法、句法、还是一些其他知识?如何理解词的分布式表示?等等。在随后的内容中也会看到,随着近几年深度学习和自然语言处理的发展,部分问题已经得到了很好的解答,但是仍有许多问题需要进一步探索。
曹润柘 committed
2042 2043

%--5.5.1.2基于循环神经网络的语言模型---------------------
孟霞 committed
2044
\subsubsection{基于循环神经网络的语言模型}
曹润柘 committed
2045

孟霞 committed
2046
\parinterval  FNNLM模型固然有效,但是和传统的$n$-gram语言模型一样需要依赖有限上下文假设,也就是$ w_i $的生成概率只依赖于之前的$ n-1 $个单词。很自然的一个想法是引入更大范围的历史信息,这样可以捕捉单词间的长距离依赖。
曹润柘 committed
2047

曹润柘 committed
2048
\parinterval  对于这个问题,可以通过{\small\sffamily\bfseries{循环神经网络}}\index{循环神经网络}(Recurrent Neural Network\index{Recurrent Neural Network},或RNN)进行求解。通过引入循环单元这种特殊的结构,循环神经网络可以对任意长度的历史进行建模,因此在一定程度上解决了传统$n$-gram语言模型有限历史的问题。正是基于这个优点,{\small\sffamily\bfseries{循环神经网络语言模型}}\index{循环神经网络语言模型}(RNNLM)\index{RNNLM}应运而生\upcite{mikolov2010recurrent}
曹润柘 committed
2049

孟霞 committed
2050
\parinterval  在循环神经网络中,输入和输出都是一个序列,分别记为$ (\mathbf x_1,\dots,\mathbf x_m) $$ (\mathbf y_1,\dots,\\ \mathbf y_m) $。它们都可以被看作是时序序列,其中每个时刻$ t $都对应一个输入$ \mathbf x_t $和输出$ \mathbf y_t $。循环神经网络的核心是{\small\sffamily\bfseries{循环单元}}\index{循环单元}(RNN Cell)\index{RNN Cell},它读入前一个时刻循环单元的输出和当前时刻的输入,生成当前时刻循环单元的输出。图\ref{fig:rnn-LM}展示了一个简单的循环单元结构,对于时刻$ t $,循环单元的输出被定义为:
曹润柘 committed
2051 2052
%公式--------------------------------------------------------------------
\begin{eqnarray}
2053
\mathbf h_t&=&{\rm{Tanh}}(\mathbf x_t\mathbf U+\mathbf h_{t-1}\mathbf W)
曹润柘 committed
2054 2055 2056
\label{eqa1.63}
\end{eqnarray}
%公式--------------------------------------------------------------------
2057
\noindent  其中,$ \mathbf h_t $表示$ t $时刻循环单元的输出,$ \mathbf h_{t-1} $表示$ t-1 $时刻循环单元的输出,$ \mathbf U $$ \mathbf W $是模型的参数。可以看出,循环单元的结构其实很简单,只是一个对$ \mathbf h_{t-1} $$ \mathbf x_t $的线性变换再加上一个Tanh函数。通过读入上一时刻的输出,当前时刻可以访问以前的历史信息。这个过程可以循环执行,这样就完成了对所有历史信息的建模。$ \mathbf h_t $可以被看作是序列在$ t $时刻的一种表示,也可以被看作是网络的一个隐藏层。进一步,$ \mathbf h_t $可以被送入输出层,得到$ t $时刻的输出:
曹润柘 committed
2058 2059
%公式--------------------------------------------------------------------
\begin{eqnarray}
xiaotong committed
2060
\mathbf y_t&=&{\rm{Softmax}}(\mathbf h_t\mathbf V)
曹润柘 committed
2061 2062 2063 2064 2065
\label{eqa1.64}
\end{eqnarray}
%公式--------------------------------------------------------------------
\noindent  其中,$ \mathbf V $是输出层的模型参数。

xiaotong committed
2066
\parinterval\ref{fig:rnn-LM}展示了一个基于循环神经网络的语言模型结构。首先,所有输入的单词会被转换成分布式表示(红色部分),这个过程和FNNLM是一样的。之后,该模型堆叠了两层循环神经网络(绿色部分)。最后通过Softmax层(紫色部分)得到每个时刻的预测结果$ \mathbf y_t={\rm P}(w_t|w_1\dots w_{t-1}) $
曹润柘 committed
2067 2068 2069 2070 2071 2072 2073 2074 2075 2076 2077 2078
%----------------------------------------------
% 图
\begin{figure}[htp]
\centering
\input{./Chapter5/Figures/fig-rnn-LM}
\caption{基于循环神经网络的语言模型结构}
\label{fig:rnn-LM}
\end{figure}
%-------------------------------------------

\parinterval  RNNLM体现了一种``记忆''的能力。对于每一个时刻,循环单元都会保留一部分``以前''的信息,并加入``现在''的信息。从这个角度说,RNNLM本质上是一种记忆模型。在简单的循环单元结构的基础上,也有很多改进工作,如LSTM、GRU等模型,这部分内容将会在第六章进行介绍。
%--5.5.1.3基于自注意力机制的语言模型---------------------
孟霞 committed
2079
\subsubsection{基于自注意力机制的语言模型}
曹润柘 committed
2080

xiaotong committed
2081
\parinterval  通过引入记忆历史的能力,RNNLM缓解了$n$-gram模型中有限上下文的局限性,但依旧存在一些问题。随着序列变长,不同单词之间信息传递路径变长,信息传递的效率变低。对于长序列,很难通过很多次的循环单元操作保留很长的历史信息。过长的序列还容易引起梯度消失和梯度爆炸问题(详见\ref{sec:5.4.4}节),增加模型训练的难度。
曹润柘 committed
2082

曹润柘 committed
2083
\parinterval  对于这个问题,研究者又提出了一种新的结构$\ \dash \ ${\small\bfnew{自注意力机制}}\index{自注意力机制}(Self-Attention Mechanism)\index{Self-Attention Mechanism}。自注意力是一种特殊的神经网络结构,它可以对序列上任意两个词的相互作用直接进行建模,这样也就避免了循环神经网络中随着距离变长信息传递步骤增多的缺陷。在自然语言处理领域,自注意力机制被成功的应用在机器翻译,形成了著名的Transformer模型\upcite{NIPS2017_7181}。第六章会系统地介绍自注意力机制和Transformer模型。
曹润柘 committed
2084

xiaotong committed
2085
\parinterval  这里,先简单了解一下基于Transformer的语言模型结构(图\ref{fig:transformer-LM})。与FNNLM\\和RNNLM一样,Transformer首先对输入单词进行分布式表示,同时加上每个位置的编码构成了整个模型的输入(蓝色方框)。之后,利用自注意力机制对输入的向量进行处理(绿色方框)。自注意力的结果会被送入一个前馈神经网络,之后再送给Softmax输出层(橙色方框)。
曹润柘 committed
2086 2087 2088 2089 2090 2091 2092 2093 2094 2095
%----------------------------------------------
% 图
\begin{figure}[htp]
\centering
\input{./Chapter5/Figures/fig-transformer-LM}
\caption{Transformer语言模型结构}
\label{fig:transformer-LM}
\end{figure}
%-------------------------------------------

孟霞 committed
2096
\parinterval  在传统的语言模型中,给定一个单词$ w_i $,其他单词对它的影响并没有显性的被建模。而在基于注意力机制的语言模型中,当前需要预测的单词会更加关注与该位置联系较大的单词。具体来说,注意力机制会计算位置$ i $与其他任意位置之间的相关度,称为{\small\sffamily\bfseries{注意力权重}}\index{注意力权重}(Attention Weight)\index{Attention Weight},通过这个权重可以更多的使用与$ w_i $关联紧密的位置的信息。举个简单的例子,在``我\ 喜欢\ 学习\ 数学''这个句子中,需要预测``数学''这个词,通过注意力机制很可能知道``数学''与``学习''的联系更紧密,所以在预测过程中``学习''所占的权重会更大,预测结果会更加精确。
曹润柘 committed
2097
%--5.5.1.4语言模型的评价---------------------
孟霞 committed
2098
\subsubsection{语言模型的评价}
曹润柘 committed
2099

孟霞 committed
2100
\parinterval  在使用语言模型时,往往需要知道模型的质量。{\small\sffamily\bfseries{困惑度}}\index{困惑度}(Perplexity\index{Perplexity},PPL)是一种衡量语言模型的好坏的指标。对于一个真实的词序列$ w_1\dots w_m $,困惑度被定义为
曹润柘 committed
2101 2102
%公式--------------------------------------------------------------------
\begin{eqnarray}
曹润柘 committed
2103
{\rm{PPL}}&=&{\rm P}{(w_1\dots w_m)}^{- \frac{1}{m}}
曹润柘 committed
2104 2105 2106
\label{eqa1.65}
\end{eqnarray}
%公式--------------------------------------------------------------------
孟霞 committed
2107
\parinterval  本质上,PPL反映了语言模型对序列可能性预测能力的一种评估。因为$ w_1\dots w_m $\\是真实的自然语言,``完美''的模型会得到$ {\rm P} (w_1\dots w_m)=1 $,它对应了最低的困惑度$ {\rm{PPL}}=1$。这说明模型可以完美地对词序列出现的可能性进行预测。当然,真实的语言模型是无法达到$ {\rm{PPL}}=1$的,比如,在著名的Penn Treebank(PTB)数据上最好的语言模型的PPL值也只能到达35左右。可见自然语言处理任务的困难程度。
曹润柘 committed
2108
%--5.5.2单词表示模型---------------------
孟霞 committed
2109
\subsection{单词表示模型}
曹润柘 committed
2110 2111

\parinterval  在神经语言建模中,每个单词都会被表示为一个实数向量。这对应了一种单词的表示模型。下面就来看看传统的单词表示模型和这种基于实数向量的单词表示模型有何不同。
xiaotong committed
2112

曹润柘 committed
2113
%--5.5.2.1One-hot编码---------------------
孟霞 committed
2114
\subsubsection{One-hot编码}
曹润柘 committed
2115

孟霞 committed
2116
\parinterval  {\small\sffamily\bfseries{One-hot编码}}\index{One-hot编码}(也称{\small\sffamily\bfseries{独热编码}}\index{独热编码})是传统的单词表示方法。One-hot编码把单词表示为词汇表大小的0-1向量,其中只有该词所对应的那一项是1,而其余所有项都是零。举个简单的例子,假如有一个词典,里面包含10k个单词,并进行编号。那么每个单词都可以表示为一个10k维的One-hot向量,它仅在对应编号那个维度为1,其他维度都为0,如图\ref{fig:one-hot}所示。
曹润柘 committed
2117 2118 2119 2120 2121 2122 2123 2124 2125 2126
%----------------------------------------------
% 图
\begin{figure}[htp]
\centering
\input{./Chapter5/Figures/fig-one-hot}
\caption{单词的One-hot表示 }
\label{fig:one-hot}
\end{figure}
%-------------------------------------------

2127
\parinterval  One-hot编码的优点是形式简单、易于计算,而且这种表示与词典具有很好的对应关系,因此每个编码都可以进行解释。但是,One-hot编码把单词都看作是相互正交的向量。这导致所有单词之间没有任何的相关性。只要是不同的单词,在One-hot编码下都是完全不同的东西。比如,大家可能会期望诸如``桌子''和``椅子''之类的词具有一些相似性,但是One-hot编码把它们看作相似度为0的两个单词。
xiaotong committed
2128

曹润柘 committed
2129
%--5.5.2.2分布式表示---------------------
孟霞 committed
2130
\subsubsection{分布式表示}
曹润柘 committed
2131

孟霞 committed
2132
\parinterval  神经语言模型中使用的是一种{\small\sffamily\bfseries{分布式表示}}\index{分布式表示}(Distributed Representation)\index{Distributed Representation}。在神经语言模型里,每个单词不再是完全正交的0-1向量,而是在多维实数空间中的一个点,具体表现为一个实数向量。很多时候,也会把单词的这种分布式表示叫做{\small\sffamily\bfseries{词嵌入}}\index{词嵌入}(Word Embedding)\index{Word Embedding}
曹润柘 committed
2133

2134
\parinterval  单词的分布式表示可以被看作是欧式空间中的一个点,因此单词之间的关系也可以通过空间的几何性质进行刻画。比如,如图\ref{fig:embedding}所示,可以在一个512维空间上表示不同的单词。在这种表示下,``桌子''与``椅子''之间是具有一定的联系的。
曹润柘 committed
2135 2136 2137 2138 2139 2140 2141 2142 2143 2144
%----------------------------------------------
% 图
\begin{figure}[htp]
\centering
\input{./Chapter5/Figures/fig-embedding}
\caption{单词的分布式表示(词嵌入) }
\label{fig:embedding}
\end{figure}
%-------------------------------------------

2145
\parinterval  那么,分布式表示中每个维度的含义是什么?可以把每一维度都理解为一种属性,比如一个人的身高、体重等。但是,神经网络模型更多的是把每个维度看作是单词的一种抽象``刻画'',是一种统计意义上的``语义'',而非简单的人工归纳的事物的一个个属性。使用这种连续空间的表示的好处在于,表示的内容(实数向量)可以进行计算和学习,因此可以通过模型训练得到更适用于自然语言处理的单词表示结果。
曹润柘 committed
2146

xiaotong committed
2147
\parinterval  为了方便理解,看一个简单的例子。假如现在有个``预测下一个单词''的任务:有这样一个句子``屋里 要 摆放 一个 \rule[-3pt]{1cm}{0.05em}'',其中下划线的部分表示需要预测的下一个单词。如果模型在训练数据中看到过类似于``摆放 一个 桌子''这样的片段,那么就可以很自信的预测出``桌子''。另一方面,很容易知道,实际上与``桌子''相近的单词,如``椅子'',也是可以预测的单词的。但是,``椅子''恰巧没有出现在训练数据中,这时如果用One-hot编码来表示单词,显然无法把``椅子''填到下划线处的;而如果使用单词的分布式表示,很容易就知道 ``桌子''与``椅子''是相似的,因此预测`` 椅子''在一定程度上也是合理的。
曹润柘 committed
2148 2149 2150 2151 2152 2153 2154 2155
\begin{example}

屋里 要 摆放 一个 \_\_\_\_\_ \hspace{0.5em} \quad \quad 预测下个词

\qquad \qquad \quad 屋里 要 摆放 一个{ \red{桌子} }\hspace{0.5em}\quad\quad 见过

\qquad \qquad \quad 屋里 要 摆放 一个{ \blue{椅子}} \hspace{0.5em}\quad\quad 没见过,但是仍然是合理预测
\end{example}
xiaotong committed
2156
\parinterval  关于单词的分布式表示还有一个经典的例子:通过词嵌入可以得到如下关系:$\textrm{``国王''}=\textrm{``女王''}-\textrm{``女人''} +\textrm{``男人''}$。从这个例子可以看出,词嵌入也具有一些代数性质,比如,词的分布式表示可以通过加、减等代数运算相互转换。图\ref{fig:word-graph}展示了词嵌入在一个二维平面上的投影,不难发现,含义相近的单词分布比较临近。
曹润柘 committed
2157 2158 2159 2160 2161 2162 2163 2164 2165 2166 2167 2168 2169 2170 2171 2172 2173 2174 2175 2176 2177
%----------------------------------------------
% 图
\begin{figure}[htp]
\centering
\includegraphics[width=6cm]{./Chapter5/Figures/word-graph.jpg}
\caption{分布式表示的可视化}
\label{fig:word-graph}
\end{figure}
%-------------------------------------------

\parinterval  语言模型的词嵌入是通过词嵌入矩阵进行存储的,矩阵中的每一行对应了一个词的分布式表示结果。图\ref{fig:embedding}展示了一个词嵌入矩阵的实例。
%----------------------------------------------
% 图
\begin{figure}[htp]
\centering
\input{./Chapter5/Figures/fig-embedding-matrix}
\caption{词嵌入矩阵$mathbf C$}
\label{fig:embedding-matrix}
\end{figure}
%-------------------------------------------

曹润柘 committed
2178
\parinterval  通常,有两种方法得到词嵌入矩阵。一种方法是把词嵌入作为语言模型的一部分进行训练,不过由于语言模型往往较复杂,这种方法非常耗时;另一种方法使用更加轻便的外部训练方法,如word2vec\upcite{mikolov2013distributed}、Glove\upcite{pennington2014glove}等。由于这些方法的效率较高,因此可以使用更大规模的数据得到更好的词嵌入结果。
曹润柘 committed
2179
%--5.5.3句子表示模型及预训练---------------------
孟霞 committed
2180
\subsection{句子表示模型及预训练}
曹润柘 committed
2181

xiaotong committed
2182
\parinterval  目前,词嵌入已经成为诸多自然语言处理系统的标配,也衍生出很多有趣的研究法方向,甚至有人开玩笑的喊出``embed everything''的口号。但是,冷静的看,词嵌入依旧存在一些问题:每个词都对应唯一的向量表示,那么对于一词多义现象,词义需要通过上下文进行区分,这时使用简单的词嵌入式是无法处理的。有一个著名的例子:
曹润柘 committed
2183 2184 2185 2186
 \vspace{0.3em}
\begin{example}
Jobs was the CEO of {\red{\underline{apple}}}.

曹润柘 committed
2187
\qquad \qquad \; He finally ate the {\red{\underline{apple}}}.
曹润柘 committed
2188 2189
\end{example}

2190
\parinterval  这两句中``apple''的语义显然是不同的,第一句子中的上下文``Jobs''和``CEO''可以帮助我们判断``apple''是一个公司名字,而不是水果。但是词嵌入只有一个结果,因此无法区分这两种情况。这个例子给我们一个启发:在一个句子中,不能孤立的看待单词,应同时考虑其上下文的信息。也就是需要一个能包含句子中上下文信息的表示模型。
曹润柘 committed
2191
%--5.5.3.1简单的上下文表示模型---------------------
孟霞 committed
2192
\subsubsection{简单的上下文表示模型}
曹润柘 committed
2193

xiaotong committed
2194
\parinterval  回忆一下神经语言模型的结构,它需要在每个位置预测单词生成的概率。这个概率是由若干层神经网络进行计算后,通过输出层得到的。实际上,在送入输出层之前,系统已经得到了这个位置的一个向量(隐藏层的输出),因此可以把它看作是含有一部分上下文信息的表示结果。以RNN为例,图\ref{fig:rnn-model}展示了一个由四个词组成的句子,这里使用了一个两层循环神经网络对其进行建模。可以看到,对于第三个位置,RNN已经积累了从第1个单词到第3个单词的信息,因此可以看作是单词1-3(``乔布斯\ 就职\ 于'')的一种表示;另一方面,第4个单词的词嵌入可以看作是``苹果''自身的表示。这样,可以把第3 个位置RNN的输出和第4个位置的词嵌入进行合并,就得到了第4个位置上含有上下文信息的表示结果。从另一个角度说,这里得到了``苹果''的一种新的表示,它不仅包含苹果这个词自身的信息,也包含它前文的信息。
曹润柘 committed
2195 2196 2197 2198 2199 2200 2201 2202 2203 2204
%----------------------------------------------
% 图
\begin{figure}[htp]
\centering
\input{./Chapter5/Figures/fig-rnn-model}
\caption{基于RNN的表示模型(词+上下文)}
\label{fig:rnn-model}
\end{figure}
%-------------------------------------------

孟霞 committed
2205
\parinterval  在自然语言处理中,{\small\sffamily\bfseries{句子表示模型}}\index{句子表示模型}是指把输入的句子进行分布式表示。不过表示的形式不一定是一个单独的向量。现在广泛使用的句子表示模型可以被描述为:给定一个输入的句子$ \{ w_1,\dots ,w_m\} $,得到一个表示序列$ \{ \mathbf h_1,\dots ,\mathbf h_m\} $,其中$ h_i $是句子在第$ i $个位置的表示结果。$ \{ \mathbf h_1,\dots ,\mathbf h_m\} $就被看作是{\small\sffamily\bfseries{句子的表示}}\index{句子的表示},它可以被送入下游模块。比如,在机器翻译任务中,可以用这种模型表示源语言句子,然后通过这种表示结果进行目标语译文的生成;在序列标注(如词性标注)任务中,可以对输入的句子进行表示,然后在这个表示之上构建标签预测模块。很多自然语言处理任务都可以用句子表示模型进行建模,因此句子的表示模型也是应用最广泛的深度学习模型之一。而学习这种表示的过程也被称作{\small\sffamily\bfseries{表示学习}}\index{表示学习}(Representation Learning)\index{Representation Learning}
曹润柘 committed
2206

xiaotong committed
2207
\parinterval  句子表示模型有两种训练方法。最简单的方法是把它作为目标系统中的一个模块进行训练,比如把句子表示模型作为机器翻译系统的一部分。也就是,并不单独训练句子表示模型,而是把它作为一个内部模块放到其他系统中。另一种方法是把句子表示作为独立的模块,用外部系统进行训练,之后把训练好的表示模型放入目标系统中,再进行微调。这种方法构成了一种新的范式:预训练+微调(pre-training + fine-tuning)。图\ref{fig:model-training}对比了这两种不同的方法。
曹润柘 committed
2208 2209 2210 2211 2212 2213 2214 2215 2216 2217
%----------------------------------------------
% 图
\begin{figure}[htp]
\centering
\input{./Chapter5/Figures/fig-model-training}
\caption{表示模型的训练方法(与目标任务联合训练 vs 用外部任务预训练)}
\label{fig:model-training}
\end{figure}
%-------------------------------------------

xiaotong committed
2218
\parinterval  目前,句子表示模型的预训练方法在多项自然语言处理任务上取得了很好的效果。预训练模型也成为了当今自然语言处理中的热点方向,相关系统也在很多评测任务上刷榜。除了上面提到的简单的神经语言模型的方法,还有各式各样基于预训练的表示模型被提出。接下来,会简单介绍其中比较有代表性的三种模型$\ \dash\ $ELMO、 GPT 和BERT。
曹润柘 committed
2219
%--5.5.3.2ELMO模型---------------------
孟霞 committed
2220
\subsubsection{ELMO模型}
曹润柘 committed
2221

曹润柘 committed
2222
\parinterval  ELMO(Embedding from Language Models)掀起了基于语言模型的预训练的热潮\upcite{peters2018deep}。ELMO的论文也获得了自然语言处理领域顶级会议NAACL2018的最佳论文。
曹润柘 committed
2223

xiaotong committed
2224
\parinterval  在ELMO中,作者认为词的表示应该能够包含丰富的句子结构信息,并且能够对多义词进行建模。而传统的词嵌入(例如word2vec)是上下文无关的,所以他们利用语言模型来获得一个上下文相关的预训练表示。EMLO基于双向LSTM语言模型\footnote{ LSTM(Long Short-Term Memory),即长短时记忆模型,是一种循环神经网络结构。},由一个正向语言模型和一个反向语言模型构成,目标函数是最大化这两个方向语言模型的似然(图\ref{fig:elmo})。简单来说,ELMO就是一个预训练好的双向语言模型,对于每个句子都可以生成相应的句子表示结果,这个结果会作为输入的特征被送入下游任务中。比如,ELMO在问答、文本蕴含、情感分析等多个任务中都表现出非常好的效果。
曹润柘 committed
2225 2226 2227 2228 2229 2230 2231 2232 2233 2234 2235
%----------------------------------------------
% 图
\begin{figure}[htp]
\centering
\input{./Chapter5/Figures/fig-elmo}
\caption{ELMO模型结构}
\label{fig:elmo}
\end{figure}
%-------------------------------------------

%--5.5.3.3GPT模型---------------------
孟霞 committed
2236
\subsubsection{GPT模型}
曹润柘 committed
2237

曹润柘 committed
2238
\parinterval  GPT(Generative Pre-Training)也是一种基于语言建模的句子表示模型\upcite{radford2018improving}。该工作的贡献在于利用Transformer结构代替了LSTM。而且该模型基于Pre-training + Fine-tuning的框架,预训练的结果做为下游系统的句子表示模块的参数初始值,因此可以更好的适应目标任务。
曹润柘 committed
2239

xiaotong committed
2240
\parinterval  GPT模型仍然使用标准的语言建模的思路,即通过前$ n-1 $个词预测第$ n $个词。但是在网络结构上,GPT模型使用了Transformer(图\ref{fig:gpt}),而且模型参数会在目标任务上进行有监督的微调。与ELMO模型的做法不同,GPT不需要对目标任务构建新的模型结构,而是直接在Transformer语言表示模型的最后一层加上Softmax层作为任务的输出层。实验结果证明,GPT模型的性能较ELMO模型更为优越,在12个NLP任务中取得了9个任务当时最好的结果。
曹润柘 committed
2241 2242 2243 2244 2245 2246 2247 2248 2249 2250 2251
%----------------------------------------------
% 图
\begin{figure}[htp]
\centering
\input{./Chapter5/Figures/fig-gpt}
\caption{GPT模型结构}
\label{fig:gpt}
\end{figure}
%-------------------------------------------

%--5.5.3.4BERT模型---------------------
孟霞 committed
2252
\subsubsection{BERT模型}
曹润柘 committed
2253

曹润柘 committed
2254
\parinterval  BERT(Bidirectional Encoder Representations from Transformers)是另一个非常有代表性的基于预训练的句子表示模型\upcite{devlin2018bert}。某种意义上,BERT把基于预训练的句子表示模型推向了新的高潮。BERT的论文也获得了NAACL2019最佳论文奖。
曹润柘 committed
2255 2256 2257 2258 2259 2260 2261 2262 2263 2264 2265 2266 2267 2268 2269 2270 2271 2272 2273 2274 2275 2276 2277

\parinterval  与传统语言模型的训练目标不同,BERT不使用预测下一个词作为训练目标,而是提出了两个新的任务。

\vspace{0.5em}
\begin{itemize}
\item 第一个任务被称为Masked LM。在输入的词序列中随机的挡住一定量的的词(比如15\%的单词被挡住),然后让模型去预测挡住的这些词。这个过程有些类似于英语考试中的完形填空。这么做的好处是,模型能够从多个方向去预测这些被遮罩住的词(图\ref{fig:bert}),而不是像传统语言模型一样从单个方向预测(自左向右或者自右向左)。Masked LM的思想也影响了很多预训练模型的设计。
\vspace{0.5em}
\item 第二个任务是预测下一个句子。当选择句子a与b作为预训练样本时,b有一半几率可能是a的下一句,也有一半几率来自语料库的随机句子,从而可以更好地学习句子之间的相关性。
\end{itemize}
\vspace{0.5em}

\parinterval  BERT的训练目标就是最小化这两个任务上的损失函数。实验结果证明,BERT\\模型的性能十分强劲,在11个NLP任务上取得了当时最好的性能。
%----------------------------------------------
% 图
\begin{figure}[htp]
\centering
\input{./Chapter5/Figures/fig-bert}
\caption{BERT模型结构}
\label{fig:bert}
\end{figure}
%-------------------------------------------

%--5.5.3.5为什么要预训练?---------------------
孟霞 committed
2278
\subsubsection{为什么要预训练?}
曹润柘 committed
2279 2280 2281 2282 2283

\parinterval  基于预训练的句子表示模型确实给自然语言处理带来了新的思路。相比传统的基于目标任务的建模和训练方法,预训练有如下优势:

\vspace{0.5em}
\begin{itemize}
曹润柘 committed
2284
\item 目标任务依赖有指导训练,但是带标注的数据往往十分有限。预训练模型并不依赖带标注数据,因此可以从更大规模的无标注数据(比如训练语言模型中使用的纯文本数据)学习知识,这使得预训练模型可以捕捉更加通用的语言规律,甚至有时候会具有一些``常识''\footnote{关于自然语言处理系统是否具有尝试也存在不同的观点。从一些任务上的实验结果上看,很多模型确实能够进行一些常识性推理。但是,当问题的难度增加时,绝大多数模型还无法做到人类的水平。}
曹润柘 committed
2285 2286 2287 2288 2289 2290 2291 2292 2293 2294 2295 2296 2297 2298 2299 2300 2301
\vspace{0.5em}
\item 由于预训练并不依赖具体的目标任务,因此不会对目标任务产生过拟合,模型具有较好的泛化能力;
\vspace{0.5em}
\item 从优化的角度,预训练相当于将模型``初始化''到参数空间中优质解密度更高的区域(图\ref{fig:parameter-space}),下游任务更容易通过微调找到更好的参数(面向具体任务)。此外,也有实验表明预训练可以让模型参数落到损失函数曲面比较光滑的区域,这样能够避免下游任务在凸凹不平的损失函数曲面上陷入局部最优。
\end{itemize}
\vspace{0.5em}
%----------------------------------------------
% 图
\begin{figure}[htp]
\centering
\input{./Chapter5/Figures/fig-parameter-space}
\caption{模型的参数空间}
\label{fig:parameter-space}
\end{figure}
%-------------------------------------------

%--5.6小结及深入阅读-----------------------------------------
孟霞 committed
2302 2303
<<<<<<< HEAD
=======
xiaotong committed
2304
\sectionnewpage
孟霞 committed
2305
>>>>>>> master
孟霞 committed
2306
\section{小结及深入阅读}
曹润柘 committed
2307

孟霞 committed
2308
\parinterval  神经网络为解决自然语言处理问题提供了全新的思路。而所谓深度学习也是建立在多层神经网络结构之上的一系列模型和方法。本章从神经网络的基本概念到其在语言建模中的应用进行了概述。由于篇幅所限,这里无法覆盖所有神经网络和深度学习的相关内容,感兴趣的读者可以进一步阅读《Neural Network Methods in Natural Language Processing》\upcite{goldberg2017neural}和《Deep Learning》\upcite{deeplearning}。此外,也有很多研究方向值得关注:
曹润柘 committed
2309 2310 2311

\vspace{0.5em}
\begin{itemize}
曹润柘 committed
2312
\item 端到端学习是神经网络方法的特点之一。这样,系统开发者不需要设计输入和输出的隐含结构,甚至连特征工程都不再需要。但是,另一方面,由于这种端到端学习完全由神经网络自行完成,整个学习过程没有人的先验知识做指导,导致学习的结构和参数很难进行解释。针对这个问题也有很多研究者进行{\small\sffamily\bfseries{可解释机器学习}}\index{可解释机器学习}(Explainable Machine Learning)\index{Explainable Machine Learning}的研究\upcite{guidotti2018survey}\upcite{koh2017understanding}。对于自然语言处理,方法的可解释性是十分必要的。从另一个角度说,如何使用先验知识改善端到端学习也是很多人关注的方向\upcite{arthur2016incorporating}\upcite{Zhang2017PriorKI},比如,如何使用句法知识改善自然语言处理模型\upcite{zollmann2006syntax}\upcite{charniak2003syntax}\upcite{stahlberg2016syntactically}
曹润柘 committed
2313
\vspace{0.5em}
曹润柘 committed
2314
\item 词嵌入是自然语言处理近些年的重要进展。所谓“嵌入”是一类方法,理论上,把一个事物进行分布式表示的过程都可以被看作是广义上的“嵌入”。基于这种思想的表示学习也成为了自然语言处理中的前沿方法。比如,如何对树结构,甚至图结构进行分布式表示\upcite{plank2013embedding}\upcite{perozzi2014deepwalk}成为了分析自然语言的重要方法。此外,除了语言建模,还有很多方式可以进行词嵌入的学习,比如,SENNA\upcite{collobert2011natural}、word2vec\upcite{mikolov2013efficient}\upcite{mikolov2013distributed}、Glove\upcite{pennington2014glove}、CoVe\upcite{mccann2017learned}等。
曹润柘 committed
2315
\vspace{0.5em}
曹润柘 committed
2316
\item 预训练是表示学习的重要产物。预训练已经在图像处理等领域得到应用。在自然语言处理中,以BERT为代表的预训练模型席卷了很多自然语言处理任务,在阅读理解等比赛(如Stanford Question Answering)中已经成为了所有参赛系统的标配。除了ELMO、GPT、BERT,还有很多优秀的预训练模型,包括GPT-2\upcite{radford2019language}、XLM\upcite{lample2019cross}、MASS\upcite{song2019mass}、XLNet\upcite{yang2019xlnet},等等。但是,预训练往往依赖大规模的数据和并行运算设备,这使得很多普通研究者对训练这样的模型望而却步。不过,也有一些研究关注轻量的预训练方法,也受到了很多关注,例如ALBERT\upcite{lan2019albert}
曹润柘 committed
2317
\end{itemize}
xiaotong committed
2318
\vspace{0.5em}