Skip to content
项目
群组
代码片段
帮助
当前项目
正在载入...
登录 / 注册
切换导航面板
M
mtbookv2
概览
Overview
Details
Activity
Cycle Analytics
版本库
Repository
Files
Commits
Branches
Tags
Contributors
Graph
Compare
Charts
问题
0
Issues
0
列表
Board
标记
里程碑
合并请求
0
Merge Requests
0
CI / CD
CI / CD
流水线
作业
日程表
图表
维基
Wiki
代码片段
Snippets
成员
Collapse sidebar
Close sidebar
活动
图像
聊天
创建新问题
作业
提交
Issue Boards
Open sidebar
NiuTrans
mtbookv2
Commits
969cd862
Commit
969cd862
authored
Nov 23, 2020
by
曹润柘
Browse files
Options
Browse Files
Download
Plain Diff
合并分支 'caorunzhe' 到 'master'
Caorunzhe 查看合并请求
!454
parents
6b3c1366
2fc39fef
显示空白字符变更
内嵌
并排
正在显示
3 个修改的文件
包含
27 行增加
和
5 行删除
+27
-5
Chapter16/chapter16.tex
+1
-1
Chapter9/chapter9.tex
+4
-4
bibliography.bib
+22
-0
没有找到文件。
Chapter16/chapter16.tex
查看文件 @
969cd862
...
...
@@ -485,7 +485,7 @@ Joint training for neural machine translation models with monolingual data
\subsection
{
基于知识蒸馏的方法
}
\parinterval
为了解决基于使用枢轴语言的问题,研究人员提出基于知识蒸馏的方法
\upcite
{
DBLP:conf/acl/ChenLCL17,DBLP:conf/iclr/TanRHQZL19
}
。知识蒸馏是一种常用的模型压缩方法
\upcite
{
DBLP:journals/corr/HintonVD15
}
,基于教师-学生框架,在第十三章已经进行了详细介绍。针对稀缺资源任务,基于教师-学生框架的方法基本思想如图
\ref
{
fig:16-2-ll
}
所示。其中,虚线表示具有平行语料库的语言对,带有箭头的实线表示翻译方向。这里,将枢轴语言(
$
\mathbi
{
p
}$
)到目标语言(
$
\mathbi
{
y
}$
)的翻译模型
$
\funp
{
P
}
(
\mathbi
{
y
}
|
\mathbi
{
p
}
)
$
当作教师模型,源语言(
$
\mathbi
{
x
}$
)到目标语言(
$
\mathbi
{
y
}$
)的翻译模型
$
\funp
{
P
}
(
\mathbi
{
y
}
|
\mathbi
{
x
}
)
$
当作学生模型。然后,用教师模型来指导学生模型的训练,这个过程中学习的目标就是让
$
\funp
{
P
}
(
\mathbi
{
y
}
|
\mathbi
{
x
}
)
$
尽可能地接近
$
\funp
{
P
}
(
\mathbi
{
y
}
|
\mathbi
{
p
}
)
$
,这样学生模型就可以学习到源语言到目标语言的翻译知识。
\parinterval
为了解决基于使用枢轴语言的问题,研究人员提出基于知识蒸馏的方法
\upcite
{
DBLP:conf/acl/ChenLCL17,DBLP:conf/iclr/TanRHQZL19
}
。知识蒸馏是一种常用的模型压缩方法
\upcite
{
Hinton2015Distilling
}
,基于教师-学生框架,在第十三章已经进行了详细介绍。针对稀缺资源任务,基于教师-学生框架的方法基本思想如图
\ref
{
fig:16-2-ll
}
所示。其中,虚线表示具有平行语料库的语言对,带有箭头的实线表示翻译方向。这里,将枢轴语言(
$
\mathbi
{
p
}$
)到目标语言(
$
\mathbi
{
y
}$
)的翻译模型
$
\funp
{
P
}
(
\mathbi
{
y
}
|
\mathbi
{
p
}
)
$
当作教师模型,源语言(
$
\mathbi
{
x
}$
)到目标语言(
$
\mathbi
{
y
}$
)的翻译模型
$
\funp
{
P
}
(
\mathbi
{
y
}
|
\mathbi
{
x
}
)
$
当作学生模型。然后,用教师模型来指导学生模型的训练,这个过程中学习的目标就是让
$
\funp
{
P
}
(
\mathbi
{
y
}
|
\mathbi
{
x
}
)
$
尽可能地接近
$
\funp
{
P
}
(
\mathbi
{
y
}
|
\mathbi
{
p
}
)
$
,这样学生模型就可以学习到源语言到目标语言的翻译知识。
\begin{figure}
[h]
\centering
...
...
Chapter9/chapter9.tex
查看文件 @
969cd862
...
...
@@ -1397,7 +1397,7 @@ $+2x^2+x+1)$ & \ \ $(x^4+2x^3+2x^2+x+1)$ & $+6x+1$ \\
\noindent
其中,
$
\alpha
$
是一个超参数,表示更新步幅的大小,称作学习率。当然,这是一种最基本的梯度下降方法。如果函数的形状非均向,比如呈延伸状,搜索最优点的路径就会非常低效,因为这时梯度的方向并没有指向最小值的方向,并且随着参数的更新,梯度方向往往呈锯齿状,这将是一条相当低效的路径;此外这种梯度下降算法并不是总能到达最优点,而是在其附近徘徊;还有一个最令人苦恼的问题
\ \dash
\
设置学习率,如果学习率设置的比较小,会导致训练收敛速度慢,如果学习率设置的比较大,会导致训练过程中因为优化幅度过大而频频跳过最优点。我们希望网络在优化的时候损失函数有一个很好的收敛速度同时又不至于摆动幅度太大。
\parinterval
针对以上问题,很多学者尝试对梯度下降方法做出改进,如Momentum
, Adagrad, Adadelta, RMSprop, Adam, AdaMax, Nadam, AMSGrad等等,在这里将介绍Momentum、AdaGrad、RMSp
rop、Adam这4 种方法。
\parinterval
针对以上问题,很多学者尝试对梯度下降方法做出改进,如Momentum
\upcite
{
qian1999momentum
}
, AdaGrad
\upcite
{
duchi2011adaptive
}
, Adadelta
\upcite
{
Zeiler2012ADADELTAAA
}
, RMSProp
\upcite
{
tieleman2012rmsprop
}
, Adam
\upcite
{
kingma2014adam
}
, AdaMax
\upcite
{
kingma2014adam
}
, Nadam
\upcite
{
Dozat2016IncorporatingNM
}
, AMSGrad
\upcite
{
Reddi2018OnTC
}
等等,在这里将介绍Momentum、AdaGrad、RMSP
rop、Adam这4 种方法。
%----------------------------------------------------------------------------------------
%
...
...
@@ -1415,7 +1415,7 @@ v_t&=&\beta v_{t-1}+(1-\beta)\frac{\partial J}{\partial \theta_t}
\label
{
eq:9-35
}
\end{eqnarray}
\parinterval
该算法引入了一个“动量”的理念
\upcite
{
qian1999momentum
}
,它是基于梯度的移动指数加权平均。公式中的
$
{
\mathbi
{
v
}
}_
t
$
是损失函数在前
$
t
-
1
$
次更新中累积的梯度动量,
$
\beta
$
是梯度累积的一个指数,这里一般设置值为0.9。所以Momentum梯度下降算法的主要思想就是对网络的参数进行平滑处理,让梯度的摆动幅度变得更小。
\parinterval
该算法引入了一个“动量”的理念
\upcite
{
qian1999momentum
}
,它是基于梯度的移动指数加权平均。公式中的
$
{
v
}_
t
$
是损失函数在前
$
t
-
1
$
次更新中累积的梯度动量,
$
\beta
$
是梯度累积的一个指数,这里一般设置值为0.9。所以Momentum梯度下降算法的主要思想就是对网络的参数进行平滑处理,让梯度的摆动幅度变得更小。
\parinterval
这里的“梯度”不再只是现在的损失函数的梯度,而是之前的梯度的加权和。在原始的梯度下降算法中,如果在某个参数状态下,梯度方向变化特别大,甚至与上一次参数更新中梯度方向成90度夹角,下一次参数更新中梯度方向可能又是一次90度的改变,这时参数优化路径将会成“锯齿”状(如图
\ref
{
fig:9-46
}
所示),优化效率极慢。而Momentum梯度下降算法不会让梯度发生90度的变化,而是让梯度慢慢发生改变:如果当前的梯度方向与之前的梯度方向相同,在原梯度方向上加速更新参数;如果当前的梯度方向与之前的梯度方向相反,并不会产生一个急转弯,而是尽量把优化路径平滑地进行改变。这样做的优点也非常明显,一方面杜绝了“锯齿”状优化路径的出现,另一方面将优化幅度变得更加平滑,不会导致频频跳过最优点。
...
...
@@ -1454,10 +1454,10 @@ z_t&=&z_{t-1}+\frac{\partial J}{\partial {\theta}_t} \cdot \frac{\partial J}{\pa
%----------------------------------------------------------------------------------------
\vspace
{
0.5em
}
\noindent
{
\small\sffamily\bfseries
{
(3)RMS
prop
\index
{
RMSp
rop
}}}
\noindent
{
\small\sffamily\bfseries
{
(3)RMS
Prop
\index
{
RMSP
rop
}}}
\vspace
{
0.5em
}
\parinterval
RMS
p
rop算法是一种自适应学习率的方法
\upcite
{
tieleman2012rmsprop
}
,它是对AdaGrad算法的一种改进,可以避免AdaGrad算法中学习率不断单调下降以至于过早衰减的缺点。
\parinterval
RMS
P
rop算法是一种自适应学习率的方法
\upcite
{
tieleman2012rmsprop
}
,它是对AdaGrad算法的一种改进,可以避免AdaGrad算法中学习率不断单调下降以至于过早衰减的缺点。
\parinterval
RMSProp 算法沿袭了Momentum梯度下降算法中指数加权平均的思路,不过Momentum算法中加权平均的对象是梯度(即
$
\frac
{
\partial
J
}{
\partial
{
\theta
}}$
),而RMSProp 算法加权平均的对象是梯度的平方(即
$
\frac
{
\partial
J
}{
\partial
{
\theta
}}
\cdot
\frac
{
\partial
J
}{
\partial
{
\theta
}}
$
)。RMSProp 算法的参数更新方式如公式
\eqref
{
eq:9-38
}
和
\eqref
{
eq:9-39
}
所示:
\begin{eqnarray}
...
...
bibliography.bib
查看文件 @
969cd862
...
...
@@ -4302,6 +4302,28 @@ year = {2012}
year={2017}
}
@inproceedings{Dozat2016IncorporatingNM,
title={Incorporating Nesterov Momentum into Adam},
author={Timothy Dozat},
publisher={International Conference on Learning Representations},
year={2016}
}
@inproceedings{Reddi2018OnTC,
author = {Sashank J. Reddi and
Satyen Kale and
Sanjiv Kumar},
title = {On the Convergence of Adam and Beyond},
publisher = {International Conference on Learning Representations},
year = {2018}
}
@article{Zeiler2012ADADELTAAA,
author = {Matthew D. Zeiler},
title = {ADADELTA:An Adaptive Learning Rate Method},
journal = {arXiv preprint arXiv:1212.5701},
year = {2012}
}
%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
%%%%% chapter 9------------------------------------------------------
%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
...
...
编写
预览
Markdown
格式
0%
重试
或
添加新文件
添加附件
取消
您添加了
0
人
到此讨论。请谨慎行事。
请先完成此评论的编辑!
取消
请
注册
或者
登录
后发表评论