Skip to content
项目
群组
代码片段
帮助
当前项目
正在载入...
登录 / 注册
切换导航面板
M
mtbookv2
概览
Overview
Details
Activity
Cycle Analytics
版本库
Repository
Files
Commits
Branches
Tags
Contributors
Graph
Compare
Charts
问题
0
Issues
0
列表
Board
标记
里程碑
合并请求
0
Merge Requests
0
CI / CD
CI / CD
流水线
作业
日程表
图表
维基
Wiki
代码片段
Snippets
成员
Collapse sidebar
Close sidebar
活动
图像
聊天
创建新问题
作业
提交
Issue Boards
Open sidebar
NiuTrans
mtbookv2
Commits
8c1b3175
Commit
8c1b3175
authored
Nov 23, 2020
by
曹润柘
Browse files
Options
Browse Files
Download
Plain Diff
合并分支 'caorunzhe' 到 'master'
Caorunzhe 查看合并请求
!452
parents
5207477a
d83c25d1
隐藏空白字符变更
内嵌
并排
正在显示
1 个修改的文件
包含
2 行增加
和
2 行删除
+2
-2
Chapter9/chapter9.tex
+2
-2
没有找到文件。
Chapter9/chapter9.tex
查看文件 @
8c1b3175
...
...
@@ -1179,7 +1179,7 @@ y&=&{\textrm{Sigmoid}}({\textrm{Tanh}}({\mathbi{x}}\cdot {\mathbi{W}}^{[1]}+{\ma
\label
{
eq:9-28
}
\end{eqnarray}
\noindent
其中,
$
\widehat
{
\bm
\theta
}
$
表示在训练数据上使损失的平均值达到最小的参数。
$
\frac
{
1
}{
n
}
\sum
_{
i
=
1
}^{
n
}{
L
(
{
\mathbi
{
x
}}_
i,
\widetilde
{
\mathbi
{
y
}}_
i;
{
\bm
\theta
}
)
}
$
也被称作
{
\small\sffamily\bfseries
{
代价函数
}}
\index
{
代价函数
}
(Cost Function)
\index
{
Cost Function
}
,它是损失函数均值期望的估计,记为
$
J
(
{
\bm
\theta
}
)
$
。
\noindent
其中,
$
\widehat
{
\bm
\theta
}
$
表示在训练数据上使损失的平均值达到最小的参数
,
$
n
$
为训练数据总量
。
$
\frac
{
1
}{
n
}
\sum
_{
i
=
1
}^{
n
}{
L
(
{
\mathbi
{
x
}}_
i,
\widetilde
{
\mathbi
{
y
}}_
i;
{
\bm
\theta
}
)
}
$
也被称作
{
\small\sffamily\bfseries
{
代价函数
}}
\index
{
代价函数
}
(Cost Function)
\index
{
Cost Function
}
,它是损失函数均值期望的估计,记为
$
J
(
{
\bm
\theta
}
)
$
。
\parinterval
参数优化的核心问题是:找到使代价函数
$
J
(
{
\bm\theta
}
)
$
达到最小的
$
\bm
\theta
$
。然而
$
J
(
{
\bm\theta
}
)
$
可能会包含大量的参数,比如,基于神经网络的机器翻译模型的参数量可能会超过一亿个。这时不可能用手动方法进行调参。为了实现高效的参数优化,比较常用的手段是使用
{
\small\bfnew
{
梯度下降方法
}}
\index
{
梯度下降方法
}
(The Gradient Descent Method)
\index
{
The Gradient Descent Method
}
。
...
...
@@ -1389,7 +1389,7 @@ $+2x^2+x+1)$ & \ \ $(x^4+2x^3+2x^2+x+1)$ & $+6x+1$ \\
\subsubsection
{
3. 基于梯度的方法的变种和改进
}
\label
{
sec:9.4.2.3
}
\parinterval
参数优化通常基于梯度下降算法,即在每个更新步骤
$
t
$
,沿梯度方向更新参数:
\parinterval
参数优化通常基于梯度下降算法,即在每个更新步骤
$
t
$
,沿梯度
反
方向更新参数:
\begin{eqnarray}
{
\bm
\theta
}_{
t+1
}&
=
&{
\bm
\theta
}_{
t
}
-
\alpha
\cdot
\frac
{
\partial
J(
{
\bm
\theta
}_
t)
}{
\partial
{
\bm
\theta
}_
t
}
\label
{}
...
...
编写
预览
Markdown
格式
0%
重试
或
添加新文件
添加附件
取消
您添加了
0
人
到此讨论。请谨慎行事。
请先完成此评论的编辑!
取消
请
注册
或者
登录
后发表评论