Skip to content
项目
群组
代码片段
帮助
当前项目
正在载入...
登录 / 注册
切换导航面板
T
Toy-MT-Introduction
概览
Overview
Details
Activity
Cycle Analytics
版本库
Repository
Files
Commits
Branches
Tags
Contributors
Graph
Compare
Charts
问题
0
Issues
0
列表
Board
标记
里程碑
合并请求
0
Merge Requests
0
CI / CD
CI / CD
流水线
作业
日程表
图表
维基
Wiki
代码片段
Snippets
成员
Collapse sidebar
Close sidebar
活动
图像
聊天
创建新问题
作业
提交
Issue Boards
Open sidebar
NiuTrans
Toy-MT-Introduction
Commits
f348505b
Commit
f348505b
authored
Oct 23, 2019
by
xiaotong
Browse files
Options
Browse Files
Download
Email Patches
Plain Diff
new updates
parent
a1c93eed
隐藏空白字符变更
内嵌
并排
正在显示
1 个修改的文件
包含
3 行增加
和
33 行删除
+3
-33
Section05-Neural-Networks-and-Language-Modeling/section05-test.tex
+3
-33
没有找到文件。
Section05-Neural-Networks-and-Language-Modeling/section05-test.tex
查看文件 @
f348505b
...
...
@@ -120,41 +120,11 @@
%%%------------------------------------------------------------------------------------------------------------
%%% 循环神经网络
\begin{frame}
{
循环
神经网络(Recurrent Neural Networks)
}
%%% 循环神经网络
的结构
\begin{frame}
{
循环
单元
}
\begin{itemize}
\item
FNN LM固然有效,但是和传统的
$
n
$
-gram LM一样,需要依赖
\alert
{
有限上下文
}
假设
\begin{center}
\begin{tikzpicture}
\begin{scope}
\node
[anchor=west] (w0) at (0,0)
{$
w
_
1
$}
;
\node
[anchor=west] (w1) at ([xshift=0.5em]w0.east)
{$
w
_
2
$}
;
\node
[anchor=west] (w2) at ([xshift=0.5em]w1.east)
{$
...
$}
;
\node
[anchor=west] (w3) at ([xshift=0.5em]w2.east)
{$
w
_{
m
-
n
+
1
}$}
;
\node
[anchor=west] (w4) at ([xshift=0.5em]w3.east)
{$
...
$}
;
\node
[anchor=west,fill=green!20!white] (w5) at ([xshift=0.5em]w4.east)
{$
w
_{
m
}$}
;
\draw
[->,thick,ublue] (w5.south).. controls +(210:0.5) and +(-30:0.5) .. (w3.south);
\draw
[->,thick,red] (w5.north).. controls +(150:1) and +(30:1) .. (w1.north);
\draw
[->,very thick,ublue] ([xshift=-5em,yshift=1em]w0.west) -- ([xshift=-6.5em,yshift=1em]w0.west) node [pos=0,right]
{
\scriptsize
{
依赖
}}
;
\draw
[->,very thick,red] ([xshift=-5em,yshift=-0.5em]w0.west) -- ([xshift=-6.5em,yshift=-0.5em]w0.west) node [pos=0,right]
{
\scriptsize
{
不依赖
}}
;
\end{scope}
\end{tikzpicture}
\end{center}
\item
<2-> 能否直接对原始问题建模,即定义函数
$
g
$
,对于任意的
$
w
_{
1
}
... w
_{
m
}$
有
\vspace
{
-0.5em
}
\begin{displaymath}
g(w
_{
1
}
... w
_{
m
}
)
\approx
\textrm
{
P
}
(w
_
m | w
_{
1
}
... w
_{
m-1
}
)
\end{displaymath}
\item
<3->
\textbf
{
循环神经网络(RNNs)
}
可以很好的解决上述问题,因此也被成功的应用于语言建模任务
\begin{itemize}
\item
它假设每个词的生成都依赖已经生成的所有词
\item
对于不同位置的词的生成概率都可以用同一个函数描述
\end{itemize}
\textbf
{
Recurrent Neural Network Based Language Model
}
\\
\textbf
{
Mikolov et al., 2010, In Proc. of Interspeech, 1045-1048
}
\item
假设有输入序列
$
(
\textbf
{
x
}_
0
,
\textbf
{
x
}_
1
,...,
\textbf
{
x
}_
t,...
)
$
,这里
$
\textbf
{
x
}_
t
$
表示序列中第
$
t
$
个元素,也被称作时刻
$
t
$
所对应的输入。它所对应的输出序列是
$
(
\textbf
{
y
}_
0
,
\textbf
{
y
}_
1
,...,
\textbf
{
y
}_
t,...
)
$
。 循环神经网络的核心是`` 记忆''任意长时间的历史
\end{itemize}
\end{frame}
...
...
编写
预览
Markdown
格式
0%
重试
或
添加新文件
添加附件
取消
您添加了
0
人
到此讨论。请谨慎行事。
请先完成此评论的编辑!
取消
请
注册
或者
登录
后发表评论