Skip to content
项目
群组
代码片段
帮助
当前项目
正在载入...
登录 / 注册
切换导航面板
T
Toy-MT-Introduction
概览
Overview
Details
Activity
Cycle Analytics
版本库
Repository
Files
Commits
Branches
Tags
Contributors
Graph
Compare
Charts
问题
0
Issues
0
列表
Board
标记
里程碑
合并请求
0
Merge Requests
0
CI / CD
CI / CD
流水线
作业
日程表
图表
维基
Wiki
代码片段
Snippets
成员
Collapse sidebar
Close sidebar
活动
图像
聊天
创建新问题
作业
提交
Issue Boards
Open sidebar
NiuTrans
Toy-MT-Introduction
Commits
c7c13816
Commit
c7c13816
authored
Oct 21, 2019
by
xiaotong
Browse files
Options
Browse Files
Download
Email Patches
Plain Diff
new update
parent
be1fc0fc
显示空白字符变更
内嵌
并排
正在显示
2 个修改的文件
包含
25 行增加
和
6 行删除
+25
-6
Section05-Neural-Networks-and-Language-Modeling/section05-test.tex
+22
-3
Section05-Neural-Networks-and-Language-Modeling/section05.tex
+3
-3
没有找到文件。
Section05-Neural-Networks-and-Language-Modeling/section05-test.tex
查看文件 @
c7c13816
...
...
@@ -119,14 +119,33 @@
\subsection
{
前馈、循环、自注意力神经网络
}
%%%------------------------------------------------------------------------------------------------------------
%%%
利用前馈神经网络建模$n$-gram
\begin{frame}
{$
n
$
-gram
建模 - 前馈神经网络
}
%%%
n-gram语言模型
\begin{frame}
{$
n
$
-gram
语言模型
}
\begin{itemize}
\item
什么是单词?
\item
\textbf
{
链式法则
}
\begin{eqnarray}
\textrm
{
P
}
(w
_
1 w
_
2 ... w
_
m)
&
=
&
\textrm
{
P
}
(w
_
1)
\textrm
{
P
}
(w
_
2|w
_
1)
\textrm
{
P
}
(w
_
3 | w
_
1 w
_
2) ...
\nonumber
\\
&
&
\textrm
{
P
}
(w
_
m|w
_
1...w
_{
n-1
}
)
\nonumber
\end{eqnarray}
\item
\textbf
{
传统
$
n
$
-gram语言模型
}
:当前词仅依赖于前面
$
n
-
1
$
个词
\begin{eqnarray}
\textrm
{
P
}
(w
_
1 w
_
2 ... w
_
m)
&
=
&
\textrm
{
P
}
(w
_
1)
\textrm
{
P
}
(w
_
2|w
_
1)
\textrm
{
P
}
(w
_
3 | w
_
1 w
_
2) ...
\nonumber
\\
&
&
\textrm
{
P
}
(w
_
m|
\underbrace
{
w
_{
m-n+1
}
...w
_{
m-1
}}_{
\text
{
前面
$
n
-
1
$
个词
}}
)
\nonumber
\end{eqnarray}
\ \ \ \ \ \
其中
\begin{displaymath}
\textrm
{
P
}
(w
_
m | w
_{
m-n+1
}
... w
_{
m-1
}
) =
\frac
{
\textrm
{
count
}
(w
_{
m-n+1
}
...w
_{
m
}
)
}{
\textrm
{
count
}
(w
_{
m-n+1
}
...w
_{
m-1
}
)
}
\end{displaymath}
\ \ \ \ \ \
$
\textrm
{
count
}
(
\cdot
)
$
表示在训练数据上统计的频次
\end{itemize}
\end{frame}
%%%------------------------------------------------------------------------------------------------------------
%%% 前馈神经网络语言模型
\begin{frame}
{$
n
$
-gram生成概率的神经网络建模
}
\end{frame}
%%%------------------------------------------------------------------------------------------------------------
%%% 深度学习带来的问题及思考 - 并不是无所不能
...
...
Section05-Neural-Networks-and-Language-Modeling/section05.tex
查看文件 @
c7c13816
...
...
@@ -3767,10 +3767,10 @@ NLP问题的\alert{隐含结构}假设 & 无隐含结构假设,\alert{端到
特征、规则的
\alert
{
存储耗资源
}
&
模型存储相对小,但
\alert
{
计算慢
}
\end{tabular}
\vspace
{
0
.5
em
}
\vspace
{
0em
}
\begin{itemize}
\item
<2-> 语言模型任务也可以使用深度学习方法(
而且效果非常好:)
)
\item
<2-> 语言模型任务也可以使用深度学习方法(
效果非常好
)
\begin{itemize}
\item
语言模型要回答的问题是如何评价一个词串的好坏
\item
可以回忆一下第二章提到的
$
n
$
元语法模型
...
...
@@ -3785,7 +3785,7 @@ NLP问题的\alert{隐含结构}假设 & 无隐含结构假设,\alert{端到
\visible
<3->
{
\begin{tcolorbox}
[enhanced,size=normal,left=2mm,right=1mm,colback=blue!5!white,colframe=blue!75!black,drop fuzzy shadow]
{
\Large
\textbf
{
如何
用神经网络描述词串的概率
?
}
\textbf
{
如何
词串的生成概率进行建模
?
}
}
\end{tcolorbox}
}
...
...
编写
预览
Markdown
格式
0%
重试
或
添加新文件
添加附件
取消
您添加了
0
人
到此讨论。请谨慎行事。
请先完成此评论的编辑!
取消
请
注册
或者
登录
后发表评论