Skip to content
项目
群组
代码片段
帮助
当前项目
正在载入...
登录 / 注册
切换导航面板
T
Toy-MT-Introduction
概览
Overview
Details
Activity
Cycle Analytics
版本库
Repository
Files
Commits
Branches
Tags
Contributors
Graph
Compare
Charts
问题
0
Issues
0
列表
Board
标记
里程碑
合并请求
0
Merge Requests
0
CI / CD
CI / CD
流水线
作业
日程表
图表
维基
Wiki
代码片段
Snippets
成员
Collapse sidebar
Close sidebar
活动
图像
聊天
创建新问题
作业
提交
Issue Boards
Open sidebar
NiuTrans
Toy-MT-Introduction
Commits
18b714cf
Commit
18b714cf
authored
Oct 28, 2019
by
xiaotong
Browse files
Options
Browse Files
Download
Email Patches
Plain Diff
new update
parent
6d1b84b9
全部展开
隐藏空白字符变更
内嵌
并排
正在显示
2 个修改的文件
包含
25 行增加
和
41 行删除
+25
-41
Section05-Neural-Networks-and-Language-Modeling/section05-test.tex
+25
-41
Section05-Neural-Networks-and-Language-Modeling/section05.tex
+0
-0
没有找到文件。
Section05-Neural-Networks-and-Language-Modeling/section05-test.tex
查看文件 @
18b714cf
...
@@ -120,52 +120,36 @@
...
@@ -120,52 +120,36 @@
\subsection
{
词嵌入
}
\subsection
{
词嵌入
}
%%%------------------------------------------------------------------------------------------------------------
%%%------------------------------------------------------------------------------------------------------------
%%%
更强大的表示模型 - ELMO
%%%
Transformer architecture
\begin{frame}
{
更强的表示模型 - ELMO
}
\begin{frame}
{
语言模型的评价指标
}
\begin{itemize}
\begin{itemize}
\item
\textbf
{
ELMO
}
(Embedding from Language Models)可以说是掀起了基于语言模型的预训练的热潮
\item
困惑度(ppl)
\begin{itemize}
\item
仍然使用RNN结构,不过循环单元换成了LSTM
\item
同时考虑自左向右和自右向左的建模方式,同时表示一个词左端和右端的上下文
\item
融合所有层的输出,送给下游应用,提供了更丰富的信息
\end{itemize}
\end{itemize}
\end{frame}
%%%------------------------------------------------------------------------------------------------------------
%%% 更强大的表示模型 - GTP
\begin{frame}
{
更强的表示模型 - GPT
}
\begin{itemize}
\begin{itemize}
\item
\textbf
{
GPT
}
(Generative Pre-Training)也是一种基于语言模型的表示模型
\item
语言模型预测一个语言样本的能力
\begin{itemize}
\item
困惑度越低,建模的效果越好
\item
架构换成了Transformer,特征抽取能力更强
\item
基于Pre-training + Fine-tuning的框架,预训练作为下游系统部件的参数初始值,因此可以更好的适应目标任务
\end{itemize}
\end{itemize}
\end{itemize}
\end{frame}
%%%------------------------------------------------------------------------------------------------------------
%%% 更强大的表示模型 - BERT
\begin{frame}
{
更强的表示模型 - BERT
}
\begin{itemize}
\item
\textbf
{
BERT
}
( Bidirectional Encoder Representations from Transformers)是最近非常火爆的表示模型
\begin{itemize}
\item
仍然基于Transformer但是考虑了左右两端的上下文(可以对比GPT)
\item
使用了Mask方法来增加训练得到模型的健壮性,这个方法几乎成为了预训练表示模型的新范式
\end{itemize}
\end{itemize}
\end{itemize}
\end{frame}
%%%------------------------------------------------------------------------------------------------------------
\begin{center}
%%% 更强大的表示模型 - BERT
\begin{tikzpicture}
\begin{frame}
{
更强的表示模型 - BERT
}
\begin{scope}
\begin{itemize}
\node
[anchor=west] (eq) at (0,0)
{$
perplexity
(
s
)=
p
(
w
_
1
,w
_
2
,w
_
3
,...,w
_
m
)
^{
-
1
/
m
}$}
;
\item
\textbf
{
BERT
}
( Bidirectional Encoder Representations from Transformers)是最近非常火爆的表示模型
\begin{itemize}
\end{scope}
\item
仍然基于Transformer但是考虑了左右两端的上下文(可以对比GPT)
\end{tikzpicture}
\item
使用了Mask方法来增加训练得到模型的健壮性,这个方法几乎成为了预训练表示模型的新范式
\end{center}
\end{itemize}
\vspace
{
0.5em
}
\end{itemize}
\begin{tabular}
{
l | l | l | r
}
模型
&
作者
&
年份
&
PPL
\\
\hline
Feed-forward Neural LM
&
Bengio et al.
&
2003
&
162.2
\\
Recurrent NN-based LM
&
Mikolov et al.
&
2010
&
124.7
\\
Recurrent NN-LDA
&
Mikolov et al.
&
2012
&
92.0
\\
LSTM
&
Zaremba et al.
&
2014
&
78.4
\\
RHN
&
Zilly et al.
&
2016
&
65.4
\\
AWD-LSTM
&
Merity et al.
&
2018
&
58.8
\\
GPT-2 (Transformer)
&
Radford et al.
&
2019
&
\alert
{
35.7
}
\end{tabular}
\end{frame}
\end{frame}
%%%------------------------------------------------------------------------------------------------------------
%%%------------------------------------------------------------------------------------------------------------
...
...
Section05-Neural-Networks-and-Language-Modeling/section05.tex
查看文件 @
18b714cf
差异被折叠。
点击展开。
编写
预览
Markdown
格式
0%
重试
或
添加新文件
添加附件
取消
您添加了
0
人
到此讨论。请谨慎行事。
请先完成此评论的编辑!
取消
请
注册
或者
登录
后发表评论