Skip to content
项目
群组
代码片段
帮助
当前项目
正在载入...
登录 / 注册
切换导航面板
T
Toy-MT-Introduction
概览
Overview
Details
Activity
Cycle Analytics
版本库
Repository
Files
Commits
Branches
Tags
Contributors
Graph
Compare
Charts
问题
0
Issues
0
列表
Board
标记
里程碑
合并请求
0
Merge Requests
0
CI / CD
CI / CD
流水线
作业
日程表
图表
维基
Wiki
代码片段
Snippets
成员
Collapse sidebar
Close sidebar
活动
图像
聊天
创建新问题
作业
提交
Issue Boards
Open sidebar
NiuTrans
Toy-MT-Introduction
Commits
9622c0cf
Commit
9622c0cf
authored
May 11, 2020
by
孟霞
Browse files
Options
Browse Files
Download
Plain Diff
合并分支 'mengxia' 到 'caorunzhe'
Mengxia 查看合并请求
!132
parents
74a39a66
7227665d
隐藏空白字符变更
内嵌
并排
正在显示
2 个修改的文件
包含
1 行增加
和
17 行删除
+1
-17
Book/Chapter5/chapter5.tex
+1
-1
Book/bibliography.bib
+0
-16
没有找到文件。
Book/Chapter5/chapter5.tex
查看文件 @
9622c0cf
...
...
@@ -175,7 +175,7 @@
\rule
{
0pt
}{
15pt
}
模型
&
作者
&
年份
&
PPL
\\
\hline
\rule
{
0pt
}{
15pt
}
3-gram LM
\cite
{
brown1992class
}
&
Brown et al.
&
1992
&
178.0
\\
\rule
{
0pt
}{
15pt
}
Feed-forward Neural LM
\cite
{
bengio2003
a
}
&
Bengio et al.
&
2003
&
162.2
\\
\rule
{
0pt
}{
15pt
}
Feed-forward Neural LM
\cite
{
bengio2003
neural
}
&
Bengio et al.
&
2003
&
162.2
\\
\rule
{
0pt
}{
15pt
}
Recurrent NN-based LM
\cite
{
mikolov2010recurrent
}
&
Mikolov et al.
&
2010
&
124.7
\\
\rule
{
0pt
}{
15pt
}
Recurrent NN-LDA
\cite
{
mikolov2012context
}
&
Mikolov et al.
&
2012
&
92.0
\\
\rule
{
0pt
}{
15pt
}
LSTM
\cite
{
zaremba2014recurrent
}&
Zaremba et al.
&
2014
&
78.4
\\
...
...
Book/bibliography.bib
查看文件 @
9622c0cf
...
...
@@ -2858,22 +2858,6 @@ year ={2008},
year={1992},
publisher={MIT Press}
}
@article{bengio2003a,
title={A neural probabilistic language model},
author={Bengio and
Yoshua and
Ducharme and
Rejean and
Vincent and
Pascal and
Janvin and
Christian},
journal={Journal of Machine Learning Research},
volume={3},
number={6},
pages={1137--1155},
year={2003}
}
@inproceedings{mikolov2012context,
title={Context dependent recurrent neural network language model},
author={Mikolov and
...
...
编写
预览
Markdown
格式
0%
重试
或
添加新文件
添加附件
取消
您添加了
0
人
到此讨论。请谨慎行事。
请先完成此评论的编辑!
取消
请
注册
或者
登录
后发表评论