Skip to content
项目
群组
代码片段
帮助
当前项目
正在载入...
登录 / 注册
切换导航面板
T
Toy-MT-Introduction
概览
Overview
Details
Activity
Cycle Analytics
版本库
Repository
Files
Commits
Branches
Tags
Contributors
Graph
Compare
Charts
问题
0
Issues
0
列表
Board
标记
里程碑
合并请求
0
Merge Requests
0
CI / CD
CI / CD
流水线
作业
日程表
图表
维基
Wiki
代码片段
Snippets
成员
Collapse sidebar
Close sidebar
活动
图像
聊天
创建新问题
作业
提交
Issue Boards
Open sidebar
单韦乔
Toy-MT-Introduction
Commits
c2d523e2
Commit
c2d523e2
authored
Nov 05, 2019
by
Lee
Browse files
Options
Browse Files
Download
Plain Diff
Merge branch 'master' into liyanyang
parents
8027bac6
3d0161fb
隐藏空白字符变更
内嵌
并排
正在显示
3 个修改的文件
包含
48 行增加
和
15 行删除
+48
-15
Section06-Neural-Machine-Translation/Figures/google-news.png
+0
-0
Section06-Neural-Machine-Translation/section06-test.tex
+8
-1
Section06-Neural-Machine-Translation/section06.tex
+40
-14
没有找到文件。
Section06-Neural-Machine-Translation/Figures/google-news.png
0 → 100644
查看文件 @
c2d523e2
66.7 KB
Section06-Neural-Machine-Translation/section06-test.tex
查看文件 @
c2d523e2
...
...
@@ -159,12 +159,19 @@
%%% 逐渐崛起的NMT
\begin{frame}
{
崛起
}
\begin{itemize}
\item
2015前统计机器翻译(SMT)在NLP是具有统治力的
\item
2015
年
前统计机器翻译(SMT)在NLP是具有统治力的
\begin{itemize}
\item
当时NMT的系统还很初步,被SMT碾压
\item
大多数的认知还没有进化到NMT年代,甚至Kalchbrenner等人早期的报告也被人质疑
\end{itemize}
\item
2016年情况大有改变,当时非常受关注的一项工作是Google上线了神经机器翻译系统GNMT
\begin{itemize}
\item
在GNMT前后,百度、微软、小牛翻译等也分别推出了自己的神经机器翻译系统,出现了百花齐放的局面
\end{itemize}
\end{itemize}
\begin{center}
\includegraphics
[scale=0.35]
{
./Figures/google-news.png
}
\end{center}
\end{frame}
%%%------------------------------------------------------------------------------------------------------------
...
...
Section06-Neural-Machine-Translation/section06.tex
查看文件 @
c2d523e2
...
...
@@ -143,7 +143,7 @@
%%%------------------------------------------------------------------------------------------------------------
%%% 译文对比
\begin{frame}
{
今天机器翻译
的水平
}
\begin{frame}
{
机器翻译今天
的水平
}
\begin{tcolorbox}
[enhanced,frame engine=empty,boxrule=0.1mm,size=title,colback=red!10!white]
\begin{flushleft}
...
...
@@ -617,13 +617,14 @@ NLP问题的隐含结构假设 & 无隐含结构假设,端到端学习 \\
&
Blunsom
&
\\
2014
&
Sutskever等
&
Sequence to Sequence Learning with
\\
&
&
neural networks
\\
2014
&
Cho等
&
Learning Phrase Representations using
\\
&
&
RNN Encoder-Decoder for Statistical
\\
&
&
Machine Translation
\\
2014
&
Bahdanau等
&
Neural Machine Translation by Jointly
\\
&
&
Learning to Align and Translate
\\
2014
&
Cho等
&
On the Properties of Neural Machine
\\
&
&
Translation
\\
2015
&
Jean等
&
On Using Very Large Target Vocabulary
\\
&
&
for Neural Machine Translation
&
&
for Neural Machine Translation
\\
2015
&
Luong等
&
Effective Approaches to Attention-based
\\
&
&
Neural Machine Translation
\end{tabular}
}
\end{center}
...
...
@@ -635,12 +636,19 @@ NLP问题的隐含结构假设 & 无隐含结构假设,端到端学习 \\
%%% 逐渐崛起的NMT
\begin{frame}
{
崛起
}
\begin{itemize}
\item
2015前统计机器翻译(SMT)在NLP是具有统治力的
\item
2015
年
前统计机器翻译(SMT)在NLP是具有统治力的
\begin{itemize}
\item
当时NMT的系统还很初步,被SMT碾压
\item
大多数的认知还没有进化到NMT年代,甚至Kalchbrenner等人早期的报告也被人质疑
\item
当时NMT的系统还很初级,被SMT碾压
\item
大多数的认知还没有进化到NMT时代,甚至Kalchbrenner等人早期的报告也被人质疑
\end{itemize}
\item
2016年情况大有改变,当时非常受关注的一项工作是Google上线了神经机器翻译系统GNMT
\begin{itemize}
\item
在GNMT前后,百度、微软、小牛翻译等也分别推出了自己的神经机器翻译系统,出现了百花齐放的局面
\end{itemize}
\end{itemize}
\begin{center}
\includegraphics
[scale=0.35]
{
./Figures/google-news.png
}
\end{center}
\end{frame}
%%%------------------------------------------------------------------------------------------------------------
...
...
@@ -653,8 +661,26 @@ NLP问题的隐含结构假设 & 无隐含结构假设,端到端学习 \\
\end{frame}
%%%------------------------------------------------------------------------------------------------------------
%%% 词嵌入
\begin{frame}
{
模块1:词嵌入层
}
\begin{itemize}
\item
词嵌入
\end{itemize}
%%% 图
\end{frame}
%%%------------------------------------------------------------------------------------------------------------
%%% 输出
\begin{frame}
{
模块2:输出层
}
\begin{itemize}
\item
Softmax
\end{itemize}
%%% 图
\end{frame}
%%%------------------------------------------------------------------------------------------------------------
%%% LSTM
\begin{frame}
{
长短时记忆模型(LSTM) (2页?)
}
\begin{frame}
{
模块3:循环单元 -
长短时记忆模型(LSTM) (2页?)
}
\begin{itemize}
\item
LSTM
\end{itemize}
...
...
@@ -662,8 +688,8 @@ NLP问题的隐含结构假设 & 无隐含结构假设,端到端学习 \\
\end{frame}
%%%------------------------------------------------------------------------------------------------------------
%%%
LSTM
\begin{frame}
{
门循环单元(GRU)
}
%%%
GRU
\begin{frame}
{
改进 -
门循环单元(GRU)
}
\begin{itemize}
\item
GRU
\end{itemize}
...
...
@@ -672,19 +698,19 @@ NLP问题的隐含结构假设 & 无隐含结构假设,端到端学习 \\
%%%------------------------------------------------------------------------------------------------------------
%%% 一些变种
\begin{frame}
{
进一步的
改进 - 双向模型
}
\begin{frame}
{
改进 - 双向模型
}
%%% 图
\end{frame}
%%%------------------------------------------------------------------------------------------------------------
%%% 一些变种
\begin{frame}
{
进一步的
改进 - 多层网络
}
\begin{frame}
{
改进 - 多层网络
}
%%% 图
\end{frame}
%%%------------------------------------------------------------------------------------------------------------
%%% 一些变种
\begin{frame}
{
进一步的
改进 - fine-tuning
}
\begin{frame}
{
改进 - fine-tuning
}
%%% 图
\end{frame}
...
...
编写
预览
Markdown
格式
0%
重试
或
添加新文件
添加附件
取消
您添加了
0
人
到此讨论。请谨慎行事。
请先完成此评论的编辑!
取消
请
注册
或者
登录
后发表评论