Skip to content
项目
群组
代码片段
帮助
当前项目
正在载入...
登录 / 注册
切换导航面板
T
Toy-MT-Introduction
概览
Overview
Details
Activity
Cycle Analytics
版本库
Repository
Files
Commits
Branches
Tags
Contributors
Graph
Compare
Charts
问题
0
Issues
0
列表
Board
标记
里程碑
合并请求
0
Merge Requests
0
CI / CD
CI / CD
流水线
作业
日程表
图表
维基
Wiki
代码片段
Snippets
成员
Collapse sidebar
Close sidebar
活动
图像
聊天
创建新问题
作业
提交
Issue Boards
Open sidebar
NiuTrans
Toy-MT-Introduction
Commits
85fbffb8
Commit
85fbffb8
authored
Mar 27, 2020
by
xiaotong
Browse files
Options
Browse Files
Download
Email Patches
Plain Diff
updates
parent
e5adc002
全部展开
显示空白字符变更
内嵌
并排
正在显示
7 个修改的文件
包含
20 行增加
和
20 行删除
+20
-20
Book/Chapter2/chapter2.tex
+5
-5
Book/Chapter3/Chapter3.tex
+0
-0
Book/Chapter3/Figures/figure-IBM-model-iteration-process-diagram.tex
+1
-1
Book/Chapter3/Figures/figure-a-more-detailed-explanation-of-formula-3.40.tex
+1
-1
Book/Chapter3/Figures/figure-calculation-formula&iterative-process-of-function.tex
+6
-6
Book/Chapter3/Figures/figure-correspondence-between-IBM-model&formula-1.13.tex
+1
-1
Book/Chapter6/Chapter6.tex
+6
-6
没有找到文件。
Book/Chapter2/chapter2.tex
查看文件 @
85fbffb8
...
...
@@ -1139,17 +1139,17 @@ s_0 \overset{r_1}{\Rightarrow} s_1 \overset{r_2}{\Rightarrow} s_2 \overset{r_3}{
\label
{
eq:2.5-5
}
\end{eqnarray}
\parinterval
这样我们就可以得到每个推导
d
的概率值。这个模型,可以很好的解释词串的生成过程。比如,对于规则集
\parinterval
这样我们就可以得到每个推导
$
d
$
的概率值。这个模型,可以很好的解释词串的生成过程。比如,对于规则集
\begin{eqnarray}
r
_
3:
&
\textrm
{
VV
}
\to
\text
{
吃
}
\nonumber
\\
r
_
4:
&
\textrm
{
NN
}
\to
\text
{
鱼
}
\nonumber
\\
r
_
6:
&
\textrm
{
VP
}
\to
\textrm
{
VV
}
\textrm
{
NN
}
\nonumber
r
_
3:
&
&
\textrm
{
VV
}
\to
\text
{
吃
}
\nonumber
\\
r
_
4:
&
&
\textrm
{
NN
}
\to
\text
{
鱼
}
\nonumber
\\
r
_
6:
&
&
\textrm
{
VP
}
\to
\textrm
{
VV
}
\textrm
{
NN
}
\nonumber
\end{eqnarray}
\parinterval
可以得到
$
d
_
1
=
r
_
3
\cdot
r
_
4
\cdot
r
_
6
$
的概率为
\begin{eqnarray}
\textrm
{
P
}
(d
_
1)
&
=
&
\textrm
{
P
}
(r
_
3)
\cdot
\textrm
{
P
}
(r
_
4)
\cdot
\textrm
{
P
}
(r
_
6)
\nonumber
\\
&
=
&
\textrm
{
P
}
(
\textrm
{
VV
}
\to
\text
{
吃
}
)
\cdot
\textrm
{
P
}
(
\textrm
{
NN
}
\to
\text
{
鱼
}
)
\cdots
\textrm
{
P
}
(
\textrm
{
VP
}
\to
\textrm
{
VV NN
}
)
&
=
&
\textrm
{
P
}
(
\textrm
{
``VV
}
\to
\text
{
吃''
}
)
\cdot
\textrm
{
P
}
(
\textrm
{
``NN
}
\to
\text
{
鱼''
}
)
\cdots
\textrm
{
P
}
(
\textrm
{
``VP
}
\to
\textrm
{
VV NN''
}
)
\label
{
eq:2.5-6
}
\end{eqnarray}
...
...
Book/Chapter3/Chapter3.tex
查看文件 @
85fbffb8
差异被折叠。
点击展开。
Book/Chapter3/Figures/figure-IBM-model-iteration-process-diagram.tex
查看文件 @
85fbffb8
...
...
@@ -8,7 +8,7 @@
\node
[anchor=west,inner sep=2pt,fill=red!20,minimum height=3em] (eq1) at (0,0)
{$
f
(
s
_
u|t
_
v
)
$}
;
\node
[anchor=west,inner sep=2pt] (eq2) at ([xshift=-2pt]eq1.east)
{$
=
$}
;
\node
[anchor=west,inner sep=2pt] (eq3) at ([xshift=-2pt]eq2.east)
{$
\lambda
_{
t
_
v
}^{
-
1
}$}
;
\node
[anchor=west,inner sep=2pt] (eq4) at ([xshift=-2pt]eq3.east)
{$
\frac
{
\epsilon
}{
(
l
+
1
)
^{
m
}}$}
;
\node
[anchor=west,inner sep=2pt] (eq4) at ([xshift=-2pt]eq3.east)
{$
\frac
{
\
var
epsilon
}{
(
l
+
1
)
^{
m
}}$}
;
\node
[anchor=west,inner sep=2pt,fill=red!20,minimum height=3em] (eq5) at ([xshift=-2pt]eq4.east)
{
\footnotesize
{$
\prod\limits
_{
j
=
1
}^{
m
}
\sum\limits
_{
i
=
0
}^{
l
}
f
(
s
_
j|t
_
i
)
$}}
;
\node
[anchor=west,inner sep=2pt] (eq6) at ([xshift=-2pt]eq5.east)
{
\footnotesize
{$
\sum\limits
_{
j
=
1
}^{
m
}
\delta
(
s
_
j,s
_
u
)
\sum\limits
_{
i
=
0
}^{
l
}
\delta
(
t
_
i,t
_
v
)
$}}
;
\node
[anchor=west,inner sep=2pt,fill=red!20,minimum height=3em] (eq7) at ([xshift=-2pt,yshift=-0pt]eq6.east)
{$
\frac
{
f
(
s
_
u|t
_
v
)
}{
\sum
_{
i
=
0
}^{
l
}
f
(
s
_
u|t
_
i
)
}$}
;
...
...
Book/Chapter3/Figures/figure-a-more-detailed-explanation-of-formula-3.40.tex
查看文件 @
85fbffb8
...
...
@@ -11,7 +11,7 @@
\node
[anchor=west,inner sep=2pt,minimum height=2em] (eq1) at (0,0)
{$
f
(
s
_
u|t
_
v
)
$}
;
\node
[anchor=west,inner sep=2pt] (eq2) at ([xshift=-2pt]eq1.east)
{$
=
$}
;
\node
[anchor=west,inner sep=2pt,minimum height=2em] (eq3) at ([xshift=-2pt]eq2.east)
{$
\lambda
_{
t
_
v
}^{
-
1
}$}
;
\node
[anchor=west,inner sep=2pt,minimum height=3.0em] (eq4) at ([xshift=-3pt]eq3.east)
{
\footnotesize
{$
\frac
{
\epsilon
}{
(
l
+
1
)
^{
m
}}
\prod\limits
_{
j
=
1
}^{
m
}
\sum\limits
_{
i
=
0
}^{
l
}
f
(
s
_
j|t
_
i
)
$}}
;
\node
[anchor=west,inner sep=2pt,minimum height=3.0em] (eq4) at ([xshift=-3pt]eq3.east)
{
\footnotesize
{$
\frac
{
\
var
epsilon
}{
(
l
+
1
)
^{
m
}}
\prod\limits
_{
j
=
1
}^{
m
}
\sum\limits
_{
i
=
0
}^{
l
}
f
(
s
_
j|t
_
i
)
$}}
;
\node
[anchor=west,inner sep=2pt,minimum height=3.0em] (eq5) at ([xshift=1pt]eq4.east)
{
\footnotesize
{$
\sum\limits
_{
j
=
1
}^{
m
}
\delta
(
s
_
j,s
_
u
)
\sum\limits
_{
i
=
0
}^{
l
}
\delta
(
t
_
i,t
_
v
)
$}}
;
\node
[anchor=west,inner sep=2pt,minimum height=3.0em] (eq6) at ([xshift=1pt]eq5.east)
{$
\frac
{
f
(
s
_
u|t
_
v
)
}{
\sum
_{
i
=
0
}^{
l
}
f
(
s
_
u|t
_
i
)
}$}
;
...
...
Book/Chapter3/Figures/figure-calculation-formula&iterative-process-of-function.tex
查看文件 @
85fbffb8
...
...
@@ -7,23 +7,23 @@
\begin{tikzpicture}
\node
[anchor=west,inner sep=2pt] (eq1) at (0,0)
{$
f
(
\mathbf
{
s
}_
u|
\mathbf
{
t
}
_
v
)
$}
;
\node
[anchor=west,inner sep=2pt] (eq1) at (0,0)
{$
f
(
s
_
u|t
_
v
)
$}
;
\node
[anchor=west] (eq2) at (eq1.east)
{$
=
$
\
}
;
\draw
[-] ([xshift=0.3em]eq2.east) -- ([xshift=11.6em]eq2.east);
\node
[anchor=south west] (eq3) at ([xshift=1em]eq2.east)
{$
\sum
_{
i
=
1
}^{
N
}
c
_{
\mathbb
{
E
}}
(
\mathbf
{
s
}_
u|
\mathbf
{
t
}
_
v;s
^{
[
i
]
}
,t
^{
[
i
]
}
)
$}
;
\node
[anchor=north west] (eq4) at (eq2.east)
{$
\sum
_{
\mathbf
{
s
}_
u
}
\sum
_{
i
=
1
}^{
N
}
c
_{
\mathbb
{
E
}}
(
\mathbf
{
s
}_
u|
\mathbf
{
t
}
_
v;s
^{
[
i
]
}
,t
^{
[
i
]
}
)
$}
;
\node
[anchor=south west] (eq3) at ([xshift=1em]eq2.east)
{$
\sum
_{
i
=
1
}^{
N
}
c
_{
\mathbb
{
E
}}
(
s
_
u|t
_
v;s
^{
[
i
]
}
,t
^{
[
i
]
}
)
$}
;
\node
[anchor=north west] (eq4) at (eq2.east)
{$
\sum
_{
s
_
u
}
\sum
_{
i
=
1
}^{
N
}
c
_{
\mathbb
{
E
}}
(
s
_
u|t
_
v;s
^{
[
i
]
}
,t
^{
[
i
]
}
)
$}
;
{
\node
[anchor=south] (label1) at ([yshift=-6em,xshift=3em]eq1.north west)
{
利用这个公式计算
}
;
\node
[anchor=north west] (label1part2) at ([yshift=0.3em]label1.south west)
{
新的
$
f
(
\mathbf
{
s
}_
u|
\mathbf
{
t
}
_
v
)
$
值
}
;
\node
[anchor=north west] (label1part2) at ([yshift=0.3em]label1.south west)
{
新的
$
f
(
s
_
u|t
_
v
)
$
值
}
;
}
{
\node
[anchor=west] (label2) at ([xshift=5em]label1.east)
{
用当前的
$
f
(
\mathbf
{
s
}_
u|
\mathbf
{
t
}
_
v
)
$}
;
\node
[anchor=west] (label2) at ([xshift=5em]label1.east)
{
用当前的
$
f
(
s
_
u|t
_
v
)
$}
;
\node
[anchor=north west] (label2part2) at ([yshift=0.3em]label2.south west)
{
计算期望频次
$
c
_{
\mathbb
{
E
}}
(
\cdot
)
$}
;
}
{
\node
[anchor=west,fill=red!20,inner sep=2pt] (eq1) at (0,0)
{$
f
(
\mathbf
{
s
}_
u|
\mathbf
{
t
}
_
v
)
$}
;
\node
[anchor=west,fill=red!20,inner sep=2pt] (eq1) at (0,0)
{$
f
(
s
_
u|t
_
v
)
$}
;
}
\begin{pgfonlayer}
{
background
}
...
...
Book/Chapter3/Figures/figure-correspondence-between-IBM-model&formula-1.13.tex
查看文件 @
85fbffb8
...
...
@@ -8,7 +8,7 @@
\node
[anchor=west] (e2) at (e1.east)
{$
=
$}
;
\node
[anchor=west,inner sep=2pt,fill=red!20] (e3) at (e2.east)
{$
\prod\nolimits
_{
(
j,i
)
\in
\hat
{
A
}}
\textrm
{
P
}
(
s
_
j,t
_
i
)
$}
;
\node
[anchor=west,inner sep=1pt] (e4) at (e3.east)
{$
\times
$}
;
\node
[anchor=west,inner sep=3pt,fill=blue!20] (e5) at (e4.east)
{$
\textrm
{
P
}_{
lm
}
(
\mathbf
{
t
}
)
$}
;
\node
[anchor=west,inner sep=3pt,fill=blue!20] (e5) at (e4.east)
{$
\textrm
{
P
}_{
\textrm
{
lm
}
}
(
\mathbf
{
t
}
)
$}
;
\node
[anchor=north west,inner sep=1pt] (n1) at ([xshift=7.0em,yshift=-0.5em]e1.south west)
{$
\textrm
{
P
}
(
\mathbf
{
s
}
|
\mathbf
{
t
}
)
$}
;
\node
[anchor=north] (n1part2) at ([yshift=0.3em]n1.south)
{
\scriptsize
{{
翻译模型
}}}
;
\node
[anchor=west,inner sep=1pt] (n2) at ([xshift=4.0em]n1.east)
{$
\textrm
{
P
}
(
\mathbf
{
t
}
)
$}
;
...
...
Book/Chapter6/Chapter6.tex
查看文件 @
85fbffb8
...
...
@@ -65,7 +65,7 @@
\item
同年Dzmitry Bahdanau等人首次将注意力机制(Attention Mechanism)应用到机器翻译领域,在机器翻译任务上将翻译和局部翻译单元之间的对应关系同时进行建模
\cite
{
bahdanau2014neural
}
。Bahdanau等人工作的意义在于,使用了更加有效的模型来表示源语言的信息,同时使用注意力机制对两种语言不同部分之间的相互联系进行了建模。这种方法可以有效的处理长句子的翻译,而且注意力的中间结果具有一定的可解释性
\footnote
{
比如,目标语言和源语言句子不同单词之间的注意力强度能够在一定程度上反应单词之间的互译程度。
}
。然而相比于前人的神经机器翻译模型,注意力模型也引入了额外的成本,计算量较大。
\item
2016年谷歌发布了基于多层循环神经网络方法的GNMT系统,集成了当时的神经机器翻译技术,并进行了诸多的改进,性能显著优于基于短语的机器翻译系统
\cite
{
Wu2016GooglesNM
}
,引起了广泛的关注。在之后的不到一年中,Facebook采用卷积神经网络(CNN)研发了新的神经机器翻译系统
\cite
{
DBLP:journals/corr/GehringAGYD17
}
,实现了比基于循环神经网络(RNN)系统更好的表现水平,并获得了
近9倍
的加速。
\item
2016年谷歌发布了基于多层循环神经网络方法的GNMT系统,集成了当时的神经机器翻译技术,并进行了诸多的改进,性能显著优于基于短语的机器翻译系统
\cite
{
Wu2016GooglesNM
}
,引起了广泛的关注。在之后的不到一年中,Facebook采用卷积神经网络(CNN)研发了新的神经机器翻译系统
\cite
{
DBLP:journals/corr/GehringAGYD17
}
,实现了比基于循环神经网络(RNN)系统更好的表现水平,并获得了
明显
的加速。
\item
2017年,谷歌的Ashish Vaswani等人提出了新的翻译模型Transformer。其完全抛弃了CNN、RNN等结构,仅仅通过自注意力机制(self-attentiion)和前向神经网络,不需要使用序列对齐的循环框架就实现了强大的性能,并且巧妙的解决了翻译中的长距离依赖问题
\cite
{
NIPS2017
_
7181
}
。Transformer是第一个完全基于注意力机制搭建的模型,不仅计算速度更快,在翻译任务上也获得了更好的结果,一跃成为目前最主流的神经机器翻译框架。
\end{itemize}
...
...
@@ -1389,7 +1389,7 @@ L(\mathbf{Y},\hat{\mathbf{Y}}) = \sum_{j=1}^n L_{\textrm{ce}}(\mathbf{y}_j,\hat{
\begin{figure}
[htp]
\centering
\input
{
./Chapter6/Figures/figure-Calculation-of-context-vector-C
}
\caption
{
上下文向量
C
的计算
}
\caption
{
上下文向量
$
\mathbf
{
C
}$
的计算
}
\label
{
fig:6-39
}
\end{figure}
%----------------------------------------------
...
...
@@ -1432,8 +1432,8 @@ L(\mathbf{Y},\hat{\mathbf{Y}}) = \sum_{j=1}^n L_{\textrm{ce}}(\mathbf{y}_j,\hat{
\parinterval
那么为什么通过这种计算方式可以很好的表示位置信息?有三方面原因。首先,正余弦函数是具有上下界的周期函数,用正余弦函数可将长度不同的序列的位置编码的范围都固定到[-1,1],这样在与词的编码进行相加时,不至于产生太大差距。另外位置编码的不同维度对应不同的正余弦曲线,这为多维的表示空间赋予一定意义。最后,根据三角函数的性质:
%------------------------
\begin{eqnarray}
\textrm
{
sin
}
(
\alpha
+
\beta
)
&
=
&
\textrm
{
sin
}
\alpha
\
textrm
{
cos
}
\beta
+
\textrm
{
cos
}
\alpha
\textrm
{
sin
}
\beta
\nonumber
\\
\textrm
{
cos
}
(
\alpha
+
\beta
)
&
=
&
\textrm
{
cos
}
\alpha
\
textrm
{
cos
}
\beta
-
\textrm
{
sin
}
\alpha
\textrm
{
sin
}
\beta
\textrm
{
sin
}
(
\alpha
+
\beta
)
&
=
&
\textrm
{
sin
}
\alpha
\
cdot
\textrm
{
cos
}
\beta
+
\textrm
{
cos
}
\alpha
\cdot
\textrm
{
sin
}
\beta
\nonumber
\\
\textrm
{
cos
}
(
\alpha
+
\beta
)
&
=
&
\textrm
{
cos
}
\alpha
\
cdot
\textrm
{
cos
}
\beta
-
\textrm
{
sin
}
\alpha
\cdot
\textrm
{
sin
}
\beta
\label
{
eqC6.43
}
\end{eqnarray}
...
...
@@ -1707,8 +1707,8 @@ lrate = d_{model}^{-0.5} \cdot \textrm{min} (step^{-0.5} , step \cdot warmup\_st
\label
{
tab:word-translation-examples
}
\begin{tabular}
{
l | l l l
}
\multirow
{
2
}{
*
}{
\#
}
&
\multicolumn
{
2
}{
c
}{
BLEU
}
&
\multirow
{
2
}{
*
}{
params
}
\\
&
EN-DE
&
EN-FR
&
\\
\hline
\multirow
{
2
}{
*
}{
系统
}
&
\multicolumn
{
2
}{
c
}{
BLEU[
\%
]
}
&
\#
of
\\
&
EN-DE
&
EN-FR
&
params
\\
\hline
Transformer Base
&
27.3
&
38.1
&
65
$
\times
10
^{
6
}$
\\
Transformer Big
&
28.4
&
41.8
&
213
$
\times
10
^{
6
}$
\\
Transformer Deep(48层)
&
30.2
&
43.1
&
194
$
\times
10
^{
6
}$
\\
...
...
编写
预览
Markdown
格式
0%
重试
或
添加新文件
添加附件
取消
您添加了
0
人
到此讨论。请谨慎行事。
请先完成此评论的编辑!
取消
请
注册
或者
登录
后发表评论