Skip to content
项目
群组
代码片段
帮助
当前项目
正在载入...
登录 / 注册
切换导航面板
T
Toy-MT-Introduction
概览
Overview
Details
Activity
Cycle Analytics
版本库
Repository
Files
Commits
Branches
Tags
Contributors
Graph
Compare
Charts
问题
0
Issues
0
列表
Board
标记
里程碑
合并请求
0
Merge Requests
0
CI / CD
CI / CD
流水线
作业
日程表
图表
维基
Wiki
代码片段
Snippets
成员
Collapse sidebar
Close sidebar
活动
图像
聊天
创建新问题
作业
提交
Issue Boards
Open sidebar
NiuTrans
Toy-MT-Introduction
Commits
bd69d653
Commit
bd69d653
authored
Apr 22, 2020
by
xiaotong
Browse files
Options
Browse Files
Download
Plain Diff
Merge branch 'master' of 47.105.50.196:NiuTrans/Toy-MT-Introduction
parents
169496fe
62b3c9dd
全部展开
隐藏空白字符变更
内嵌
并排
正在显示
6 个修改的文件
包含
11 行增加
和
11 行删除
+11
-11
Book/Chapter2/Figures/figure-MT=language-analysis+translation-engine.tex
+1
-1
Book/Chapter2/Figures/figure-cross-type-word-segmentation-ambiguity.tex
+1
-1
Book/Chapter2/Figures/figure-word-segmentation-based-on-statistics.tex
+6
-6
Book/Chapter2/chapter2.tex
+0
-0
Book/Chapter3/Chapter3.tex
+0
-0
Book/ChapterAppend/ChapterAppend.tex
+3
-3
没有找到文件。
Book/Chapter2/Figures/figure-MT=language-analysis+translation-engine.tex
查看文件 @
bd69d653
...
...
@@ -63,7 +63,7 @@
{
\node
[anchor=west] (mtinputlabel) at ([xshift=0.29in]inputlabel.east)
{{
\scriptsize
\color
{
red
}{
\textbf
{
实际的输入
}}}}
;
\node
[anchor=west] (mtoutputlabel) at ([xshift=
0.86
in]mtinputlabel.east)
{{
\scriptsize
\color
{
red
}{
\textbf
{
实际的输出
}}}}
;
\node
[anchor=west] (mtoutputlabel) at ([xshift=
1.0
in]mtinputlabel.east)
{{
\scriptsize
\color
{
red
}{
\textbf
{
实际的输出
}}}}
;
\node
[rectangle,draw=ublue, inner sep=0mm]
[fit = (mtinputlabel) (mtoutputlabel) (inputmarking) (outputmarking)]
{}
;
}
...
...
Book/Chapter2/Figures/figure-cross-type-word-segmentation-ambiguity.tex
查看文件 @
bd69d653
...
...
@@ -45,7 +45,7 @@
{
\node
[anchor=west,thick,draw,minimum width=3.4em,minimum height=1.5em] (w1) at (c3.west)
{}
;
\draw
[->,thick] (entry3.30) ..controls +(70:1) and +(south:1.5).. ([xshift=0.3em]w1.south) node [pos=0.5, above]
{
\
color
{
red
}{
\footnotesize
{
命中
}
}}
;
\draw
[->,thick] (entry3.30) ..controls +(70:1) and +(south:1.5).. ([xshift=0.3em]w1.south) node [pos=0.5, above]
{
\
footnotesize
{
命中
}}
;
}
...
...
Book/Chapter2/Figures/figure-word-segmentation-based-on-statistics.tex
查看文件 @
bd69d653
...
...
@@ -53,12 +53,12 @@
\node
[anchor=north west] (sent) at (sentlabel.south west)
{
\textbf
{
确实现在数据很多
}}
;
}
{
\node
[anchor=north west] (seg1) at ([xshift=
0.5
em]sent.south west)
{
确/实现/在/数/据很/多
}
;
\node
[anchor=north west] (seg1) at ([xshift=
1.0
em]sent.south west)
{
确/实现/在/数/据很/多
}
;
\node
[anchor=north west] (seg2) at (seg1.south west)
{
确实/现在/数据/很/多
}
;
\node
[anchor=north west] (seg3) at (seg2.south west)
{
确实/现在/数/据/很/多
}
;
}
{
\node
[anchor=north west] (seg4) at ([
yshift=0.5
em]seg3.south west)
{
...
}
;
\node
[anchor=north west] (seg4) at ([
xshift=-1.0em,yshift=0.4
em]seg3.south west)
{
...
}
;
\node
[anchor=east,ugreen] (p1seg1) at ([xshift=0.5em]seg1.west)
{
P(
}
;
\node
[anchor=west,ugreen] (p2seg1) at ([xshift=-0.5em]seg1.east)
{
)=.1
}
;
\node
[anchor=east,ugreen] (p1seg2) at ([xshift=0.5em]seg2.west)
{
P(
}
;
...
...
@@ -68,10 +68,10 @@
}
{
\node
[anchor=east,draw,dashed,red,thick,minimum width=1
3em,minimum height=1.5
em] (final) at (p2seg2.east)
{}
;
\node
[anchor=west,red] (finallabel) at ([xshift=2.
5em]sentlabel.east)
{
输出概率最大
}
;
\node
[anchor=north east,red] (finallabel2) at ([yshift=0.5em]finallabel.south east)
{
的结果
}
;
\draw
[->,thick,red] ([xshift=0.0em,yshift=-0.5em]final.north east) ..controls +(east:0.3) and +(south:0.0).. ([xshift=1.0em]finallabel
2
.south);
\node
[anchor=east,draw,dashed,red,thick,minimum width=1
2.6em,minimum height=1.4
em] (final) at (p2seg2.east)
{}
;
\node
[anchor=west,red] (finallabel) at ([xshift=2.
7em]sentlabel.east)
{
输出概率最大的结果
}
;
%
\node [anchor=north east,red] (finallabel2) at ([yshift=0.5em]finallabel.south east) {的结果};
\draw
[->,thick,red] ([xshift=0.0em,yshift=-0.5em]final.north east) ..controls +(east:0.3) and +(south:0.0).. ([xshift=1.0em]finallabel.south);
}
}
...
...
Book/Chapter2/chapter2.tex
查看文件 @
bd69d653
差异被折叠。
点击展开。
Book/Chapter3/Chapter3.tex
查看文件 @
bd69d653
差异被折叠。
点击展开。
Book/ChapterAppend/ChapterAppend.tex
查看文件 @
bd69d653
...
...
@@ -55,14 +55,14 @@ p_x & = & \zeta^{-1} \sum_{k=1}^{K}c(x;\mathbf{s}^{[k]},\mathbf{t}^{[k]}) \label
\end{eqnarray}
%----------------------------------------------
\parinterval
在模型3中,因为产出率的引入,并不能像模型1和模型2那样,在保证正确性的情况下加速参数估计的过程。这就使得每次迭代过程中,都不得不面对大小为
$
(
l
+
1
)
^
m
$
的词对齐空间。遍历所有
$
(
l
+
1
)
^
m
$
个词对齐所带来的高时间复杂度显然是不能被接受的。因此就要考虑能否仅利用词对齐空间中的部分词对齐对这些参数进行估计。比较简单且直接的方法就是仅利用Viterbi对齐来进行参数估计
\footnote
{
Viterbi词对齐可以被简单的看作搜索到的最好词对齐。
}
。 遗憾的是,在模型3中并没有方法直接获得Viterbi对齐。这样只能采用一种折中的策略,即仅考虑那些使得
$
\textrm
{
P
}_{
\theta
}
(
\mathbf
{
s
}
,
\mathbf
{
a
}
|
\mathbf
{
t
}
)
$
达到较高值的词对齐。这里把这部分词对齐组成的集合记为
$
S
$
。式
\ref
{
eq:1.2
}
可以被修改为
,
\parinterval
在模型3中,因为产出率的引入,并不能像模型1和模型2那样,在保证正确性的情况下加速参数估计的过程。这就使得每次迭代过程中,都不得不面对大小为
$
(
l
+
1
)
^
m
$
的词对齐空间。遍历所有
$
(
l
+
1
)
^
m
$
个词对齐所带来的高时间复杂度显然是不能被接受的。因此就要考虑能否仅利用词对齐空间中的部分词对齐对这些参数进行估计。比较简单且直接的方法就是仅利用Viterbi对齐来进行参数估计
\footnote
{
Viterbi词对齐可以被简单的看作搜索到的最好词对齐。
}
。 遗憾的是,在模型3中并没有方法直接获得Viterbi对齐。这样只能采用一种折中的策略,即仅考虑那些使得
$
\textrm
{
P
}_{
\theta
}
(
\mathbf
{
s
}
,
\mathbf
{
a
}
|
\mathbf
{
t
}
)
$
达到较高值的词对齐。这里把这部分词对齐组成的集合记为
$
S
$
。式
\ref
{
eq:1.2
}
可以被修改为
:
\begin{eqnarray}
c(s|t,
\mathbf
{
s
}
,
\mathbf
{
t
}
)
\approx
\sum
_{
\mathbf
{
a
}
\in
\mathbf
{
S
}}
\big
[\textrm{P}_{\theta}(\mathbf{s},\mathbf{a}|\mathbf{t}) \times \sum_{j=1}^{m}(\delta(s_j,\mathbf{s}) \cdot \delta(t_{a_{j}},\mathbf{t})) \big]
\label
{
eq:1.11
}
\end{eqnarray}
%----------------------------------------------
\parinterval
同理可以获得式
\ref
{
eq:1.3
}
-
\ref
{
eq:1.6
}
的修改结果。进一步,在IBM模型3中,可以
如下定义
$
S
$
:
\parinterval
同理可以获得式
\ref
{
eq:1.3
}
-
\ref
{
eq:1.6
}
的修改结果。进一步,在IBM模型3中,可以
定义
$
S
$
如下
:
\begin{eqnarray}
S = N(b
^{
\infty
}
(V(
\mathbf
{
s
}
|
\mathbf
{
t
}
;2)))
\cup
(
\mathop
{
\cup
}
\limits
_{
ij
}
N(b
_{
i
\leftrightarrow
j
}^{
\infty
}
(V
_{
i
\leftrightarrow
j
}
(
\mathbf
{
s
}
|
\mathbf
{
t
}
,2))))
...
...
@@ -96,7 +96,7 @@ S = N(b^{\infty}(V(\mathbf{s}|\mathbf{t};2))) \cup (\mathop{\cup}\limits_{ij} N(
\end{eqnarray}
%----------------------------------------------
\parinterval
相比整个词对齐空间,
$
S
$
只是一个非常小的子集,因此运算复杂度可以
大大被
降低。可以看到,模型3的参数估计过程是建立在模型1和模型2的参数估计结果上的。这不仅是因为模型3要利用模型2的Viterbi对齐,而且还因为模型3参数的初值也要直接利用模型2的参数。从这个角度说,模型1,2,3是有序的且向前依赖的。单独的对模型3的参数进行估计是极其困难的。实际上IBM的模型4和模型5也具有这样的性质,即它们都可以利用前一个模型参数估计的结果作为自身参数的初始值。
\parinterval
相比整个词对齐空间,
$
S
$
只是一个非常小的子集,因此运算复杂度可以
被大大
降低。可以看到,模型3的参数估计过程是建立在模型1和模型2的参数估计结果上的。这不仅是因为模型3要利用模型2的Viterbi对齐,而且还因为模型3参数的初值也要直接利用模型2的参数。从这个角度说,模型1,2,3是有序的且向前依赖的。单独的对模型3的参数进行估计是极其困难的。实际上IBM的模型4和模型5也具有这样的性质,即它们都可以利用前一个模型参数估计的结果作为自身参数的初始值。
\section
{
IBM模型4训练方法
}
...
...
编写
预览
Markdown
格式
0%
重试
或
添加新文件
添加附件
取消
您添加了
0
人
到此讨论。请谨慎行事。
请先完成此评论的编辑!
取消
请
注册
或者
登录
后发表评论