Skip to content
项目
群组
代码片段
帮助
当前项目
正在载入...
登录 / 注册
切换导航面板
M
mtbookv2
概览
Overview
Details
Activity
Cycle Analytics
版本库
Repository
Files
Commits
Branches
Tags
Contributors
Graph
Compare
Charts
问题
0
Issues
0
列表
Board
标记
里程碑
合并请求
0
Merge Requests
0
CI / CD
CI / CD
流水线
作业
日程表
图表
维基
Wiki
代码片段
Snippets
成员
Collapse sidebar
Close sidebar
活动
图像
聊天
创建新问题
作业
提交
Issue Boards
Open sidebar
NiuTrans
mtbookv2
Commits
244acfdf
Commit
244acfdf
authored
Aug 26, 2020
by
xiaotong
Browse files
Options
Browse Files
Download
Email Patches
Plain Diff
wording (problems of ibm models)
parent
4ef3d74e
隐藏空白字符变更
内嵌
并排
正在显示
1 个修改的文件
包含
6 行增加
和
6 行删除
+6
-6
Chapter6/chapter6.tex
+6
-6
没有找到文件。
Chapter6/chapter6.tex
查看文件 @
244acfdf
...
...
@@ -435,11 +435,11 @@ p_0+p_1 & = & 1 \label{eq:6-17}
\label
{
eq:6-23
}
\end{eqnarray}
\parinterval
本质上,模型3和模型4就是对应
$
\textrm
{
P
}
(
{
\textrm
{
failure
}
|
\mathbf
{
t
}}
)
>
0
$
的情况。这部分概率是模型损失掉的。有时候也把这类缺陷称为
Technical Deficiency。还有一种缺陷被称作Spiritual Deficiency,它是指
$
\textrm
{
P
}
(
{
\textrm
{
well
}
|
\mathbf
{
t
}}
)
+
\textrm
{
P
}
(
{
\textrm
{
ill
}
|
\mathbf
{
t
}}
)
=
1
$
且
$
\textrm
{
P
}
(
{
\textrm
{
ill
}
|
\mathbf
{
t
}}
)
>
0
$
的情况。模型1和模型2 就有Spiritual Deficiency的问题。可以注意到,Technical Deficiency只存在于模型3 和模型4中,模型1和模型2并没有Technical Deficiency问题。根本原因是模型1和模型2的词对齐是从源语言出发对应到目标语言,
$
\mathbf
{
t
}$
到
$
\mathbf
{
s
}$
的翻译过程实际上是从单词
$
s
_
1
$
开始到单词
$
s
_
m
$
结束,依次把每个源语言单词
$
s
_
j
$
对应到唯一一个目标语言位置。显然,这个过程能够保证每个源语言单词仅对应一个目标语言单词。但是,模型3和模型4中对齐是从目标语言出发对应到源语言,
$
\mathbf
{
t
}$
到
$
\mathbf
{
s
}$
的翻译过程从
$
t
_
1
$
开始
$
t
_
l
$
结束,依次把目标语言单词
$
t
_
i
$
生成的单词对应到某个源语言位置上。但是这个过程不能保证
$
t
_
i
$
中生成的单词所对应的位置没有被其他单词占用,因此也就产生了缺陷。
\parinterval
本质上,模型3和模型4就是对应
$
\textrm
{
P
}
(
{
\textrm
{
failure
}
|
\mathbf
{
t
}}
)
>
0
$
的情况。这部分概率是模型损失掉的。有时候也把这类缺陷称为
{
\small\bfnew
{
物理缺陷
}}
\index
{
物理缺陷
}
(Physical Deficiency
\index
{
Physical Deficiency
}
)或
{
\small\bfnew
{
技术缺陷
}}
\index
{
技术缺陷
}
(Technical Deficiency
\index
{
Technical Deficiency
}
)。还有一种缺陷被称作
{
\small\bfnew
{
精神缺陷
}}
(Spiritual Deficiency
\index
{
Spiritual Deficiency
}
)或
{
\small\bfnew
{
逻辑缺陷
}}
\index
{
逻辑缺陷
}
(Logical Deficiency
\index
{
Logical Deficiency
}
),它是指
$
\textrm
{
P
}
(
{
\textrm
{
well
}
|
\mathbf
{
t
}}
)
+
\textrm
{
P
}
(
{
\textrm
{
ill
}
|
\mathbf
{
t
}}
)
=
1
$
且
$
\textrm
{
P
}
(
{
\textrm
{
ill
}
|
\mathbf
{
t
}}
)
>
0
$
的情况。模型1 和模型2 就有逻辑缺陷。可以注意到,技术缺陷只存在于模型3 和模型4 中,模型1和模型2并没有技术缺陷问题。根本原因在于模型1和模型2的词对齐是从源语言出发对应到目标语言,
$
\mathbf
{
t
}$
到
$
\mathbf
{
s
}$
的翻译过程实际上是从单词
$
s
_
1
$
开始到单词
$
s
_
m
$
结束,依次把每个源语言单词
$
s
_
j
$
对应到唯一一个目标语言位置。显然,这个过程能够保证每个源语言单词仅对应一个目标语言单词。但是,模型3 和模型4中对齐是从目标语言出发对应到源语言,
$
\mathbf
{
t
}$
到
$
\mathbf
{
s
}$
的翻译过程从
$
t
_
1
$
开始
$
t
_
l
$
结束,依次把目标语言单词
$
t
_
i
$
生成的单词对应到某个源语言位置上。但是这个过程不能保证
$
t
_
i
$
中生成的单词所对应的位置没有被其他单词占用,因此也就产生了缺陷。
\parinterval
这里还要强调的是,
Technical Deficiency是模型3和模型4是模型本身的缺陷造成的,如果有一个``更好''的模型就可以完全避免这个问题。而Spiritual Deficiency
几乎是不能从模型上根本解决的,因为对于任意一种语言都不能枚举所有的句子(
$
\textrm
{
P
}
(
{
\textrm
{
ill
}
|
\mathbf
{
t
}}
)
$
实际上是得不到的)。
\parinterval
这里还要强调的是,
技术缺陷是模型3和模型4是模型本身的缺陷造成的,如果有一个``更好''的模型就可以完全避免这个问题。而逻辑缺陷
几乎是不能从模型上根本解决的,因为对于任意一种语言都不能枚举所有的句子(
$
\textrm
{
P
}
(
{
\textrm
{
ill
}
|
\mathbf
{
t
}}
)
$
实际上是得不到的)。
\parinterval
IBM的模型5已经解决了
Technical Deficiency问题。不过模型5过于复杂。实际上Technical Deficiency问题是不是需要解决,这一点在本节随后的内容中还要进行讨论。Spiritual Deficiency的解决很困难,因为即使对于人来说也很难判断一个句子是不是``良好''的句子。当然可以考虑用语言模型来缓解这个问题,不过由于在翻译的时候源语言句子都是定义``良好''的句子,
$
\textrm
{
P
}
(
{
\textrm
{
ill
}
|
\mathbf
{
t
}}
)
$
对
$
\textrm
{
P
}
(
\mathbf
{
s
}
|
\mathbf
{
t
}
)
$
的影响并不大。但用输入的源语言句子
$
\mathbf
{
s
}$
的``良好性''并不能解决Technical Deficiency,因为Technical Deficiency是模型的问题或者模型参数估计方法的问题。无论输入什么样的
$
\mathbf
{
s
}$
,模型3和模型4的Technical Deficiency
问题都存在。
\parinterval
IBM的模型5已经解决了
技术缺陷问题。但逻辑缺陷的解决很困难,因为即使对于人来说也很难判断一个句子是不是``良好''的句子。当然可以考虑用语言模型来缓解这个问题,不过由于在翻译的时候源语言句子都是定义``良好''的句子,
$
\textrm
{
P
}
(
{
\textrm
{
ill
}
|
\mathbf
{
t
}}
)
$
对
$
\textrm
{
P
}
(
\mathbf
{
s
}
|
\mathbf
{
t
}
)
$
的影响并不大。但用输入的源语言句子
$
\mathbf
{
s
}$
的``良好性''并不能解决技术缺陷,因为技术缺陷是模型的问题或者模型参数估计方法的问题。无论输入什么样的
$
\mathbf
{
s
}$
,模型3和模型4的技术缺陷
问题都存在。
%----------------------------------------------------------------------------------------
% NEW SUB-SECTION
...
...
@@ -447,9 +447,9 @@ p_0+p_1 & = & 1 \label{eq:6-17}
\subsection
{
句子长度
}
\parinterval
在IBM模型中,
$
\textrm
{
P
}
(
\mathbf
{
t
}
)
\textrm
{
P
}
(
\mathbf
{
s
}
|
\mathbf
{
t
}
)
$
会随着目标语言句子长度的增加而减少,因为这种
生成模型有多个概率化的因素组成,一般乘积项越多结果的值越小。这也就是说,IBM模型会更倾向选择长度短一些的目标语言句子。显然这种对短句子的偏向性并不是我们
所期望的。
\parinterval
在IBM模型中,
$
\textrm
{
P
}
(
\mathbf
{
t
}
)
\textrm
{
P
}
(
\mathbf
{
s
}
|
\mathbf
{
t
}
)
$
会随着目标语言句子长度的增加而减少,因为这种
模型有多个概率化的因素组成,乘积项越多结果的值越小。这也就是说,IBM模型会更倾向选择长度短一些的目标语言句子。显然这种对短句子的偏向性并不是机器翻译
所期望的。
\parinterval
这个问题在很多
统计机器翻译系统中都存在,实际上也是一种
{
\small\bfnew
{
系统偏置
}}
\index
{
系统偏置
}
(System Bias)
\index
{
System Bias
}
的体现。为了消除这种偏置,可以通过在模型中增加一个短句子惩罚引子来抵消掉模型对短句子的倾向性。比如,可以定义一个惩罚引子,它的值随着长度的减少而增加。不过,简单引入这样的惩罚因子会导致模型并不符合一个严格的噪声信道模型。它对应一个判别式框架的翻译模型,这部分内容会在下一章
进行介绍。
\parinterval
这个问题在很多
机器翻译系统中都存在。它实际上也反应了一种
{
\small\bfnew
{
系统偏置
}}
\index
{
系统偏置
}
(System Bias)
\index
{
System Bias
}
的体现。为了消除这种偏置,可以通过在模型中增加一个短句子惩罚引子来抵消掉模型对短句子的倾向性。比如,可以定义一个惩罚引子,它的值随着长度的减少而增加。不过,简单引入这样的惩罚因子会导致模型并不符合一个严格的噪声信道模型。它对应一个基于判别式框架的翻译模型,这部分内容会在
{
\chapterseven
}
进行介绍。
%----------------------------------------------------------------------------------------
% NEW SUB-SECTION
...
...
@@ -457,7 +457,7 @@ p_0+p_1 & = & 1 \label{eq:6-17}
\subsection
{
其他问题
}
\parinterval
模型5的意义是什么?模型5的提出是为了消除模型3和模型4的
Deficiency问题。Deficiency问题的本质是,
$
\textrm
{
P
}
(
\mathbf
{
s
}
,
\mathbf
{
a
}
|
\mathbf
{
t
}
)
$
在所有合理的对齐上概率和不为1。 但是,在统计机器翻译中更关心是哪个对齐
$
\mathbf
{
a
}$
使
$
\textrm
{
P
}
(
\mathbf
{
s
}
,
\mathbf
{
a
}
|
\mathbf
{
t
}
)
$
达到最大,即使
$
\textrm
{
P
}
(
\mathbf
{
s
}
,
\mathbf
{
a
}
|
\mathbf
{
t
}
)
$
不符合概率分布的定义,也并不影响我们寻找理想的对齐
$
\mathbf
{
a
}$
。从工程的角度说,
$
\textrm
{
P
}
(
\mathbf
{
s
}
,
\mathbf
{
a
}
|
\mathbf
{
t
}
)
$
不归一并不是一个十分严重的问题。遗憾的是,实际上到现在为止有太多对IBM模型3和模型4中的Deficiency 问题
进行过系统的实验和分析,但对于这个问题到底有多严重并没有定论。当然用模型5是可以解决这个问题。但是如果用一个非常复杂的模型去解决了一个并不产生严重后果的问题,那这个模型也就没有太大意义了(从实践的角度)。
\parinterval
模型5的意义是什么?模型5的提出是为了消除模型3和模型4的
缺陷。缺陷的本质是,
$
\textrm
{
P
}
(
\mathbf
{
s
}
,
\mathbf
{
a
}
|
\mathbf
{
t
}
)
$
在所有合理的对齐上概率和不为1。 但是,在这里更关心是哪个对齐
$
\mathbf
{
a
}$
使
$
\textrm
{
P
}
(
\mathbf
{
s
}
,
\mathbf
{
a
}
|
\mathbf
{
t
}
)
$
达到最大,即使
$
\textrm
{
P
}
(
\mathbf
{
s
}
,
\mathbf
{
a
}
|
\mathbf
{
t
}
)
$
不符合概率分布的定义,也并不影响我们寻找理想的对齐
$
\mathbf
{
a
}$
。从工程的角度说,
$
\textrm
{
P
}
(
\mathbf
{
s
}
,
\mathbf
{
a
}
|
\mathbf
{
t
}
)
$
不归一并不是一个十分严重的问题。遗憾的是,实际上到现在为止有太多对IBM模型3和模型4中的缺陷
进行过系统的实验和分析,但对于这个问题到底有多严重并没有定论。当然用模型5是可以解决这个问题。但是如果用一个非常复杂的模型去解决了一个并不产生严重后果的问题,那这个模型也就没有太大意义了(从实践的角度)。
\parinterval
概念(cept.)的意义是什么?经过前面的分析可知,IBM模型的词对齐模型使用了cept.这个概念。但是,在IBM模型中使用的cept.最多只能对应一个目标语言单词(模型并没有用到源语言cept. 的概念)。因此可以直接用单词代替cept.。这样,即使不引入cept.的概念,也并不影响IBM模型的建模。实际上,cept.的引入确实可以帮助我们从语法和语义的角度解释词对齐过程。不过,这个方法在IBM 模型中的效果究竟如何还没有定论。
...
...
编写
预览
Markdown
格式
0%
重试
或
添加新文件
添加附件
取消
您添加了
0
人
到此讨论。请谨慎行事。
请先完成此评论的编辑!
取消
请
注册
或者
登录
后发表评论