Skip to content
项目
群组
代码片段
帮助
当前项目
正在载入...
登录 / 注册
切换导航面板
M
mtbookv2
概览
Overview
Details
Activity
Cycle Analytics
版本库
Repository
Files
Commits
Branches
Tags
Contributors
Graph
Compare
Charts
问题
0
Issues
0
列表
Board
标记
里程碑
合并请求
0
Merge Requests
0
CI / CD
CI / CD
流水线
作业
日程表
图表
维基
Wiki
代码片段
Snippets
成员
Collapse sidebar
Close sidebar
活动
图像
聊天
创建新问题
作业
提交
Issue Boards
Open sidebar
NiuTrans
mtbookv2
Commits
2fdbe6d6
Commit
2fdbe6d6
authored
Sep 10, 2020
by
曹润柘
Browse files
Options
Browse Files
Download
Email Patches
Plain Diff
更新 chapter6.tex
parent
6052395c
显示空白字符变更
内嵌
并排
正在显示
1 个修改的文件
包含
49 行增加
和
49 行删除
+49
-49
Chapter6/chapter6.tex
+49
-49
没有找到文件。
Chapter6/chapter6.tex
查看文件 @
2fdbe6d6
...
...
@@ -74,7 +74,7 @@
\parinterval
对于建模来说,IBM模型1很好地化简了翻译问题,但是由于使用了很强的假设,导致模型和实际情况有较大差异。其中一个比较严重的问题是假设词对齐的生成概率服从均匀分布。IBM模型2抛弃了这个假设
\upcite
{
DBLP:journals/coling/BrownPPM94
}
。它认为词对齐是有倾向性的,它与源语言单词的位置和目标语言单词的位置有关。具体来说,对齐位置
$
a
_
j
$
的生成概率与位置
$
j
$
、源语言句子长度
$
m
$
和目标语言句子长度
$
l
$
有关,形式化表述为:
\begin{eqnarray}
\funp
{
P
}
(a
_
j|a
_
1
^{
j-1
}
,s
_
1
^{
j-1
}
,m,
\vectorn
{
t
}
)
\equiv
a(a
_
j|j,m,l)
\funp
{
P
}
(a
_
j|a
_
1
^{
j-1
}
,s
_
1
^{
j-1
}
,m,
\vectorn
{
\emph
{
t
}
}
)
\equiv
a(a
_
j|j,m,l)
\label
{
eq:6-1
}
\end{eqnarray}
...
...
@@ -92,23 +92,23 @@
\parinterval
IBM模型2的其他假设均与模型1相同,即源语言长度预测概率及源语言单词生成概率被定义为:
\begin{eqnarray}
\funp
{
P
}
(m|
\vectorn
{
t
}
)
&
\equiv
&
\varepsilon
\label
{
eq:s-len-gen-prob
}
\\
\funp
{
P
}
(s
_
j|a
_
1
^{
j
}
,s
_
1
^{
j-1
}
,m,
\vectorn
{
t
}
)
&
\equiv
&
f(s
_
j|t
_{
a
_
j
}
)
\funp
{
P
}
(m|
\vectorn
{
\emph
{
t
}
}
)
&
\equiv
&
\varepsilon
\label
{
eq:s-len-gen-prob
}
\\
\funp
{
P
}
(s
_
j|a
_
1
^{
j
}
,s
_
1
^{
j-1
}
,m,
\vectorn
{
\emph
{
t
}
}
)
&
\equiv
&
f(s
_
j|t
_{
a
_
j
}
)
\label
{
eq:s-word-gen-prob
}
\end{eqnarray}
把公式
\ref
{
eq:s-len-gen-prob
}
、
\ref
{
eq:s-word-gen-prob
}
和
\ref
{
eq:6-1
}
重新带入公式
$
\funp
{
P
}
(
\vectorn
{
s
}
,
\vectorn
{
a
}
|
\vectorn
{
t
}
)=
\funp
{
P
}
(
m|
\vectorn
{
t
}
)
\prod
_{
j
=
1
}^{
m
}{
\funp
{
P
}
(
a
_
j|a
_
1
^{
j
-
1
}
,s
_
1
^{
j
-
1
}
,m,
\vectorn
{
t
}
)
}$
\\
${
\funp
{
P
}
(
s
_
j|a
_
1
^{
j
}
,s
_
1
^{
j
-
1
}
,m,
\vectorn
{
t
}
)
}$
和
$
\funp
{
P
}
(
\vectorn
{
s
}
|
\vectorn
{
t
}
)=
\sum
_{
\vectorn
{
a
}}
\funp
{
P
}
(
\vectorn
{
s
}
,
\vectorn
{
a
}
|
\vectorn
{
t
}
)
$
,可以得到IBM模型2的数学描述:
把公式
\ref
{
eq:s-len-gen-prob
}
、
\ref
{
eq:s-word-gen-prob
}
和
\ref
{
eq:6-1
}
重新带入公式
$
\funp
{
P
}
(
\vectorn
{
\emph
{
s
}}
,
\vectorn
{
\emph
{
a
}}
|
\vectorn
{
\emph
{
t
}}
)=
\funp
{
P
}
(
m|
\vectorn
{
\emph
{
t
}}
)
\prod
_{
j
=
1
}^{
m
}{
\funp
{
P
}
(
a
_
j|a
_
1
^{
j
-
1
}
,s
_
1
^{
j
-
1
}
,m,
\vectorn
{
\emph
{
t
}}
)
}$
\\
${
\funp
{
P
}
(
s
_
j|a
_
1
^{
j
}
,s
_
1
^{
j
-
1
}
,m,
\vectorn
{
\emph
{
t
}}
)
}$
和
$
\funp
{
P
}
(
\vectorn
{
\emph
{
s
}}
|
\vectorn
{
\emph
{
t
}}
)=
\sum
_{
\vectorn
{
\emph
{
a
}}}
\funp
{
P
}
(
\vectorn
{
\emph
{
s
}}
,
\vectorn
{
\emph
{
a
}}
|
\vectorn
{
\emph
{
t
}
}
)
$
,可以得到IBM模型2的数学描述:
\begin{eqnarray}
\funp
{
P
}
(
\vectorn
{
s
}
|
\vectorn
{
t
}
)
&
=
&
\sum
_{
\vectorn
{
a
}}{
\funp
{
P
}
(
\vectorn
{
s
}
,
\vectorn
{
a
}
|
\vectorn
{
t
}
)
}
\nonumber
\\
\funp
{
P
}
(
\vectorn
{
\emph
{
s
}}
|
\vectorn
{
\emph
{
t
}}
)
&
=
&
\sum
_{
\vectorn
{
\emph
{
a
}}}{
\funp
{
P
}
(
\vectorn
{
\emph
{
s
}}
,
\vectorn
{
\emph
{
a
}}
|
\vectorn
{
\emph
{
t
}
}
)
}
\nonumber
\\
&
=
&
\sum
_{
a
_
1=0
}^{
l
}{
\cdots
}
\sum
_{
a
_
m=0
}^{
l
}{
\varepsilon
}
\prod
_{
j=1
}^{
m
}{
a(a
_
j|j,m,l)f(s
_
j|t
_{
a
_
j
}
)
}
\label
{
eq:6-4
}
\end{eqnarray}
\parinterval
类似于模型1,模型2的表达式
\ref
{
eq:6-4
}
也能被拆分为两部分进行理解。第一部分:遍历所有的
$
\vectorn
{
a
}$
;第二部分:对于每个
$
\vectorn
{
a
}$
累加对齐概率
$
\funp
{
P
}
(
\vectorn
{
s
}
,
\vectorn
{
a
}
|
\vectorn
{
t
}
)
$
,即计算对齐概率
$
a
(
a
_
j|j,m,l
)
$
和词汇翻译概率
$
f
(
s
_
j|t
_{
a
_
j
}
)
$
对于所有源语言位置的乘积。
\parinterval
类似于模型1,模型2的表达式
\ref
{
eq:6-4
}
也能被拆分为两部分进行理解。第一部分:遍历所有的
$
\vectorn
{
\emph
{
a
}}$
;第二部分:对于每个
$
\vectorn
{
\emph
{
a
}}$
累加对齐概率
$
\funp
{
P
}
(
\vectorn
{
\emph
{
s
}}
,
\vectorn
{
\emph
{
a
}}
|
\vectorn
{
\emph
{
t
}
}
)
$
,即计算对齐概率
$
a
(
a
_
j|j,m,l
)
$
和词汇翻译概率
$
f
(
s
_
j|t
_{
a
_
j
}
)
$
对于所有源语言位置的乘积。
\parinterval
同样的,模型2的解码及训练优化和模型1的十分相似,在此不再赘述,详细推导过程可以参看
{
\chapterfive
}
解码及计算优化部分。这里直接给出IBM模型2的最终表达式:
\begin{eqnarray}
\funp
{
P
}
(
\vectorn
{
s
}
|
\vectorn
{
t
}
)
&
=
&
\varepsilon
\prod\limits
_{
j=1
}^{
m
}
\sum\limits
_{
i=0
}^{
l
}
a(i|j,m,l) f(s
_
j|t
_
i)
\funp
{
P
}
(
\vectorn
{
\emph
{
s
}}
|
\vectorn
{
\emph
{
t
}
}
)
&
=
&
\varepsilon
\prod\limits
_{
j=1
}^{
m
}
\sum\limits
_{
i=0
}^{
l
}
a(i|j,m,l) f(s
_
j|t
_
i)
\label
{
eq:6-5
}
\end{eqnarray}
...
...
@@ -132,15 +132,15 @@
\parinterval
针对此问题,基于HMM的词对齐模型抛弃了IBM模型1-2的绝对位置假设,将一阶隐马尔可夫模型用于词对齐问题
\upcite
{
vogel1996hmm
}
。HMM词对齐模型认为,单词与单词之间并不是毫无联系的,对齐概率应该取决于对齐位置的差异而不是本身单词所在的位置。具体来说,位置
$
j
$
的对齐概率
$
a
_
j
$
与前一个位置
$
j
-
1
$
的对齐位置
$
a
_{
j
-
1
}$
和译文长度
$
l
$
有关,形式化的表述为:
\begin{eqnarray}
\funp
{
P
}
(a
_{
j
}
|a
_{
1
}^{
j-1
}
,s
_{
1
}^{
j-1
}
,m,
\vectorn
{
t
}
)
\equiv\funp
{
P
}
(a
_{
j
}
|a
_{
j-1
}
,l)
\funp
{
P
}
(a
_{
j
}
|a
_{
1
}^{
j-1
}
,s
_{
1
}^{
j-1
}
,m,
\vectorn
{
\emph
{
t
}
}
)
\equiv\funp
{
P
}
(a
_{
j
}
|a
_{
j-1
}
,l)
\label
{
eq:6-6
}
\end{eqnarray}
\parinterval
这里用图
\ref
{
fig:6-4
}
的例子对公式进行说明。在IBM模型1-2中,单词的对齐都是与单词所在的绝对位置有关。但在HMM词对齐模型中,``你''对齐到``you''被形式化为
$
\funp
{
P
}
(
a
_{
j
}
|a
_{
j
-
1
}
,l
)=
P
(
5
|
4
,
5
)
$
,意思是对于源语言位置
$
3
(
j
=
3
)
$
上的单词,如果它的译文是第5个目标语言单词,上一个对齐位置是
$
4
(
a
_{
2
}
=
4
)
$
,对齐到目标语言位置
$
5
(
a
_{
j
}
=
5
)
$
的概率是多少?理想的情况下,通过
$
\funp
{
P
}
(
a
_{
j
}
|a
_{
j
-
1
}
,l
)
$
,``你''对齐到``you''应该得到更高的概率,并且由于源语言单词``对''和``你''距离很近,因此其对应的对齐位置``with''和``you''的距离也应该很近。
\parinterval
把公式
$
\funp
{
P
}
(
s
_
j|a
_
1
^{
j
}
,s
_
1
^{
j
-
1
}
,m,
\vectorn
{
t
}
)
\equiv
f
(
s
_
j|t
_{
a
_
j
}
)
$
和
\ref
{
eq:6-6
}
重新带入公式
$
\funp
{
P
}
(
\vectorn
{
s
}
,
\vectorn
{
a
}
|
\vectorn
{
t
}
)=
\funp
{
P
}
(
m|
\vectorn
{
t
}
)
$
\\
$
\prod
_{
j
=
1
}^{
m
}{
\funp
{
P
}
(
a
_
j|a
_
1
^{
j
-
1
}
,s
_
1
^{
j
-
1
}
,m,
\vectorn
{
t
}
)
\funp
{
P
}
(
s
_
j|a
_
1
^{
j
}
,s
_
1
^{
j
-
1
}
,m,
\vectorn
{
t
}
)
}$
和
$
\funp
{
P
}
(
\vectorn
{
s
}
|
\vectorn
{
t
}
)=
\sum
_{
\vectorn
{
a
}}
\funp
{
P
}
(
\vectorn
{
s
}
,
\vectorn
{
a
}
|
\vectorn
{
t
}
)
$
,可得HMM词对齐模型的数学描述:
\parinterval
把公式
$
\funp
{
P
}
(
s
_
j|a
_
1
^{
j
}
,s
_
1
^{
j
-
1
}
,m,
\vectorn
{
\emph
{
t
}}
)
\equiv
f
(
s
_
j|t
_{
a
_
j
}
)
$
和
\ref
{
eq:6-6
}
重新带入公式
$
\funp
{
P
}
(
\vectorn
{
\emph
{
s
}}
,
\vectorn
{
\emph
{
a
}}
|
\vectorn
{
\emph
{
t
}}
)=
\funp
{
P
}
(
m|
\vectorn
{
\emph
{
t
}}
)
$
\\
$
\prod
_{
j
=
1
}^{
m
}{
\funp
{
P
}
(
a
_
j|a
_
1
^{
j
-
1
}
,s
_
1
^{
j
-
1
}
,m,
\vectorn
{
\emph
{
t
}}
)
\funp
{
P
}
(
s
_
j|a
_
1
^{
j
}
,s
_
1
^{
j
-
1
}
,m,
\vectorn
{
\emph
{
t
}}
)
}$
和
$
\funp
{
P
}
(
\vectorn
{
\emph
{
s
}}
|
\vectorn
{
\emph
{
t
}}
)=
\sum
_{
\vectorn
{
\emph
{
a
}}}
\funp
{
P
}
(
\vectorn
{
\emph
{
s
}}
,
\vectorn
{
\emph
{
a
}}
|
\vectorn
{
\emph
{
t
}
}
)
$
,可得HMM词对齐模型的数学描述:
\begin{eqnarray}
\funp
{
P
}
(
\vectorn
{
s
}
|
\vectorn
{
t
}
)=
\sum
_{
\vectorn
{
a
}}{
\funp
{
P
}
(m|
\vectorn
{
t
}
)
}
\prod
_{
j=1
}^{
m
}{
\funp
{
P
}
(a
_{
j
}
|a
_{
j-1
}
,l)f(s
_{
j
}
|t
_{
a
_
j
}
)
}
\funp
{
P
}
(
\vectorn
{
\emph
{
s
}}
|
\vectorn
{
\emph
{
t
}}
)=
\sum
_{
\vectorn
{
\emph
{
a
}}}{
\funp
{
P
}
(m|
\vectorn
{
\emph
{
t
}
}
)
}
\prod
_{
j=1
}^{
m
}{
\funp
{
P
}
(a
_{
j
}
|a
_{
j-1
}
,l)f(s
_{
j
}
|t
_{
a
_
j
}
)
}
\label
{
eq:6-7
}
\end{eqnarray}
...
...
@@ -175,7 +175,7 @@
\parinterval
这里将会给出另一个翻译模型,能在一定程度上解决上面提到的问题
\upcite
{
DBLP:journals/coling/BrownPPM94,och2003systematic
}
。该模型把目标语言生成源语言的过程分解为如下几个步骤:首先,确定每个目标语言单词生成源语言单词的个数,这里把它称为
{
\small\sffamily\bfseries
{
繁衍率
}}
\index
{
繁衍率
}
或
{
\small\sffamily\bfseries
{
产出率
}}
\index
{
产出率
}
(Fertility)
\index
{
Fertility
}
;其次,决定目标语言句子中每个单词生成的源语言单词都是什么,即决定生成的第一个源语言单词是什么,生成的第二个源语言单词是什么,以此类推。这样每个目标语言单词就对应了一个源语言单词列表;最后把各组源语言单词列表中的每个单词都放置到合适的位置上,完成目标语言译文到源语言句子的生成。
\parinterval
对于句对
$
(
\vectorn
{
s
}
,
\vectorn
{
t
}
)
$
,令
$
\varphi
$
表示产出率,同时令
${
\tau
}$
表示每个目标语言单词对应的源语言单词列表。图
{
\ref
{
fig:6-5
}}
描述了一个英语句子生成汉语句子的过程。
\parinterval
对于句对
$
(
\vectorn
{
\emph
{
s
}}
,
\vectorn
{
\emph
{
t
}
}
)
$
,令
$
\varphi
$
表示产出率,同时令
${
\tau
}$
表示每个目标语言单词对应的源语言单词列表。图
{
\ref
{
fig:6-5
}}
描述了一个英语句子生成汉语句子的过程。
\begin{itemize}
\vspace
{
0.3em
}
...
...
@@ -183,7 +183,7 @@
\vspace
{
0.3em
}
\item
其次,确定英语句子中每个单词生成的汉语单词列表。比如``Scientists''生成``科学家''和``们''两个汉语单词,可表示为
${
\tau
}_
1
=
\{
{
\tau
}_{
11
}
=
\textrm
{
``科学家''
}
,
{
\tau
}_{
12
}
=
\textrm
{
``们''
}
\}
$
。 这里用特殊的空标记NULL表示翻译对空的情况;
\vspace
{
0.3em
}
\item
最后,把生成的所有汉语单词放在合适的位置。比如``科学家''和``们''分别放在
$
\vectorn
{
s
}$
的位置1和位置2。可以用符号
$
\pi
$
记录生成的单词在源语言句子
$
\vectorn
{
s
}$
中的位置。比如``Scientists'' 生成的汉语单词在
$
\vectorn
{
s
}$
中的位置表示为
${
\pi
}_{
1
}
=
\{
{
\pi
}_{
11
}
=
1
,
{
\pi
}_{
12
}
=
2
\}
$
。
\item
最后,把生成的所有汉语单词放在合适的位置。比如``科学家''和``们''分别放在
$
\vectorn
{
\emph
{
s
}}$
的位置1和位置2。可以用符号
$
\pi
$
记录生成的单词在源语言句子
$
\vectorn
{
\emph
{
s
}}$
中的位置。比如``Scientists'' 生成的汉语单词在
$
\vectorn
{
\emph
{
s
}
}$
中的位置表示为
${
\pi
}_{
1
}
=
\{
{
\pi
}_{
11
}
=
1
,
{
\pi
}_{
12
}
=
2
\}
$
。
\vspace
{
0.3em
}
\end{itemize}
...
...
@@ -196,13 +196,13 @@
\end{figure}
%----------------------------------------------
\parinterval
为了表述清晰,这里重新说明每个符号的含义。
$
\vectorn
{
s
}$
、
$
\vectorn
{
t
}$
、
$
m
$
和
$
l
$
分别表示源语言句子、目标语言译文、源语言单词数量以及译文单词数量。
$
\vectorn
{
\varphi
}$
、
$
\vectorn
{
\tau
}$
和
$
\vectorn
{
\pi
}$
分别表示产出率、生成的源语言单词以及它们在源语言句子中的位置。
${
\varphi
}_{
i
}$
表示第
$
i
$
个目标语言单词
$
t
_
i
$
的产出率。
${
\tau
}_{
i
}$
和
${
\pi
}_
i
$
分别表示
$
t
_
i
$
生成的源语言单词列表及其在源语言句子
$
\vectorn
{
s
}$
中的位置列表。
\parinterval
为了表述清晰,这里重新说明每个符号的含义。
$
\vectorn
{
\emph
{
s
}}$
、
$
\vectorn
{
\emph
{
t
}}$
、
$
m
$
和
$
l
$
分别表示源语言句子、目标语言译文、源语言单词数量以及译文单词数量。
$
\mathbf
{
\varphi
}$
、
$
\mathbf
{
\tau
}$
和
$
\mathbf
{
\pi
}$
分别表示产出率、生成的源语言单词以及它们在源语言句子中的位置。
${
\varphi
}_{
i
}$
表示第
$
i
$
个目标语言单词
$
t
_
i
$
的产出率。
${
\tau
}_{
i
}$
和
${
\pi
}_
i
$
分别表示
$
t
_
i
$
生成的源语言单词列表及其在源语言句子
$
\vectorn
{
\emph
{
s
}
}$
中的位置列表。
\parinterval
可以看出,一组
$
\tau
$
和
$
\pi
$
(记为
$
<
\tau
,
\pi
>
$
)可以决定一个对齐
$
\vectorn
{
a
}$
和一个源语句子
$
\vectorn
{
s
}$
。
\parinterval
可以看出,一组
$
\tau
$
和
$
\pi
$
(记为
$
<
\tau
,
\pi
>
$
)可以决定一个对齐
$
\vectorn
{
\emph
{
a
}}$
和一个源语句子
$
\vectorn
{
\emph
{
s
}
}$
。
\noindent
相反的,一个对齐
$
\vectorn
{
a
}$
和一个源语句子
$
\vectorn
{
s
}$
可以对应多组
$
<
\tau
,
\pi
>
$
。如图
\ref
{
fig:6-6
}
所示,不同的
$
<
\tau
,
\pi
>
$
对应同一个源语言句子和词对齐。它们的区别在于目标语单词``Scientists''生成的源语言单词``科学家''和`` 们''的顺序不同。这里把不同的
$
<
\tau
,
\pi
>
$
对应到的相同的源语句子
$
\vectorn
{
s
}$
和对齐
$
\vectorn
{
a
}$
记为
$
<
\vectorn
{
s
}
,
\vectorn
{
a
}
>
$
。因此计算
$
\funp
{
P
}
(
\vectorn
{
s
}
,
\vectorn
{
a
}
|
\vectorn
{
t
}
)
$
时需要把每个可能结果的概率加起来,如下:
\noindent
相反的,一个对齐
$
\vectorn
{
\emph
{
a
}}$
和一个源语句子
$
\vectorn
{
\emph
{
s
}}$
可以对应多组
$
<
\tau
,
\pi
>
$
。如图
\ref
{
fig:6-6
}
所示,不同的
$
<
\tau
,
\pi
>
$
对应同一个源语言句子和词对齐。它们的区别在于目标语单词``Scientists''生成的源语言单词``科学家''和`` 们''的顺序不同。这里把不同的
$
<
\tau
,
\pi
>
$
对应到的相同的源语句子
$
\vectorn
{
\emph
{
s
}}$
和对齐
$
\vectorn
{
\emph
{
a
}}$
记为
$
<
\vectorn
{
\emph
{
s
}}
,
\vectorn
{
\emph
{
a
}}
>
$
。因此计算
$
\funp
{
P
}
(
\vectorn
{
\emph
{
s
}}
,
\vectorn
{
\emph
{
a
}}
|
\vectorn
{
\emph
{
t
}
}
)
$
时需要把每个可能结果的概率加起来,如下:
\begin{equation}
\funp
{
P
}
(
\vectorn
{
s
}
,
\vectorn
{
a
}
|
\vectorn
{
t
}
)=
\sum
_{{
<
\tau
,
\pi
>
}
\in
{
<
\vectorn
{
s
}
,
\vectorn
{
a
}
>
}}{
\funp
{
P
}
(
\tau
,
\pi
|
\vectorn
{
t
}
)
}
\funp
{
P
}
(
\vectorn
{
\emph
{
s
}}
,
\vectorn
{
\emph
{
a
}}
|
\vectorn
{
\emph
{
t
}}
)=
\sum
_{{
<
\tau
,
\pi
>
}
\in
{
<
\vectorn
{
\emph
{
s
}}
,
\vectorn
{
\emph
{
a
}}
>
}}{
\funp
{
P
}
(
\tau
,
\pi
|
\vectorn
{
\emph
{
t
}
}
)
}
\label
{
eq:6-9
}
\end{equation}
...
...
@@ -216,10 +216,10 @@
%----------------------------------------------
\parinterval
不过
$
<
\vectorn
{
s
}
,
\vectorn
{
a
}
>
$
中有多少组
$
<
\tau
,
\pi
>
$
呢?通过图
\ref
{
fig:6-5
}
中的例子,可以推出
$
<
\vectorn
{
s
}
,
\vectorn
{
a
}
>
$
应该包含
$
\prod
_{
i
=
0
}^{
l
}{
\varphi
_
i
!
}$
个不同的二元组
$
<
\tau
,
\pi
>
$
。 这是因为在给定源语言句子和词对齐时,对于每一个
$
\tau
_
i
$
都有
$
\varphi
_{
i
}
!
$
种排列。
\parinterval
不过
$
<
\vectorn
{
\emph
{
s
}}
,
\vectorn
{
\emph
{
a
}}
>
$
中有多少组
$
<
\tau
,
\pi
>
$
呢?通过图
\ref
{
fig:6-5
}
中的例子,可以推出
$
<
\vectorn
{
\emph
{
s
}}
,
\vectorn
{
\emph
{
a
}
}
>
$
应该包含
$
\prod
_{
i
=
0
}^{
l
}{
\varphi
_
i
!
}$
个不同的二元组
$
<
\tau
,
\pi
>
$
。 这是因为在给定源语言句子和词对齐时,对于每一个
$
\tau
_
i
$
都有
$
\varphi
_{
i
}
!
$
种排列。
\parinterval
进一步,
$
\funp
{
P
}
(
\tau
,
\pi
|
\vectorn
{
t
}
)
$
可以被表示如图
\ref
{
fig:6-7
}
的形式。其中
$
\tau
_{
i
1
}^{
k
-
1
}$
表示
$
\tau
_{
i
1
}
\tau
_{
i
2
}
\cdots
\tau
_{
i
(
k
-
1
)
}$
,
$
\pi
_{
i
1
}^{
k
-
1
}$
表示
$
\pi
_{
i
1
}
\pi
_{
i
2
}
\cdots
\pi
_{
i
(
k
-
1
)
}$
。可以把图
\ref
{
fig:6-7
}
中的公式分为5个部分,并用不同的序号和颜色进行标注。每部分的具体含义是:
\parinterval
进一步,
$
\funp
{
P
}
(
\tau
,
\pi
|
\vectorn
{
\emph
{
t
}
}
)
$
可以被表示如图
\ref
{
fig:6-7
}
的形式。其中
$
\tau
_{
i
1
}^{
k
-
1
}$
表示
$
\tau
_{
i
1
}
\tau
_{
i
2
}
\cdots
\tau
_{
i
(
k
-
1
)
}$
,
$
\pi
_{
i
1
}^{
k
-
1
}$
表示
$
\pi
_{
i
1
}
\pi
_{
i
2
}
\cdots
\pi
_{
i
(
k
-
1
)
}$
。可以把图
\ref
{
fig:6-7
}
中的公式分为5个部分,并用不同的序号和颜色进行标注。每部分的具体含义是:
%----------------------------------------------
\begin{figure}
[htp]
...
...
@@ -233,11 +233,11 @@
\begin{itemize}
\vspace
{
0.5em
}
\item
第一部分:每个
$
i
\in
[
1
,l
]
$
的目标语单词的产出率建模(
{
\color
{
red!70
}
红色
}
),即
$
\varphi
_
i
$
的生成概率。它依赖于
$
\vectorn
{
t
}$
和区间
$
[
1
,i
-
1
]
$
的目标语单词的产出率
$
\varphi
_
1
^{
i
-
1
}$
。
\footnote
{
这里约定,当
$
i
=
1
$
时,
$
\varphi
_
1
^
0
$
表示空。
}
\item
第一部分:每个
$
i
\in
[
1
,l
]
$
的目标语单词的产出率建模(
{
\color
{
red!70
}
红色
}
),即
$
\varphi
_
i
$
的生成概率。它依赖于
$
\vectorn
{
\emph
{
t
}
}$
和区间
$
[
1
,i
-
1
]
$
的目标语单词的产出率
$
\varphi
_
1
^{
i
-
1
}$
。
\footnote
{
这里约定,当
$
i
=
1
$
时,
$
\varphi
_
1
^
0
$
表示空。
}
\vspace
{
0.5em
}
\item
第二部分:
$
i
=
0
$
时的产出率建模(
{
\color
{
blue!70
}
蓝色
}
),即空标记
$
t
_
0
$
的产出率生成概率。它依赖于
$
\vectorn
{
t
}$
和区间
$
[
1
,i
-
1
]
$
的目标语单词的产出率
$
\varphi
_
1
^
l
$
。
\item
第二部分:
$
i
=
0
$
时的产出率建模(
{
\color
{
blue!70
}
蓝色
}
),即空标记
$
t
_
0
$
的产出率生成概率。它依赖于
$
\vectorn
{
\emph
{
t
}
}$
和区间
$
[
1
,i
-
1
]
$
的目标语单词的产出率
$
\varphi
_
1
^
l
$
。
\vspace
{
0.5em
}
\item
第三部分:词汇翻译建模(
{
\color
{
green!70
}
绿色
}
),目标语言单词
$
t
_
i
$
生成第
$
k
$
个源语言单词
$
\tau
_{
ik
}$
时的概率,依赖于
$
\vectorn
{
t
}$
、所有目标语言单词的产出率
$
\varphi
_
0
^
l
$
、区间
$
i
\in
[
1
,l
]
$
的目标语言单词生成的源语言单词
$
\tau
_
1
^{
i
-
1
}$
和目标语单词
$
t
_
i
$
生成的前
$
k
$
个源语言单词
$
\tau
_{
i
1
}^{
k
-
1
}$
。
\item
第三部分:词汇翻译建模(
{
\color
{
green!70
}
绿色
}
),目标语言单词
$
t
_
i
$
生成第
$
k
$
个源语言单词
$
\tau
_{
ik
}$
时的概率,依赖于
$
\vectorn
{
\emph
{
t
}
}$
、所有目标语言单词的产出率
$
\varphi
_
0
^
l
$
、区间
$
i
\in
[
1
,l
]
$
的目标语言单词生成的源语言单词
$
\tau
_
1
^{
i
-
1
}$
和目标语单词
$
t
_
i
$
生成的前
$
k
$
个源语言单词
$
\tau
_{
i
1
}^{
k
-
1
}$
。
\vspace
{
0.5em
}
\item
第四部分:对于每个
$
i
\in
[
1
,l
]
$
的目标语言单词生成的源语言单词的扭曲度建模(
{
\color
{
yellow!70!black
}
黄色
}
),即第
$
i
$
个目标语言单词生成的第
$
k
$
个源语言单词在源文中的位置
$
\pi
_{
ik
}$
的概率。其中
$
\pi
_
1
^{
i
-
1
}$
表示区间
$
[
1
,i
-
1
]
$
的目标语言单词生成的源语言单词的扭曲度,
$
\pi
_{
i
1
}^{
k
-
1
}$
表示第
$
i
$
目标语言单词生成的前
$
k
-
1
$
个源语言单词的扭曲度。
\vspace
{
0.5em
}
...
...
@@ -250,51 +250,51 @@
\subsection
{
IBM 模型3
}
\parinterval
IBM模型3通过一些假设对图
\ref
{
fig:6-7
}
所表示的基本模型进行了化简。具体来说,对于每个
$
i
\in
[
1
,l
]
$
,假设
$
\funp
{
P
}
(
\varphi
_
i |
\varphi
_
1
^{
i
-
1
}
,
\vectorn
{
t
}
)
$
仅依赖于
$
\varphi
_
i
$
和
$
t
_
i
$
,
$
\funp
{
P
}
(
\pi
_{
ik
}
|
\pi
_{
i
1
}^{
k
-
1
}
,
\pi
_
1
^{
i
-
1
}
,
\tau
_
0
^
l,
\varphi
_
0
^
l,
\vectorn
{
t
}
)
$
仅依赖于
$
\pi
_{
ik
}$
、
$
i
$
、
$
m
$
和
$
l
$
。而对于所有的
$
i
\in
[
0
,l
]
$
,假设
$
\funp
{
P
}
(
\tau
_{
ik
}
|
\tau
_{
i
1
}^{
k
-
1
}
,
\tau
_
1
^{
i
-
1
}
,
\varphi
_
0
^
l,
\vectorn
{
t
}
)
$
仅依赖于
$
\tau
_{
ik
}$
和
$
t
_
i
$
。这些假设的形式化描述为:
\parinterval
IBM模型3通过一些假设对图
\ref
{
fig:6-7
}
所表示的基本模型进行了化简。具体来说,对于每个
$
i
\in
[
1
,l
]
$
,假设
$
\funp
{
P
}
(
\varphi
_
i |
\varphi
_
1
^{
i
-
1
}
,
\vectorn
{
\emph
{
t
}}
)
$
仅依赖于
$
\varphi
_
i
$
和
$
t
_
i
$
,
$
\funp
{
P
}
(
\pi
_{
ik
}
|
\pi
_{
i
1
}^{
k
-
1
}
,
\pi
_
1
^{
i
-
1
}
,
\tau
_
0
^
l,
\varphi
_
0
^
l,
\vectorn
{
\emph
{
t
}}
)
$
仅依赖于
$
\pi
_{
ik
}$
、
$
i
$
、
$
m
$
和
$
l
$
。而对于所有的
$
i
\in
[
0
,l
]
$
,假设
$
\funp
{
P
}
(
\tau
_{
ik
}
|
\tau
_{
i
1
}^{
k
-
1
}
,
\tau
_
1
^{
i
-
1
}
,
\varphi
_
0
^
l,
\vectorn
{
\emph
{
t
}
}
)
$
仅依赖于
$
\tau
_{
ik
}$
和
$
t
_
i
$
。这些假设的形式化描述为:
\begin{eqnarray}
\funp
{
P
}
(
\varphi
_
i|
\varphi
_
1
^{
i-1
}
,
\vectorn
{
t
}
)
&
=
&{
\funp
{
P
}
(
\varphi
_
i|t
_
i)
}
\label
{
eq:6-10
}
\\
\funp
{
P
}
(
\tau
_{
ik
}
= s
_
j |
\tau
_{
i1
}^{
k-1
}
,
\tau
_{
1
}^{
i-1
}
,
\varphi
_
0
^
t,
\vectorn
{
t
}
)
&
=
&
t(s
_
j|t
_
i)
\label
{
eq:6-11
}
\\
\funp
{
P
}
(
\pi
_{
ik
}
= j |
\pi
_{
i1
}^{
k-1
}
,
\pi
_{
1
}^{
i-1
}
,
\tau
_{
0
}^{
l
}
,
\varphi
_{
0
}^{
l
}
,
\vectorn
{
t
}
)
&
=
&
d(j|i,m,l)
\label
{
eq:6-12
}
\funp
{
P
}
(
\varphi
_
i|
\varphi
_
1
^{
i-1
}
,
\vectorn
{
\emph
{
t
}
}
)
&
=
&{
\funp
{
P
}
(
\varphi
_
i|t
_
i)
}
\label
{
eq:6-10
}
\\
\funp
{
P
}
(
\tau
_{
ik
}
= s
_
j |
\tau
_{
i1
}^{
k-1
}
,
\tau
_{
1
}^{
i-1
}
,
\varphi
_
0
^
t,
\vectorn
{
\emph
{
t
}
}
)
&
=
&
t(s
_
j|t
_
i)
\label
{
eq:6-11
}
\\
\funp
{
P
}
(
\pi
_{
ik
}
= j |
\pi
_{
i1
}^{
k-1
}
,
\pi
_{
1
}^{
i-1
}
,
\tau
_{
0
}^{
l
}
,
\varphi
_{
0
}^{
l
}
,
\vectorn
{
\emph
{
t
}
}
)
&
=
&
d(j|i,m,l)
\label
{
eq:6-12
}
\end{eqnarray}
\parinterval
通常把
$
d
(
j|i,m,l
)
$
称为扭曲度函数。这里
$
\funp
{
P
}
(
\varphi
_
i|
\varphi
_
1
^{
i
-
1
}
,
\vectorn
{
t
}
)=
{
\funp
{
P
}
(
\varphi
_
i|t
_
i
)
}$
和
${
\funp
{
P
}
(
\pi
_{
ik
}
=
j|
\pi
_{
i
1
}^{
k
-
1
}
,
}$
$
\pi
_{
1
}^{
i
-
1
}
,
\tau
_
0
^
l,
\varphi
_
0
^
l,
\vectorn
{
t
}
)=
d
(
j|i,m,l
)
$
仅对
$
1
\le
i
\le
l
$
成立。这样就完成了图
\ref
{
fig:6-7
}
中第1、 3和4部分的建模。
\parinterval
通常把
$
d
(
j|i,m,l
)
$
称为扭曲度函数。这里
$
\funp
{
P
}
(
\varphi
_
i|
\varphi
_
1
^{
i
-
1
}
,
\vectorn
{
\emph
{
t
}}
)=
{
\funp
{
P
}
(
\varphi
_
i|t
_
i
)
}$
和
${
\funp
{
P
}
(
\pi
_{
ik
}
=
j|
\pi
_{
i
1
}^{
k
-
1
}
,
}$
$
\pi
_{
1
}^{
i
-
1
}
,
\tau
_
0
^
l,
\varphi
_
0
^
l,
\vectorn
{
\emph
{
t
}
}
)=
d
(
j|i,m,l
)
$
仅对
$
1
\le
i
\le
l
$
成立。这样就完成了图
\ref
{
fig:6-7
}
中第1、 3和4部分的建模。
\parinterval
对于
$
i
=
0
$
的情况需要单独进行考虑。实际上,
$
t
_
0
$
只是一个虚拟的单词。它要对应
$
\vectorn
{
s
}$
中原本为空对齐的单词。这里假设:要等其他非空对应单词都被生成(放置)后,才考虑这些空对齐单词的生成(放置)。即非空对单词都被生成后,在那些还有空的位置上放置这些空对的源语言单词。此外,在任何的空位置上放置空对的源语言单词都是等概率的,即放置空对齐源语言单词服从均匀分布。这样在已经放置了
$
k
$
个空对齐源语言单词的时候,应该还有
$
\varphi
_
0
-
k
$
个空位置。如果第
$
j
$
个源语言位置为空,那么
\parinterval
对于
$
i
=
0
$
的情况需要单独进行考虑。实际上,
$
t
_
0
$
只是一个虚拟的单词。它要对应
$
\vectorn
{
\emph
{
s
}
}$
中原本为空对齐的单词。这里假设:要等其他非空对应单词都被生成(放置)后,才考虑这些空对齐单词的生成(放置)。即非空对单词都被生成后,在那些还有空的位置上放置这些空对的源语言单词。此外,在任何的空位置上放置空对的源语言单词都是等概率的,即放置空对齐源语言单词服从均匀分布。这样在已经放置了
$
k
$
个空对齐源语言单词的时候,应该还有
$
\varphi
_
0
-
k
$
个空位置。如果第
$
j
$
个源语言位置为空,那么
\begin{equation}
\funp
{
P
}
(
\pi
_{
0k
}
=j|
\pi
_{
01
}^{
k-1
}
,
\pi
_
1
^
l,
\tau
_
0
^
l,
\varphi
_
0
^
l,
\vectorn
{
t
}
)=
\frac
{
1
}{
\varphi
_
0-k
}
\funp
{
P
}
(
\pi
_{
0k
}
=j|
\pi
_{
01
}^{
k-1
}
,
\pi
_
1
^
l,
\tau
_
0
^
l,
\varphi
_
0
^
l,
\vectorn
{
\emph
{
t
}
}
)=
\frac
{
1
}{
\varphi
_
0-k
}
\label
{
eq:6-13
}
\end{equation}
否则
\begin{equation}
\funp
{
P
}
(
\pi
_{
0k
}
=j|
\pi
_{
01
}^{
k-1
}
,
\pi
_
1
^
l,
\tau
_
0
^
l,
\varphi
_
0
^
l,
\vectorn
{
t
}
)=0
\funp
{
P
}
(
\pi
_{
0k
}
=j|
\pi
_{
01
}^{
k-1
}
,
\pi
_
1
^
l,
\tau
_
0
^
l,
\varphi
_
0
^
l,
\vectorn
{
\emph
{
t
}
}
)=0
\label
{
eq:6-14
}
\end{equation}
这样对于
$
t
_
0
$
所对应的
$
\tau
_
0
$
,就有
{
\begin{eqnarray}
\prod
_{
k=1
}^{
\varphi
_
0
}{
\funp
{
P
}
(
\pi
_{
0k
}
|
\pi
_{
01
}^{
k-1
}
,
\pi
_{
1
}^{
l
}
,
\tau
_{
0
}^{
l
}
,
\varphi
_{
0
}^{
l
}
,
\vectorn
{
t
}
)
}
=
\frac
{
1
}{
\varphi
_{
0
}
!
}
\prod
_{
k=1
}^{
\varphi
_
0
}{
\funp
{
P
}
(
\pi
_{
0k
}
|
\pi
_{
01
}^{
k-1
}
,
\pi
_{
1
}^{
l
}
,
\tau
_{
0
}^{
l
}
,
\varphi
_{
0
}^{
l
}
,
\vectorn
{
\emph
{
t
}
}
)
}
=
\frac
{
1
}{
\varphi
_{
0
}
!
}
\label
{
eq:6-15
}
\end{eqnarray}
}
\parinterval
而上面提到的
$
t
_
0
$
所对应的这些空位置是如何生成的呢?即如何确定哪些位置是要放置空对齐的源语言单词。在IBM模型3中,假设在所有的非空对齐源语言单词都被生成出来后(共
$
\varphi
_
1
+
\varphi
_
2
+
\cdots
{
\varphi
}_
l
$
个非空对源语单词),这些单词后面都以
$
p
_
1
$
概率随机地产生一个``槽''用来放置空对齐单词。这样,
${
\varphi
}_
0
$
就服从了一个二项分布。于是得到
{
\begin{eqnarray}
\funp
{
P
}
(
\varphi
_
0|
\vectorn
{
t
}
)=
\big
(
\begin{array}
{
c
}
\funp
{
P
}
(
\varphi
_
0|
\vectorn
{
\emph
{
t
}
}
)=
\big
(
\begin{array}
{
c
}
\varphi
_
1+
\varphi
_
2+
\cdots
\varphi
_
l
\\
\varphi
_
0
\\
\end{array}
\big
)p
_
0
^{
\varphi
_
1+
\varphi
_
2+
\cdots
\varphi
_
l-
\varphi
_
0
}
p
_
1
^{
\varphi
_
0
}
\label
{
eq:6-16
}
\end{eqnarray}
}
\noindent
其中,
$
p
_
0
+
p
_
1
=
1
$
。到此为止,已经完成了图
\ref
{
fig:6-7
}
中第2和5部分的建模。最终根据这些假设可以得到
$
\funp
{
P
}
(
\vectorn
{
s
}
|
\vectorn
{
t
}
)
$
的形式为:
\noindent
其中,
$
p
_
0
+
p
_
1
=
1
$
。到此为止,已经完成了图
\ref
{
fig:6-7
}
中第2和5部分的建模。最终根据这些假设可以得到
$
\funp
{
P
}
(
\vectorn
{
\emph
{
s
}}
|
\vectorn
{
\emph
{
t
}
}
)
$
的形式为:
{
\begin{eqnarray}
{
\funp
{
P
}
(
\vectorn
{
s
}
|
\vectorn
{
t
}
)
}&
=
&{
\sum
_{
a
_
1=0
}^{
l
}{
\cdots
}
\sum
_{
a
_
m=0
}^{
l
}{
\Big
[
\big
(
\begin{array}
{
c
}
{
\funp
{
P
}
(
\vectorn
{
\emph
{
s
}}
|
\vectorn
{
\emph
{
t
}
}
)
}&
=
&{
\sum
_{
a
_
1=0
}^{
l
}{
\cdots
}
\sum
_{
a
_
m=0
}^{
l
}{
\Big
[
\big
(
\begin{array}
{
c
}
m-
\varphi
_
0
\\
\varphi
_
0
\\
\end{array}
\big
)
}
p
_
0
^{
m-2
\varphi
_
0
}
p
_
1
^{
\varphi
_
0
}
\prod
_{
i=1
}^{
l
}{{
\varphi
_
i
}
!n(
\varphi
_
i|t
_
i)
}}
\nonumber
\\
...
...
@@ -331,20 +331,20 @@ p_0+p_1 & = & 1 \label{eq:6-21}
\end{figure}
%----------------------------------------------
\parinterval
在IBM模型的词对齐框架下,目标语的cept.只能是那些非空对齐的目标语单词,而且每个cept.只能由一个目标语言单词组成(通常把这类由一个单词组成的cept.称为独立单词cept.)。这里用
$
[
i
]
$
表示第
$
i
$
个独立单词cept.在目标语言句子中的位置。换句话说,
$
[
i
]
$
表示第
$
i
$
个非空对的目标语单词的位置。比如在本例中``mind''在
$
\vectorn
{
t
}$
中的位置表示为
$
[
3
]
$
。
\parinterval
在IBM模型的词对齐框架下,目标语的cept.只能是那些非空对齐的目标语单词,而且每个cept.只能由一个目标语言单词组成(通常把这类由一个单词组成的cept.称为独立单词cept.)。这里用
$
[
i
]
$
表示第
$
i
$
个独立单词cept.在目标语言句子中的位置。换句话说,
$
[
i
]
$
表示第
$
i
$
个非空对的目标语单词的位置。比如在本例中``mind''在
$
\vectorn
{
\emph
{
t
}
}$
中的位置表示为
$
[
3
]
$
。
\parinterval
另外,可以用
$
\odot
_{
i
}$
表示位置为
$
[
i
]
$
的目标语言单词对应的那些源语言单词位置的平均值,如果这个平均值不是整数则对它向上取整。比如在本例中,目标语句中第4个cept. (``.'')对应在源语言句子中的第5个单词。可表示为
${
\odot
}_{
4
}
=
5
$
。
\parinterval
利用这些新引进的概念,模型4对模型3的扭曲度进行了修改。主要是把扭曲度分解为两类参数。对于
$
[
i
]
$
对应的源语言单词列表(
$
\tau
_{
[
i
]
}$
)中的第一个单词(
$
\tau
_{
[
i
]
1
}$
),它的扭曲度用如下公式计算:
\begin{equation}
\funp
{
P
}
(
\pi
_{
[i]1
}
=j|
{
\pi
}_
1
^{
[i]-1
}
,
{
\tau
}_
0
^
l,
{
\varphi
}_
0
^
l,
\vectorn
{
t
}
)=d
_{
1
}
(j-
{
\odot
}_{
i-1
}
|A(t
_{
[i-1]
}
),B(s
_
j))
\funp
{
P
}
(
\pi
_{
[i]1
}
=j|
{
\pi
}_
1
^{
[i]-1
}
,
{
\tau
}_
0
^
l,
{
\varphi
}_
0
^
l,
\vectorn
{
\emph
{
t
}
}
)=d
_{
1
}
(j-
{
\odot
}_{
i-1
}
|A(t
_{
[i-1]
}
),B(s
_
j))
\label
{
eq:6-22
}
\end{equation}
\noindent
其中,第
$
i
$
个目标语言单词生成的第
$
k
$
个源语言单词的位置用变量
$
\pi
_{
ik
}$
表示。而对于列表(
$
\tau
_{
[
i
]
}$
)中的其他的单词(
$
\tau
_{
[
i
]
k
}
,
1
< k
\le
\varphi
_{
[
i
]
}$
)的扭曲度,用如下公式计算:
\begin{equation}
\funp
{
P
}
(
\pi
_{
[i]k
}
=j|
{
\pi
}_{
[i]1
}^{
k-1
}
,
\pi
_
1
^{
[i]-1
}
,
\tau
_
0
^
l,
\varphi
_
0
^
l,
\vectorn
{
t
}
)=d
_{
>1
}
(j-
\pi
_{
[i]k-1
}
|B(s
_
j))
\funp
{
P
}
(
\pi
_{
[i]k
}
=j|
{
\pi
}_{
[i]1
}^{
k-1
}
,
\pi
_
1
^{
[i]-1
}
,
\tau
_
0
^
l,
\varphi
_
0
^
l,
\vectorn
{
\emph
{
t
}
}
)=d
_{
>1
}
(j-
\pi
_{
[i]k-1
}
|B(s
_
j))
\label
{
eq:6-23
}
\end{equation}
...
...
@@ -373,19 +373,19 @@ p_0+p_1 & = & 1 \label{eq:6-21}
\parinterval
为了解决这个问题,模型5在模型中增加了额外的约束。基本想法是,在放置一个源语言单词的时候检查这个位置是否已经放置了单词,如果可以则把这个放置过程赋予一定的概率,否则把它作为不可能事件。基于这个想法,就需要在逐个放置源语言单词的时候判断源语言句子的哪些位置为空。这里引入一个变量
$
v
(
j,
{
\tau
_
1
}^{
[
i
]-
1
}
,
\tau
_{
[
i
]
1
}^{
k
-
1
}
)
$
,它表示在放置
$
\tau
_{
[
i
]
k
}$
之前(
$
\tau
_
1
^{
[
i
]-
1
}$
和
$
\tau
_{
[
i
]
1
}^{
k
-
1
}$
已经被放置完了),从源语言句子的第一个位置到位置
$
j
$
(包含
$
j
$
)为止还有多少个空位置。这里,把这个变量简写为
$
v
_
j
$
。于是,对于
$
[
i
]
$
所对应的源语言单词列表(
$
\tau
_{
[
i
]
}$
)中的第一个单词(
$
\tau
_{
[
i
]
1
}$
),有:
\begin{eqnarray}
\funp
{
P
}
(
\pi
_{
[i]1
}
= j |
\pi
_
1
^{
[i]-1
}
,
\tau
_
0
^
l,
\varphi
_
0
^
l,
\vectorn
{
t
}
)
&
=
&
d
_
1(v
_
j|B(s
_
j), v
_{
\odot
_{
i-1
}}
, v
_
m-(
\varphi
_{
[i]
}
-1))
\cdot
\nonumber
\\
\funp
{
P
}
(
\pi
_{
[i]1
}
= j |
\pi
_
1
^{
[i]-1
}
,
\tau
_
0
^
l,
\varphi
_
0
^
l,
\vectorn
{
\emph
{
t
}
}
)
&
=
&
d
_
1(v
_
j|B(s
_
j), v
_{
\odot
_{
i-1
}}
, v
_
m-(
\varphi
_{
[i]
}
-1))
\cdot
\nonumber
\\
&
&
(1-
\delta
(v
_
j,v
_{
j-1
}
))
\label
{
eq:6-24
}
\end{eqnarray}
\parinterval
对于其他单词(
$
\tau
_{
[
i
]
k
}$
,
$
1
< k
\le\varphi
_{
[
i
]
}$
),有:
\begin{eqnarray}
&
&
\funp
{
P
}
(
\pi
_{
[i]k
}
=j|
\pi
_{
[i]1
}^{
k-1
}
,
\pi
_
1
^{
[i]-1
}
,
\tau
_
0
^
l,
\varphi
_
0
^
l,
\vectorn
{
t
}
)
\nonumber
\\
&
&
\funp
{
P
}
(
\pi
_{
[i]k
}
=j|
\pi
_{
[i]1
}^{
k-1
}
,
\pi
_
1
^{
[i]-1
}
,
\tau
_
0
^
l,
\varphi
_
0
^
l,
\vectorn
{
\emph
{
t
}
}
)
\nonumber
\\
&
=
&
d
_{
>1
}
(v
_
j-v
_{
\pi
_{
[i]k-1
}}
|B(s
_
j), v
_
m-v
_{
\pi
_{
[i]k-1
}}
-
\varphi
_{
[i]
}
+k)
\cdot
(1-
\delta
(v
_
j,v
_{
j-1
}
))
\label
{
eq:6-25
}
\end{eqnarray}
\noindent
这里,因子
$
1
-
\delta
(
v
_
j, v
_{
j
-
1
}
)
$
是用来判断第
$
j
$
个位置是不是为空。如果第
$
j
$
个位置为空则
$
v
_
j
=
v
_{
j
-
1
}$
,这样
$
\funp
{
P
}
(
\pi
_{
[
i
]
1
}
=
j|
\pi
_
1
^{
[
i
]-
1
}
,
\tau
_
0
^
l,
\varphi
_
0
^
l,
\vectorn
{
t
}
)
=
0
$
。这样就从模型上避免了模型3和模型4中生成不存在的字符串的问题。这里还要注意的是,对于放置第一个单词的情况,影响放置的因素有
$
v
_
j
$
,
$
B
(
s
_
i
)
$
和
$
v
_{
j
-
1
}$
。此外还要考虑位置
$
j
$
放置了第一个源语言单词以后它的右边是不是还有足够的位置留给剩下的
$
k
-
1
$
个源语言单词。参数
$
v
_
m
-(
\varphi
_{
[
i
]
}
-
1
)
$
正是为了考虑这个因素,这里
$
v
_
m
$
表示整个源语言句子中还有多少空位置,
$
\varphi
_{
[
i
]
}
-
1
$
表示源语言位置
$
j
$
右边至少还要留出的空格数。对于放置非第一个单词的情况,主要是要考虑它和前一个放置位置的相对位置。这主要体现在参数
$
v
_
j
-
v
_{
\varphi
_{
[
i
]
}
k
-
1
}$
上。式
\ref
{
eq:6-25
}
的其他部分都可以用上面的理论解释,这里不再赘述。
\noindent
这里,因子
$
1
-
\delta
(
v
_
j, v
_{
j
-
1
}
)
$
是用来判断第
$
j
$
个位置是不是为空。如果第
$
j
$
个位置为空则
$
v
_
j
=
v
_{
j
-
1
}$
,这样
$
\funp
{
P
}
(
\pi
_{
[
i
]
1
}
=
j|
\pi
_
1
^{
[
i
]-
1
}
,
\tau
_
0
^
l,
\varphi
_
0
^
l,
\vectorn
{
\emph
{
t
}
}
)
=
0
$
。这样就从模型上避免了模型3和模型4中生成不存在的字符串的问题。这里还要注意的是,对于放置第一个单词的情况,影响放置的因素有
$
v
_
j
$
,
$
B
(
s
_
i
)
$
和
$
v
_{
j
-
1
}$
。此外还要考虑位置
$
j
$
放置了第一个源语言单词以后它的右边是不是还有足够的位置留给剩下的
$
k
-
1
$
个源语言单词。参数
$
v
_
m
-(
\varphi
_{
[
i
]
}
-
1
)
$
正是为了考虑这个因素,这里
$
v
_
m
$
表示整个源语言句子中还有多少空位置,
$
\varphi
_{
[
i
]
}
-
1
$
表示源语言位置
$
j
$
右边至少还要留出的空格数。对于放置非第一个单词的情况,主要是要考虑它和前一个放置位置的相对位置。这主要体现在参数
$
v
_
j
-
v
_{
\varphi
_{
[
i
]
}
k
-
1
}$
上。式
\ref
{
eq:6-25
}
的其他部分都可以用上面的理论解释,这里不再赘述。
\parinterval
实际上,模型5和模型4的思想基本一致,即,先确定
$
\tau
_{
[
i
]
1
}$
的绝对位置,然后再确定
$
\tau
_{
[
i
]
}$
中剩余单词的相对位置。模型5消除了产生不存在的句子的可能性,不过模型5的复杂性也大大增加了。
%----------------------------------------------------------------------------------------
...
...
@@ -426,23 +426,23 @@ p_0+p_1 & = & 1 \label{eq:6-21}
\subsection
{
``缺陷''问题
}
\parinterval
IBM模型的缺陷是指翻译模型会把一部分概率分配给一些根本不存在的源语言字符串。如果用
$
\funp
{
P
}
(
\textrm
{
well
}
|
\vectorn
{
t
}
)
$
表示
$
\funp
{
P
}
(
\vectorn
{
s
}
|
\vectorn
{
t
}
)
$
在所有的正确的(可以理解为语法上正确的)
$
\vectorn
{
s
}$
上的和,即
\parinterval
IBM模型的缺陷是指翻译模型会把一部分概率分配给一些根本不存在的源语言字符串。如果用
$
\funp
{
P
}
(
\textrm
{
well
}
|
\vectorn
{
\emph
{
t
}}
)
$
表示
$
\funp
{
P
}
(
\vectorn
{
\emph
{
s
}}
|
\vectorn
{
\emph
{
t
}}
)
$
在所有的正确的(可以理解为语法上正确的)
$
\vectorn
{
\emph
{
s
}
}$
上的和,即
\begin{eqnarray}
\funp
{
P
}
(
\textrm
{
well
}
|
\vectorn
{
t
}
)=
\sum
_{
\vectorn
{
s
}
\textrm
{
\;
is
\;
well
\;
formed
}}{
\funp
{
P
}
(
\vectorn
{
s
}
|
\vectorn
{
t
}
)
}
\funp
{
P
}
(
\textrm
{
well
}
|
\vectorn
{
\emph
{
t
}}
)=
\sum
_{
\vectorn
{
\emph
{
s
}}
\textrm
{
\;
is
\;
well
\;
formed
}}{
\funp
{
P
}
(
\vectorn
{
\emph
{
s
}}
|
\vectorn
{
\emph
{
t
}
}
)
}
\label
{
eq:6-26
}
\end{eqnarray}
\parinterval
类似地,用
$
\funp
{
P
}
(
\textrm
{
ill
}
|
\vectorn
{
t
}
)
$
表示
$
\funp
{
P
}
(
\vectorn
{
s
}
|
\vectorn
{
t
}
)
$
在所有的错误的(可以理解为语法上错误的)
$
\vectorn
{
s
}$
上的和。如果
$
\funp
{
P
}
(
\textrm
{
well
}
|
\vectorn
{
t
}
)+
\funp
{
P
}
(
\textrm
{
ill
}
|
\vectorn
{
t
}
)
<
1
$
,就把剩余的部分定义为
$
\funp
{
P
}
(
\textrm
{
failure
}
|
\vectorn
{
t
}
)
$
。它的形式化定义为,
\parinterval
类似地,用
$
\funp
{
P
}
(
\textrm
{
ill
}
|
\vectorn
{
\emph
{
t
}}
)
$
表示
$
\funp
{
P
}
(
\vectorn
{
\emph
{
s
}}
|
\vectorn
{
\emph
{
t
}}
)
$
在所有的错误的(可以理解为语法上错误的)
$
\vectorn
{
\emph
{
s
}}$
上的和。如果
$
\funp
{
P
}
(
\textrm
{
well
}
|
\vectorn
{
\emph
{
t
}}
)+
\funp
{
P
}
(
\textrm
{
ill
}
|
\vectorn
{
\emph
{
t
}}
)
<
1
$
,就把剩余的部分定义为
$
\funp
{
P
}
(
\textrm
{
failure
}
|
\vectorn
{
\emph
{
t
}
}
)
$
。它的形式化定义为,
\begin{eqnarray}
\funp
{
P
}
(
{
\textrm
{
failure
}
|
\vectorn
{
t
}}
) = 1 -
\funp
{
P
}
(
{
\textrm
{
well
}
|
\vectorn
{
t
}}
) -
\funp
{
P
}
(
{
\textrm
{
ill
}
|
\vectorn
{
t
}}
)
\funp
{
P
}
(
{
\textrm
{
failure
}
|
\vectorn
{
\emph
{
t
}}}
) = 1 -
\funp
{
P
}
(
{
\textrm
{
well
}
|
\vectorn
{
\emph
{
t
}}}
) -
\funp
{
P
}
(
{
\textrm
{
ill
}
|
\vectorn
{
\emph
{
t
}
}}
)
\label
{
eq:6-27
}
\end{eqnarray}
\parinterval
本质上,模型3和模型4就是对应
$
\funp
{
P
}
(
{
\textrm
{
failure
}
|
\vectorn
{
t
}}
)
>
0
$
的情况。这部分概率是模型损失掉的。有时候也把这类缺陷称为
{
\small\bfnew
{
物理缺陷
}}
\index
{
物理缺陷
}
(Physical Deficiency
\index
{
Physical Deficiency
}
)或
{
\small\bfnew
{
技术缺陷
}}
\index
{
技术缺陷
}
(Technical Deficiency
\index
{
Technical Deficiency
}
)。还有一种缺陷被称作
{
\small\bfnew
{
精神缺陷
}}
(Spiritual Deficiency
\index
{
Spiritual Deficiency
}
)或
{
\small\bfnew
{
逻辑缺陷
}}
\index
{
逻辑缺陷
}
(Logical Deficiency
\index
{
Logical Deficiency
}
),它是指
$
\funp
{
P
}
(
{
\textrm
{
well
}
|
\vectorn
{
t
}}
)
+
\funp
{
P
}
(
{
\textrm
{
ill
}
|
\vectorn
{
t
}}
)
=
1
$
且
$
\funp
{
P
}
(
{
\textrm
{
ill
}
|
\vectorn
{
t
}}
)
>
0
$
的情况。模型1 和模型2 就有逻辑缺陷。可以注意到,技术缺陷只存在于模型3 和模型4 中,模型1和模型2并没有技术缺陷问题。根本原因在于模型1和模型2的词对齐是从源语言出发对应到目标语言,
$
\vectorn
{
t
}$
到
$
\vectorn
{
s
}$
的翻译过程实际上是从单词
$
s
_
1
$
开始到单词
$
s
_
m
$
结束,依次把每个源语言单词
$
s
_
j
$
对应到唯一一个目标语言位置。显然,这个过程能够保证每个源语言单词仅对应一个目标语言单词。但是,模型3 和模型4中对齐是从目标语言出发对应到源语言,
$
\vectorn
{
t
}$
到
$
\vectorn
{
s
}$
的翻译过程从
$
t
_
1
$
开始
$
t
_
l
$
结束,依次把目标语言单词
$
t
_
i
$
生成的单词对应到某个源语言位置上。但是这个过程不能保证
$
t
_
i
$
中生成的单词所对应的位置没有被其他单词占用,因此也就产生了缺陷。
\parinterval
本质上,模型3和模型4就是对应
$
\funp
{
P
}
(
{
\textrm
{
failure
}
|
\vectorn
{
\emph
{
t
}}}
)
>
0
$
的情况。这部分概率是模型损失掉的。有时候也把这类缺陷称为
{
\small\bfnew
{
物理缺陷
}}
\index
{
物理缺陷
}
(Physical Deficiency
\index
{
Physical Deficiency
}
)或
{
\small\bfnew
{
技术缺陷
}}
\index
{
技术缺陷
}
(Technical Deficiency
\index
{
Technical Deficiency
}
)。还有一种缺陷被称作
{
\small\bfnew
{
精神缺陷
}}
(Spiritual Deficiency
\index
{
Spiritual Deficiency
}
)或
{
\small\bfnew
{
逻辑缺陷
}}
\index
{
逻辑缺陷
}
(Logical Deficiency
\index
{
Logical Deficiency
}
),它是指
$
\funp
{
P
}
(
{
\textrm
{
well
}
|
\vectorn
{
\emph
{
t
}}}
)
+
\funp
{
P
}
(
{
\textrm
{
ill
}
|
\vectorn
{
\emph
{
t
}}}
)
=
1
$
且
$
\funp
{
P
}
(
{
\textrm
{
ill
}
|
\vectorn
{
\emph
{
t
}}}
)
>
0
$
的情况。模型1 和模型2 就有逻辑缺陷。可以注意到,技术缺陷只存在于模型3 和模型4 中,模型1和模型2并没有技术缺陷问题。根本原因在于模型1和模型2的词对齐是从源语言出发对应到目标语言,
$
\vectorn
{
\emph
{
t
}}$
到
$
\vectorn
{
\emph
{
s
}}$
的翻译过程实际上是从单词
$
s
_
1
$
开始到单词
$
s
_
m
$
结束,依次把每个源语言单词
$
s
_
j
$
对应到唯一一个目标语言位置。显然,这个过程能够保证每个源语言单词仅对应一个目标语言单词。但是,模型3 和模型4中对齐是从目标语言出发对应到源语言,
$
\vectorn
{
\emph
{
t
}}$
到
$
\vectorn
{
\emph
{
s
}
}$
的翻译过程从
$
t
_
1
$
开始
$
t
_
l
$
结束,依次把目标语言单词
$
t
_
i
$
生成的单词对应到某个源语言位置上。但是这个过程不能保证
$
t
_
i
$
中生成的单词所对应的位置没有被其他单词占用,因此也就产生了缺陷。
\parinterval
这里还要强调的是,技术缺陷是模型3和模型4是模型本身的缺陷造成的,如果有一个``更好''的模型就可以完全避免这个问题。而逻辑缺陷几乎是不能从模型上根本解决的,因为对于任意一种语言都不能枚举所有的句子(
$
\funp
{
P
}
(
{
\textrm
{
ill
}
|
\vectorn
{
t
}}
)
$
实际上是得不到的)。
\parinterval
这里还要强调的是,技术缺陷是模型3和模型4是模型本身的缺陷造成的,如果有一个``更好''的模型就可以完全避免这个问题。而逻辑缺陷几乎是不能从模型上根本解决的,因为对于任意一种语言都不能枚举所有的句子(
$
\funp
{
P
}
(
{
\textrm
{
ill
}
|
\vectorn
{
\emph
{
t
}
}}
)
$
实际上是得不到的)。
\parinterval
IBM的模型5已经解决了技术缺陷问题。但逻辑缺陷的解决很困难,因为即使对于人来说也很难判断一个句子是不是``良好''的句子。当然可以考虑用语言模型来缓解这个问题,不过由于在翻译的时候源语言句子都是定义``良好''的句子,
$
\funp
{
P
}
(
{
\textrm
{
ill
}
|
\vectorn
{
t
}}
)
$
对
$
\funp
{
P
}
(
\vectorn
{
s
}
|
\vectorn
{
t
}
)
$
的影响并不大。但用输入的源语言句子
$
\vectorn
{
s
}$
的``良好性''并不能解决技术缺陷,因为技术缺陷是模型的问题或者模型参数估计方法的问题。无论输入什么样的
$
\vectorn
{
s
}$
,模型3和模型4的技术缺陷问题都存在。
\parinterval
IBM的模型5已经解决了技术缺陷问题。但逻辑缺陷的解决很困难,因为即使对于人来说也很难判断一个句子是不是``良好''的句子。当然可以考虑用语言模型来缓解这个问题,不过由于在翻译的时候源语言句子都是定义``良好''的句子,
$
\funp
{
P
}
(
{
\textrm
{
ill
}
|
\vectorn
{
\emph
{
t
}}}
)
$
对
$
\funp
{
P
}
(
\vectorn
{
\emph
{
s
}}
|
\vectorn
{
\emph
{
t
}}
)
$
的影响并不大。但用输入的源语言句子
$
\vectorn
{
\emph
{
s
}}$
的``良好性''并不能解决技术缺陷,因为技术缺陷是模型的问题或者模型参数估计方法的问题。无论输入什么样的
$
\vectorn
{
\emph
{
s
}
}$
,模型3和模型4的技术缺陷问题都存在。
%----------------------------------------------------------------------------------------
% NEW SUB-SECTION
...
...
@@ -450,7 +450,7 @@ p_0+p_1 & = & 1 \label{eq:6-21}
\subsection
{
句子长度
}
\parinterval
在IBM模型中,
$
\funp
{
P
}
(
\vectorn
{
t
}
)
\funp
{
P
}
(
\vectorn
{
s
}
|
\vectorn
{
t
}
)
$
会随着目标语言句子长度的增加而减少,因为这种模型有多个概率化的因素组成,乘积项越多结果的值越小。这也就是说,IBM模型会更倾向选择长度短一些的目标语言句子。显然这种对短句子的偏向性并不是机器翻译所期望的。
\parinterval
在IBM模型中,
$
\funp
{
P
}
(
\vectorn
{
\emph
{
t
}}
)
\funp
{
P
}
(
\vectorn
{
\emph
{
s
}}
|
\vectorn
{
\emph
{
t
}
}
)
$
会随着目标语言句子长度的增加而减少,因为这种模型有多个概率化的因素组成,乘积项越多结果的值越小。这也就是说,IBM模型会更倾向选择长度短一些的目标语言句子。显然这种对短句子的偏向性并不是机器翻译所期望的。
\parinterval
这个问题在很多机器翻译系统中都存在。它实际上也反应了一种
{
\small\bfnew
{
系统偏置
}}
\index
{
系统偏置
}
(System Bias)
\index
{
System Bias
}
的体现。为了消除这种偏置,可以通过在模型中增加一个短句子惩罚引子来抵消掉模型对短句子的倾向性。比如,可以定义一个惩罚引子,它的值随着长度的减少而增加。不过,简单引入这样的惩罚因子会导致模型并不符合一个严格的噪声信道模型。它对应一个基于判别式框架的翻译模型,这部分内容会在
{
\chapterseven
}
进行介绍。
...
...
@@ -460,7 +460,7 @@ p_0+p_1 & = & 1 \label{eq:6-21}
\subsection
{
其他问题
}
\parinterval
模型5的意义是什么?模型5的提出是为了消除模型3和模型4的缺陷。缺陷的本质是,
$
\funp
{
P
}
(
\vectorn
{
s
}
,
\vectorn
{
a
}
|
\vectorn
{
t
}
)
$
在所有合理的对齐上概率和不为1。 但是,在这里更关心是哪个对齐
$
\vectorn
{
a
}$
使
$
\funp
{
P
}
(
\vectorn
{
s
}
,
\vectorn
{
a
}
|
\vectorn
{
t
}
)
$
达到最大,即使
$
\funp
{
P
}
(
\vectorn
{
s
}
,
\vectorn
{
a
}
|
\vectorn
{
t
}
)
$
不符合概率分布的定义,也并不影响我们寻找理想的对齐
$
\vectorn
{
a
}$
。从工程的角度说,
$
\funp
{
P
}
(
\vectorn
{
s
}
,
\vectorn
{
a
}
|
\vectorn
{
t
}
)
$
不归一并不是一个十分严重的问题。遗憾的是,实际上到现在为止有太多对IBM模型3和模型4中的缺陷进行过系统的实验和分析,但对于这个问题到底有多严重并没有定论。当然用模型5是可以解决这个问题。但是如果用一个非常复杂的模型去解决了一个并不产生严重后果的问题,那这个模型也就没有太大意义了(从实践的角度)。
\parinterval
模型5的意义是什么?模型5的提出是为了消除模型3和模型4的缺陷。缺陷的本质是,
$
\funp
{
P
}
(
\vectorn
{
\emph
{
s
}}
,
\vectorn
{
\emph
{
a
}}
|
\vectorn
{
\emph
{
t
}}
)
$
在所有合理的对齐上概率和不为1。 但是,在这里更关心是哪个对齐
$
\vectorn
{
\emph
{
a
}}$
使
$
\funp
{
P
}
(
\vectorn
{
\emph
{
s
}}
,
\vectorn
{
\emph
{
a
}}
|
\vectorn
{
\emph
{
t
}}
)
$
达到最大,即使
$
\funp
{
P
}
(
\vectorn
{
\emph
{
s
}}
,
\vectorn
{
\emph
{
a
}}
|
\vectorn
{
\emph
{
t
}}
)
$
不符合概率分布的定义,也并不影响我们寻找理想的对齐
$
\vectorn
{
\emph
{
a
}}$
。从工程的角度说,
$
\funp
{
P
}
(
\vectorn
{
\emph
{
s
}}
,
\vectorn
{
\emph
{
a
}}
|
\vectorn
{
\emph
{
t
}
}
)
$
不归一并不是一个十分严重的问题。遗憾的是,实际上到现在为止有太多对IBM模型3和模型4中的缺陷进行过系统的实验和分析,但对于这个问题到底有多严重并没有定论。当然用模型5是可以解决这个问题。但是如果用一个非常复杂的模型去解决了一个并不产生严重后果的问题,那这个模型也就没有太大意义了(从实践的角度)。
\parinterval
概念(cept.)的意义是什么?经过前面的分析可知,IBM模型的词对齐模型使用了cept.这个概念。但是,在IBM模型中使用的cept.最多只能对应一个目标语言单词(模型并没有用到源语言cept. 的概念)。因此可以直接用单词代替cept.。这样,即使不引入cept.的概念,也并不影响IBM模型的建模。实际上,cept.的引入确实可以帮助我们从语法和语义的角度解释词对齐过程。不过,这个方法在IBM 模型中的效果究竟如何还没有定论。
...
...
@@ -478,7 +478,7 @@ p_0+p_1 & = & 1 \label{eq:6-21}
\item
扭曲度是机器翻译中的一个经典概念。广义上来说,事物位置的变换都可以用扭曲度进行描述,比如,在物理成像系统中,扭曲度模型可以帮助进行镜头校正
\upcite
{
1966Decentering,ClausF05
}
。在机器翻译中,扭曲度本质上在描述源语言和目标源单词顺序的偏差。这种偏差可以用于对调序的建模。因此扭曲度的使用也可以被看做是一种对调序问题的描述,这也是机器翻译区别于语音识别等任务的主要因素之一。在早期的统计机器翻译系统中,如Pharaoh
\upcite
{
DBLP:conf/amta/Koehn04
}
,大量使用了扭曲度这个概念。虽然,随着机器翻译的发展,更复杂的调序模型被提出
\upcite
{
Gros2008MSD,xiong2006maximum,och2004alignment,DBLP:conf/naacl/KumarB05,li-etal-2014-neural,vaswani2017attention
}
,但是扭曲度所引发的对调序问题的思考是非常深刻的,这也是IBM模型最大的贡献之一。
\vspace
{
0.5em
}
\item
IBM模型的另一个贡献是在机器翻译中引入了繁衍率的概念。本质上,繁衍率是一种对翻译长度的建模。在IBM模型中,通过计算单词的繁衍率就可以得到整个句子的长度。需要注意的是,在机器翻译中译文长度对翻译性能有着至关重要的影响。虽然,在很多机器翻译模型中并没有直接使用繁衍率这个概念,但是几乎所有的现代机器翻译系统中都有译文长度的控制模块。比如,在统计机器翻译和神经机器翻译中,都把译文单词数量作为一个特征用于生成合理长度的译文
\upcite
{
Koehn2007Moses,ChiangLMMRS05,bahdanau2014neural
}
。此外,在神经机器翻译中,非自回归的解码中也使用繁衍率模型对译文长度进行预测
\
ref
{
2018Non
}
。
\item
IBM模型的另一个贡献是在机器翻译中引入了繁衍率的概念。本质上,繁衍率是一种对翻译长度的建模。在IBM模型中,通过计算单词的繁衍率就可以得到整个句子的长度。需要注意的是,在机器翻译中译文长度对翻译性能有着至关重要的影响。虽然,在很多机器翻译模型中并没有直接使用繁衍率这个概念,但是几乎所有的现代机器翻译系统中都有译文长度的控制模块。比如,在统计机器翻译和神经机器翻译中,都把译文单词数量作为一个特征用于生成合理长度的译文
\upcite
{
Koehn2007Moses,ChiangLMMRS05,bahdanau2014neural
}
。此外,在神经机器翻译中,非自回归的解码中也使用繁衍率模型对译文长度进行预测
\
upcite
{
2018Non
}
。
\vspace
{
0.5em
}
\end{itemize}
...
...
编写
预览
Markdown
格式
0%
重试
或
添加新文件
添加附件
取消
您添加了
0
人
到此讨论。请谨慎行事。
请先完成此评论的编辑!
取消
请
注册
或者
登录
后发表评论