Skip to content
项目
群组
代码片段
帮助
当前项目
正在载入...
登录 / 注册
切换导航面板
T
Toy-MT-Introduction
概览
Overview
Details
Activity
Cycle Analytics
版本库
Repository
Files
Commits
Branches
Tags
Contributors
Graph
Compare
Charts
问题
0
Issues
0
列表
Board
标记
里程碑
合并请求
0
Merge Requests
0
CI / CD
CI / CD
流水线
作业
日程表
图表
维基
Wiki
代码片段
Snippets
成员
Collapse sidebar
Close sidebar
活动
图像
聊天
创建新问题
作业
提交
Issue Boards
Open sidebar
NiuTrans
Toy-MT-Introduction
Commits
8cd6f2ce
Commit
8cd6f2ce
authored
May 12, 2020
by
zengxin
Browse files
Options
Browse Files
Download
Email Patches
Plain Diff
chapter3 布局
parent
0ced822d
显示空白字符变更
内嵌
并排
正在显示
1 个修改的文件
包含
67 行增加
和
53 行删除
+67
-53
Book/Chapter3/Chapter3.tex
+67
-53
没有找到文件。
Book/Chapter3/Chapter3.tex
查看文件 @
8cd6f2ce
...
...
@@ -101,6 +101,7 @@
\label
{
fig:3-3
}
\end{figure}
%----------------------------------------------
\vspace
{
-0.2em
}
\parinterval
图
\ref
{
fig:3-3
}
展示了人在翻译``我 对 你表示 满意''时可能会思考的内容。具体来说,有如下两方面内容。
...
...
@@ -132,6 +133,8 @@
\parinterval
对于第一个问题,可以给计算机一个翻译词典,这样计算机可以发挥计算方面的优势,尽可能多的把翻译结果拼装出来。比如,可以把每个翻译结果看作是对单词翻译的拼装,这可以被形象的比做贯穿多个单词的一条路径,计算机所做的就是尽可能多的生成这样的路径。图
\ref
{
fig:3-4
}
中蓝色和红色的折线就分别表示了两条不同的译文选择路径,区别在于``满意''和``对''的翻译候选是不一样的,蓝色折线选择的是``satisfy''和``to'',而红色折线是``satisfied''和``with''。换句话说,不同的译文对应不同的路径(即使词序不同也会对应不同的路径)。
\parinterval
对于第二个问题,尽管机器能够找到很多译文选择路径,但它并不知道哪些路径是好的。说的再直白一些,简单的枚举路径实际上就是一个体力活,没有什么智能。因此计算机还需要再聪明一些,运用它的能够``掌握''的知识判断翻译结果的好与坏。这一步是最具挑战的,当然也有很多思路。在统计机器翻译中,这个问题被定义为:设计一种统计模型,它可以给每个译文一个可能性,而这个可能性越高表明译文越接近人工翻译。如图
\ref
{
fig:3-4
}
所示,每个单词翻译候选的右侧黑色框里的数字就是单词的翻译概率,使用这些单词的翻译概率,可以得到整句译文的概率(用符号P表示)。这样,就用概率化的模型描述了每个翻译候选的可能性。基于这些翻译候选的可能性,机器翻译系统可以对所有的翻译路径进行打分,比如,图
\ref
{
fig:3-4
}
中第一条路径的分数为0.042,第二条是0.006,以此类推。最后,系统可以选择分数最高的路径作为源语言句子的最终译文。
%----------------------------------------------
\begin{figure}
[htp]
\centering
...
...
@@ -141,9 +144,6 @@
\end{figure}
%----------------------------------------------
\parinterval
对于第二个问题,尽管机器能够找到很多译文选择路径,但它并不知道哪些路径是好的。说的再直白一些,简单的枚举路径实际上就是一个体力活,没有什么智能。因此计算机还需要再聪明一些,运用它的能够``掌握''的知识判断翻译结果的好与坏。这一步是最具挑战的,当然也有很多思路。在统计机器翻译中,这个问题被定义为:设计一种统计模型,它可以给每个译文一个可能性,而这个可能性越高表明译文越接近人工翻译。如图
\ref
{
fig:3-4
}
所示,每个单词翻译候选的右侧黑色框里的数字就是单词的翻译概率,使用这些单词的翻译概率,可以得到整句译文的概率(用符号P表示)。这样,就用概率化的模型描述了每个翻译候选的可能性。基于这些翻译候选的可能性,机器翻译系统可以对所有的翻译路径进行打分,比如,图
\ref
{
fig:3-4
}
中第一条路径的分数为0.042,第二条是0.006,以此类推。最后,系统可以选择分数最高的路径作为源语言句子的最终译文。
\vspace
{
-0.5em
}
%----------------------------------------------------------------------------------------
% NEW SUBSUB-SECTION
%----------------------------------------------------------------------------------------
...
...
@@ -175,6 +175,7 @@
\label
{
fig:3-5
}
\end{figure}
%----------------------------------------------
\vspace
{
-0.5em
}
\parinterval
接下来,本节将介绍统计机器翻译模型训练和解码的方法。在模型学习中,会分两小节进行描述
\ \dash
\
单词级翻译和句子级翻译。实现单词级翻译是实现句子级翻译的基础。换言之,句子级翻译的统计模型是建立在单词翻译之上的。在解码中,本节将介绍一个高效的搜索算法,其中也使用到了剪枝和启发式搜索的思想。
...
...
@@ -211,7 +212,7 @@
\end{table}
%----------------------------------------------
\vspace
{
-0.5em
}
%
\vspace{-0.5em}
%----------------------------------------------------------------------------------------
% NEW SUBSUB-SECTION
...
...
@@ -264,7 +265,6 @@
\subsubsection
{
如何从大量的双语平行数据中学习?
}
\parinterval
如果有更多的句子,上面的方法同样适用。假设,有
$
N
$
个互译句对
$
(
\mathbf
{
s
}^{
[
1
]
}
,
\mathbf
{
t
}^{
[
1
]
}
)
$
,...,
\\
$
(
\mathbf
{
s
}^{
[
N
]
}
,
\mathbf
{
t
}^{
[
N
]
}
)
$
。仍然可以使用基于相对频度的方法估计翻译概率
$
\textrm
{
P
}
(
x,y
)
$
,具体方法如下:
\begin{eqnarray}
\textrm
{
P
}
(x,y) =
\frac
{{
\sum
_{
i=1
}^{
N
}
c(x,y;
\mathbf
{
s
}^{
[i]
}
,
\mathbf
{
t
}^{
[i]
}
)
}}{
\sum
_{
i=1
}^{
N
}{{
\sum
_{
x',y'
}
c(x',y';
\mathbf
{
s
}^{
[i]
}
,
\mathbf
{
t
}^{
[i]
}
)
}}}
\label
{
eq:3-4
}
...
...
@@ -321,6 +321,7 @@
\subsubsection
{
基础模型
}
\vspace
{
0.5em
}
\parinterval
计算句子级翻译概率并不简单。因为自然语言非常灵活,任何数据无法覆盖足够多的句子,因此,无法像公式
\ref
{
eq:3-4
}
一样直接用简单计数的方式对句子的翻译概率进行估计。这里,采用一个退而求其次的方法:找到一个函数
$
g
(
\mathbf
{
s
}
,
\mathbf
{
t
}
)
\ge
0
$
来模拟翻译概率对译文可能性进行估计。可以定义一个新的函数
$
g
(
\mathbf
{
s
}
,
\mathbf
{
t
}
)
$
,令其满足:给定
$
\mathbf
{
s
}$
,翻译结果
$
\mathbf
{
t
}$
出现的可能性越大,
$
g
(
\mathbf
{
s
}
,
\mathbf
{
t
}
)
$
的值越大;
$
\mathbf
{
t
}$
出现的可能性越小,
$
g
(
\mathbf
{
s
}
,
\mathbf
{
t
}
)
$
的值越小。换句话说,
$
g
(
\mathbf
{
s
}
,
\mathbf
{
t
}
)
$
的单调性和翻译概率
$
\textrm
{
P
}
(
\mathbf
{
t
}
|
\mathbf
{
s
}
)
$
呈正相关。如果存在这样的函数
$
g
(
\mathbf
{
s
}
,
\mathbf
{
t
}
)
$
,可以利用
$
g
(
\mathbf
{
s
}
,
\mathbf
{
t
}
)
$
近似表示
$
\textrm
{
P
}
(
\mathbf
{
t
}
|
\mathbf
{
s
}
)
$
,如下:
\begin{eqnarray}
...
...
@@ -354,6 +355,7 @@
\label
{
fig:3-7
}
\end{figure}
%----------------------------------------------
\vspace
{
-0.5em
}
\parinterval
对于句对
$
(
\mathbf
{
s
}
,
\mathbf
{
t
}
)
$
,假设可以得到最优词对齐
$
\widehat
{
A
}$
,于是可以使用单词翻译概率计算
$
g
(
\mathbf
{
s
}
,
\mathbf
{
t
}
)
$
,如下
\begin{eqnarray}
...
...
@@ -464,11 +466,7 @@ g(\mathbf{s},\mathbf{t}) \equiv \prod_{j,i \in \widehat{A}}{\textrm{P}(s_j,t_i)}
%----------------------------------------------
\parinterval
已经有工作证明机器翻译问题是NP难的
\cite
{
knight1999decoding
}
。对于如此巨大的搜索空间,需要一种十分高效的搜索算法才能实现机器翻译的解码。这里介绍一种贪婪的解码算法,它把解码分成若干步骤,每步只翻译一个单词,并保留当前`` 最好''的结果,直至所有源语言单词都被翻译完毕。
\parinterval
图
\ref
{
fig:3-10
}
给出了贪婪解码算法的伪代码。其中
$
\pi
$
保存所有源语单词的候选译文,
$
\pi
[
j
]
$
表示第
$
j
$
个源语单词的翻译候选的集合,
$
best
$
保存当前最好的翻译结果,
$
h
$
保存当前步生成的所有译文候选。算法的主体有两层循环,在内层循环中如果第
$
j
$
个源语单词没有被翻译过,则用
$
best
$
和它的候选译文
$
\pi
[
j
]
$
生成新的翻译,再存于
$
h
$
中,即操作
$
h
=
h
\cup
{
\textrm
{
Join
}
(
best,
\pi
[
j
])
}$
。外层循环再从
$
h
$
中选择得分最高的结果存于
$
best
$
中,即操作
$
best
=
\textrm
{
PruneForTop
1
}
(
h
)
$
;同时标识相应的源语单词已翻译,即
$
used
[
best.j
]=
true
$
。
该算法的核心在于,系统一直维护一个当前最好的结果,之后每一步考虑扩展这个结果的所有可能,并计算模型得分,然后再保留扩展后的最好结果。注意,在每一步中,只有排名第一的结果才会被保留,其他结果都会被丢弃。这也体现了贪婪的思想。显然这个方法不能保证搜索到全局最优的结果,但是由于每次扩展只考虑一个最好的结果,因此该方法速度很快。图
\ref
{
fig:3-11
}
给出了算法执行过程的简单示例。当然,机器翻译的解码方法有很多,这里仅仅使用简单的贪婪搜索方法来解决机器翻译的解码问题,在后续章节会对更加优秀的解码方法进行介绍。
\vspace
{
0.3em
}
%----------------------------------------------
\begin{figure}
[htp]
\centering
...
...
@@ -477,25 +475,41 @@ g(\mathbf{s},\mathbf{t}) \equiv \prod_{j,i \in \widehat{A}}{\textrm{P}(s_j,t_i)}
\label
{
fig:3-10
}
\end{figure}
%----------------------------------------------
\vspace
{
-0.0em
}
\
vspace
{
5.0em
}
\
parinterval
图
\ref
{
fig:3-10
}
给出了贪婪解码算法的伪代码。其中
$
\pi
$
保存所有源语单词的候选译文,
$
\pi
[
j
]
$
表示第
$
j
$
个源语单词的翻译候选的集合,
$
best
$
保存当前最好的翻译结果,
$
h
$
保存当前步生成的所有译文候选。算法的主体有两层循环,在内层循环中如果第
$
j
$
个源语单词没有被翻译过,则用
$
best
$
和它的候选译文
$
\pi
[
j
]
$
生成新的翻译,再存于
$
h
$
中,即操作
$
h
=
h
\cup
{
\textrm
{
Join
}
(
best,
\pi
[
j
])
}$
。外层循环再从
$
h
$
中选择得分最高的结果存于
$
best
$
中,即操作
$
best
=
\textrm
{
PruneForTop
1
}
(
h
)
$
;同时标识相应的源语单词已翻译,即
$
used
[
best.j
]=
true
$
。
\vspace
{
0.3em
}
%----------------------------------------------
\begin{figure}
[htp]
\centering
\subfigure
{
\input
{
./Chapter3/Figures/greedy-mt-decoding-process-1
}}
%\subfigure{\input{./Chapter3/Figures/greedy-mt-decoding-process-3}}
%\setlength{\belowcaptionskip}{14.0em}
%\caption{贪婪的机器翻译解码过程实例}
%\label{fig:3-11}
\end{figure}
%----------------------------------------------
%----------------------------------------------
\begin{figure}
[htp]
\centering
%\subfigure{\input{./Chapter3/Figures/greedy-mt-decoding-process-1}}
\subfigure
{
\input
{
./Chapter3/Figures/greedy-mt-decoding-process-3
}}
\setlength
{
\belowcaptionskip
}{
14
.0em
}
\setlength
{
\belowcaptionskip
}{
2
.0em
}
\caption
{
贪婪的机器翻译解码过程实例
}
\label
{
fig:3-11
}
\end{figure}
%----------------------------------------------
\vspace
{
-1.8em
}
该算法的核心在于,系统一直维护一个当前最好的结果,之后每一步考虑扩展这个结果的所有可能,并计算模型得分,然后再保留扩展后的最好结果。注意,在每一步中,只有排名第一的结果才会被保留,其他结果都会被丢弃。这也体现了贪婪的思想。显然这个方法不能保证搜索到全局最优的结果,但是由于每次扩展只考虑一个最好的结果,因此该方法速度很快。图
\ref
{
fig:3-11
}
给出了算法执行过程的简单示例。当然,机器翻译的解码方法有很多,这里仅仅使用简单的贪婪搜索方法来解决机器翻译的解码问题,在后续章节会对更加优秀的解码方法进行介绍。
%----------------------------------------------------------------------------------------
% NEW SECTION
%----------------------------------------------------------------------------------------
\vspace
{
5.5
em
}
%调整布局用
%\vspace{3
em}%调整布局用
\sectionnewpage
\section
{
基于词的翻译建模
}
...
...
@@ -507,6 +521,7 @@ g(\mathbf{s},\mathbf{t}) \equiv \prod_{j,i \in \widehat{A}}{\textrm{P}(s_j,t_i)}
\subsection
{
噪声信道模型
}
\vspace
{
0.5em
}
\parinterval
首先,重新思考一下人类进行翻译的过程。对于给定的源语句
$
\mathbf
{
s
}$
,人不会像计算机一样尝试很多的可能,而是快速准确的翻译出一个或者少数几个正确的译文。在人看来,除了正确的译文外,其他的翻译都是不正确的,或者说除了少数的译文人甚至都不会考虑太多其他的可能性。但是,在统计机器翻译的世界里,没有译文是不可能的。换句话说,对于源语言句子
$
\mathbf
{
s
}$
,所有目标语词串
$
\mathbf
{
t
}$
都是可能的译文,只是可能性大小不同。即每对
$
(
\mathbf
{
s
}
,
\mathbf
{
t
}
)
$
都有一个概率值
$
\textrm
{
P
}
(
\mathbf
{
t
}
|
\mathbf
{
s
}
)
$
来描述
$
\mathbf
{
s
}$
翻译为
$
\mathbf
{
t
}$
的好与坏(图
\ref
{
fig:3-12
}
)。
%----------------------------------------------
...
...
@@ -518,6 +533,7 @@ g(\mathbf{s},\mathbf{t}) \equiv \prod_{j,i \in \widehat{A}}{\textrm{P}(s_j,t_i)}
\end{figure}
%----------------------------------------------
\vspace
{
-0.5em
}
\parinterval
IBM模型也是建立在如上统计模型之上。具体来说,IBM模型的基础是
{
\small\sffamily\bfseries
{
噪声信道模型
}}
\index
{
噪声信道模型
}
(Noise Channel Model)
\index
{
Noise Channel Model
}
,它是由Shannon在上世纪40年代末提出来的
\cite
{
shannon1949communication
}
,并于上世纪80年代应用在语言识别领域,后来又被Brown等人用于统计机器翻译中
\cite
{
brown1990statistical
}
。
\parinterval
在噪声信道模型中,源语言句子
$
\mathbf
{
s
}$
(信宿)被看作是由目标语言句子
$
\mathbf
{
t
}$
(信源)经过一个有噪声的信道得到的。如果知道了
$
\mathbf
{
s
}$
和信道的性质,可以通过
$
\textrm
{
P
}
(
\mathbf
{
t
}
|
\mathbf
{
s
}
)
$
得到信源的信息,这个过程如图
\ref
{
fig:3-13
}
所示。
...
...
@@ -644,7 +660,6 @@ g(\mathbf{s},\mathbf{t}) \equiv \prod_{j,i \in \widehat{A}}{\textrm{P}(s_j,t_i)}
\subsubsection
{
基于词对齐的翻译模型
}
\parinterval
直接准确估计
$
\textrm
{
P
}
(
\mathbf
{
s
}
|
\mathbf
{
t
}
)
$
很难,训练数据只能覆盖整个样本空间非常小的一部分,绝大多数句子在训练数据中一次也没出现过。为了解决这个问题,IBM模型假设:句子之间的对应可以由单词之间的对应进行表示。于是,句子翻译的概率可以被转化为词对齐生成的概率:
\begin{eqnarray}
\textrm
{
P
}
(
\mathbf
{
s
}
|
\mathbf
{
t
}
)=
\sum
_{
\mathbf
{
a
}}
\textrm
{
P
}
(
\mathbf
{
s
}
,
\mathbf
{
a
}
|
\mathbf
{
t
}
)
\label
{
eq:3-17
}
...
...
@@ -722,13 +737,13 @@ g(\mathbf{s},\mathbf{t}) \equiv \prod_{j,i \in \widehat{A}}{\textrm{P}(s_j,t_i)}
%----------------------------------------------------------------------------------------
\sectionnewpage
\vspace
{
-2em
}
\section
{
IBM模型1-2
}
\parinterval
公式
\ref
{
eq:3-17
}
和公式
\ref
{
eq:3-18
}
把翻译问题定义为对译文和词对齐同时进行生成的问题。其中有两个问题:首先,公式
\ref
{
eq:3-17
}
的右端(
$
\sum
_{
\mathbf
{
a
}}
\textrm
{
P
}
(
\mathbf
{
s
}
,
\mathbf
{
a
}
|
\mathbf
{
t
}
)
$
)要求对所有的词对齐概率进行求和,但是词对齐的数量随着句子长度是呈指数增长,如何遍历所有的对齐
$
\mathbf
{
a
}$
?其次,公式
\ref
{
eq:3-18
}
虽然对词对齐的问题进行了描述,但是模型中的很多参数仍然很复杂,如何计算
$
\textrm
{
P
}
(
m|
\mathbf
{
t
}
)
$
、
$
\textrm
{
P
}
(
a
_
j|a
_
1
^{
j
-
1
}
,s
_
1
^{
j
-
1
}
,m,
\mathbf
{
t
}
)
$
和
$
\textrm
{
P
}
(
s
_
j|a
_
1
^{
j
}
,s
_
1
^{
j
-
1
}
,m,
\mathbf
{
t
}
)
$
?针对这些问题,Brown等人总共提出了5种解决方案,这也就是被后人所熟知的5个IBM翻译模型。第一个问题可以通过一定的数学或者工程技巧进行求解;第二个问题可以通过一些假设进行化简,依据化简的层次和复杂度不同,可以分为IBM模型1、IBM模型2、IBM模型3、IBM模型4以及IBM模型5。本节首先介绍较为简单的IBM模型1-2。
%----------------------------------------------------------------------------------------
% NEW SUB-SECTION
%----------------------------------------------------------------------------------------
\subsection
{
IBM模型1
}
\parinterval
IBM模型1对公式
\ref
{
eq:3-18
}
中的三项进行了简化。具体方法如下:
...
...
@@ -739,7 +754,7 @@ g(\mathbf{s},\mathbf{t}) \equiv \prod_{j,i \in \widehat{A}}{\textrm{P}(s_j,t_i)}
\textrm
{
P
}
(m|
\mathbf
{
t
}
)
\;
\equiv
\;
\varepsilon
\label
{
eq:3-20
}
\end{eqnarray}
\vspace
{
0.5em
}
%
\vspace{0.5em}
\item
对齐概率
$
\textrm
{
P
}
(
a
_
j|a
_
1
^{
j
-
1
}
,s
_
1
^{
j
-
1
}
,m,
\mathbf
{
t
}
)
$
仅依赖于译文长度
$
l
$
,即每个词对齐连接的概率也服从均匀分布。换句话说,对于任何源语言位置
$
j
$
对齐到目标语言任何位置都是等概率的。比如译文为``on the table'',再加上
$
t
_
0
$
共4个位置,相应的,任意源语单词对齐到这4个位置的概率是一样的。具体描述如下:
\begin{eqnarray}
\textrm
{
P
}
(a
_
j|a
_
1
^{
j-1
}
,s
_
1
^{
j-1
}
,m,
\mathbf
{
t
}
)
\equiv
\frac
{
1
}{
l+1
}
...
...
@@ -755,7 +770,7 @@ g(\mathbf{s},\mathbf{t}) \equiv \prod_{j,i \in \widehat{A}}{\textrm{P}(s_j,t_i)}
用一个简单的例子对公式
\ref
{
eq:3-22
}
进行说明。比如,在图
\ref
{
fig:3-18
}
中,``桌子''对齐到``table'',可被描述为
$
f
(
s
_
2
|t
_{
a
_
2
}
)=
f
(
\textrm
{
``桌子''
}
|
\textrm
{
``table''
}
)
$
,表示给定``table''翻译为``桌子''的概率。通常,
$
f
(
s
_
2
|t
_{
a
_
2
}
)
$
被认为是一种概率词典,它反应了两种语言词汇一级的对应关系。
\end{itemize}
\vspace
{
3.0em
}
%
\vspace{3.0em}
%----------------------------------------------
\begin{figure}
[htp]
...
...
@@ -797,7 +812,7 @@ g(\mathbf{s},\mathbf{t}) \equiv \prod_{j,i \in \widehat{A}}{\textrm{P}(s_j,t_i)}
%----------------------------------------------------------------------------------------
% NEW SUB-SECTION
%----------------------------------------------------------------------------------------
\vspace
{
-4em
}
\subsection
{
IBM模型2
}
\parinterval
IBM模型1很好地化简了问题,但是由于使用了很强的假设,导致模型和实际情况有较大差异。其中一个比较严重的问题是假设词对齐的生成概率服从均匀分布。图
\ref
{
fig:3-20
}
展示了一个简单的实例。尽管译文
$
\mathbf
{
t
}$
比
$
\mathbf
{
t
}
'
$
的质量更好,但对于IBM模型1来说它们对应的翻译概率相同。这是因为当词对齐服从均匀分布时,模型会忽略目标语言单词的位置信息。因此当单词翻译相同但顺序不同时,翻译概率一样。同时,由于源语言单词是由错误位置的目标语单词生成的,不合理的对齐也会导致不合理的词汇翻译概率。
...
...
@@ -918,13 +933,14 @@ g(\mathbf{s},\mathbf{t}) \equiv \prod_{j,i \in \widehat{A}}{\textrm{P}(s_j,t_i)}
\parinterval
我们已经把IBM模型的参数训练问题定义为带约束的目标函数优化问题。由于目标函数是可微分函数,解决这类问题的一种常用手法是把带约束的优化问题转化为不带约束的优化问题。这里用到了
{
\small\sffamily\bfseries
{
拉格朗日乘数法
}}
\index
{
拉格朗日乘数法
}
(The Lagrange Multiplier Method)
\index
{
The Lagrange Multiplier Method
}
,它的基本思想是把含有
$
n
$
个变量和
$
m
$
个约束条件的优化问题转化为含有
$
n
+
m
$
个变量的无约束优化问题。
\parinterval
这里的目标是
$
\max
(
\textrm
{
P
}_{
\theta
}
(
\mathbf
{
s
}
|
\mathbf
{
t
}
))
$
,约束条件是对于任意的目标语单词
$
t
_
y
$
有
\\
$
\sum
_{
s
_
x
}{
\textrm
{
P
}
(
s
_
x|t
_
y
)
}
=
1
$
。根据拉格朗日乘数法,可以把上述优化问题重新定义最大化如下拉格朗日函数:
\vspace
{
-0.5em
}
\begin{eqnarray}
L(f,
\lambda
)=
\frac
{
\varepsilon
}{
(l+1)
^
m
}
\prod
_{
j=1
}^{
m
}
\sum
_{
i=0
}^{
l
}{
f(s
_
j|t
_
i)
}
-
\sum
_{
t
_
y
}{
\lambda
_{
t
_
y
}
(
\sum
_{
s
_
x
}{
f(s
_
x|t
_
y)
}
-1)
}
\label
{
eq:3-32
}
\end{eqnarray}
\vspace
{
-0.3em
}
\parinterval
$
L
(
f,
\lambda
)
$
包含两部分,
$
\frac
{
\varepsilon
}{
(
l
+
1
)
^
m
}
\prod
_{
j
=
1
}^{
m
}
\sum
_{
i
=
0
}^{
l
}{
f
(
s
_
j|t
_
i
)
}$
是原始的目标函数,
\\
$
\sum
_{
t
_
y
}{
\lambda
_{
t
_
y
}
(
\sum
_{
s
_
x
}{
f
(
s
_
x|t
_
y
)
}
-
1
)
}$
是原始的约束条件乘以拉格朗日乘数
$
\lambda
_{
t
_
y
}$
,拉格朗日乘数的数量和约束条件的数量相同。图
\ref
{
fig:3-23
}
通过图例说明了
$
L
(
f,
\lambda
)
$
各部分的意义。
\vspace
{
6.0em
}
%----------------------------------------------
\begin{figure}
[htp]
...
...
@@ -996,8 +1012,8 @@ f(s_u|t_v) = \lambda_{t_v}^{-1} \frac{\varepsilon}{(l+1)^{m}} \prod\limits_{j=1}
\end{figure}
%----------------------------------------------
\noindent
\hspace
{
2em
}
为了化简
$
f
(
s
_
u|t
_
v
)
$
的计算,在此对公式
\ref
{
eq:3-39
}
进行了重新组织,见图
\ref
{
fig:3-25
}
。
\noindent
\hspace
{
2em
}
为了化简
$
f
(
s
_
u|t
_
v
)
$
的计算,在此对公式
\ref
{
eq:3-39
}
进行了重新组织,见图
\ref
{
fig:3-25
}
。
其中,红色部分表示翻译概率P
$
(
\mathbf
{
s
}
|
\mathbf
{
t
}
)
$
;蓝色部分表示
$
(
s
_
u,t
_
v
)
$
在句对
$
(
\mathbf
{
s
}
,
\mathbf
{
t
}
)
$
中配对的总次数,即``
$
t
_
v
$
翻译为
$
s
_
u
$
''在所有对齐中出现的次数;绿色部分表示
$
f
(
s
_
u|t
_
v
)
$
对于所有的
$
t
_
i
$
的相对值,即``
$
t
_
v
$
翻译为
$
s
_
u
$
''在所有对齐中出现的相对概率;蓝色与绿色部分相乘表示``
$
t
_
v
$
翻译为
$
s
_
u
$
''这个事件出现次数的期望的估计,称之为
{
\small\sffamily\bfseries
{
期望频次
}}
\index
{
期望频次
}
(Expected Count)
\index
{
Expected Count
}
。
\vspace
{
-0.3em
}
%----------------------------------------------
\begin{figure}
[htp]
\centering
...
...
@@ -1007,8 +1023,6 @@ f(s_u|t_v) = \lambda_{t_v}^{-1} \frac{\varepsilon}{(l+1)^{m}} \prod\limits_{j=1}
\end{figure}
%----------------------------------------------
\noindent
其中,红色部分表示翻译概率P
$
(
\mathbf
{
s
}
|
\mathbf
{
t
}
)
$
;蓝色部分表示
$
(
s
_
u,t
_
v
)
$
在句对
$
(
\mathbf
{
s
}
,
\mathbf
{
t
}
)
$
中配对的总次数,即``
$
t
_
v
$
翻译为
$
s
_
u
$
''在所有对齐中出现的次数;绿色部分表示
$
f
(
s
_
u|t
_
v
)
$
对于所有的
$
t
_
i
$
的相对值,即``
$
t
_
v
$
翻译为
$
s
_
u
$
''在所有对齐中出现的相对概率;蓝色与绿色部分相乘表示``
$
t
_
v
$
翻译为
$
s
_
u
$
''这个事件出现次数的期望的估计,称之为
{
\small\sffamily\bfseries
{
期望频次
}}
\index
{
期望频次
}
(Expected Count)
\index
{
Expected Count
}
。
\noindent
\hspace
{
2em
}
期望频次是事件在其分布下出现次数的期望。另
$
c
_{
\mathbb
{
E
}}
(
X
)
$
为事件
$
X
$
的期望频次,其计算公式为:
\begin{equation}
...
...
@@ -1064,15 +1078,7 @@ f(s_u|t_v)=\frac{c_{\mathbb{E}}(s_u|t_v;\mathbf{s},\mathbf{t})} { \sum\limits_{
\label
{
eq:3-45
}
\end{eqnarray}
\noindent
\hspace
{
2em
}
进一步,假设有
$
N
$
个互译的句对(称作平行语料):
$
\{
(
\mathbf
{
s
}^{
[
1
]
}
,
\mathbf
{
t
}^{
[
1
]
}
)
,...,
(
\mathbf
{
s
}^{
[
N
]
}
,
\mathbf
{
t
}^{
[
N
]
}
)
\}
$
,
$
f
(
s
_
u|t
_
v
)
$
的期望频次为:
\begin{eqnarray}
c
_{
\mathbb
{
E
}}
(s
_
u|t
_
v)=
\sum\limits
_{
i=1
}^{
N
}
c
_{
\mathbb
{
E
}}
(s
_
u|t
_
v;s
^{
[i]
}
,t
^{
[i]
}
)
\label
{
eq:3-46
}
\end{eqnarray}
\noindent
\hspace
{
2em
}
于是有
$
f
(
s
_
u|t
_
v
)
$
的计算公式和迭代过程图
\ref
{
fig:3-27
}
所示。完整的EM算法如图
\ref
{
fig:3-28
}
所示。其中E-Step对应4-5行,目的是计算
$
c
_{
\mathbb
{
E
}}
(
\cdot
)
$
;M-Step对应6-9行,目的是计算
$
f
(
\cdot
)
$
。
\vspace
{
-0.5em
}
%----------------------------------------------
\begin{figure}
[htp]
\centering
...
...
@@ -1081,17 +1087,28 @@ c_{\mathbb{E}}(s_u|t_v)=\sum\limits_{i=1}^{N} c_{\mathbb{E}}(s_u|t_v;s^{[i]},t^
\label
{
fig:3-27
}
\end{figure}
%----------------------------------------------
\vspace
{
-1em
}
%----------------------------------------------
\begin{figure}
[htp]
\centering
\input
{
./Chapter3/Figures/figure-EM-algorithm-flow-chart
}
\setlength
{
\belowcaptionskip
}{
-0.5em
}
%
\setlength{\belowcaptionskip}{-0.5em}
\caption
{
EM算法流程图(IBM模型1)
}
\label
{
fig:3-28
}
\end{figure}
%----------------------------------------------
\noindent
\hspace
{
2em
}
进一步,假设有
$
N
$
个互译的句对(称作平行语料):
$
\{
(
\mathbf
{
s
}^{
[
1
]
}
,
\mathbf
{
t
}^{
[
1
]
}
)
,...,
(
\mathbf
{
s
}^{
[
N
]
}
,
\mathbf
{
t
}^{
[
N
]
}
)
\}
$
,
$
f
(
s
_
u|t
_
v
)
$
的期望频次为:
\begin{eqnarray}
c
_{
\mathbb
{
E
}}
(s
_
u|t
_
v)=
\sum\limits
_{
i=1
}^{
N
}
c
_{
\mathbb
{
E
}}
(s
_
u|t
_
v;s
^{
[i]
}
,t
^{
[i]
}
)
\label
{
eq:3-46
}
\end{eqnarray}
\noindent
\hspace
{
2em
}
于是有
$
f
(
s
_
u|t
_
v
)
$
的计算公式和迭代过程图
\ref
{
fig:3-27
}
所示。完整的EM算法如图
\ref
{
fig:3-28
}
所示。其中E-Step对应4-5行,目的是计算
$
c
_{
\mathbb
{
E
}}
(
\cdot
)
$
;M-Step对应6-9行,目的是计算
$
f
(
\cdot
)
$
。
\vspace
{
-1.5em
}
%\vspace{-1em}
\noindent
\hspace
{
2em
}
同样的,EM算法可以直接用于训练IBM模型2。对于句对
$
(
\mathbf
{
s
}
,
\mathbf
{
t
}
)
$
,
$
m
=
|
\mathbf
{
s
}
|
$
,
$
l
=
|
\mathbf
{
t
}
|
$
,E-Step的计算公式如下,其中参数
$
f
(
s
_
j|t
_
i
)
$
与IBM模型1一样:
\begin{eqnarray}
c
_{
\mathbb
{
E
}}
(s
_
u|t
_
v;
\mathbf
{
s
}
,
\mathbf
{
t
}
)
&
=
&
\sum\limits
_{
j=1
}^{
m
}
\sum\limits
_{
i=0
}^{
l
}
\frac
{
f(s
_
u|t
_
v)a(i|j,m,l)
\delta
(s
_
j,s
_
u)
\delta
(t
_
i,t
_
v)
}
{
\sum
_{
k=0
}^{
l
}
f(s
_
u|t
_
k)a(k|j,m,l)
}
\\
...
...
@@ -1137,6 +1154,8 @@ a(i|j,m,l) &=\frac{\sum_{k=0}^{K}c_{\mathbb{E}}(i|j;\mathbf{s}^{[k]},\mathbf{t}^
\parinterval
为了表述清晰,我们重新说明每个符号的含义。
$
\mathbf
{
s
}$
、
$
\mathbf
{
t
}$
、
$
m
$
和
$
l
$
分别表示源语言句子、目标语译文、源语言单词数量以及译文单词数量。
$
\mathbf
{
\varphi
}$
、
$
\mathbf
{
\tau
}$
和
$
\mathbf
{
\pi
}$
分别记录产出率、生成的源语言单词以及它们在源文中的位置。
${
\varphi
}_{
i
}$
表示第
$
i
$
个译文单词
$
t
_
i
$
的产出率。
${
\tau
}_{
i
}$
和
${
\pi
}_
i
$
分别表示
$
t
_
i
$
生成的源语言单词列表及其在源语言句子
$
\mathbf
{
s
}$
中的位置列表。
\parinterval
可以看出,一组
$
\tau
$
和
$
\pi
$
(记为
$
<
\tau
,
\pi
>
$
)可以决定一个对齐
$
\mathbf
{
a
}$
和一个源语句子
$
\mathbf
{
s
}$
。
\vspace
{
0.5em
}
%----------------------------------------------
\begin{figure}
[htp]
\centering
...
...
@@ -1146,8 +1165,8 @@ a(i|j,m,l) &=\frac{\sum_{k=0}^{K}c_{\mathbb{E}}(i|j;\mathbf{s}^{[k]},\mathbf{t}^
\end{figure}
%----------------------------------------------
\
parinterval
可以看出,一组
$
\tau
$
和
$
\pi
$
(记为
$
<
\tau
,
\pi
>
$
)可以决定一个对齐
$
\mathbf
{
a
}$
和一个源语句子
$
\mathbf
{
s
}$
。相反的,一个对齐
$
\mathbf
{
a
}$
和一个源语句子
$
\mathbf
{
s
}$
可以对应多组
$
<
\tau
,
\pi
>
$
。如图
\ref
{
fig:3-30
}
所示,不同的
$
<
\tau
,
\pi
>
$
对应同一个源语言句子和词对齐。它们的区别在于目标语单词``Scientists''生成的源语言单词``科学家''和``们''的顺序不同。这里把不同的
$
<
\tau
,
\pi
>
$
对应到的相同的源语句子
$
\mathbf
{
s
}$
和对齐
$
\mathbf
{
a
}$
记为
$
<
\mathbf
{
s
}
,
\mathbf
{
a
}
>
$
。因此计算
$
\textrm
{
P
}
(
\mathbf
{
s
}
,
\mathbf
{
a
}
|
\mathbf
{
t
}
)
$
时需要把每个可能结果的概率加起来,如下:
\
vspace
{
-0.2em
}
\noindent
相反的,一个对齐
$
\mathbf
{
a
}$
和一个源语句子
$
\mathbf
{
s
}$
可以对应多组
$
<
\tau
,
\pi
>
$
。如图
\ref
{
fig:3-30
}
所示,不同的
$
<
\tau
,
\pi
>
$
对应同一个源语言句子和词对齐。它们的区别在于目标语单词``Scientists''生成的源语言单词``科学家''和``们''的顺序不同。这里把不同的
$
<
\tau
,
\pi
>
$
对应到的相同的源语句子
$
\mathbf
{
s
}$
和对齐
$
\mathbf
{
a
}$
记为
$
<
\mathbf
{
s
}
,
\mathbf
{
a
}
>
$
。因此计算
$
\textrm
{
P
}
(
\mathbf
{
s
}
,
\mathbf
{
a
}
|
\mathbf
{
t
}
)
$
时需要把每个可能结果的概率加起来,如下:
\begin{equation}
\textrm
{
P
}
(
\mathbf
{
s
}
,
\mathbf
{
a
}
|
\mathbf
{
t
}
)=
\sum
_{{
<
\tau
,
\pi
>
}
\in
{
<
\mathbf
{
s
}
,
\mathbf
{
a
}
>
}}{
\textrm
{
P
}
(
\tau
,
\pi
|
\mathbf
{
t
}
)
}
\label
{
eq:3-66
}
...
...
@@ -1155,18 +1174,8 @@ a(i|j,m,l) &=\frac{\sum_{k=0}^{K}c_{\mathbb{E}}(i|j;\mathbf{s}^{[k]},\mathbf{t}^
\parinterval
不过
$
<
\mathbf
{
s
}
,
\mathbf
{
a
}
>
$
中有多少个元素呢?通过图
\ref
{
fig:3-29
}
中的例子,可以推出
$
<
\mathbf
{
s
}
,
\mathbf
{
a
}
>
$
应该包含
$
\prod
_{
i
=
0
}^{
l
}{
\varphi
_
i
!
}$
个不同的二元组
$
<
\tau
,
\pi
>
$
。 这是因为在给定源语言句子和词对齐时,对于每一个
$
\tau
_
i
$
都有
$
\varphi
_{
i
}
!
$
种排列。
\parinterval
进一步,
$
\textrm
{
P
}
(
\tau
,
\pi
|
\mathbf
{
t
}
)
$
可以被表示如图
\ref
{
fig:3-31
}
的形式。其中
$
\tau
_{
i
1
}^{
k
-
1
}$
表示
$
\tau
_{
i
1
}
\tau
_{
i
2
}
\cdots
\tau
_{
i
(
k
-
1
)
}$
,
$
\pi
_{
i
1
}^{
k
-
1
}$
表示
$
\pi
_{
i
1
}
\pi
_{
i
2
}
\cdots
\pi
_{
i
(
k
-
1
)
}$
。可以把图
\ref
{
fig:3-31
}
中的公式分为5个部分,并用不同的序号和颜色进行标注。每部分的具体含义是:
%----------------------------------------------
\begin{figure}
[htp]
\centering
\input
{
./Chapter3/Figures/figure-expression
}
\caption
{{$
\textrm
{
P
}
(
\tau
,
\pi
|t
)
$}
的详细表达式
}
\label
{
fig:3-31
}
\end{figure}
%----------------------------------------------
\begin{itemize}
\vspace
{
0.5em
}
\item
对每个
$
i
\in
[
1
,l
]
$
的目标语单词的产出率建模(
{
\color
{
red!70
}
红色
}
),即
$
\varphi
_
i
$
的概率。它依赖于
$
\mathbf
{
t
}$
和区间
$
[
1
,i
-
1
]
$
的目标语单词的产出率
$
\varphi
_
1
^{
i
-
1
}$
。
\footnote
{
这里约定,当
$
i
=
1
$
时,
$
\varphi
_
1
^
0
$
表示空。
}
...
...
@@ -1178,9 +1187,17 @@ a(i|j,m,l) &=\frac{\sum_{k=0}^{K}c_{\mathbb{E}}(i|j;\mathbf{s}^{[k]},\mathbf{t}^
\item
对于每个
$
i
\in
[
1
,l
]
$
的目标语言单词生成的源语言单词的
{
\small\bfnew
{
扭曲度
}}
\index
{
扭曲度
}
(Distortion)
\index
{
Distortion
}
建模(
{
\color
{
yellow!70!black
}
黄色
}
),即第
$
i
$
个译文单词生成的第
$
k
$
个源语言单词在源文中的位置
$
\pi
_{
ik
}$
的概率。其中
$
\pi
_
1
^{
i
-
1
}$
和
$
\pi
_{
i
1
}^{
k
-
1
}$
分别表示区间
$
[
1
,i
-
1
]
$
的目标语言单词生成的源语言单词的扭曲度和第
$
i
$
译文单词生成的前
$
k
$
个源语言单词的扭曲度。
\vspace
{
0.5em
}
\item
$
i
=
0
$
时的扭曲度建模(
{
\color
{
gray!70
}
灰色
}
),即空标记
$
t
_
0
$
生成的源语言单词在源语言句子中位置的概率。
\vspace
{
0.5em
}
\end{itemize}
%----------------------------------------------
\begin{figure}
[htp]
\centering
\input
{
./Chapter3/Figures/figure-expression
}
\caption
{{$
\textrm
{
P
}
(
\tau
,
\pi
|t
)
$}
的详细表达式
}
\label
{
fig:3-31
}
\end{figure}
%----------------------------------------------
%----------------------------------------------------------------------------------------
% NEW SUB-SECTION
%----------------------------------------------------------------------------------------
...
...
@@ -1238,12 +1255,13 @@ p_0+p_1 & = & 1 \label{eq:3-56}
%----------------------------------------------------------------------------------------
% NEW SUB-SECTION
%----------------------------------------------------------------------------------------
\vspace
{
-2em
}
\subsection
{
IBM 模型4
}
\parinterval
IBM模型3仍然存在问题,比如,它不能很好地处理一个目标语言单词生成多个源语言单词的情况。这个问题在模型1和模型2中也存在。如果一个目标语言单词对应多个源语言单词,往往这些源语言单词构成短语或搭配。但是模型1-3把这些源语言单词看成独立的单元,而实际上它们是一个整体。这就造成了在模型1-3中这些源语言单词可能会``分散''开。为了解决这个问题,模型4对模型3进行了进一步修正。
\parinterval
为了更清楚的阐述,这里引入新的术语
\ \dash
\
{
\small\bfnew
{
概念单元
}}
\index
{
概念单元
}
或
{
\small\bfnew
{
概念
}}
\index
{
概念
}
(Concept)
\index
{
Concept
}
。词对齐可以被看作概念之间的对应。这里的概念是指具有独立语法或语义功能的一组单词。依照Brown等人的表示方法
\cite
{
Peter1993The
}
,可以把概念记为cept.。每个句子都可以被表示成一系列的cept.。这里要注意的是,源语言句子中的cept.数量不一定等于目标句子中的cept.数量。因为有些cept. 可以为空,因此可以把那些空对的单词看作空cept.。比如,在图
\ref
{
fig:3-32
}
的实例中,``了''就对应一个空cept.。
\vspace
{
3em
}
%----------------------------------------------
\begin{figure}
[htp]
...
...
@@ -1259,14 +1277,12 @@ p_0+p_1 & = & 1 \label{eq:3-56}
\parinterval
另外,可以用
$
\odot
_{
i
}$
表示位置为
$
[
i
]
$
的目标语言单词对应的那些源语言单词位置的平均值,如果这个平均值不是整数则对它向上取整。比如在本例中,目标语句中第4个cept. (``.'')对应在源语言句子中的第5个输出值。可表示为
${
\odot
}_{
4
}
=
5
$
。
\parinterval
利用这些新引进的概念,模型4对模型3的扭曲度进行了修改。主要是把扭曲度分解为两类参数。对于
$
[
i
]
$
对应的源语言单词列表(
$
\tau
_{
[
i
]
}$
)中的第一个单词(
$
\tau
_{
[
i
]
1
}$
),它的扭曲度用如下公式计算:
\begin{equation}
\textrm
{
P
}
(
\pi
_{
[i]1
}
=j|
{
\pi
}_
1
^{
[i]-1
}
,
{
\tau
}_
0
^
l,
{
\varphi
}_
0
^
l,
\mathbf
{
t
}
)=d
_{
1
}
(j-
{
\odot
}_{
i-1
}
|A(t
_{
[i-1]
}
),B(s
_
j))
\label
{
eq:3-70
}
\end{equation}
\noindent
其中,译文的第
$
i
$
个单词生成的第
$
k
$
个源语单词在源语言句子中的位置用变量
$
\pi
_{
ik
}$
表示。而对于列表(
$
\tau
_{
[
i
]
}$
)中的其他的单词(
$
\tau
_{
[
i
]
k
}
,
1
< k
\le
\varphi
[
i
]
$
)的扭曲度计算,进行如下计算
\begin{equation}
\textrm
{
P
}
(
\pi
_{
[i]k
}
=j|
{
\pi
}_{
[i]1
}^{
k-1
}
,
\pi
_
1
^{
[i]-1
}
,
\tau
_
0
^
l,
\varphi
_
0
^
l,
\mathbf
{
t
}
)=d
_{
>1
}
(j-
\pi
_{
[i]k-1
}
|B(s
_
j))
\label
{
eq:3-71
}
...
...
@@ -1296,7 +1312,6 @@ p_0+p_1 & = & 1 \label{eq:3-56}
%----------------------------------------------
\parinterval
为了解决这个问题,模型5在模型中增加了额外的约束。基本想法是,在放置一个源语言单词的时候检查这个位置是否已经放置了单词,如果可以则把这个放置过程赋予一定的概率,否则把它作为不可能事件。依据这个想法,就需要在逐个放置源语言单词的时候判断源语言句子的哪些位置为空。这里引入一个变量
$
v
(
j,
{
\tau
_
1
}^{
[
i
]-
1
}
,
\tau
_{
[
i
]
1
}^{
k
-
1
}
)
$
,它表示在放置
$
\tau
_{
[
i
]
k
}$
之前(
$
\tau
_
1
^{
[
i
]-
1
}$
和
$
\tau
_{
[
i
]
1
}^{
k
-
1
}$
已经被放置完了),从源语言句子的第一个位置到位置
$
j
$
(包含
$
j
$
)为止还有多少个空位置。这里,把这个变量简写为
$
v
_
j
$
。于是,对于
$
[
i
]
$
所对应的源语言单词列表(
$
\tau
_{
[
i
]
}$
)中的第一个单词(
$
\tau
_{
[
i
]
1
}$
),有:
\begin{eqnarray}
\textrm
{
P
}
(
\pi
_{
[i]1
}
= j |
\pi
_
1
^{
[i]-1
}
,
\tau
_
0
^
l,
\varphi
_
0
^
l,
\mathbf
{
t
}
)
&
=
&
d
_
1(v
_
j|B(s
_
j), v
_{
\odot
_{
i-1
}}
, v
_
m-(
\varphi
_{
[i]
}
-1))
\cdot
\nonumber
\\
&
&
(1-
\delta
(v
_
j,v
_{
j-1
}
))
...
...
@@ -1358,7 +1373,7 @@ p_0+p_1 & = & 1 \label{eq:3-56}
%----------------------------------------------------------------------------------------
% NEW SUBSUB-SECTION
%----------------------------------------------------------------------------------------
\vspace
{
-2em
}
\subsubsection
{
词对齐模型
}
\parinterval
IBM模型把翻译问题定义为对译文和词对齐同时进行生成的问题,模型翻译质量的好坏与词对齐有着非常紧密的联系。IBM模型1假设对齐概率仅依赖于译文长度,即对齐概率服从均匀分布;IBM模型2假设对齐概率与源语言、目标语言的句子长度以及源语言位置和目标语言位置相关。IBM模型2已经覆盖到了大部分的词对齐问题,但是该模型只考虑到了词语的绝对位置,并未考虑到相邻词语间的关系。图
\ref
{
fig:3-35
}
展示了一个简单的实例,可以看到的是,汉语的每个词都被分配给了英语句子中的每一个单词,但是词语并不是任意分布在各个位置上的,而是倾向于生成簇。也就是说,如果源语言的两个词位置越近,它们的目标词在目标语言句子的位置也越近。
...
...
@@ -1373,7 +1388,6 @@ p_0+p_1 & = & 1 \label{eq:3-56}
%----------------------------------------------
\parinterval
因此,基于HMM的词对齐模型抛弃了IBM模型1-2的绝对位置假设,将一阶隐马尔可夫模型用于单词对齐问题。HMM词对齐模型认为,词语与词语之间并不是毫无联系的,对齐概率应该取决于对齐位置的差异而不是本身词语所在的位置。具体来说,位置
$
j
$
的对齐概率
$
a
_
j
$
与前一个位置
$
j
-
1
$
的对齐位置
$
a
_{
j
-
1
}$
和译文长度
$
l
$
有关,形式化的表述为:
\begin{eqnarray}
\textrm
{
P
}
(a
_{
j
}
|a
_{
1
}^{
j-1
}
,s
_{
1
}^{
j-1
}
,m,
\mathbf
{
t
}
)=
\textrm
{
P
}
(a
_{
j
}
|a
_{
j-1
}
,l)
\label
{
eq:3-59
}
...
...
编写
预览
Markdown
格式
0%
重试
或
添加新文件
添加附件
取消
您添加了
0
人
到此讨论。请谨慎行事。
请先完成此评论的编辑!
取消
请
注册
或者
登录
后发表评论