Skip to content
项目
群组
代码片段
帮助
当前项目
正在载入...
登录 / 注册
切换导航面板
T
Toy-MT-Introduction
概览
Overview
Details
Activity
Cycle Analytics
版本库
Repository
Files
Commits
Branches
Tags
Contributors
Graph
Compare
Charts
问题
0
Issues
0
列表
Board
标记
里程碑
合并请求
0
Merge Requests
0
CI / CD
CI / CD
流水线
作业
日程表
图表
维基
Wiki
代码片段
Snippets
成员
Collapse sidebar
Close sidebar
活动
图像
聊天
创建新问题
作业
提交
Issue Boards
Open sidebar
NiuTrans
Toy-MT-Introduction
Commits
382fb044
Commit
382fb044
authored
Apr 27, 2020
by
xiaotong
Browse files
Options
Browse Files
Download
Email Patches
Plain Diff
updates of section 4
parent
da2d74c1
显示空白字符变更
内嵌
并排
正在显示
6 个修改的文件
包含
91 行增加
和
46 行删除
+91
-46
Book/Chapter4/Figures/examples-of-translation-with-complex-ordering.tex
+1
-1
Book/Chapter4/Figures/reorder-base-distance.tex
+2
-2
Book/Chapter4/Figures/result-of-tree-binarization.tex
+2
-2
Book/Chapter4/Figures/tree-fragment-to-string-mapping.tex
+1
-1
Book/Chapter4/chapter4.tex
+80
-35
Book/mt-book-xelatex.idx
+5
-5
没有找到文件。
Book/Chapter4/Figures/examples-of-translation-with-complex-ordering.tex
查看文件 @
382fb044
...
...
@@ -27,7 +27,7 @@
\node
[anchor=north west]
(input) at ([yshift=-6.5em]synhifst.south west)
{
\sffamily\bfseries
{
源语句法树:
}}
;
\begin{scope}
[scale = 0.9, grow'=up, sibling distance=5pt, level distance=
23pt, xshift=3.49in, yshift=-2.8
in]
\begin{scope}
[scale = 0.9, grow'=up, sibling distance=5pt, level distance=
30pt, xshift=3.49in, yshift=-3.1
in]
\Tree
[.
\node
(tn1)
{
IP
}
;
[.
\node
(tn2)
{
NP
}
;
\edge
[roof]
;
\node
[]
(seg1)
{
中国
$_
1
$
明星
$_
2
$
艺术团
$_
3
$}
; ]
...
...
Book/Chapter4/Figures/reorder-base-distance.tex
查看文件 @
382fb044
...
...
@@ -45,8 +45,8 @@
\draw
[-,thick]
(s2.north west)--([yshift=0.3in]s2.north west);
\draw
[->,densely dotted,thick]
([yshift=0.3in]s2.north west)--([xshift=-0.3in,yshift=0.3in]s2.north west);
\node
[anchor=south]
(ld1) at ([xshift=-0.5em,yshift=0.4em]n1.north)
{
\small
{$
dr
$
=-5
}}
;
\node
[anchor=south]
(ld2) at ([xshift=6.5em,yshift=0.4em]n1.north)
{
\small
{$
dr
$
=+4
}}
;
\node
[anchor=south]
(ld1) at ([xshift=-0.5em,yshift=0.4em]n1.north)
{
\small
{$
dr
=
-
5
$
}}
;
\node
[anchor=south]
(ld2) at ([xshift=6.5em,yshift=0.4em]n1.north)
{
\small
{$
dr
=
+
4
$
}}
;
\end{scope}
\end{tikzpicture}
...
...
Book/Chapter4/Figures/result-of-tree-binarization.tex
查看文件 @
382fb044
...
...
@@ -3,7 +3,7 @@
\begin{center}
\begin{tikzpicture}
{
\
script
size
{
\
footnote
size
\begin{scope}
[sibling distance=4pt, level distance=25pt]
\Tree
[.
\node
(n1)
{
NP
}
;
...
...
@@ -22,7 +22,7 @@
\draw
[-,dashed] (sw3.south) -- (tw3.north);
\draw
[-,dashed] (sw4.south) -- (tw3.north);
\draw
[->,very thick] ([xshift=1em]sw4.east) -- ([xshift=5em]sw4.east) node [pos=0.5,above]
{
\
tiny
{
二叉化
}}
;
\draw
[->,very thick] ([xshift=1em]sw4.east) -- ([xshift=5em]sw4.east) node [pos=0.5,above]
{
\
scriptsize
{
二叉化
}}
;
\end{scope}
...
...
Book/Chapter4/Figures/tree-fragment-to-string-mapping.tex
查看文件 @
382fb044
...
...
@@ -14,7 +14,7 @@
\node
[anchor=west] (tw1) at ([xshift=3.5em]sn3.east)
{
increases
}
;
\node
[anchor=west,fill=red!20] (tw2) at ([xshift=0.3em]tw1.east)
{
NN
}
;
\draw
[dotted,thick]
([yshift=-0.1em]sn3.south)..controls +(south:1.2) and +(south: 1.2)..([yshift=-0.1em]tw2.south);
\draw
[dotted,thick
,<->
]
([yshift=-0.1em]sn3.south)..controls +(south:1.2) and +(south: 1.2)..([yshift=-0.1em]tw2.south);
\begin{pgfonlayer}
{
background
}
\node
[rectangle,inner sep=0em,fill=red!20] [fit = (sn3)] (nn1)
{}
;
...
...
Book/Chapter4/chapter4.tex
查看文件 @
382fb044
...
...
@@ -242,10 +242,15 @@ d = {(\bar{s}_{\bar{a}_1},\bar{t}_1)} \circ {(\bar{s}_{\bar{a}_2},\bar{t}_2)} \c
\parinterval
到此为止,就得到了一个基于短语的翻译模型。对于每个双语句对(
$
\textbf
{
s
}
,
\textbf
{
t
}$
),每个翻译推导
$
d
$
都对应了一个基于短语的翻译过程。而基于短语的机器翻译的目标就是对
$
d
$
进行描述。有四个基本问题:
\begin{itemize}
\vspace
{
0.3em
}
\item
如何用统计模型描述每个翻译推导的好坏
\ \dash
\
即翻译的统计建模问题;
\vspace
{
0.3em
}
\item
如何获得可使用的双语短语对
\ \dash
\
即短语翻译获取问题;
\vspace
{
0.3em
}
\item
如何对翻译中的调序问题进行建模
\ \dash
\
即调序问题;
\vspace
{
0.3em
}
\item
如何找到输入句子
\textbf
{
s
}
的最佳译文
\ \dash
\
即解码问题。
\vspace
{
0.3em
}
\end{itemize}
\parinterval
这四个问题也构成了基于短语的翻译模型的核心,下面对其逐一展开讨论。
...
...
@@ -593,8 +598,11 @@ dr = \textrm{start}_i-\textrm{end}_{i-1}-1
\parinterval
在MSD调序中,双语短语所对应的调序概率
$
\textrm
{
P
}
(
o
_
i|
\bar
{
s
}_{
a
_
i
}
,
\bar
{
t
}_
i, a
_{
i
-
1
}
, a
_
i
)
$
是用极大似然估计方法进行计算的。但是,这种方法也会面临数据稀疏问题,同时对调序产生影响的细致特征也没有考虑进来。另一种有效的方法是直接用统计分类模型对调序进行建模,比如,可以使用最大熵、SVM等分类器输出调序概率或者得分
\cite
{
xiong2006maximum
}
(
{
\red
参考文献!再引用两篇!
}
)。对于基于分类的调序模型,有两方面问题需要考虑:
\begin{itemize}
\vspace
{
0.3em
}
\item
训练样本的生成。可以把M、S、D看作是类别标签,把所对应的短语及短语对齐信息看作是输入。这样就得到了大量分类器训练所需的样本;
\vspace
{
0.3em
}
\item
分类特征设计。这部分是传统统计机器学习中的重要组成部分,好的特征会对分类结果产生很大影响。在调序模型中,一般直接使用单词作为特征,比如用短语的第一个单词和最后一个单词作为特征就可以达到很好的效果。
\vspace
{
0.3em
}
\end{itemize}
\parinterval
随着神经网络方法的兴起,也可以考虑使用多层神经网络构建调序模型
\cite
{
li-etal-2014-neural
}
。这时,可以把短语直接送入一个神经网络,之后由神经网络完成对特征的抽取和表示,并输出最终的调序模型得分。
...
...
@@ -605,13 +613,21 @@ dr = \textrm{start}_i-\textrm{end}_{i-1}-1
\parinterval
基于短语的模型使用判别式模型对翻译推导进行建模,给定双语句对
$
(
\textbf
{
s
}
,
\textbf
{
t
}
)
$
,每个翻译推导
$
d
$
都有一个模型得分,由
$
M
$
个特征线性加权得到,记为
$
\textrm
{
score
}
(
d,
\textbf
{
t
}
,
\textbf
{
s
}
)
=
\sum
_{
i
=
1
}^{
M
}
\lambda
_
i
\cdot
h
_
i
(
d,
\textbf
{
t
}
,
\textbf
{
s
}
)
$
,其中
$
\lambda
_
i
$
表示特征权重,
$
h
_
i
(
d,
\textbf
{
t
}
,
\textbf
{
s
}
)
$
表示特征函数(简记为
$
h
_
i
(
d
)
$
)。这些特征包含刚刚介绍过的短语翻译概率、调序模型得分等,除此之外,还包含语言模型等其他特征,它们共同组成了特征集合。这里列出了基于短语的模型中常用的特征:
\begin{itemize}
\vspace
{
0.3em
}
\item
短语翻译概率(取对数),包含正向翻译概率
$
\textrm
{
log
}
(
\textrm
{
P
}
(
\bar
{
t
}
|
\bar
{
s
}
))
$
和反向翻译概率
$
\textrm
{
log
}
(
\textrm
{
P
}
(
\bar
{
s
}$
\\
$
|
\bar
{
t
}
))
$
,它们是基于短语的模型中最主要的特征;
\vspace
{
0.3em
}
\item
词汇化翻译概率(取对数),同样包含正向词汇化翻译概率
$
\textrm
{
log
(
P
}_{
\textrm
{
lex
}}
(
\bar
{
t
}
|
\bar
{
s
}
\textrm
{
))
}$
和反向词汇化翻译概率
$
\textrm
{
log
(
P
}_{
\textrm
{
lex
}}
(
\bar
{
s
}
|
\bar
{
t
}
\textrm
{
))
}$
,它们用来描述双语短语中单词之间对应的好坏;
\vspace
{
0.3em
}
\item
$
n
$
-gram语言模型,用来度量译文的流畅程度,可以通过大规模目标端单语数据得到;
\vspace
{
0.3em
}
\item
译文长度,避免模型倾向于短译文,同时让系统自动学习对译文长度的偏好;
\vspace
{
0.3em
}
\item
翻译规则数量,为了避免模型仅使用少量特征构成翻译推导(规则数量少,短语翻译概率相乘的因子也会少,得分一般会大一些),同时让系统自动学习对规则数量的偏好;
\vspace
{
0.3em
}
\item
被翻译为空的源语言单词数量。注意,空翻译规则有时也被称作evil feature,这类特征在一些数据上对BLEU有很好的提升作用,但会造成人工评价结果的下降,需要谨慎使用;
\vspace
{
0.3em
}
\item
基于MSD的调序模型,包括与前一个短语的调序模型
$
f
_{
\textrm
{
M
-
pre
}}
(
d
)
$
\
、
$
f
_{
\textrm
{
S
-
pre
}}
(
d
)
$
\
、
$
f
_{
\textrm
{
D
-
pre
}}
(
d
)
$
和与后一个短语的调序模型
$
f
_{
\textrm
{
M
-
fol
}}
(
d
)
$
\
、
$
f
_{
\textrm
{
S
-
fol
}}
(
d
)
$
\
、
$
f
_{
\textrm
{
D
-
fol
}}
(
d
)
$
,共6个特征。
\vspace
{
0.3em
}
\end{itemize}
%--4.2.6 最小错误率训练---------------------
...
...
@@ -707,11 +723,17 @@ dr = \textrm{start}_i-\textrm{end}_{i-1}-1
\parinterval
还有一些经验性的技巧用来完善基于线搜索的MERT。例如:
\begin{itemize}
\vspace
{
0.3em
}
\item
随机生成特征权重的起始点;
\vspace
{
0.3em
}
\item
搜索中,给权重加入一些微小的扰动,避免陷入局部最优;
\vspace
{
0.3em
}
\item
随机选择特征优化的顺序;
\vspace
{
0.3em
}
\item
使用先验知识来指导MERT(对权重的取值范围进行约束);
\vspace
{
0.3em
}
\item
使用多轮迭代训练,最终对权重进行平均。
\vspace
{
0.3em
}
\end{itemize}
\parinterval
MERT最大的优点在于可以用于目标函数不可微、甚至不连续的情况。对于优化线性模型, MERT是一种很好的选择。但是,也有研究发现,简单使用MERT无法处理特征数量过多的情况。比如,用MERT优化10000个稀疏特征的权重时,优化效果可能会不理想,而且收敛速度慢。这时也可以考虑使用在线学习等技术对大量特征的权重进行调优,比较有代表性的方法包括MIRA
\cite
{
crammer2003ultraconservative
}
和PRO
\cite
{
Hopkins2011Tuning
}
。由于篇幅所限,这里不对这些方法做深入讨论,感兴趣的读者可以参考
\ref
{
section-4.5
}
节的内容,对相关文献进行查阅。
...
...
@@ -733,8 +755,11 @@ dr = \textrm{start}_i-\textrm{end}_{i-1}-1
\parinterval
首先,看一下翻译一个句子的基本流程。如图
\ref
{
fig:basic-process-of-translation
}
所示,首先需要得到译文句子的第一个单词。在基于短语的模型中,可以从源语言端找出生成句首译文的短语,之后把译文放到目标语言端,例如,源语言的``有''对应的译文是``There is''。这个过程可以重复执行,直到生成完整句子的译文。但是,有两点需要注意:
\begin{itemize}
\vspace
{
0.3em
}
\item
源语言的每个单词(短语)只能被翻译一次;
\vspace
{
0.3em
}
\item
译文的生成需自左向右连续进行。
\vspace
{
0.3em
}
\end{itemize}
\parinterval
前者对应了一种
{
\small\bfnew
{
覆盖度模型
}}
(Coverage Model);后者定义了解码的方向,这样可以确保
$
n
$
-gram语言模型的计算是准确的。这样,就得到了一个简单的基于短语的机器翻译解码框架。每次从源语言句子中找到一个短语,作为译文最右侧的部分,重复执行直到整个译文被生成出来。
...
...
@@ -799,8 +824,11 @@ dr = \textrm{start}_i-\textrm{end}_{i-1}-1
\parinterval
即使翻译假设对应的译文不同也可以进行假设重组。图
\ref
{
fig:example-of-hypothesis-recombination
}
下半部分的给出了一个这样的实例。在两个翻译假设中,第一个单词分别被翻译成了``it''和``he'',紧接着它们后面的部分都被翻译成了``is not''。这两个翻译假设是非常相似的,因为它们译文的最后两个单词是相同的,而且翻译假设都覆盖了相同的源语言部分。这时,也可以对这两个翻译假设进行假设重组:如果得分较低的翻译假设和得分较高的翻译假设都使用相同的翻译候选进行扩展,且两个翻译假设都覆盖相同的源语言单词,分数低的翻译假设可以被剪枝掉。此外,还有两点需要注意:
\begin{itemize}
\vspace
{
0.3em
}
\item
$
n
$
-gram语言模型将前
$
n
-
1
$
单词作为历史信息,所以当两个假设最后
$
n
-
1
$
个单词不相同时,不能进行假设重组,因为后续的扩展可能会得到不同的语言模型得分,并影响最终的模型得分;
\vspace
{
0.3em
}
\item
调序模型通常是用来判断当前输入的短语与前一个输入短语之间的调序代价。因此当两个翻译假设对应短语在源语言中的顺序不同时,也不能被重新组合。
\vspace
{
0.3em
}
\end{itemize}
\parinterval
然而在实际处理中,并不需要``删掉''分数低的翻译假设,而是将它们与分数高的翻译假设连在了一起。对于搜索最优翻译,这些连接可能并没有什么作用,但是如果需要分数最高的前两个或前三个翻译,就可能需要用到这些连接。
...
...
@@ -1322,7 +1350,7 @@ span\textrm{[0,4]}&=&\textrm{``猫} \quad \textrm{喜欢} \quad \textrm{吃} \qu
%---------4.4基于语言学句法的模型
\section
{
基于语言学句法的模型
}
\index
{
Chapter4.4
}
\label
{
section-4.4
}
\parinterval
层次短语模型是一种典型的基于翻译文法的模型。它把翻译问题转化为语言分析问题。在翻译一个句子的时候,模型会生成一个树形结构,这样也就得到了句子结构的某种表示。图
\ref
{
fig:derivation-of-hierarchical-phrase-and-tree-structure model
}
展示了一个使用层次短语系统进行翻译时所生成的翻译推导
$
d
$
,以及这个推导所对应的树形结构(源语言)。这棵树体现了
从机器翻译的视角如何看待
句子结构,尽管这个结构并不是人类语言学中的句法树。
\parinterval
层次短语模型是一种典型的基于翻译文法的模型。它把翻译问题转化为语言分析问题。在翻译一个句子的时候,模型会生成一个树形结构,这样也就得到了句子结构的某种表示。图
\ref
{
fig:derivation-of-hierarchical-phrase-and-tree-structure model
}
展示了一个使用层次短语系统进行翻译时所生成的翻译推导
$
d
$
,以及这个推导所对应的树形结构(源语言)。这棵树体现了
机器翻译的视角下的
句子结构,尽管这个结构并不是人类语言学中的句法树。
%----------------------------------------------
% 图
...
...
@@ -1337,8 +1365,11 @@ span\textrm{[0,4]}&=&\textrm{``猫} \quad \textrm{喜欢} \quad \textrm{吃} \qu
\parinterval
在翻译中使用树结构的好处在于,模型可以更加有效地对句子的层次结构进行抽象。而且树结构可以作为对序列结构的一种补充,比如,在句子中距离较远的两个单词,在树结构中可以很近。不过,层次短语模型也存在一些不足:
\begin{itemize}
\vspace
{
0.3em
}
\item
层次短语规则没有语言学句法标记,很多规则并不符合语言学认知,因此译文的生成和调序也不遵循语言学规律。比如,层次短语系统经常会把完整的句法结构打散,或者``破坏''句法成分进行组合;
\vspace
{
0.3em
}
\item
层次短语系统中有大量的工程化约束条件。比如,规则的源语言部分不允许两个变量连续出现,而且变量个数也不能超过两个。这些约束在一定程度上限制了模型处理翻译问题的能力。
\vspace
{
0.3em
}
\end{itemize}
\parinterval
实际上,基于层次短语的方法可以被看作是介于基于短语的方法和基于语言学句法的方法之间的一种折中。它的优点在于,具备短语模型简单、灵活的优点,同时,由于同步翻译文法可以对句子的层次结构进行表示,因此也能够处理一些较长距离的调序问题。但是,另一方面,层次短语模型并不是一种``精细''的句法模型,当翻译需要复杂的结构信息时,这种模型可能会无能为力。图
\ref
{
fig:examples-of-translation-with-complex-ordering
}
展示了一个翻译实例,对图中句子进行翻译需要通过复杂的调序才能生成正确译文。为了完成这样的翻译,需要对多个结构(超过两个)进行调序,但是这种情况在标准的层次短语系统中是不允许的。
...
...
@@ -1396,7 +1427,7 @@ span\textrm{[0,4]}&=&\textrm{``猫} \quad \textrm{喜欢} \quad \textrm{吃} \qu
&
此翻译可以被看作从句法树到句法树的转换
\\
\rule
{
0pt
}{
15pt
}
基于句法
&
使用语言学句法
\\
\rule
{
0pt
}{
15pt
}
基于树
&
(源语言)使用树结构(大多指句法树)
\\
\rule
{
0pt
}{
15pt
}
基于串
&
(源语言)使用词串,比如串到树
的
翻译系统的解码器一般
\\
\rule
{
0pt
}{
15pt
}
基于串
&
(源语言)使用词串,比如串到树翻译系统的解码器一般
\\
&
都是基于串的解码方法
\\
\rule
{
0pt
}{
15pt
}
基于森林
&
(源语言)使用句法森林,这里森林只是对多个句法树的一
\\
&
种压缩表示
\\
...
...
@@ -1404,7 +1435,7 @@ span\textrm{[0,4]}&=&\textrm{``猫} \quad \textrm{喜欢} \quad \textrm{吃} \qu
\rule
{
0pt
}{
15pt
}
非词汇规则
&
不含有终结符的规则
\\
\rule
{
0pt
}{
15pt
}
句法软约束
&
不强制规则推导匹配语言学句法树,通常把句法信息作为特
\\
&
征使用
\\
\rule
{
0pt
}{
15pt
}
句法硬约束
&
强制
推导必须符合语言学句法树,不符合的推导会被过滤掉
\\
\rule
{
0pt
}{
15pt
}
句法硬约束
&
要求
推导必须符合语言学句法树,不符合的推导会被过滤掉
\\
\end{tabular}
}
\end{center}
...
...
@@ -1433,7 +1464,7 @@ span\textrm{[0,4]}&=&\textrm{``猫} \quad \textrm{喜欢} \quad \textrm{吃} \qu
\label
{
tab:comparison-of-models-based-on-syntax
}
{
\begin{tabular}
{
l | l | l | l | l
}
&
形式句法
&
\multicolumn
{
3
}{
c
}{
语言学句法
}
\\
模型
&
形式句法
&
\multicolumn
{
3
}{
c
}{
语言学句法
}
\\
\cline
{
3-5
}
\rule
{
0pt
}{
15pt
}
&
&
\multicolumn
{
1
}{
c|
}{
树到串
}
&
\multicolumn
{
1
}{
c
}{
串到树
}
&
\multicolumn
{
1
}{
|c
}{
树到树
}
\\
\hline
...
...
@@ -1451,14 +1482,14 @@ span\textrm{[0,4]}&=&\textrm{``猫} \quad \textrm{喜欢} \quad \textrm{吃} \qu
%--4.4.2 基于树结构的文法---------------------
\subsection
{
基于树结构的文法
}
\index
{
Chapter4.4.2
}
\parinterval
基于句法的翻译模型的一个核心问题是要对树结构进行建模,进而完成树之间或者树和串之间的转换。在计算机领域中,所谓树就是由一些节点组成的层次关系的集合。计算机领域的树和自然世界中的树没有任何关系,只是借用了相似的概念,因为这种层次结构很像一个倒过来的树。在使用树时,经常会把树的层次结构转化为序列结构,称为树结构的
序列化或者线性化
。比如,使用树的先序遍历就可以得到一个树的序列表示。图
\ref
{
fig:different-representations-of-syntax-tree
}
就对比了同一棵树的不同表示方式。实际上,树的序列表示是非常适合计算机进行读取和处理的。因此,本章也会使用树的序列化结果来表示句法结构。
\parinterval
基于句法的翻译模型的一个核心问题是要对树结构进行建模,进而完成树之间或者树和串之间的转换。在计算机领域中,所谓树就是由一些节点组成的层次关系的集合。计算机领域的树和自然世界中的树没有任何关系,只是借用了相似的概念,因为这种层次结构很像一个倒过来的树。在使用树时,经常会把树的层次结构转化为序列结构,称为树结构的
{
\small\bfnew
{
序列化
}}
或者
{
\small\bfnew
{
线性化
}}
(Linearization)
。比如,使用树的先序遍历就可以得到一个树的序列表示。图
\ref
{
fig:different-representations-of-syntax-tree
}
就对比了同一棵树的不同表示方式。实际上,树的序列表示是非常适合计算机进行读取和处理的。因此,本章也会使用树的序列化结果来表示句法结构。
%----------------------------------------------
% 图
\begin{figure}
[htp]
\centering
\input
{
./Chapter4/Figures/different-representations-of-syntax-tree
}
\caption
{
基于句法的机器翻译模型的分类
}
\caption
{
树结构的不同表示形式
}
\label
{
fig:different-representations-of-syntax-tree
}
\end{figure}
%-------------------------------------------
...
...
@@ -1466,8 +1497,11 @@ span\textrm{[0,4]}&=&\textrm{``猫} \quad \textrm{喜欢} \quad \textrm{吃} \qu
\parinterval
在基于语言学句法的机器翻译中,两个句子间的转化仍然需要使用文法规则进行描述。有两种类型的规则:
\begin{itemize}
\item
树到串翻译规则:在树到串、串到树模型中使用;
\item
树到树翻译规则:在树到树模型中使用。
\vspace
{
0.3em
}
\item
{
\small\bfnew
{
树到串翻译规则
}}
(Tree-to-String Translation Rule):在树到串、串到树模型中使用;
\vspace
{
0.3em
}
\item
{
\small\bfnew
{
树到树翻译规则
}}
(Tree-to-Tree Translation Rule):在树到树模型中使用。
\vspace
{
0.3em
}
\end{itemize}
\parinterval
树到串规则描述了一端是树结构而另一端是串的情况,因此树到串模型和串到树模型都可以使用这种形式的规则。树到树模型需要在两种语言上同时使用句法树结构,需要树到树翻译规则。
...
...
@@ -1475,27 +1509,30 @@ span\textrm{[0,4]}&=&\textrm{``猫} \quad \textrm{喜欢} \quad \textrm{吃} \qu
%%%%%%%%%%%%%%%%%%
\subsubsection
{
树到树翻译规则
}
\index
{
Chapter4.4.2.1
}
\parinterval
虽然树到串翻译规则和树到树翻译规则蕴含了不同类型的翻译知识,但是它们都在描述一个结构(树/串)到另一个结构(树/串)的映射。这里采用了一种更加通用的文法
\ \dash
\
基于树结构的文法
\ \dash
\
将树到串翻译规则和树到树翻译规则进行统一
,
如下:
\parinterval
虽然树到串翻译规则和树到树翻译规则蕴含了不同类型的翻译知识,但是它们都在描述一个结构(树/串)到另一个结构(树/串)的映射。这里采用了一种更加通用的文法
\ \dash
\
基于树结构的文法
\ \dash
\
将树到串翻译规则和树到树翻译规则进行统一
。定义
如下:
%-------------------------------------------
\vspace
{
0.5em
}
\begin{definition}
基于树结构的文法
{
\small
一个基于树结构的文法由七部分构成
$
(
N
_
s, N
_
t, T
_
s, T
_
t, I
_
s, I
_
t, R
)
$
,其中:
\\
1.
$
N
_
s
$
和
$
N
_
t
$
是源语和目标语非终结符集合。
\\
2.
$
T
_
s
$
和
$
T
_
t
$
是源语言和目标语终结符集合。
\\
3.
$
I
_
s
\subseteq
N
_
s
$
和
$
I
_
t
\subseteq
N
_
t
$
是源语言和目标语起始非终结符集合。
\\
4.
$
R
$
是规则集合,每条规则
$
r
\in
R
$
有如下形式:
一个基于树结构的文法由七部分构成
$
(
N
_
s, N
_
t, T
_
s, T
_
t, I
_
s, I
_
t, R
)
$
,其中
\begin{enumerate}
\item
$
N
_
s
$
和
$
N
_
t
$
是源语言和目标语言非终结符集合;
\item
$
T
_
s
$
和
$
T
_
t
$
是源语言和目标语言终结符集合;
\item
$
I
_
s
\subseteq
N
_
s
$
和
$
I
_
t
\subseteq
N
_
t
$
是源语言和目标语言起始非终结符集合;
\item
$
R
$
是规则集合,每条规则
$
r
\in
R
$
有如下形式:
\begin{displaymath}
\langle\ \alpha
_
h,
\beta
_
h
\ \rangle
\to
\langle\ \alpha
_
r,
\beta
_
r,
\sim\ \rangle
\end{displaymath}
其中,规则左部由非终结符
$
\alpha
_
h
\in
N
_
s
$
和
$
\beta
_
h
\in
N
_
t
$
构成;规则右部由三部分组成,
$
\alpha
_
r
$
表示由源语言终结符和非终结符组成的树结构;
$
\beta
_
r
$
表示由目标语言终结符和非终结符组成的树结构;
$
\sim
$
表示
$
\alpha
_
r
$
和
$
\beta
_
r
$
中叶子非终结符的1-1对应关系。
\end{enumerate}
}
\end{definition}
%-------------------------------------------
\parinterval
基于树结构的规则非常适
用
于描述树结构到树结构的映射。比如,图
\ref
{
fig:example-of-tree-structure-correspondence
}
是一个汉语句法树结构到一个英语句法树结构的对应。其中的树结构可以被看作是完整句法树上的一个片段,称为
{
\small\bfnew
{
树片段
}}
(Tree Fragment)。树片段的叶子节点既可以是终结符(单词)也可以是非终结符。当叶子节点为非终结符时,表示这个非终结符会被进一步替换,因此它可以被看作是变量。而源语言树结构和目标语言树结构中的变量是一一对应的,对应关系用虚线表示。
\parinterval
基于树结构的规则非常适
合
于描述树结构到树结构的映射。比如,图
\ref
{
fig:example-of-tree-structure-correspondence
}
是一个汉语句法树结构到一个英语句法树结构的对应。其中的树结构可以被看作是完整句法树上的一个片段,称为
{
\small\bfnew
{
树片段
}}
(Tree Fragment)。树片段的叶子节点既可以是终结符(单词)也可以是非终结符。当叶子节点为非终结符时,表示这个非终结符会被进一步替换,因此它可以被看作是变量。而源语言树结构和目标语言树结构中的变量是一一对应的,对应关系用虚线表示。
%----------------------------------------------
% 图
...
...
@@ -1515,17 +1552,17 @@ span\textrm{[0,4]}&=&\textrm{``猫} \quad \textrm{喜欢} \quad \textrm{吃} \qu
\sim
&
=
&
\{
1-2,2-1
\}
\nonumber
\end{eqnarray}
\parinterval
这里,
$
\alpha
_
h
$
和
$
\beta
_
h
$
表示规则的左部,对应树片段的根节点;
$
\alpha
_
r
$
和
$
\beta
_
r
$
是两种语言的树结构(序列化表示),其中标记为
$
x
$
的非终结符是变量。
$
\sim
=
\{
1
-
2
,
2
-
1
\}
$
表示源语言的第一个变量对应目标语言的第二个变量,而源语言的第二个变量对应目标语言的第一个变量,这也反应出两种语言句法结构中的调序现象。有时候为了化简规则的形式,会把规则中变量的对应关系用下标进行表示。
比
如,上面的规则也可以被写为如下形式。
\parinterval
这里,
$
\alpha
_
h
$
和
$
\beta
_
h
$
表示规则的左部,对应树片段的根节点;
$
\alpha
_
r
$
和
$
\beta
_
r
$
是两种语言的树结构(序列化表示),其中标记为
$
x
$
的非终结符是变量。
$
\sim
=
\{
1
-
2
,
2
-
1
\}
$
表示源语言的第一个变量对应目标语言的第二个变量,而源语言的第二个变量对应目标语言的第一个变量,这也反应出两种语言句法结构中的调序现象。有时候为了化简规则的形式,会把规则中变量的对应关系用下标进行表示。
例
如,上面的规则也可以被写为如下形式。
\begin{eqnarray}
\langle\ \textrm
{
VP
}
,
\textrm
{
VP
}
\ \rangle\ \to\ \langle\ \textrm
{
PP
}_{
1
}
\ \textrm
{
VP(VV(表示)
}
\ \textrm
{
NN
}_{
2
}
))
\ \textrm
{
VP
}
(
\textrm
{
VBZ(was)
}
\ \textrm
{
VP(VBN
}_{
2
}
\ \textrm
{
PP
}_{
1
}
))
\ \rangle
\nonumber
\end{eqnarray}
\
parinterval
其中,两种语言中变量的对应关系为
$
\textrm
{
PP
}_
1
\leftrightarrow
\textrm
{
PP
}_
1
$
,
$
\textrm
{
NN
}_
2
\leftrightarrow
\textrm
{
VBN
}_
2
$
。
\
noindent
其中,两种语言中变量的对应关系为
$
\textrm
{
PP
}_
1
\leftrightarrow
\textrm
{
PP
}_
1
$
,
$
\textrm
{
NN
}_
2
\leftrightarrow
\textrm
{
VBN
}_
2
$
。
%%%%%%%%%%%%%%%%%%
\subsubsection
{
基于树结构的翻译推导
}
\index
{
Chapter4.4.2.2
}
\parinterval
规则中的变量预示着一种替换操作,即变量可以被其他树结构替换。实际上,上面的树到树规则就是一种
{
\small\bfnew
{
同步树替换文法规则
}}
(Synchronous Tree Substitution Grammar Rule)。不论是源语言端还是目标语言端,都可以通过这种替换操作不断生成更大的树结构,也就是通过树片段的组合得到更大的树片段。图
\ref
{
fig:operation-of-tree-replace
}
就展示了树替换操作的一个实例。
\parinterval
规则中的变量预示着一种替换操作,即变量可以被其他树结构替换。实际上,上面的树到树
翻译
规则就是一种
{
\small\bfnew
{
同步树替换文法规则
}}
(Synchronous Tree Substitution Grammar Rule)。不论是源语言端还是目标语言端,都可以通过这种替换操作不断生成更大的树结构,也就是通过树片段的组合得到更大的树片段。图
\ref
{
fig:operation-of-tree-replace
}
就展示了树替换操作的一个实例。
%----------------------------------------------
% 图
...
...
@@ -1537,7 +1574,7 @@ span\textrm{[0,4]}&=&\textrm{``猫} \quad \textrm{喜欢} \quad \textrm{吃} \qu
\end{figure}
%-------------------------------------------
\parinterval
这种方法也可以
推广
到双语的情况。图
\ref
{
fig:based-on-tree-structure-generate-sentence-pairs
}
给出了一个使用基于树结构的同步文法生成双语句对的实例。其中,每条规则都同时对应源语言和目标语言的一个树片段(用矩形表示)。变量部分可以被替换,这个过程不断执行。最后,四条规则组合在一起形成了源语言和目标语言的句法树。这个过程也被称作规则的推导。
\parinterval
这种方法也可以
被扩展
到双语的情况。图
\ref
{
fig:based-on-tree-structure-generate-sentence-pairs
}
给出了一个使用基于树结构的同步文法生成双语句对的实例。其中,每条规则都同时对应源语言和目标语言的一个树片段(用矩形表示)。变量部分可以被替换,这个过程不断执行。最后,四条规则组合在一起形成了源语言和目标语言的句法树。这个过程也被称作规则的推导。
%----------------------------------------------
% 图
...
...
@@ -1580,7 +1617,7 @@ r_9: \quad \textrm{IP(}\textrm{NN}_1\ \textrm{VP}_2) \rightarrow \textrm{S(}\tex
\end{eqnarray}
}
\
parinterval
其中,箭头
$
\rightarrow
$
表示推导之意。显然,可以把翻译看作是基于树结构的推导过程(记为
$
d
$
)。因此,与层次短语模型一样,基于语言学句法的机器翻译也是要找到最佳的推导
$
\hat
{
d
}
=
\arg\max\textrm
{
P
}
(
d
)
$
。
\
noindent
其中,箭头
$
\rightarrow
$
表示推导之意。显然,可以把翻译看作是基于树结构的推导过程(记为
$
d
$
)。因此,与层次短语模型一样,基于语言学句法的机器翻译也是要找到最佳的推导
$
\hat
{
d
}
=
\arg\max\textrm
{
P
}
(
d
)
$
。
%%%%%%%%%%%%%%%%%%
\subsubsection
{
树到串翻译规则
}
\index
{
Chapter4.4.2.3
}
...
...
@@ -1628,22 +1665,26 @@ r_9: \quad \textrm{IP(}\textrm{NN}_1\ \textrm{VP}_2) \rightarrow \textrm{S(}\tex
\parinterval
本节首先介绍树到串文法归纳的经典方法 —— GHKM方法
\cite
{
galley2004s,galley2006scalable
}
。所谓GHKM是四位作者名字的首字母。GHKM方法的输入包括:
\begin{itemize}
\vspace
{
0.3em
}
\item
源语言句子及其句法树;
\vspace
{
0.3em
}
\item
目标语言句子;
\vspace
{
0.3em
}
\item
源语言句子和目标语言句子之间的词对齐。
\vspace
{
0.3em
}
\end{itemize}
\parinterval
它的输出是这个句对上的树到串翻译规则。GHKM不是一套单一的算法,它还包括很多技术手段用于增加规则的覆盖度和准确性。下面就具体看看GHKM是如何工作的。
\parinterval
它的输出是这个
双语
句对上的树到串翻译规则。GHKM不是一套单一的算法,它还包括很多技术手段用于增加规则的覆盖度和准确性。下面就具体看看GHKM是如何工作的。
%%%%%%%%%%%%%%%%%%
\subsubsection
{
树的切割与最小规则
}
\index
{
Chapter4.4.3.1
}
\parinterval
获取树到串规则就是要找到在源语言树片段与目标语
串的对应关系。一棵句法树会有很多个树片段,那么哪些树片段可以和目标语言词串产生对应关系呢?在GHKM方法中,源语言树片段和目标语言词串的对应是由词对齐决定的。GHKM假设:一个合法的树到串翻译规则,不应该违反词对齐。这个假设和双语短语抽取中的词对齐一致性约束是一样的。简单来说,两个
互相对应的部分不应包含对齐到外部的词对齐连接。为了说明这个问题,来看一个例子。图
\ref
{
fig:example-of-tree-to-string-rule-and-word-alignment
}
包含了一棵句法树、一个词串和它们之间的词对齐结果。图中包含如下规则:
\parinterval
获取树到串规则就是要找到在源语言树片段与目标语
言词串的对应关系。一棵句法树会有很多个树片段,那么哪些树片段可以和目标语言词串产生对应关系呢?在GHKM方法中,源语言树片段和目标语言词串的对应是由词对齐决定的。GHKM假设:一个合法的树到串翻译规则,不应该违反词对齐。这个假设和双语短语抽取中的词对齐一致性约束是一样的(见
\ref
{
subsection-4.2.3
}
节)。简单来说,规则中两种语言
互相对应的部分不应包含对齐到外部的词对齐连接。为了说明这个问题,来看一个例子。图
\ref
{
fig:example-of-tree-to-string-rule-and-word-alignment
}
包含了一棵句法树、一个词串和它们之间的词对齐结果。图中包含如下规则:
\begin{eqnarray}
\textrm
{
PP(P(对)
}
\ \textrm
{
NP(NN(回答)))
}
\rightarrow
\textrm
{
with
}
\ \textrm
{
the
}
\ \textrm
{
answer
}
\nonumber
\end{eqnarray}
\parinterval
该规则是一
个
条满足词对齐约束的规则(对应于图
\ref
{
fig:example-of-tree-to-string-rule-and-word-alignment
}
中红色部分),因为不存在从规则的源语言或目标语言部分对齐到规则外部的情况。但是,如下的规则却是一条不合法的规则:
\parinterval
该规则是一条满足词对齐约束的规则(对应于图
\ref
{
fig:example-of-tree-to-string-rule-and-word-alignment
}
中红色部分),因为不存在从规则的源语言或目标语言部分对齐到规则外部的情况。但是,如下的规则却是一条不合法的规则:
\begin{eqnarray}
\textrm
{
NN(满意)
}
\rightarrow
\textrm
{
satisfied
}
\nonumber
\end{eqnarray}
...
...
@@ -1663,37 +1704,40 @@ r_9: \quad \textrm{IP(}\textrm{NN}_1\ \textrm{VP}_2) \rightarrow \textrm{S(}\tex
\parinterval
为了能够获得与词对齐相兼容的规则,GHKM引入了几个概念。首先,GHKM定义了Span和Complement Span:
%-------------------------------------------
\vspace
{
0.5em
}
\begin{definition}
Span
{
\small
对于一个源语言句法树节点,它的Span是这个节点所对应到
目标语的
第一个单词和最后一个单词所构成的索引范围。
对于一个源语言句法树节点,它的Span是这个节点所对应到
的目标语言
第一个单词和最后一个单词所构成的索引范围。
}
\end{definition}
%-------------------------------------------
%-------------------------------------------
\vspace
{
0.5em
}
\begin{definition}
Complement Span
{
\small
对于一个源语言句法树节点,它的Complement Span是除了它的祖先和子孙
阶段
外的其他节点Span的并集。
对于一个源语言句法树节点,它的Complement Span是除了它的祖先和子孙
节点
外的其他节点Span的并集。
}
\end{definition}
%-------------------------------------------
\parinterval
Span定义了每个节点覆盖的源语言片段所对应的目标语
片段。实际上,它表示了目标语
句子上的一个跨度,这个跨度代表了这个源语言句法树节点所能达到的最大范围。因此Span实际上是一个目标语单词索引的范围。Complement Span是与Span相对应的一个概念,它定义了句法树中一个节点之外的部分对应到目标语的范围,但是这个范围并不必须是连续的。
\parinterval
Span定义了每个节点覆盖的源语言片段所对应的目标语
言片段。实际上,它表示了目标语言
句子上的一个跨度,这个跨度代表了这个源语言句法树节点所能达到的最大范围。因此Span实际上是一个目标语单词索引的范围。Complement Span是与Span相对应的一个概念,它定义了句法树中一个节点之外的部分对应到目标语的范围,但是这个范围并不必须是连续的。
\parinterval
有了Span和Complement Span的定义之后,可以进一步定义:
%-------------------------------------------
\vspace
{
0.5em
}
\begin{definition}
可信节点(Admissible Node)
{
\small
对于源语言树节点
$
n
$
,如果它的Span和Complement Span不相交,节点
$
n
$
就是一个可信节点,否则是一个不可信节点。
对于源语言树节点
$
n
ode
$
,如果它的Span和Complement Span不相交,节点
$
node
$
就是一个可信节点,否则是一个不可信节点。
}
\end{definition}
%-------------------------------------------
\parinterval
可信节点表示这个树节点
$
n
$
和树中的其他部分(不包括
$
n
$
的祖先和孩子)没有任何词对齐上的歧义。也就是说,这个节点可以完整的对应到目标语的一个连续范围,不会出现在这个目标语
范围中的词对应到其他节点的情况。如果节点不是可信节点,则表示它会引起词对齐的歧义,因此不能作为树到串规则中源语言树片段的根节点或者变量部分。图
\ref
{
fig:syntax-tree-with-admissible-node
}
给出了一个可信节点的实例。
\parinterval
可信节点表示这个树节点
$
n
ode
$
和树中的其他部分(不包括
$
node
$
的祖先和孩子)没有任何词对齐上的歧义。也就是说,这个节点可以完整的对应到目标语言句子的一个连续范围,不会出现在这个
范围中的词对应到其他节点的情况。如果节点不是可信节点,则表示它会引起词对齐的歧义,因此不能作为树到串规则中源语言树片段的根节点或者变量部分。图
\ref
{
fig:syntax-tree-with-admissible-node
}
给出了一个可信节点的实例。
%----------------------------------------------
% 图
...
...
@@ -1708,6 +1752,7 @@ r_9: \quad \textrm{IP(}\textrm{NN}_1\ \textrm{VP}_2) \rightarrow \textrm{S(}\tex
\parinterval
进一步,可以定义树到串模型中合法的树片段:
%-------------------------------------------
\vspace
{
0.5em
}
\begin{definition}
合法的树片段
{
\small
...
...
@@ -1721,14 +1766,14 @@ r_9: \quad \textrm{IP(}\textrm{NN}_1\ \textrm{VP}_2) \rightarrow \textrm{S(}\tex
\textrm
{
VP(PP(P(对)
}
\ \textrm
{
NP(NN(回答)))
}
\ \textrm
{
VP
}_
1)
\rightarrow
\textrm
{
VP
}_
1
\ \textrm
{
with
}
\ \textrm
{
the
}
\ \textrm
{
answer
}
\nonumber
\end{eqnarray}
\
parinterval
其中蓝色部分表示可以抽取到的规则,显然它的根节点和叶子非终结符节点都是可信节点。由于源语言树片段中包含一个变量(VP),因此需要对VP节点的Span所表示的目标语
范围进行泛化(红色方框部分)。
\
noindent
其中,蓝色部分表示可以抽取到的规则,显然它的根节点和叶子非终结符节点都是可信节点。由于源语言树片段中包含一个变量(VP),因此需要对VP节点的Span所表示的目标语言
范围进行泛化(红色方框部分)。
%----------------------------------------------
% 图
\begin{figure}
[htp]
\centering
\input
{
./Chapter4/Figures/translation-rule-based-on-admissible-node
}
\caption
{
根据可信结点得到的翻译规则
}
\caption
{
根据可信结点得到的
树到串
翻译规则
}
\label
{
fig:translation-rule-based-on-admissible-node
}
\end{figure}
%-------------------------------------------
...
...
@@ -1764,7 +1809,7 @@ r_9: \quad \textrm{IP(}\textrm{NN}_1\ \textrm{VP}_2) \rightarrow \textrm{S(}\tex
%%%%%%%%%%%%%%%%%%
\subsubsection
{
空对齐处理
}
\index
{
Chapter4.4.3.2
}
\parinterval
空对齐是翻译中的常见现象。比如,一些虚词经常找不到在另一种语言中的对应,因此不会被翻译,这种情况也被称作空对齐。比如,在图
\ref
{
fig:minimum-rule-from-tree-cutting
}
中目标语中的``was''就是一个空对齐单词。
实际上,
空对齐的使用可以大大增加翻译的灵活度。具体到树到串规则抽取任务,需要把空对齐考虑进来,这样能够覆盖更多的语言现象。
\parinterval
空对齐是翻译中的常见现象。比如,一些虚词经常找不到在另一种语言中的对应,因此不会被翻译,这种情况也被称作空对齐。比如,在图
\ref
{
fig:minimum-rule-from-tree-cutting
}
中目标语中的``was''就是一个空对齐单词。空对齐的使用可以大大增加翻译的灵活度。具体到树到串规则抽取任务,需要把空对齐考虑进来,这样能够覆盖更多的语言现象。
\parinterval
处理空对齐单词的手段非常简单。只需要把空对齐单词附着在它周围的规则上即可。也就是,检查每条最小规则,如果空对齐单词能够作为规则的一部分进行扩展,就可以生成一条新的规则。图
\ref
{
fig:tree-to-string-rule-empty-alignment
}
展示了前面例子中``was''被附着在周围的规则上的结果。其中,含有红色``was''的规则是通过附着空对齐单词得到的新规则。比如,对于规则:
\begin{eqnarray}
...
...
@@ -1821,7 +1866,7 @@ r_9: \quad \textrm{IP(}\textrm{NN}_1\ \textrm{VP}_2) \rightarrow \textrm{S(}\tex
\textrm
{
对
}
\ \textrm
{
形式
}
\rightarrow
\textrm
{
about
}
\ \textrm
{
the
}
\ \textrm
{
situation
}
\nonumber
\end{eqnarray}
\parinterval
然后,从这个短语出发向上搜索,找到覆盖这个短语的最小树片段,之后生成规则即可。在这个例子中可以
使用
SPMT规则:
\parinterval
然后,从这个短语出发向上搜索,找到覆盖这个短语的最小树片段,之后生成规则即可。在这个例子中可以
得到
SPMT规则:
\begin{eqnarray}
\textrm
{
VP(P(对)
}
\ \textrm
{
NP(NN(局势))
}
\ \textrm
{
VP
}_
1)
\rightarrow
\textrm
{
VP
}_
1
\ \textrm
{
about
}
\ \textrm
{
the
}
\ \textrm
{
situation
}
\nonumber
\end{eqnarray}
...
...
@@ -1841,7 +1886,7 @@ r_9: \quad \textrm{IP(}\textrm{NN}_1\ \textrm{VP}_2) \rightarrow \textrm{S(}\tex
%%%%%%%%%%%%%%%%%%
\subsubsection
{
句法树二叉化
}
\index
{
Chapter4.4.3.5
}
\parinterval
句法树是使用人类语言学知识归纳出来的一种解释句子结构的工具。比如, CTB、PTB等语料就是常用的训练句法分析器的数据。但是,这些数据的标注中会含有大量的偏平结构,如图
\ref
{
fig:syntax-tree-in-ctb
}
所示,多个分句可能会导致一个根节点下有很多个分支。
\parinterval
句法树是使用人类语言学知识归纳出来的一种解释句子结构的工具。比如, CTB、PTB等语料就是常用的训练句法分析器的数据
(
{
\red
参考文献!
}
)
。但是,这些数据的标注中会含有大量的偏平结构,如图
\ref
{
fig:syntax-tree-in-ctb
}
所示,多个分句可能会导致一个根节点下有很多个分支。
%----------------------------------------------
% 图
...
...
@@ -1874,7 +1919,7 @@ r_9: \quad \textrm{IP(}\textrm{NN}_1\ \textrm{VP}_2) \rightarrow \textrm{S(}\tex
&&
\textrm
{
NP-BAR(
}
\textrm
{
NN
}_
1
\ \textrm
{
NP-
}
\textrm
{
BAR
}_
2)
\rightarrow
\textrm
{
NN
}_
1
\ \textrm
{
NP-
}
\textrm
{
BAR
}_
2
\nonumber
\end{eqnarray}
\parinterval
由于树二叉化可以帮助规则抽取得到更细颗粒度的规则,提高规则抽取的召回率,因此成为了基于句法的机器翻译中的常用方法。二叉化方法也有很多不同的实现策略,比如:左二叉化、右二叉化、基于中心词的二叉化等
\cite
{
Tong2009Better
}
。具体实现时可以根据实际情况进行选择。
\parinterval
由于树二叉化可以帮助规则抽取得到更细颗粒度的规则,提高规则抽取的召回率,因此成为了基于句法的机器翻译中的常用方法。二叉化方法也有很多不同的实现策略,比如:左二叉化、右二叉化、基于中心词的二叉化等
(
{
\red
再引用Hao Zhang的论文,Sycnhrounous Binarization
}
)
\cite
{
Tong2009Better
}
。具体实现时可以根据实际情况进行选择。
%----------------------------------------------
% 图
...
...
@@ -1900,7 +1945,7 @@ r_9: \quad \textrm{IP(}\textrm{NN}_1\ \textrm{VP}_2) \rightarrow \textrm{S(}\tex
\textrm
{
VP(
}
\textrm
{
PP
}_
1
\ \textrm
{
VP(VV(表示)
}
\ \textrm
{
NN
}_
2
\textrm
{
))
}
\rightarrow
\textrm
{
VP(VBZ(was)
}
\ \textrm
{
VP(
}
\textrm
{
VBN
}_
2
\ \textrm
{
PP
}_
1
\textrm
{
))
}
\nonumber
\end{eqnarray}
\
parinterval
其中,规则的左部是源语言句法树结构,右部是目标语言句法树结构,变量的下标表示对应关系。为了获取这样的规则,需要进行树到树规则抽取。最直接的办法是把GHKM方法推广到树到树翻译的情况。比如,可以利用双语结构的约束和词对齐,定义树的切割点,之后找到两种语言树结构的映射关系
\cite
{
liu2009improving
}
。
\
noindent
其中,规则的左部是源语言句法树结构,右部是目标语言句法树结构,变量的下标表示对应关系。为了获取这样的规则,需要进行树到树规则抽取。最直接的办法是把GHKM方法推广到树到树翻译的情况。比如,可以利用双语结构的约束和词对齐,定义树的切割点,之后找到两种语言树结构的映射关系
\cite
{
liu2009improving
}
。
%%%%%%%%%%%%%%%%%%
\subsubsection
{
基于节点对齐的规则抽取
}
\index
{
Chapter4.4.4.1
}
...
...
Book/mt-book-xelatex.idx
查看文件 @
382fb044
...
...
@@ -24,18 +24,18 @@
\indexentry{Chapter4.2.7.4|hyperpage}{32}
\indexentry{Chapter4.3|hyperpage}{33}
\indexentry{Chapter4.3.1|hyperpage}{36}
\indexentry{Chapter4.3.1.1|hyperpage}{3
6
}
\indexentry{Chapter4.3.1.1|hyperpage}{3
7
}
\indexentry{Chapter4.3.1.2|hyperpage}{38}
\indexentry{Chapter4.3.1.3|hyperpage}{39}
\indexentry{Chapter4.3.1.4|hyperpage}{
39
}
\indexentry{Chapter4.3.1.4|hyperpage}{
40
}
\indexentry{Chapter4.3.2|hyperpage}{40}
\indexentry{Chapter4.3.3|hyperpage}{41}
\indexentry{Chapter4.3.4|hyperpage}{42}
\indexentry{Chapter4.3.5|hyperpage}{46}
\indexentry{Chapter4.4|hyperpage}{49}
\indexentry{Chapter4.4.1|hyperpage}{5
0
}
\indexentry{Chapter4.4.2|hyperpage}{5
3
}
\indexentry{Chapter4.4.2.1|hyperpage}{5
4
}
\indexentry{Chapter4.4.1|hyperpage}{5
1
}
\indexentry{Chapter4.4.2|hyperpage}{5
1
}
\indexentry{Chapter4.4.2.1|hyperpage}{5
3
}
\indexentry{Chapter4.4.2.2|hyperpage}{55}
\indexentry{Chapter4.4.2.3|hyperpage}{57}
\indexentry{Chapter4.4.3|hyperpage}{58}
...
...
编写
预览
Markdown
格式
0%
重试
或
添加新文件
添加附件
取消
您添加了
0
人
到此讨论。请谨慎行事。
请先完成此评论的编辑!
取消
请
注册
或者
登录
后发表评论