Skip to content
项目
群组
代码片段
帮助
当前项目
正在载入...
登录 / 注册
切换导航面板
M
mtbookv2
概览
Overview
Details
Activity
Cycle Analytics
版本库
Repository
Files
Commits
Branches
Tags
Contributors
Graph
Compare
Charts
问题
0
Issues
0
列表
Board
标记
里程碑
合并请求
0
Merge Requests
0
CI / CD
CI / CD
流水线
作业
日程表
图表
维基
Wiki
代码片段
Snippets
成员
Collapse sidebar
Close sidebar
活动
图像
聊天
创建新问题
作业
提交
Issue Boards
Open sidebar
NiuTrans
mtbookv2
Commits
badf7cdd
Commit
badf7cdd
authored
Mar 24, 2021
by
曹润柘
Browse files
Options
Browse Files
Download
Plain Diff
合并分支 'caorunzhe' 到 'master'
Caorunzhe 查看合并请求
!1066
parents
0f3f2ff1
c8497f21
显示空白字符变更
内嵌
并排
正在显示
5 个修改的文件
包含
20 行增加
和
20 行删除
+20
-20
Chapter16/chapter16.tex
+1
-1
Chapter5/chapter5.tex
+2
-2
Chapter6/chapter6.tex
+2
-2
Chapter7/chapter7.tex
+8
-8
Chapter8/chapter8.tex
+7
-7
没有找到文件。
Chapter16/chapter16.tex
查看文件 @
badf7cdd
...
...
@@ -887,7 +887,7 @@
\item
预训练模型也是自然语言处理的重要突破之一,也给低资源机器翻译提供了新的思路。除了基于语言模型或掩码语言模型的方法,也有很多新的架构和模型被提出,如排列语言模型、降噪自编码器等
\upcite
{
DBLP:conf/nips/YangDYCSL19,DBLP:conf/acl/LewisLGGMLSZ20,DBLP:conf/iclr/LanCGGSS20,DBLP:conf/acl/ZhangHLJSL19
}
。预训练技术也逐渐向多语言领域扩展
\upcite
{
DBLP:conf/nips/ConneauL19,DBLP:conf/emnlp/HuangLDGSJZ19,song2019mass
}
,甚至不再只局限于文本任务
\upcite
{
DBLP:conf/iccv/SunMV0S19,DBLP:conf/nips/LuBPL19,DBLP:conf/interspeech/ChuangLLL20
}
。对于如何将预训练模型高效地应用到下游任务中,也进行了很多的经验性对比与分析
\upcite
{
Peters2018DeepCW,DBLP:conf/rep4nlp/PetersRS19,DBLP:conf/cncl/SunQXH19
}
。
\vspace
{
0.5em
}
\item
多任务学习是多语言翻译的一种典型方法。通过共享编码器模块或是注意力模块来进行一对多
\upcite
{
DBLP:conf/acl/DongWHYW15
}
或多对一
\upcite
{
DBLP:journals/tacl/LeeCH17
}
或多对多
\upcite
{
DBLP:conf/naacl/FiratCB16
}
的学习,然而这些方法需要为每个翻译语言对设计单独的编码器和解码器,限制了其扩展性。为了解决以上问题,研究人员进一步探索了用于多语言翻译的单个机器翻译模型的方法,也就是本章提到的多语言单模型系统
\upcite
{
DBLP:journals/corr/HaNW16,DBLP:journals/tacl/JohnsonSLKWCTVW17
}
。为了弥补多语言单模型系统中缺乏语言表示多样性的问题,可以重新组织多语言共享模块,设计特定任务相关模块
\upcite
{
DBLP:conf/coling/BlackwoodBW18,DBLP:conf/wmt/SachanN18,DBLP:conf/wmt/LuKLBZS18,DBLP:conf/acl/WangZZZXZ19
}
;也可以将多语言单词编码和语言聚类分离,用一种多语言词典编码框架共享
词汇
级别的信息,有助于语言间的泛化
\upcite
{
DBLP:conf/iclr/WangPAN19
}
;还可以将语言聚类为不同的组,并为每个聚类单独训练一个多语言模型
\upcite
{
DBLP:conf/emnlp/TanCHXQL19
}
。
\item
多任务学习是多语言翻译的一种典型方法。通过共享编码器模块或是注意力模块来进行一对多
\upcite
{
DBLP:conf/acl/DongWHYW15
}
或多对一
\upcite
{
DBLP:journals/tacl/LeeCH17
}
或多对多
\upcite
{
DBLP:conf/naacl/FiratCB16
}
的学习,然而这些方法需要为每个翻译语言对设计单独的编码器和解码器,限制了其扩展性。为了解决以上问题,研究人员进一步探索了用于多语言翻译的单个机器翻译模型的方法,也就是本章提到的多语言单模型系统
\upcite
{
DBLP:journals/corr/HaNW16,DBLP:journals/tacl/JohnsonSLKWCTVW17
}
。为了弥补多语言单模型系统中缺乏语言表示多样性的问题,可以重新组织多语言共享模块,设计特定任务相关模块
\upcite
{
DBLP:conf/coling/BlackwoodBW18,DBLP:conf/wmt/SachanN18,DBLP:conf/wmt/LuKLBZS18,DBLP:conf/acl/WangZZZXZ19
}
;也可以将多语言单词编码和语言聚类分离,用一种多语言词典编码框架共享
单词
级别的信息,有助于语言间的泛化
\upcite
{
DBLP:conf/iclr/WangPAN19
}
;还可以将语言聚类为不同的组,并为每个聚类单独训练一个多语言模型
\upcite
{
DBLP:conf/emnlp/TanCHXQL19
}
。
\vspace
{
0.5em
}
\item
零资源翻译也是近几年受到广泛关注的研究方向
\upcite
{
firat2016zero,DBLP:journals/corr/abs-1805-10338
}
。在零资源翻译中,仅使用少量并行语料库(覆盖
$
k
$
个语言),一个模型就能在任何
$
k
(
k
-
1
)
$
个语言对之间进行翻译
\upcite
{
DBLP:conf/naacl/Al-ShedivatP19
}
。 但是,零资源翻译的性能通常很不稳定并且明显落后于有监督的翻译方法。为了改善零资源翻译,可以开发新的跨语言正则化方法,例如对齐正则化方法
\upcite
{
DBLP:journals/corr/abs-1903-07091
}
,一致性正则化方法
\upcite
{
DBLP:conf/naacl/Al-ShedivatP19
}
;也可以通过反向翻译或基于枢轴语言的翻译生成伪数据
\upcite
{
DBLP:conf/acl/GuWCL19,firat2016zero,DBLP:conf/emnlp/CurreyH19
}
。
...
...
Chapter5/chapter5.tex
查看文件 @
badf7cdd
...
...
@@ -753,13 +753,13 @@ g(\seq{s},\seq{t}) & \equiv & \prod_{j,i \in \widehat{A}}{\funp{P}(s_j,t_i)} \ti
\label
{
eq:5-22
}
\end{eqnarray}
\item
源语单词
$
s
_
j
$
的生成概率
$
\funp
{
P
}
(
s
_
j|a
_
1
^{
j
}
,s
_
1
^{
j
-
1
}
,m,
\seq
{
t
}
)
$
仅依赖与其对齐的译文单词
$
t
_{
a
_
j
}$
,即
词汇翻译概率
$
f
(
s
_
j|t
_{
a
_
j
}
)
$
。此时词汇
翻译概率满足
$
\sum
_{
s
_
j
}{
f
(
s
_
j|t
_{
a
_
j
}
)
}
=
1
$
。比如在图
\ref
{
fig:5-18
}
表示的例子中,源语单词“上”出现的概率只和与它对齐的单词“on”有关系,与其他单词没有关系。
\item
源语单词
$
s
_
j
$
的生成概率
$
\funp
{
P
}
(
s
_
j|a
_
1
^{
j
}
,s
_
1
^{
j
-
1
}
,m,
\seq
{
t
}
)
$
仅依赖与其对齐的译文单词
$
t
_{
a
_
j
}$
,即
单词翻译概率
$
f
(
s
_
j|t
_{
a
_
j
}
)
$
。此时单词
翻译概率满足
$
\sum
_{
s
_
j
}{
f
(
s
_
j|t
_{
a
_
j
}
)
}
=
1
$
。比如在图
\ref
{
fig:5-18
}
表示的例子中,源语单词“上”出现的概率只和与它对齐的单词“on”有关系,与其他单词没有关系。
\begin{eqnarray}
\funp
{
P
}
(s
_
j|a
_
1
^{
j
}
,s
_
1
^{
j-1
}
,m,
\seq
{
t
}
)
&
\equiv
&
f(s
_
j|t
_{
a
_
j
}
)
\label
{
eq:5-23
}
\end{eqnarray}
用一个简单的例子对公式
\eqref
{
eq:5-23
}
进行说明。比如,在图
\ref
{
fig:5-18
}
中,“桌子”对齐到“table”,可被描述为
$
f
(
s
_
2
|t
_{
a
_
2
}
)=
f
(
\textrm
{
“桌子”
}
|
\textrm
{
“table”
}
)
$
,表示给定“table”翻译为“桌子”的概率。通常,
$
f
(
s
_
2
|t
_{
a
_
2
}
)
$
被认为是一种概率词典,它反应了两种语言
词汇
一级的对应关系。
用一个简单的例子对公式
\eqref
{
eq:5-23
}
进行说明。比如,在图
\ref
{
fig:5-18
}
中,“桌子”对齐到“table”,可被描述为
$
f
(
s
_
2
|t
_{
a
_
2
}
)=
f
(
\textrm
{
“桌子”
}
|
\textrm
{
“table”
}
)
$
,表示给定“table”翻译为“桌子”的概率。通常,
$
f
(
s
_
2
|t
_{
a
_
2
}
)
$
被认为是一种概率词典,它反应了两种语言
单词
一级的对应关系。
\end{itemize}
\parinterval
将上述三个假设和公式
\eqref
{
eq:5-19
}
代入公式
\eqref
{
eq:5-18
}
中,得到
$
\funp
{
P
}
(
\seq
{
s
}
|
\seq
{
t
}
)
$
的表达式:
...
...
Chapter6/chapter6.tex
查看文件 @
badf7cdd
...
...
@@ -103,7 +103,7 @@
\label
{
eq:6-4
}
\end{eqnarray}
\parinterval
类似于模型1,模型2的表达式
\eqref
{
eq:6-4
}
也能被拆分为两部分进行理解。第一部分:遍历所有的
$
\seq
{
a
}$
;第二部分:对于每个
$
\seq
{
a
}$
累加对齐概率
$
\funp
{
P
}
(
\seq
{
s
}
,
\seq
{
a
}
|
\seq
{
t
}
)
$
,即计算对齐概率
$
a
(
a
_
j|j,m,l
)
$
和
词汇
翻译概率
$
f
(
s
_
j|t
_{
a
_
j
}
)
$
对于所有源语言位置的乘积。
\parinterval
类似于模型1,模型2的表达式
\eqref
{
eq:6-4
}
也能被拆分为两部分进行理解。第一部分:遍历所有的
$
\seq
{
a
}$
;第二部分:对于每个
$
\seq
{
a
}$
累加对齐概率
$
\funp
{
P
}
(
\seq
{
s
}
,
\seq
{
a
}
|
\seq
{
t
}
)
$
,即计算对齐概率
$
a
(
a
_
j|j,m,l
)
$
和
单词
翻译概率
$
f
(
s
_
j|t
_{
a
_
j
}
)
$
对于所有源语言位置的乘积。
\parinterval
同样的,模型2的解码及训练优化和模型1的十分相似,在此不再赘述,详细推导过程可以参看
{
\chapterfive
}
\ref
{
IBM-model1
}
小节解码及计算优化部分。这里直接给出IBM模型2的最终表达式:
\begin{eqnarray}
...
...
@@ -232,7 +232,7 @@
\vspace
{
0.5em
}
\item
第二部分:对
$
i
=
0
$
时的产出率建模(
{
\color
{
blue!70
}
蓝色
}
),即空标记
$
t
_
0
$
的产出率生成概率。它依赖于
$
\seq
{
t
}$
和区间
$
[
1
,i
-
1
]
$
的目标语单词的产出率
$
\varphi
_
1
^
l
$
。
\vspace
{
0.5em
}
\item
第三部分:对
词汇
翻译建模(
{
\color
{
green!70
}
绿色
}
),目标语言单词
$
t
_
i
$
生成第
$
k
$
个源语言单词
$
\tau
_{
ik
}$
时的概率,依赖于
$
\seq
{
t
}$
、所有目标语言单词的产出率
$
\varphi
_
0
^
l
$
、区间
$
i
\in
[
1
,l
]
$
的目标语言单词生成的源语言单词
$
\tau
_
1
^{
i
-
1
}$
和目标语单词
$
t
_
i
$
生成的前
$
k
$
个源语言单词
$
\tau
_{
i
1
}^{
k
-
1
}$
。
\item
第三部分:对
单词
翻译建模(
{
\color
{
green!70
}
绿色
}
),目标语言单词
$
t
_
i
$
生成第
$
k
$
个源语言单词
$
\tau
_{
ik
}$
时的概率,依赖于
$
\seq
{
t
}$
、所有目标语言单词的产出率
$
\varphi
_
0
^
l
$
、区间
$
i
\in
[
1
,l
]
$
的目标语言单词生成的源语言单词
$
\tau
_
1
^{
i
-
1
}$
和目标语单词
$
t
_
i
$
生成的前
$
k
$
个源语言单词
$
\tau
_{
i
1
}^{
k
-
1
}$
。
\vspace
{
0.5em
}
\item
第四部分:对于每个
$
i
\in
[
1
,l
]
$
的目标语言单词生成的源语言单词的扭曲度建模(
{
\color
{
yellow!70!black
}
黄色
}
),即第
$
i
$
个目标语言单词生成的第
$
k
$
个源语言单词在源文中的位置
$
\pi
_{
ik
}$
的概率。其中
$
\pi
_
1
^{
i
-
1
}$
表示区间
$
[
1
,i
-
1
]
$
的目标语言单词生成的源语言单词的扭曲度,
$
\pi
_{
i
1
}^{
k
-
1
}$
表示第
$
i
$
目标语言单词生成的前
$
k
-
1
$
个源语言单词的扭曲度。
\vspace
{
0.5em
}
...
...
Chapter7/chapter7.tex
查看文件 @
badf7cdd
...
...
@@ -481,7 +481,7 @@ d & = & {(\bar{s}_{\bar{a}_1},\bar{t}_1)} \circ {(\bar{s}_{\bar{a}_2},\bar{t}_2)
\parinterval
给定一个双语句对
$
(
\seq
{
s
}
,
\seq
{
t
}
)
$
,
$
c
(
\bar
{
s
}
)
$
表示短语
$
\bar
{
s
}$
在
$
\seq
{
s
}$
中出现的次数,
$
c
(
\bar
{
s
}
,
\bar
{
t
}
)
$
表示双语短语
$
(
\bar
{
s
}
,
\bar
{
t
}
)
$
在
$
(
\seq
{
s
}
,
\seq
{
t
}
)
$
中被抽取出来的次数。对于一个包含多个句子的语料库,
$
c
(
\bar
{
s
}
)
$
和
$
c
(
\bar
{
s
}
,
\bar
{
t
}
)
$
可以按句子进行累加。类似的,也可以用同样的方法,计算
$
\bar
{
t
}$
到
$
\bar
{
s
}$
的翻译概率,即
$
\funp
{
P
}
(
\bar
{
s
}
|
\bar
{
t
}
)
$
。一般会同时使用
$
\funp
{
P
}
(
\bar
{
t
}
|
\bar
{
s
}
)
$
和
$
\funp
{
P
}
(
\bar
{
s
}
|
\bar
{
t
}
)
$
度量一个双语短语的好与坏。
\parinterval
当遇到低频短语时,短语翻译概率的估计可能会不准确。例如,短语
$
\bar
{
s
}$
和
$
\bar
{
t
}$
在语料中只出现了一次,且在一个句子中共现,那么
$
\bar
{
s
}$
到
$
\bar
{
t
}$
的翻译概率为
$
\funp
{
P
}
(
\bar
{
t
}
|
\bar
{
s
}
)=
1
$
,这显然是不合理的,因为
$
\bar
{
s
}$
和
$
\bar
{
t
}$
的出现完全可能是偶然事件。既然直接度量双语短语的好坏会面临数据稀疏问题,一个自然的想法就是把短语拆解成单词,利用双语短语中单词翻译的好坏间接度量双语短语的好坏。为了达到这个目的,可以使用
{
\small\bfnew
{
词汇化翻译概率
}}
\index
{
词汇
化翻译概率
}
(Lexical Translation Probability)
\index
{
Lexical Translation Probability
}
。前面借助词对齐信息完成了双语短语的抽取,可以看出,词对齐信息本身就包含了短语内部单词之间的对应关系。因此同样可以借助词对齐来计算词汇翻译概率,公式如下:
\parinterval
当遇到低频短语时,短语翻译概率的估计可能会不准确。例如,短语
$
\bar
{
s
}$
和
$
\bar
{
t
}$
在语料中只出现了一次,且在一个句子中共现,那么
$
\bar
{
s
}$
到
$
\bar
{
t
}$
的翻译概率为
$
\funp
{
P
}
(
\bar
{
t
}
|
\bar
{
s
}
)=
1
$
,这显然是不合理的,因为
$
\bar
{
s
}$
和
$
\bar
{
t
}$
的出现完全可能是偶然事件。既然直接度量双语短语的好坏会面临数据稀疏问题,一个自然的想法就是把短语拆解成单词,利用双语短语中单词翻译的好坏间接度量双语短语的好坏。为了达到这个目的,可以使用
{
\small\bfnew
{
词汇化翻译概率
}}
\index
{
单词
化翻译概率
}
(Lexical Translation Probability)
\index
{
Lexical Translation Probability
}
。前面借助词对齐信息完成了双语短语的抽取,可以看出,词对齐信息本身就包含了短语内部单词之间的对应关系。因此同样可以借助词对齐来计算词汇翻译概率,公式如下:
\begin{eqnarray}
\funp
{
P
}_{
\textrm
{
lex
}}
(
\bar
{
t
}
|
\bar
{
s
}
)
&
=
&
\prod
_{
j=1
}^{
|
\bar
{
s
}
|
}
\frac
{
1
}{
|
\{
j|a(j,i) = 1
\}
|
}
\sum
_{
\forall
(j,i):a(j,i) = 1
}
\sigma
(t
_
i|s
_
j)
\label
{
eq:7-14
}
...
...
@@ -493,14 +493,14 @@ d & = & {(\bar{s}_{\bar{a}_1},\bar{t}_1)} \circ {(\bar{s}_{\bar{a}_2},\bar{t}_2)
\begin{figure}
[htp]
\centering
\input
{
./Chapter7/Figures/figure-example-of-vocabulary-translation-probability
}
\caption
{
词汇
翻译概率实例
}
\caption
{
单词
翻译概率实例
}
\label
{
fig:7-14
}
\end{figure}
%-------------------------------------------
\parinterval
来看一个具体的例子,如图
\ref
{
fig:7-14
}
所示。对于一个双语短语,将它们的词对齐关系代入到公式
\eqref
{
eq:7-14
}
就会得到短语的
词汇翻译概率。对于词汇翻译概率,可以使用IBM 模型中的单词翻译表,也可以通过统计获得
\upcite
{
koehn2002learning
}
。如果一个单词的词对齐为空,则用
$
N
$
表示它翻译为空的概率。和短语翻译概率一样,可以使用双向的词汇
化翻译概率来评价双语短语的好坏。
\parinterval
来看一个具体的例子,如图
\ref
{
fig:7-14
}
所示。对于一个双语短语,将它们的词对齐关系代入到公式
\eqref
{
eq:7-14
}
就会得到短语的
单词翻译概率。对于单词翻译概率,可以使用IBM 模型中的单词翻译表,也可以通过统计获得
\upcite
{
koehn2002learning
}
。如果一个单词的词对齐为空,则用
$
N
$
表示它翻译为空的概率。和短语翻译概率一样,可以使用双向的单词
化翻译概率来评价双语短语的好坏。
\parinterval
经过上面的介绍,可以从双语平行语料中把双语短语抽取出来,同时得到相应的翻译概率(即特征),组成
{
\small\bfnew
{
短语表
}}
\index
{
短语表
}
(Phrase Table)
\index
{
Phrase Table
}
。图
\ref
{
fig:7-15
}
展示了一个真实短语表的片段。其中包括源语言短语和目标语言短语,用|||进行分割。每个双语对应的得分,包括正向和反向的
词汇
翻译概率以及短语翻译概率,还包括词对齐信息(0-0、1-1)等其他信息。
\parinterval
经过上面的介绍,可以从双语平行语料中把双语短语抽取出来,同时得到相应的翻译概率(即特征),组成
{
\small\bfnew
{
短语表
}}
\index
{
短语表
}
(Phrase Table)
\index
{
Phrase Table
}
。图
\ref
{
fig:7-15
}
展示了一个真实短语表的片段。其中包括源语言短语和目标语言短语,用|||进行分割。每个双语对应的得分,包括正向和反向的
单词
翻译概率以及短语翻译概率,还包括词对齐信息(0-0、1-1)等其他信息。
%----------------------------------------------
\begin{figure}
[htp]
...
...
@@ -565,7 +565,7 @@ dr & = & {\rm{start}}_i-{\rm{end}}_{i-1}-1
\subsection
{
基于方向的调序
}
\parinterval
基于方向的调序模型是另一种常用的调序模型。该模型是一种典型的
词汇
化调序模型,因此调序的结果会根据不同短语有所不同。简单来说,在两个短语目标语言端连续的情况下,该模型会判断两个双语短语在源语言端的调序情况,包含三种调序类型:顺序的单调翻译(M)、与前一个短语交换位置(S)、非连续翻译(D)。因此,这个模型也被称作MSD调序模型,也是Moses等经典的机器翻译系统所采用的调序模型
\upcite
{
Koehn2007Moses
}
。
\parinterval
基于方向的调序模型是另一种常用的调序模型。该模型是一种典型的
单词
化调序模型,因此调序的结果会根据不同短语有所不同。简单来说,在两个短语目标语言端连续的情况下,该模型会判断两个双语短语在源语言端的调序情况,包含三种调序类型:顺序的单调翻译(M)、与前一个短语交换位置(S)、非连续翻译(D)。因此,这个模型也被称作MSD调序模型,也是Moses等经典的机器翻译系统所采用的调序模型
\upcite
{
Koehn2007Moses
}
。
\parinterval
图
\ref
{
fig:7-18
}
展示了这三种调序类型,当两个短语对在源语言和目标语言中都是按顺序排列时,它们就是单调的(如:从左边数前两个短语);如果对应的短语顺序在目标语中是反过来的,属于交换调序(如:从左边数第三和第四个短语);如果两个短语之间还有其他的短语,就是非连续调序(如:从右边数的前两个短语)。
...
...
@@ -573,7 +573,7 @@ dr & = & {\rm{start}}_i-{\rm{end}}_{i-1}-1
\begin{figure}
[htp]
\centering
\input
{
./Chapter7/Figures/figure-three-types-of-reorder-method-in-msd
}
\caption
{
词汇
化调序模型的三种调序类型
}
\caption
{
单词
化调序模型的三种调序类型
}
\label
{
fig:7-18
}
\end{figure}
%-------------------------------------------
...
...
@@ -627,7 +627,7 @@ dr & = & {\rm{start}}_i-{\rm{end}}_{i-1}-1
\vspace
{
0.5em
}
\item
短语翻译概率(取对数),包含正向翻译概率
$
\textrm
{
log
}
(
\funp
{
P
}
(
\bar
{
t
}
|
\bar
{
s
}
))
$
和反向翻译概率
$
\textrm
{
log
}
(
\funp
{
P
}
(
\bar
{
s
}$
\\
$
|
\bar
{
t
}
))
$
,它们是基于短语的模型中最主要的特征。
\vspace
{
0.5em
}
\item
词汇化翻译概率(取对数),同样包含正向词汇化翻译概率
$
\textrm
{
log
}
(
\funp
{
P
}_{
\textrm
{
lex
}}
(
\bar
{
t
}
|
\bar
{
s
}
))
$
和反向词汇
化翻译概率
$
\textrm
{
log
}
(
\funp
{
P
}_{
\textrm
{
lex
}}
(
\bar
{
s
}
|
\bar
{
t
}
))
$
,它们用来描述双语短语中单词间对应的好坏。
\item
单词化翻译概率(取对数),同样包含正向单词化翻译概率
$
\textrm
{
log
}
(
\funp
{
P
}_{
\textrm
{
lex
}}
(
\bar
{
t
}
|
\bar
{
s
}
))
$
和反向单词
化翻译概率
$
\textrm
{
log
}
(
\funp
{
P
}_{
\textrm
{
lex
}}
(
\bar
{
s
}
|
\bar
{
t
}
))
$
,它们用来描述双语短语中单词间对应的好坏。
\item
$
n
$
-gram语言模型,用来度量译文的流畅程度,可以通过大规模目标端单语数据得到。
\vspace
{
0.5em
}
\item
译文长度,避免模型倾向于短译文,同时让系统自动学习对译文长度的偏好。
...
...
@@ -908,7 +908,7 @@ dr & = & {\rm{start}}_i-{\rm{end}}_{i-1}-1
\vspace
{
0.5em
}
\item
基于短语的机器翻译的想法很早就出现了,比如直接对把机器翻译看作基于短语的生成问题
\upcite
{
DBLP:conf/acl/OchW98,DBLP:phd/dnb/Och02,och2004alignment
}
,或者单独对短语翻译进行建模,之后集成到基于单词的模型中
\upcite
{
DBLP:conf/acl/WangW98,DBLP:conf/acl/WatanabeSO03,DBLP:conf/acl/Marcu01
}
。现在,最通用的框架是Koehn等人提出的模型
\upcite
{
koehn2003statistical
}
,与其类似的还有Zens等人的工作
\upcite
{
DBLP:conf/ki/ZensON02,DBLP:conf/naacl/ZensN04
}
。这类模型把短语翻译分解为短语学习问题和解码问题。因此,在随后相当长一段时间里,如何获取双语短语也是机器翻译领域的热点。比如,一些团队研究如何直接从双语句对中学习短语翻译,而不是通过简单的启发性规则进行短语抽取
\upcite
{
DBLP:conf/emnlp/MarcuW02,DBLP:conf/wmt/DeNeroGZK06
}
。也有研究者对短语边界的建模进行研究,以获得更高质量的短语,同时减小模型大小
\upcite
{
german2011bilingual,DBLP:conf/coling/BlackwoodGB08,DBLP:conf/naacl/XiongZL10
}
。
\vspace
{
0.5em
}
\item
调序是基于短语的模型中经典的问题之一。早期的模型都是
词汇
化的调序模型,这类模型把调序定义为短语之间的相对位置建模问题
\upcite
{
DBLP:conf/naacl/Tillman04,DBLP:conf/naacl/KumarB05,DBLP:conf/acl/NagataSYO06
}
。后来,也有一些工作使用判别式模型来集成更多的调序特征
\upcite
{
xiong2006maximum,DBLP:conf/wmt/ZensN06,DBLP:conf/naacl/GreenGM10,DBLP:conf/naacl/Cherry13
}
。实际上,除了基于短语的模型,调序也在基于句法的模型中被广泛讨论。因此,一些工作尝试将基于短语的调序模型集成到基于句法的机器翻译系统中
\upcite
{
DBLP:conf/wmt/HuckWRN13,matthias2012discriminative,vinh2009improving,xiong2006maximum
}
。此外,也有研究者对不同的调序模型进行了系统化的对比和分析,可以作为相关研究的参考
\upcite
{
DBLP:journals/coling/BisazzaF16
}
。与在机器翻译系统中集成调序模型不同,预调序(Pre-ordering)也是一种解决调序问题的思路
\upcite
{
DBLP:conf/coling/XiaM04,DBLP:conf/acl/CollinsKK05,DBLP:conf/emnlp/WangCK07,DBLP:conf/ijcnlp/WuSDTN11
}
。机器翻译中的预调序是指将输入的源语言句子按目标语言的顺序进行排列,这样在翻译中就尽可能减少调序操作。这种方法大多依赖源语言的句法树进行调序的建模,不过它与机器翻译系统的耦合很小,因此很容易进行系统集成。
\item
调序是基于短语的模型中经典的问题之一。早期的模型都是
单词
化的调序模型,这类模型把调序定义为短语之间的相对位置建模问题
\upcite
{
DBLP:conf/naacl/Tillman04,DBLP:conf/naacl/KumarB05,DBLP:conf/acl/NagataSYO06
}
。后来,也有一些工作使用判别式模型来集成更多的调序特征
\upcite
{
xiong2006maximum,DBLP:conf/wmt/ZensN06,DBLP:conf/naacl/GreenGM10,DBLP:conf/naacl/Cherry13
}
。实际上,除了基于短语的模型,调序也在基于句法的模型中被广泛讨论。因此,一些工作尝试将基于短语的调序模型集成到基于句法的机器翻译系统中
\upcite
{
DBLP:conf/wmt/HuckWRN13,matthias2012discriminative,vinh2009improving,xiong2006maximum
}
。此外,也有研究者对不同的调序模型进行了系统化的对比和分析,可以作为相关研究的参考
\upcite
{
DBLP:journals/coling/BisazzaF16
}
。与在机器翻译系统中集成调序模型不同,预调序(Pre-ordering)也是一种解决调序问题的思路
\upcite
{
DBLP:conf/coling/XiaM04,DBLP:conf/acl/CollinsKK05,DBLP:conf/emnlp/WangCK07,DBLP:conf/ijcnlp/WuSDTN11
}
。机器翻译中的预调序是指将输入的源语言句子按目标语言的顺序进行排列,这样在翻译中就尽可能减少调序操作。这种方法大多依赖源语言的句法树进行调序的建模,不过它与机器翻译系统的耦合很小,因此很容易进行系统集成。
\vspace
{
0.5em
}
\item
统计机器翻译中使用的栈解码方法源自Tillmann等人的工作
\upcite
{
tillmann1997a
}
。这种方法在Pharaoh
\upcite
{
DBLP:conf/amta/Koehn04
}
、Moses
\upcite
{
Koehn2007Moses
}
等开源系统中被成功的应用,在机器翻译领域产生了很大的影响力。特别是,这种解码方法效率很高,因此在许多工业系统里也大量使用。对于栈解码也有很多改进工作,比如,早期的工作考虑剪枝或者限制调序范围以加快解码速度
\upcite
{
DBLP:conf/acl/WangW97,DBLP:conf/coling/TillmannN00,DBLP:conf/iwslt/ShenDA06a,robert2007faster
}
。随后,也有研究工作从解码算法和语言模型集成方式的角度对这类方法进行改进
\upcite
{
DBLP:conf/acl/HeafieldKM14,DBLP:conf/acl/WuebkerNZ12,DBLP:conf/iwslt/ZensN08
}
。
\vspace
{
0.5em
}
...
...
Chapter8/chapter8.tex
查看文件 @
badf7cdd
...
...
@@ -245,7 +245,7 @@ r_3:\quad \funp{X}\ &\to\ &\langle \ \text{大幅度},\quad \textrm{drastically}
r
_
4:
\quad
\funp
{
X
}
\
&
\to\
&
\langle
\ \text
{
了
}
,
\quad
\textrm
{
have
}
\ \rangle
\nonumber
\end{eqnarray}
\noindent
其中,规则
$
r
_
1
$
和
$
r
_
2
$
是含有变量的规则,这些变量可以被其他规则的右部替换;规则
$
r
_
2
$
是调序规则;规则
$
r
_
3
$
和
$
r
_
4
$
是纯
词汇
化规则,表示单词或者短语的翻译。
\noindent
其中,规则
$
r
_
1
$
和
$
r
_
2
$
是含有变量的规则,这些变量可以被其他规则的右部替换;规则
$
r
_
2
$
是调序规则;规则
$
r
_
3
$
和
$
r
_
4
$
是纯
单词
化规则,表示单词或者短语的翻译。
\parinterval
对于一个双语句对:
\begin{eqnarray}
...
...
@@ -389,7 +389,7 @@ y&=&\beta_0 y_{\pi_1} ... \beta_{m-1} y_{\pi_m} \beta_m
\vspace
{
0.5em
}
\item
(
$
h
_{
1
-
2
}$
)短语翻译概率(取对数),即
$
\textrm
{
log
}
(
\funp
{
P
}
(
\alpha
\mid
\beta
))
$
和
$
\textrm
{
log
}
(
\funp
{
P
}
(
\beta
\mid
\alpha
))
$
,特征的计算与基于短语的模型完全一样;
\vspace
{
0.5em
}
\item
(
$
h
_{
3
-
4
}$
)
词汇
化翻译概率(取对数),即
$
\textrm
{
log
}
(
\funp
{
P
}_{
\textrm
{
lex
}}
(
\alpha
\mid
\beta
))
$
和
$
\textrm
{
log
}
(
\funp
{
P
}_{
\textrm
{
lex
}}
(
\beta
\mid
\alpha
))
$
,特征的计算与基于短语的模型完全一样;
\item
(
$
h
_{
3
-
4
}$
)
单词
化翻译概率(取对数),即
$
\textrm
{
log
}
(
\funp
{
P
}_{
\textrm
{
lex
}}
(
\alpha
\mid
\beta
))
$
和
$
\textrm
{
log
}
(
\funp
{
P
}_{
\textrm
{
lex
}}
(
\beta
\mid
\alpha
))
$
,特征的计算与基于短语的模型完全一样;
\vspace
{
0.5em
}
\item
(
$
h
_{
5
}$
)翻译规则数量,让模型自动学习对规则数量的偏好,同时避免使用过少规则造成分数偏高的现象;
\vspace
{
0.5em
}
...
...
@@ -696,8 +696,8 @@ span\textrm{[0,4]}&=&\textrm{“猫} \quad \textrm{喜欢} \quad \textrm{吃} \q
&
都是基于串的解码方法
\\
\rule
{
0pt
}{
15pt
}
基于森林
&
(源语言)使用句法森林,这里森林只是对多个句法树的一
\\
&
种压缩结构表示
\\
\rule
{
0pt
}{
15pt
}
词汇
化规则
&
含有终结符的规则
\\
\rule
{
0pt
}{
15pt
}
非
词汇
规则
&
不含有终结符的规则
\\
\rule
{
0pt
}{
15pt
}
单词
化规则
&
含有终结符的规则
\\
\rule
{
0pt
}{
15pt
}
非
单词
规则
&
不含有终结符的规则
\\
\rule
{
0pt
}{
15pt
}
句法软约束
&
不强制规则推导匹配语言学句法树,通常把句法信息作为特
\\
&
征使用
\\
\rule
{
0pt
}{
15pt
}
句法硬约束
&
要求推导必须符合语言学句法树,不符合的推导会被过滤掉
\\
...
...
@@ -1333,7 +1333,7 @@ r_9: \quad \textrm{IP(}\textrm{NN}_1\ \textrm{VP}_2) \rightarrow \textrm{S(}\tex
\end{eqnarray}
\noindent
于是,可以定义短语翻译概率特征为
$
\log
(
\textrm
{
P
(
}
\tau
(
\alpha
_
r
)
|
\tau
(
\beta
_
r
)))
$
和
$
\log
(
\textrm
{
P
(
}
\tau
(
\beta
_
r
)
|
\tau
(
\alpha
_
r
)))
$
。它们的计算方法与基于短语的系统是完全一样的
\footnote
[9]
{
对于树到串规则,
$
\tau
(
\beta
_
r
)
$
就是规则目标语言端的符号串。
}
;
\vspace
{
0.5em
}
\item
(
$
h
_{
3
-
4
}$
)
词汇
化翻译概率(取对数),即
$
\log
(
\funp
{
P
}_{
\textrm
{
lex
}}
(
\tau
(
\alpha
_
r
)
|
\tau
(
\beta
_
r
)))
$
和
$
\log
(
\funp
{
P
}_{
\textrm
{
lex
}}
(
\tau
(
\beta
_
r
)
|
\tau
(
\alpha
_
r
)))
$
。这两个特征的计算方法与基于短语的系统也是一样的。
\item
(
$
h
_{
3
-
4
}$
)
单词
化翻译概率(取对数),即
$
\log
(
\funp
{
P
}_{
\textrm
{
lex
}}
(
\tau
(
\alpha
_
r
)
|
\tau
(
\beta
_
r
)))
$
和
$
\log
(
\funp
{
P
}_{
\textrm
{
lex
}}
(
\tau
(
\beta
_
r
)
|
\tau
(
\alpha
_
r
)))
$
。这两个特征的计算方法与基于短语的系统也是一样的。
\vspace
{
0.5em
}
\end{itemize}
...
...
@@ -1362,7 +1362,7 @@ r_9: \quad \textrm{IP(}\textrm{NN}_1\ \textrm{VP}_2) \rightarrow \textrm{S(}\tex
\vspace
{
0.5em
}
\item
(
$
h
_{
11
}$
)组合规则的数量,学习对组合规则的偏好;
\vspace
{
0.5em
}
\item
(
$
h
_{
12
}$
)
词汇
化规则的数量,学习对含有终结符规则的偏好;
\item
(
$
h
_{
12
}$
)
单词
化规则的数量,学习对含有终结符规则的偏好;
\vspace
{
0.5em
}
\item
(
$
h
_{
13
}$
)低频规则的数量,学习对训练数据中出现频次低于3的规则的偏好。低频规则大多不可靠,设计这个特征的目的也是为了区分不同质量的规则。
\end{itemize}
...
...
@@ -1571,7 +1571,7 @@ d_1 & = & {d'} \circ {r_5}
\parinterval
对于这个问题,有两种常用的解决办法:
\begin{itemize}
\vspace
{
0.5em
}
\item
对文法进行限制。比如,可以限制规则中变量的数量;或者不允许连续的变量,这样的规则也被称作满足
{
\small\bfnew
{
词汇化标准形式
}}
\index
{
词汇
化标准形式
}
(Lexicalized Norm Form)
\index
{
Lexicalized Norm Form
}
(LNF)的规则。比如,层次短语规则就是LNF规则。由于LNF 中单词(终结符)可以作为锚点,因此规则匹配时所有变量的匹配范围是固定的;
\item
对文法进行限制。比如,可以限制规则中变量的数量;或者不允许连续的变量,这样的规则也被称作满足
{
\small\bfnew
{
单词化标准形式
}}
\index
{
单词
化标准形式
}
(Lexicalized Norm Form)
\index
{
Lexicalized Norm Form
}
(LNF)的规则。比如,层次短语规则就是LNF规则。由于LNF 中单词(终结符)可以作为锚点,因此规则匹配时所有变量的匹配范围是固定的;
\vspace
{
0.5em
}
\item
对规则进行二叉化,使用CKY方法进行分析。这个方法也是句法分析中常用的策略。所谓规则二叉化是把规则转化为最多只含两个变量或连续词串的规则(串到树规则)。比如,对于如下的规则:
\begin{eqnarray}
...
...
编写
预览
Markdown
格式
0%
重试
或
添加新文件
添加附件
取消
您添加了
0
人
到此讨论。请谨慎行事。
请先完成此评论的编辑!
取消
请
注册
或者
登录
后发表评论