Skip to content
项目
群组
代码片段
帮助
当前项目
正在载入...
登录 / 注册
切换导航面板
M
mtbookv2
概览
Overview
Details
Activity
Cycle Analytics
版本库
Repository
Files
Commits
Branches
Tags
Contributors
Graph
Compare
Charts
问题
0
Issues
0
列表
Board
标记
里程碑
合并请求
0
Merge Requests
0
CI / CD
CI / CD
流水线
作业
日程表
图表
维基
Wiki
代码片段
Snippets
成员
Collapse sidebar
Close sidebar
活动
图像
聊天
创建新问题
作业
提交
Issue Boards
Open sidebar
NiuTrans
mtbookv2
Commits
dd847e99
Commit
dd847e99
authored
Sep 06, 2020
by
曹润柘
Browse files
Options
Browse Files
Download
Email Patches
Plain Diff
update chapter 5
parent
a7c0bb04
全部展开
隐藏空白字符变更
内嵌
并排
正在显示
2 个修改的文件
包含
9 行增加
和
6 行删除
+9
-6
Chapter5/chapter5.tex
+9
-6
bibliography.bib
+0
-0
没有找到文件。
Chapter5/chapter5.tex
查看文件 @
dd847e99
...
...
@@ -1088,18 +1088,21 @@ c_{\mathbb{E}}(s_u|t_v)=\sum\limits_{i=1}^{N} c_{\mathbb{E}}(s_u|t_v;s^{[i]},t^
\sectionnewpage
\section
{
小结及深入阅读
}
\parinterval
本章对IBM系列模型中的IBM模型1进行了详细的介绍和讨论,从一个简单的基于单词的翻译模型开始,本章从建模、解码、训练多个维度对统计机器翻译进行了描述,期间涉及了词对齐、优化等多个重要概念。IBM模型共分为5个模型,对翻译问题的建模依次由浅入深,同时模型复杂度也依次增加,我们将在
下一章
对IBM模型2-5进行详细的介绍和讨论。IBM模型作为入门统计机器翻译的``必经之路'',其思想对今天的机器翻译仍然产生着影响。虽然单独使用IBM模型进行机器翻译现在已经不多见,甚至很多从事神经机器翻译等前沿研究的人对IBM模型已经逐渐淡忘,但是不能否认IBM模型标志着一个时代的开始。从某种意义上讲,当使用公式
$
\hat
{
\vectorn
{
t
}}
=
\argmax
_{
\vectorn
{
t
}}
\funp
{
P
}
(
\vectorn
{
t
}
|
\vectorn
{
s
}
)
$
描述机器翻译问题的时候,或多或少都在与IBM模型使用相似的思想。
\parinterval
本章对IBM系列模型中的IBM模型1进行了详细的介绍和讨论,从一个简单的基于单词的翻译模型开始,本章从建模、解码、训练多个维度对统计机器翻译进行了描述,期间涉及了词对齐、优化等多个重要概念。IBM模型共分为5个模型,对翻译问题的建模依次由浅入深,同时模型复杂度也依次增加,我们将在
{
\chaptersix
}
对IBM模型2-5进行详细的介绍和讨论。IBM模型作为入门统计机器翻译的``必经之路'',其思想对今天的机器翻译仍然产生着影响。虽然单独使用IBM模型进行机器翻译现在已经不多见,甚至很多从事神经机器翻译等前沿研究的人对IBM模型已经逐渐淡忘,但是不能否认IBM模型标志着一个时代的开始。从某种意义上讲,当使用公式
$
\hat
{
\vectorn
{
t
}}
=
\argmax
_{
\vectorn
{
t
}}
\funp
{
P
}
(
\vectorn
{
t
}
|
\vectorn
{
s
}
)
$
描述机器翻译问题的时候,或多或少都在与IBM模型使用相似的思想。
{
\color
{
red
}
词对齐需要扩充,还不太清楚具体是什么,需要问老师
}
\parinterval
当然,本书也无法涵盖IBM模型的所有内涵,很多内容需要感兴趣的读者继续研究和挖掘,有两个方向可以考虑:
\parinterval
当然,本书也无法涵盖IBM模型的所有内涵,很多内容需要感兴趣的读者继续研究和挖掘。其中最值得关注的是统计词对齐问题。由于词对齐是IBM模型训练的间接产物,因此IBM模型成为了自动词对齐的重要方法。比如IBM模型训练装置GIZA++更多的是被用于自动词对齐任务,而非简单的训练IBM模型参数
\upcite
{
och2003systematic
}
。
\begin{itemize}
\vspace
{
0.5em
}
\item
IBM模型在提出后的十余年中,一直受到了学术界的关注。一个比较有代表性的成果是GIZA++(
\url
{
https://github.com/moses-smt/giza-pp
}
),它集成了IBM模型和隐马尔可夫模型,并实现了这些模型的训练。在随后相当长的一段时间里,GIZA++也是机器翻译研究的标配,用于获得双语平行数据上单词一级的对齐结果。此外,研究者也对IBM模型进行了大量的分析,为后人研究统计机器翻译提供了大量依据
\cite
{
och2004alignment
}
。虽然IBM模型很少被独立使用,甚至直接用基于IBM模型的解码器也不多见,但是它通常会作为其他模型的一部分参与到对翻译的建模中。这部分工作会在下一章
{
\color
{
red
}
基于短语和句法的模型
}
中进行讨论
\cite
{
koehn2003statistical
}
。此外,IBM模型也给机器翻译提供了一种非常简便的计算双语词串对应好坏的方式,因此也被广泛用于度量双语词串对应的强度,是自然语言处理中的一种常用特征。
\item
在IBM基础模型之上,有很多改进的工作。例如,对空对齐、低频词进行额外处理
\upcite
{
DBLP:conf/acl/Moore04
}
;考虑源语言-目标语言和目标语言-源语言双向词对齐进行更好地词对齐对称化
\upcite
{
肖桐1991面向统计机器翻译的重对齐方法研究
}
;使用词典、命名实体等多种信息对模型进行改进
\upcite
{
2005Improving
}
;通过引入短语增强IBM基础模型
\upcite
{
1998Grammar
}
;引入相邻单词对齐之间的依赖关系增加模型鲁棒性
\upcite
{
DBLP:conf/acl-vlc/DaganCG93
}
等;也可以对IBM模型的正向和反向结果进行对称化处理,以得到更加准确词对齐结果
\upcite
{
och2003systematic
}
。
\item
随着词对齐概念的不断深入,也有很多词对齐方面的工作并不依赖IBM模型。比如,可以直接使用判别式模型利用分类器解决词对齐问题
\upcite
{
ittycheriah2005maximum
}
;使用带参数控制的动态规划方法来提高词对齐准确率
\upcite
{
DBLP:conf/naacl/GaleC91
}
;甚至可以把对齐的思想用于短语和句法结构的双语对应
\upcite
{
xiao2013unsupervised
}
;无监督的对称词对齐方法,正向和反向模型联合训练,结合数据的相似性
\upcite
{
DBLP:conf/naacl/LiangTK06
}
;除了GIZA++,研究人员也开发了很多优秀的自动对齐工具,比如,FastAlign
\upcite
{
DBLP:conf/naacl/DyerCS13
}
、Berkeley Aligner(
\url
{
https://github.com/mhajiloo/berkeleyaligner
}
)等,这些工具现在也有很广发的应用。
\vspace
{
0.5em
}
\item
除了在机器翻译建模上的开创性工作,IBM模型的另一项重要贡献是建立了统计词对齐的基础模型。在训练IBM模型的过程中,除了学习到模型参数,还可以得到双语数据上的词对齐结果。也就是说词对齐标注是IBM模型训练的间接产物。这也使得IBM模型成为了自动词对齐的重要方法。包括GIZA++在内的很多工作,实际上更多的是被用于自动词对齐任务,而非简单的训练IBM模型参数。随着词对齐概念的不断深入,这个任务逐渐成为了自然语言处理中的重要分支,比如,对IBM模型的结果进行对称化
\cite
{
och2003systematic
}
,也可以直接使用判别式模型利用分类模型解决词对齐问题
\cite
{
ittycheriah2005maximum
}
,甚至可以把对齐的思想用于短语和句法结构的双语对应
\cite
{
xiao2013unsupervised
}
。除了GIZA++,研究人员也开发了很多优秀的自动词对齐工具,比如,FastAlign (
\url
{
https://github.com/clab/fast
_
align
}
)、Berkeley Aligner(
\url
{
https://github.com/mhajiloo/berkeleyaligner
}
)等,这些工具现在也有很广泛的应用。
\item
一种较为通用的词对齐评价标准是
{
\bfnew
{
对齐错误率
}}
(Alignment Error Rate, AER)
\upcite
{
DBLP:journals/coling/FraserM07
}
。在此基础之上也可以对词对齐评价方法进行改进,以提高对齐质量与机器翻译评价得分BLEU的相关性
\upcite
{
DBLP:conf/acl/DeNeroK07,paul2007all,黄书剑2009一种错误敏感的词对齐评价方法
}
。也有工作通过统计机器翻译系统性能的提升来评价对齐质量
\upcite
{
DBLP:journals/coling/FraserM07
}
。不过,在相当长的时间内,词对齐质量对机器翻译系统的影响究竟如何并没有统一的结论。有些时候,词对齐的错误率下降了,但是机器翻译系统的译文品质没有带来性能提升。但是,这个问题比较复杂,需要进一步的论证。不过,可以肯定的是,词对齐可以帮助人们分析机器翻译的行为。甚至在最新的神经机器翻译中,如何在神经网络模型中寻求两种语言单词之间的对应关系也是对模型进行解释的有效手段之一
\upcite
{
DBLP:journals/corr/FengLLZ16
}
。
\vspace
{
0.5em
}
\item
基于单词的翻译模型的解码问题也是早期研究者所关注的。比较经典的方法的是贪婪方法
\upcite
{
germann2003greedy
}
。也有研究者对不同的解码方法进行了对比
\upcite
{
germann2001fast
}
,并给出了一些加速解码的思路。随后,也有工作进一步对这些方法进行改进
\upcite
{
DBLP:conf/coling/UdupaFM04,DBLP:conf/naacl/RiedelC09
}
。实际上,基于单词的模型的解码是一个NP完全问题
\upcite
{
knight1999decoding
}
,这也是为什么机器翻译的解码十分困难的原因。关于翻译模型解码算法的时间复杂度也有很多讨论
\upcite
{
DBLP:conf/eacl/UdupaM06,DBLP:conf/emnlp/LeuschMN08,DBLP:journals/mt/FlemingKN15
}
。
\end{itemize}
...
...
bibliography.bib
查看文件 @
dd847e99
差异被折叠。
点击展开。
编写
预览
Markdown
格式
0%
重试
或
添加新文件
添加附件
取消
您添加了
0
人
到此讨论。请谨慎行事。
请先完成此评论的编辑!
取消
请
注册
或者
登录
后发表评论