Skip to content
项目
群组
代码片段
帮助
当前项目
正在载入...
登录 / 注册
切换导航面板
M
mtbookv2
概览
Overview
Details
Activity
Cycle Analytics
版本库
Repository
Files
Commits
Branches
Tags
Contributors
Graph
Compare
Charts
问题
0
Issues
0
列表
Board
标记
里程碑
合并请求
0
Merge Requests
0
CI / CD
CI / CD
流水线
作业
日程表
图表
维基
Wiki
代码片段
Snippets
成员
Collapse sidebar
Close sidebar
活动
图像
聊天
创建新问题
作业
提交
Issue Boards
Open sidebar
NiuTrans
mtbookv2
Commits
3b656680
Commit
3b656680
authored
Jan 01, 2021
by
xiaotong
Browse files
Options
Browse Files
Download
Email Patches
Plain Diff
wording (sec 17)
parent
397a07e3
显示空白字符变更
内嵌
并排
正在显示
1 个修改的文件
包含
11 行增加
和
9 行删除
+11
-9
Chapter17/chapter17.tex
+11
-9
没有找到文件。
Chapter17/chapter17.tex
查看文件 @
3b656680
...
...
@@ -464,15 +464,15 @@
\section
{
篇章级翻译
}
\parinterval
目前大多数机器翻译系统
都是句子级的,这种系统的输入和输出均以句子为单位,且基于“句子之间相互独立”的假设,却缺少了对篇章上下文信息的建模,因而在需要依赖上下文的翻译场景中其翻译效果总是不尽人意。篇章级翻译的目的就是通过对篇章上下文信息进行建模来解决该问题,进而改善机器翻译在整个篇章上的翻译质量。篇章级翻译的概念在很早就已经被提出
\upcite
{
DBLP:journals/ac/Bar-Hillel60
}
,随着近几年神经机器翻译取得了巨大进展,如何使用篇章上下文信息成为进一步改善机器翻译质量的重要方向
\upcite
{
DBLP:journals/corr/abs-1912-08494,DBLP:journals/corr/abs-1901-09115
}
。本节我们将主要从篇章级机器翻译的评价、建模方法等角度展开介绍
。
\parinterval
目前大多数机器翻译系统
是句子级的。由于缺少了对篇章上下文信息的建模,在需要依赖上下文的翻译场景中其翻译效果总是不尽人意。篇章级翻译的目的就是对篇章上下文信息进行建模,进而改善机器翻译在整个篇章上的翻译质量。篇章级翻译的概念在很早就已经出现
\upcite
{
DBLP:journals/ac/Bar-Hillel60
}
,随着近几年神经机器翻译取得了巨大进展,如何使用篇章上下文信息也成为进一步改善机器翻译质量的重要方向
\upcite
{
DBLP:journals/corr/abs-1912-08494,DBLP:journals/corr/abs-1901-09115
}
。基于此,本节将对篇章级机器翻译的若干问题展开讨论
。
%----------------------------------------------------------------------------------------
% NEW SUB-SECTION
%----------------------------------------------------------------------------------------
\subsection
{
什么是篇章级翻译
}
\subsection
{
篇章级翻译的挑战
}
\parinterval
“篇章”在这里指一系列连续的段落或句子所构成的整体,其中各个句子间从形式和内容上都具有一定的连贯性和一致性
\upcite
{
jurafsky2000speech
}
。这些联系主要体现在
{
\small\sffamily\bfseries
{
衔接
}}
\index
{
衔接
}
(Cohesion
\index
{
Cohesion
}
)以及连贯两个方面。其中衔接体现在显性的语言成分和结构上,包括篇章中句子间的语法和词汇的联系,而连贯体现在各个句子之间的逻辑和语义的联系上。因此,篇章级翻译
的目的就是要将这些上下文之间的联系考虑在内,从而生成比句子级翻译更连贯和准确的翻译结果(如实例
\ref
{
eg:17-1
}
)。但是由于不同语言的特性多种多样,上下文信息在篇章级翻译中的作用也不尽相同。比如在德语中名词是分词性的,因此在代词翻译的过程中需要根据其先行词的词性进行区分,而这种现象在其它不区分词性的语言中是不存在的。这意味着篇章级翻译在不同的语种中可能对应多种不同的上下文现象
。
\parinterval
“篇章”在这里指一系列连续的段落或句子所构成的整体,其中各个句子间从形式和内容上都具有一定的连贯性和一致性
\upcite
{
jurafsky2000speech
}
。这些联系主要体现在
{
\small\sffamily\bfseries
{
衔接
}}
\index
{
衔接
}
(Cohesion
\index
{
Cohesion
}
)以及连贯两个方面。其中衔接体现在显性的语言成分和结构上,包括篇章中句子间的语法和词汇的联系,而连贯体现在各个句子之间的逻辑和语义的联系上。因此,篇章级翻译
就是要将这些上下文之间的联系考虑在内,从而生成比句子级翻译更连贯和准确的翻译结果。实例
\ref
{
eg:17-1
}
就展示了一个使用篇章信息进行机器翻译的实例
。
\begin{example}
上下文句子:我上周针对这个问题做出解释并咨询了他的意见。
...
...
@@ -486,14 +486,16 @@
\label
{
eg:17-1
}
\end{example}
\parinterval
正是由于这种上下文现象的多样性,使评价篇章级翻译模型的性能变得相对困难。目前篇章级机器翻译主要针对一些常见的上下文现象,比如代词翻译、省略、连接和词汇衔接等,而
{
\chapterfour
}
介绍的BLEU等通用自动评价指标通常对这些上下文现象不敏感,篇章级翻译需要采用一些专用方法来对这些具体现象进行评价。之前已经有一些研究工作针对具体的上下文现象提出了相应的评价标准并且在篇章级翻译中得到应用
\upcite
{
DBLP:conf/naacl/BawdenSBH18,DBLP:conf/acl/VoitaST19
}
,但是目前并没有达成共识,这也在一定程度上阻碍了篇章级机器翻译的进一步发展。我们将在
\ref
{
sec:17-3-2
}
节中对这些评价标准进行介绍
。
\parinterval
不过由于不同语言的特性多种多样,上下文信息在篇章级翻译中的作用也不尽相同。比如,在德语中名词是分词性的,因此在代词翻译的过程中需要根据其先行词的词性进行区分,而这种现象在其它不区分词性的语言中是不存在的。这意味着篇章级翻译在不同的语种中可能对应多种不同的上下文现象
。
\parinterval
从建模的角度看,篇章级翻译需要引入额外的上下文信息,来解决上述上下文现象。在统计机器翻译时代就已经有一些相关工作,这些工作都是针对某一具体的上下文现象进行建模,比如篇章结构
\upcite
{
DBLP:conf/anlp/MarcuCW00,foster2010translating,DBLP:conf/eacl/LouisW14
}
、代词回指
\upcite
{
DBLP:conf/iwslt/HardmeierF10,DBLP:conf/wmt/NagardK10,DBLP:conf/eamt/LuongP16,
}
、词汇衔接
\upcite
{
tiedemann2010context,DBLP:conf/emnlp/GongZZ11,DBLP:conf/ijcai/XiongBZLL13,xiao2011document
}
和篇章连接词
\upcite
{
DBLP:conf/sigdial/MeyerPZC11,DBLP:conf/hytra/MeyerP12,
}
等。但是由于统计机器翻译本身流程复杂,依赖于许多组件和针对上下文现象所精心构造的特征,其建模方法相对比较困难。到了神经机器翻译时代,翻译质量相比统计机器翻译取得了大幅提升
\upcite
{
DBLP:conf/nips/SutskeverVL14,bahdanau2014neural,vaswani2017attention
}
,这也鼓励研究人员就如何利用篇章上下文的信息进一步展开探索
\upcite
{
DBLP:conf/emnlp/LaubliS018
}
。近几年,相关工作不断涌现并且取得了一些阶段性进展
\upcite
{
DBLP:journals/corr/abs-1912-08494
}
。
\parinterval
正是由于这种上下文现象的多样性,使评价篇章级翻译模型的性能变得相对困难。目前篇章级机器翻译主要针对一些常见的上下文现象,比如代词翻译、省略、连接和词汇衔接等,而
{
\chapterfour
}
介绍的BLEU等通用自动评价指标通常对这些上下文依赖现象不敏感,篇章级翻译需要采用一些专用方法来对这些具体现象进行评价。我们将在
\ref
{
sec:17-3-2
}
节中对这些评价方法进行介绍。
\parinterval
从对篇章信息建模的角度看,在统计机器翻译时代就已经有大量的研究工作。这些工作大多针对某一具体的上下文现象,比如,篇章结构
\upcite
{
DBLP:conf/anlp/MarcuCW00,foster2010translating,DBLP:conf/eacl/LouisW14
}
、代词回指
\upcite
{
DBLP:conf/iwslt/HardmeierF10,DBLP:conf/wmt/NagardK10,DBLP:conf/eamt/LuongP16,
}
、词汇衔接
\upcite
{
tiedemann2010context,DBLP:conf/emnlp/GongZZ11,DBLP:conf/ijcai/XiongBZLL13,xiao2011document
}
和篇章连接词
\upcite
{
DBLP:conf/sigdial/MeyerPZC11,DBLP:conf/hytra/MeyerP12,
}
等。但是由于统计机器翻译本身流程复杂,依赖于许多组件和针对上下文现象所精心构造的特征,其建模方法相对比较困难。到了神经机器翻译时代,端到端建模给篇章级翻译提供了新的视角,相关工作不断涌现并且取得了很好的进展
\upcite
{
DBLP:journals/corr/abs-1912-08494
}
。
\parinterval
区别于篇章级统计机器翻译,篇章级神经机器翻译
通常采用端到端的方式直接对上下文句子进行建模。这种方法不再需要针对某一具体的上下文现象构造相应的特征,而是通过翻译模型本身从上下文句子中抽取和融合相应的上下文信息。通常情况下,待翻译句子的上下文信息来自于近距离的上下文,篇章级机器翻译可以采用局部建模的手段将前一句或者周围几句作为上下文送入模型。针对长距离的上下文现象,也可以使用全局建模的手段直接从篇章的其他
所有句子中提取上下文信息。近几年多数研究工作都在探索更有效的局部建模或全局建模方法,主要包括改进输入
\upcite
{
DBLP:conf/discomt/TiedemannS17,DBLP:conf/naacl/BawdenSBH18,DBLP:conf/wmt/GonzalesMS17,DBLP:journals/corr/abs-1910-07481
}
、多编码器结构
\upcite
{
DBLP:journals/corr/JeanLFC17,DBLP:conf/acl/TitovSSV18,DBLP:conf/emnlp/ZhangLSZXZL18
}
、层次结构
\upcite
{
DBLP:conf/naacl/MarufMH19,DBLP:conf/acl/HaffariM18,DBLP:conf/emnlp/YangZMGFZ19,DBLP:conf/ijcai/ZhengYHCB20
}
以及基于缓存的方法
\upcite
{
DBLP:conf/coling/KuangXLZ18,DBLP:journals/tacl/TuLSZ18
}
四类。
区别于篇章级统计机器翻译,篇章级神经机器翻译
不需要针对某一具体的上下文现象构造相应的特征,而是通过翻译模型本身从上下文句子中抽取和融合的上下文信息。通常情况下,篇章级机器翻译可以采用局部建模的手段将前一句或者周围几句作为上下文送入模型。针对需要长距离上下文的情况,也可以使用全局建模的手段直接从篇章中
所有句子中提取上下文信息。近几年多数研究工作都在探索更有效的局部建模或全局建模方法,主要包括改进输入
\upcite
{
DBLP:conf/discomt/TiedemannS17,DBLP:conf/naacl/BawdenSBH18,DBLP:conf/wmt/GonzalesMS17,DBLP:journals/corr/abs-1910-07481
}
、多编码器结构
\upcite
{
DBLP:journals/corr/JeanLFC17,DBLP:conf/acl/TitovSSV18,DBLP:conf/emnlp/ZhangLSZXZL18
}
、层次结构
\upcite
{
DBLP:conf/naacl/MarufMH19,DBLP:conf/acl/HaffariM18,DBLP:conf/emnlp/YangZMGFZ19,DBLP:conf/ijcai/ZhengYHCB20
}
以及基于缓存的方法
\upcite
{
DBLP:conf/coling/KuangXLZ18,DBLP:journals/tacl/TuLSZ18
}
四类。
\parinterval
此外,篇章级机器翻译面临的另外一个挑战是数据稀缺。篇章级机器翻译所需要的双语数据需要保留篇章边界,数量相比于句子级双语数据要少很多。除了在之前提到的端到端方法中采用预训练或者参数共享的手段(见
{
\chaptersixteen
}
),也可以采用
另外的建模手段来缓解数据稀缺问题。比如在句子级翻译模型的推断过程中,通过篇章级语言模型
\upcite
{
DBLP:conf/discomt/GarciaCE19,DBLP:journals/tacl/YuSSLKBD20,DBLP:journals/corr/abs-2010-12827
}
在目标端引入上下文信息,或者对句子级的解码结果进行修正
\upcite
{
DBLP:conf/aaai/XiongH0W19,DBLP:conf/acl/VoitaST19,DBLP:conf/emnlp/VoitaST19
}
。这种方法能够充分利用句子级的双语数据,并且在一定程度上缓解篇章级双语数据稀缺的问题
。
\parinterval
此外,篇章级机器翻译面临的另外一个挑战是数据稀缺。篇章级机器翻译所需要的双语数据需要保留篇章边界,数量相比于句子级双语数据要少很多。除了在之前提到的端到端方法中采用预训练或者参数共享的手段(见
{
\chaptersixteen
}
),也可以采用
新的建模手段来缓解数据稀缺问题。比如,在句子级翻译模型的推断过程中,通过篇章级语言模型在目标端引入上下文信息
\upcite
{
DBLP:conf/discomt/GarciaCE19,DBLP:journals/tacl/YuSSLKBD20,DBLP:journals/corr/abs-2010-12827
}
,或者对句子级的翻译结果进行修正
\upcite
{
DBLP:conf/aaai/XiongH0W19,DBLP:conf/acl/VoitaST19,DBLP:conf/emnlp/VoitaST19
}
(
{
\color
{
red
}
如何修正?用什么修正?修正什么?感觉这句话没有信息量
}
)
。
%----------------------------------------------------------------------------------------
% NEW SUBSUB-SECTION
...
...
@@ -503,9 +505,9 @@
\parinterval
BLEU等自动评价指标能够在一定程度上反映译文的整体质量,但是并不能有效地评估篇章级翻译模型的性能。这是由于传统测试数据中出现篇章上下文现象的比例相对较少,并且
$
n
$
-gram的匹配很难检测到一些具体的语言现象,这使得研究人员很难通过BLEU得分来判断篇章级翻译模型的效果。
\parinterval
为此,研究人员总结了机器翻译任务中存在的上下文现象,并基于此设计了相应的自动评价指标。比如针对篇章中代词的翻译问题,首先借助词对齐工具确定源语言中的代词在译文和参考答案中的对应位置,然后通过计算
最终的准确率和召回率等指标
\upcite
{
DBLP:conf/iwslt/HardmeierF10,DBLP:conf/discomt/WerlenP17
}
对篇章级译文的质量进行评价。针对篇章中的词汇衔接,使用
{
\small\sffamily\bfseries
{
词汇链
}}
\index
{
词汇链
}
(Lexical Chain
\index
{
Lexical Chain
}
)
\footnote
{
词汇链指篇章中语义相关的词所构成的序列
}
等来获取能够反映词汇衔接质量的分数,然后通过加权的方式与常规的BLEU或METEOR等指标结合在一起
\upcite
{
DBLP:conf/emnlp/WongK12,DBLP:conf/discomt/GongZZ15
}
。针对篇章中的连接词,使用候选词典和词对齐工具对源语中连接词的正确翻译结果进行计数,计算其准确率
\upcite
{
DBLP:conf/cicling/HajlaouiP13
}
。
\parinterval
为此,研究人员总结了机器翻译任务中存在的上下文现象,并基于此设计了相应的自动评价指标。比如针对篇章中代词的翻译问题,首先借助词对齐工具确定源语言中的代词在译文和参考答案中的对应位置,然后通过计算
{
\color
{
red
}
谁的?
}
准确率和召回率等指标对代词翻译质量进行评价
\upcite
{
DBLP:conf/iwslt/HardmeierF10,DBLP:conf/discomt/WerlenP17
}
。针对篇章中的词汇衔接,使用
{
\small\sffamily\bfseries
{
词汇链
}}
\index
{
词汇链
}
(Lexical Chain
\index
{
Lexical Chain
}
)
\footnote
{
词汇链指篇章中语义相关的词所构成的序列。
}
等来获取能够反映词汇衔接质量的分数,然后通过加权的方式与常规的BLEU或METEOR等指标结合在一起
\upcite
{
DBLP:conf/emnlp/WongK12,DBLP:conf/discomt/GongZZ15
}
。针对篇章中的连接词,使用候选词典和词对齐工具对源语中连接词的正确翻译结果进行计数,计算其准确率
\upcite
{
DBLP:conf/cicling/HajlaouiP13
}
。
\parinterval
除了
自动评价指标,也有一些研究人员针对特有的上下文现象手工构造了相应的测试套件用于评价翻译质量。测试套件中每一个测试样例都包含一个正确翻译的结果,以及多个错误结果,一个理想的翻译模型应该对正确的翻译结果评价最高,排名在所有错误结果之上,此时就可以根据模型是否能挑选出正确翻译结果来评估其性能。这种方法可以很好地衡量翻译模型在某一特定上下文现象上的处理能力,比如词义消歧
\upcite
{
DBLP:conf/wmt/RiosMS18
}
、代词翻译
\upcite
{
DBLP:conf/naacl/BawdenSBH18,DBLP:conf/wmt/MullerRVS18
}
和一些衔接问题
\upcite
{
DBLP:conf/acl/VoitaST19
}
等。但是该方法也存在使用范围受限于测试集的语种和规模、扩展性较差的缺点
。
\parinterval
除了
直接对译文打分,也有一些工作针对特有的上下文现象手工构造了相应的测试套件用于评价翻译质量。测试套件中每一个测试样例都包含一个正确翻译的结果,以及多个错误结果,一个理想的翻译模型应该对正确的翻译结果评价最高,排名在所有错误结果之上,此时就可以根据模型是否能挑选出正确翻译结果来评估其性能。这种方法可以很好地衡量翻译模型在某一特定上下文现象上的处理能力,比如词义消歧
\upcite
{
DBLP:conf/wmt/RiosMS18
}
、代词翻译
\upcite
{
DBLP:conf/naacl/BawdenSBH18,DBLP:conf/wmt/MullerRVS18
}
和一些衔接问题
\upcite
{
DBLP:conf/acl/VoitaST19
}
等。但是该方法也存在使用范围受限于测试集的语种和规模的缺点,因此扩展性较差
。
%----------------------------------------------------------------------------------------
% NEW SUB-SECTION
...
...
编写
预览
Markdown
格式
0%
重试
或
添加新文件
添加附件
取消
您添加了
0
人
到此讨论。请谨慎行事。
请先完成此评论的编辑!
取消
请
注册
或者
登录
后发表评论