Skip to content
项目
群组
代码片段
帮助
当前项目
正在载入...
登录 / 注册
切换导航面板
M
mtbookv2
概览
Overview
Details
Activity
Cycle Analytics
版本库
Repository
Files
Commits
Branches
Tags
Contributors
Graph
Compare
Charts
问题
0
Issues
0
列表
Board
标记
里程碑
合并请求
0
Merge Requests
0
CI / CD
CI / CD
流水线
作业
日程表
图表
维基
Wiki
代码片段
Snippets
成员
Collapse sidebar
Close sidebar
活动
图像
聊天
创建新问题
作业
提交
Issue Boards
Open sidebar
NiuTrans
mtbookv2
Commits
7d3ece24
Commit
7d3ece24
authored
Sep 04, 2020
by
xiaotong
Browse files
Options
Browse Files
Download
Email Patches
Plain Diff
wording (quality estimation - word, phrase, sentence-level tasks)
parent
0a9f6054
显示空白字符变更
内嵌
并排
正在显示
1 个修改的文件
包含
14 行增加
和
14 行删除
+14
-14
Chapter4/chapter4.tex
+14
-14
没有找到文件。
Chapter4/chapter4.tex
查看文件 @
7d3ece24
...
...
@@ -131,7 +131,7 @@
% NEW SUB-SECTION
%----------------------------------------------------------------------------------------
\subsection
{
打分标准
}
\subsection
{
打分标准
}
\label
{
sec:human-eval-scoring
}
\parinterval
如何对译文进行打分是机器翻译评价的核心问题。在人工评价方法中,一种被广泛使用的方法是
{
\small\sffamily\bfseries
{
直接评估
}}
\index
{
直接评估
}
(Direct Assessment,DA)
\index
{
Direct Assessment
}
\upcite
{
DBLP:conf/amta/WhiteOO94
}
,这种评价方法需要评价者给出对机器译文的绝对评分:在给定一个机器译文和一个参考答案的情况下,评价者直接给出1-100的分数用来表征机器译文的质量。与其类似的策略是对机器翻译质量进行等级评定
\upcite
{
DBLP:journals/mt/PrzybockiPBS09
}
,常见的是在5级或7级标准中指定单一等级用以反映机器翻译质量。也有研究者提出利用语言测试技术对机器翻译质量进行评价
\upcite
{
reeder2006direct
}
,其中涉及多等级内容的评价:第一等级测试简单的短语、成语、词汇等;第二等级利用简单的句子测试机器翻译在简单文本上的表现;第三等级利用稍复杂的句子测试机器翻译在复杂语法结构上的表现;第四等级测试引入更加复杂的补语结构和附加语等等。
...
...
@@ -624,9 +624,9 @@ His house is on the south bank of the river.
\sectionnewpage
\section
{
无参考答案的自动评价
}
\parinterval
无参考答案自动评价在机器翻译领域又被称作
{
\small\sffamily\bfseries
{
质量评估
}}
\index
{
质量评估
}
(Quality Estimation,
\\
QE)
\index
{
Quality Estimation,QE
}
。与传统的译文质量评价方法不同,质量评估旨在不参照标准译文的情况下,对机器翻译系统的输出在单词、短语、句子、文档等各个层次进行评价
,于是在质量评估这个任务的基础上衍生出了单词级质量评估、短语级质量评估、句子级质量评估和文档级质量评估几种相关任务
。
\parinterval
无参考答案自动评价在机器翻译领域又被称作
{
\small\sffamily\bfseries
{
质量评估
}}
\index
{
质量评估
}
(Quality Estimation,
\\
QE)
\index
{
Quality Estimation,QE
}
。与传统的译文质量评价方法不同,质量评估旨在不参照标准译文的情况下,对机器翻译系统的输出在单词、短语、句子、文档等各个层次进行评价。
\parinterval
人们对于无参考答案自动评价的需求大多来源于机器翻译的实际应用。例如,在机器翻译的译后编辑过程中,译员不仅仅希望了解机器翻译系统的整体翻译质量,还需要了解该系统在某个句子上的表现如何:该机器译文的质量是否很差?需要修改的内容有多少?是否值得进行后编辑?这时,译员更加关注系统在单个数据点上(比如一段话)的可信度而非系统在测试数据集上的平均质量。这时,太多的人工介入就无法保证使用机器翻译所带来的高效性,因此在机器翻译输出译文的同时,需要质量评估系统给出对译文质量的预估结果。这些需求也促使研究人员在质量评估问题上投入了更多的研究力量。包括WMT、CCMT等知名机器翻译评测中也都设置了相关任务,受到了业界的
认可
。
\parinterval
人们对于无参考答案自动评价的需求大多来源于机器翻译的实际应用。例如,在机器翻译的译后编辑过程中,译员不仅仅希望了解机器翻译系统的整体翻译质量,还需要了解该系统在某个句子上的表现如何:该机器译文的质量是否很差?需要修改的内容有多少?是否值得进行后编辑?这时,译员更加关注系统在单个数据点上(比如一段话)的可信度而非系统在测试数据集上的平均质量。这时,太多的人工介入就无法保证使用机器翻译所带来的高效性,因此在机器翻译输出译文的同时,需要质量评估系统给出对译文质量的预估结果。这些需求也促使研究人员在质量评估问题上投入了更多的研究力量。包括WMT、CCMT等知名机器翻译评测中也都设置了相关任务,受到了业界的
关注
。
%----------------------------------------------------------------------------------------
% NEW SUB-SECTION
...
...
@@ -678,7 +678,7 @@ scharfzeichnen.(德语)
\vspace
{
0.5em
}
\item
{
\small\sffamily\bfseries
{
找出译文中翻译错误的单词
}}
。单词级质量评估任务要求预测一个与译文等长的质量标签序列,该标签序列反映译文端的每个单词是否能够准确表达出其对应的源端单词的含义,若是可以,则标签为``OK'',反之则为``BAD''。图
\ref
{
fig:4-11
}
中的连线表示单词之间的对齐关系,图
\ref
{
fig:4-11
}
中的MT tags即为该过程中需要预测的质量标签序列。
\vspace
{
0.5em
}
\item
{
\small\sffamily\bfseries
{
找出源文中导致翻译错误的单词
}}
。单词级质量评估任务还要求预测一个与源文等长的质量标签序列,该标签序列反映源文端的每个单词是否会导致本次翻译出现错误,若是不会,则标签为``OK'',反之则为``BAD''。图
\ref
{
fig:4-11
}
中的Source tags即为该过程中的质量标签序列。在
实际实现中
,质量评估系统往往先预测译文端的质量标签序列,并根据源文与译文之间的对齐关系,推测源端的质量标签序列。
\item
{
\small\sffamily\bfseries
{
找出源文中导致翻译错误的单词
}}
。单词级质量评估任务还要求预测一个与源文等长的质量标签序列,该标签序列反映源文端的每个单词是否会导致本次翻译出现错误,若是不会,则标签为``OK'',反之则为``BAD''。图
\ref
{
fig:4-11
}
中的Source tags即为该过程中的质量标签序列。在
具体应用时
,质量评估系统往往先预测译文端的质量标签序列,并根据源文与译文之间的对齐关系,推测源端的质量标签序列。
\vspace
{
0.5em
}
\item
{
\small\sffamily\bfseries
{
找出在翻译句子时出现漏译现象的位置
}}
。单词级质量评估任务同时也要求预测一个能够捕捉到漏译现象的质量标签序列,在译文端单词的两侧位置进行预测,若某位置未出现漏译,则该位置的质量标签为``OK'',否则为``BAD''。图
\ref
{
fig:4-11
}
中的Gap tags即为该过程中的质量标签序列。为了检测句子翻译中的漏译现象,需要在译文中标记缺口,即译文中的每个单词两边都各有一个``GAP''标记,如图
\ref
{
fig:4-11
}
所示。
\vspace
{
0.5em
}
...
...
@@ -690,7 +690,7 @@ scharfzeichnen.(德语)
\subsubsection
{
2.短语级质量评估
}
\parinterval
短语级质量评估可以看做是单词级质量评估任务的扩展:机器翻译系统引发的错误往往都是相互关联的,解码过程中某个单词出错会导致更多的错误,特别是在其局部上下文当中,以单词的``局部上下文''为基本单元进行
指令
评估即为短语级质量评估。
\parinterval
短语级质量评估可以看做是单词级质量评估任务的扩展:机器翻译系统引发的错误往往都是相互关联的,解码过程中某个单词出错会导致更多的错误,特别是在其局部上下文当中,以单词的``局部上下文''为基本单元进行
质量
评估即为短语级质量评估。
\parinterval
短语级质量评估与单词级质量评估类似,其目标是找出短语中翻译错误、短语内部语序问题及漏译问题。短语级质量评估任务可以被定义为:以若干个连续单词组成的短语为基本评估单位,参照源语言句子,自动标记出短语内部短语错误以及短语之间的是否存在漏译。其中的短语错误包括短语内部单词的错译和漏译、短语内部单词的语序错误,而漏译问题则特指短语之间的漏译错误。在短语级质量评估任务中,输入是机器译文和源语言句子,输出是一系列标签序列,即图
\ref
{
fig:4-12
}
中的Phrase-target tags、Gap tags,标签序列中的每个标签对应翻译中的每个单词,并表明该位置是否出现错误。
...
...
@@ -706,7 +706,7 @@ scharfzeichnen.(德语)
\parinterval
下面以实例
\ref
{
eg:4-8
}
为例介绍该任务的具体内容:
\begin{example}
短语级质量评估任务
短语级质量评估任务
(短语间用 || 分隔)
源句:Bei Patienten mit || eingeschränkter Nierenfunktion kann || Insulinabbaus ||
...
...
@@ -736,28 +736,28 @@ scharfzeichnen.(德语)
\subsubsection
{
3.句子级质量评估
}
\parinterval
迄今为止,质量评估的大部分工作都集中在句子层次的预测上,这是因为多数情况下机器翻译系统的处理都是逐句进行,系统用户也总是每次翻译一个句子或是以句子为单位组成的文本块(段落、文档等),因此以句子作为质量评估的基本单元是
相当
自然的。
\parinterval
迄今为止,质量评估的大部分工作都集中在句子层次的预测上,这是因为多数情况下机器翻译系统的处理都是逐句进行,系统用户也总是每次翻译一个句子或是以句子为单位组成的文本块(段落、文档等),因此以句子作为质量评估的基本单元是
很
自然的。
\parinterval
句子级质量评估的目标是生成能够反映译文句子整体质量的
质量标签——
可以是离散型的表示某种质量等级的标签,也可以是连续型的基于评分的标签。虽然以不同的标准进行评估,同一个译文句子的质量标签可能有所不同,但可以肯定的是句子的最终质量绝不是句子中单词质量的简单累加。因为与词级的质量评估相比,句子级质量评估也会关注是否保留源句的语义、译文的语义是否连贯、译文中的单词顺序是否合理等因素。
\parinterval
句子级质量评估的目标是生成能够反映译文句子整体质量的
标签
\ \dash
\
可以是离散型的表示某种质量等级的标签,也可以是连续型的基于评分的标签。虽然以不同的标准进行评估,同一个译文句子的质量标签可能有所不同,但可以肯定的是句子的最终质量绝不是句子中单词质量的简单累加。因为与词级的质量评估相比,句子级质量评估也会关注是否保留源句的语义、译文的语义是否连贯、译文中的单词顺序是否合理等因素。
\parinterval
句子级质量
评估,顾名思义就是根据某种评价标准,通过建立模型来预测一个反映句子质量的标签。人们可以根据句子翻译的目的、后编辑的工作难度、是否达到发表要求或是是否能让非母语者读懂等各个角度、各个标准去设定句子级质量评估的标准。句子级质量评估任务的发展经历过下面几个阶段
:
\parinterval
句子级质量
系统需要根据某种评价标准,通过建立预测模型来生成一个反映句子质量的标签。人们可以根据句子翻译的目的、后编辑的工作难度、是否达到发表要求或是是否能让非母语者读懂等各个角度、各个标准去设定句子级质量评估的标准。句子级质量评估任务有多种形式
:
\begin{itemize}
\vspace
{
0.5em
}
\item
区分``人工翻译''和``机器翻译''。在
最初的工作中,研究人员试图训练一个能够区分人工翻译和机器翻译的二分类器完成句子级的质量评估
\upcite
{
gamon2005sentence
}
,将被分类器判断为``人工翻译''的机器译文视为优秀的译文,将被分类器判断为``机器翻译''的机器译文视为较差的译文。一方面,这种评估方式不够直观,另一方面,这种评估方式并不十分合理
,因为通过人工比对发现很多被判定为``机器翻译''的译文具有与人们期望的人类翻译相同的质量水平。
\item
区分``人工翻译''和``机器翻译''。在
早期的工作中,研究人员试图训练一个能够区分人工翻译和机器翻译的二分类器完成句子级的质量评估
\upcite
{
gamon2005sentence
}
,将被分类器判断为``人工翻译''的机器译文视为优秀的译文,将被分类器判断为``机器翻译''的机器译文视为较差的译文。一方面,这种评估方式不够直观,另一方面,这种评估方式并不十分准确
,因为通过人工比对发现很多被判定为``机器翻译''的译文具有与人们期望的人类翻译相同的质量水平。
\vspace
{
0.5em
}
\item
预测反映译文句子质量的``质量标签''。
此后,研究人员们试图使用人工为机器译文分配能够反映译文质量的标签
\upcite
{
DBLP:conf/lrec/Quirk04
}
,例如``不可接受''``一定程度上可接受''``可接受''``理想''等
,同时将获取机器译文的质量标签作为句子级质量评估的任务目标。
\item
预测反映译文句子质量的``质量标签''。
在同一时期,研究人员们也尝试使用人工为机器译文分配能够反映译文质量的标签
\upcite
{
DBLP:conf/lrec/Quirk04
}
,例如``不可接受''、``一定程度上可接受''、`` 可接受''、`` 理想''等类型的质量标签
,同时将获取机器译文的质量标签作为句子级质量评估的任务目标。
\vspace
{
0.5em
}
\item
预测译文句子的相对排名。当相对排序(详见
4.2
节)的译文评价方法被引入后,给出机器译文的相对排名成为句子级质量评估的任务目标。
\item
预测译文句子的相对排名。当相对排序(详见
\ref
{
sec:human-eval-scoring
}
节)的译文评价方法被引入后,给出机器译文的相对排名成为句子级质量评估的任务目标。
\vspace
{
0.5em
}
\item
预测译文句子的后编辑工作量。在最近的研究中,句子级地质量评估一直在探索各种类型的离散或连续的后编辑标签。例如,通过测量以秒为单位的后编辑时间对译文句子进行评分;通过测量预测后编辑过程所需的击键数对译文句子进行评分;通过计算
{
\small\sffamily\bfseries
{
人工译后编辑距离
}}
\index
{
人工译后编辑距离
}
(Human Translation Error Rate,HTER)
\index
{
Human Translation Error Rate,HTER
}
,即在后编辑过程中编辑(插入/删除/替换)
)
数量与参考翻译长度的占比率对译文句子进行评分。HTER的计算公式为:
\item
预测译文句子的后编辑工作量。在最近的研究中,句子级地质量评估一直在探索各种类型的离散或连续的后编辑标签。例如,通过测量以秒为单位的后编辑时间对译文句子进行评分;通过测量预测后编辑过程所需的击键数对译文句子进行评分;通过计算
{
\small\sffamily\bfseries
{
人工译后编辑距离
}}
\index
{
人工译后编辑距离
}
(Human Translation Error Rate,HTER)
\index
{
Human Translation Error Rate,HTER
}
,即在后编辑过程中编辑(插入/删除/替换)数量与参考翻译长度的占比率对译文句子进行评分。HTER的计算公式为:
\vspace
{
0.5em
}
\begin{eqnarray}
\rm
{
HTER
}
=
\frac
{
\mbox
{
编辑操作数目
}}{
\mbox
{
翻译后编辑结果长度
}}
\label
{
eq:4-20
}
\end{eqnarray}
\parinterval
这种质量评估方式往往以单词级质量评估为基础,在其结果的基础上进行计算。以实例
\ref
{
eg:4-7
}
中词级质量评估结果为例,与编辑后结果相比较,机器翻译译文中有四处漏译(``Mit''
``können''``Sie''``einzelne'')、三处误译(``dem''``Scharfzeichner''
\\
``scharfzeichnen''分别被误译为``Der''``Schärfen-Werkezug''
``Schärfer'')、一处多译(``erscheint''),因而需要进行4次插入操作、3次替换操作和1次删除操作,而最终译文长度为12,则有
$
\rm
HTER
=(
4
+
3
+
1
)/
12
=
0
.
667
$
。需要注意的是,即便这种评估方式以单词级质量评估为基础,也不意味这句子级质量评估只是在单词级质量评估的结果上通过简单的计算来获得其得分,在实际研究中,常将其视为一个回归问题,利用大量数据学习其评分规则。
\parinterval
这种质量评估方式往往以单词级质量评估为基础,在其结果的基础上进行计算。以实例
\ref
{
eg:4-7
}
中词级质量评估结果为例,与编辑后结果相比较,机器翻译译文中有四处漏译(``Mit''
、``können''、``Sie''、``einzelne'')、三处误译(``dem''、
\\
``Scharfzeichner''、``scharfzeichnen''分别被误译为``Der''、``Schärfen-Werkezug''、
``Schärfer'')、一处多译(``erscheint''),因而需要进行4次插入操作、3次替换操作和1次删除操作,而最终译文长度为12,则有
$
\rm
HTER
=(
4
+
3
+
1
)/
12
=
0
.
667
$
。需要注意的是,即便这种评估方式以单词级质量评估为基础,也不意味这句子级质量评估只是在单词级质量评估的结果上通过简单的计算来获得其得分,在实际研究中,常将其视为一个回归问题,利用大量数据学习其评分规则。
\vspace
{
0.5em
}
\end{itemize}
...
...
编写
预览
Markdown
格式
0%
重试
或
添加新文件
添加附件
取消
您添加了
0
人
到此讨论。请谨慎行事。
请先完成此评论的编辑!
取消
请
注册
或者
登录
后发表评论