Skip to content
项目
群组
代码片段
帮助
当前项目
正在载入...
登录 / 注册
切换导航面板
M
mtbookv2
概览
Overview
Details
Activity
Cycle Analytics
版本库
Repository
Files
Commits
Branches
Tags
Contributors
Graph
Compare
Charts
问题
0
Issues
0
列表
Board
标记
里程碑
合并请求
0
Merge Requests
0
CI / CD
CI / CD
流水线
作业
日程表
图表
维基
Wiki
代码片段
Snippets
成员
Collapse sidebar
Close sidebar
活动
图像
聊天
创建新问题
作业
提交
Issue Boards
Open sidebar
NiuTrans
mtbookv2
Commits
86678898
Commit
86678898
authored
Jan 09, 2021
by
曹润柘
Browse files
Options
Browse Files
Download
Email Patches
Plain Diff
update
parent
4bdbbb31
显示空白字符变更
内嵌
并排
正在显示
2 个修改的文件
包含
3 行增加
和
3 行删除
+3
-3
Chapter7/chapter7.tex
+1
-1
Chapter8/Figures/figure-phrase-structure-tree-and-dependency-tree.tex
+2
-2
没有找到文件。
Chapter7/chapter7.tex
查看文件 @
86678898
...
@@ -652,7 +652,7 @@ dr & = & {\rm{start}}_i-{\rm{end}}_{i-1}-1
...
@@ -652,7 +652,7 @@ dr & = & {\rm{start}}_i-{\rm{end}}_{i-1}-1
\parinterval
想要得到最优的特征权重,最简单的方法是枚举所有特征权重可能的取值,然后评价每组权重所对应的翻译性能,最后选择最优的特征权重作为调优的结果。但是特征权重是一个实数值,因此可以考虑把实数权重进行量化,即把权重看作是在固定间隔上的取值,比如,每隔0.01取值。即使是这样,同时枚举多个特征的权重也是非常耗时的工作,当特征数量增多时这种方法的效率仍然很低。
\parinterval
想要得到最优的特征权重,最简单的方法是枚举所有特征权重可能的取值,然后评价每组权重所对应的翻译性能,最后选择最优的特征权重作为调优的结果。但是特征权重是一个实数值,因此可以考虑把实数权重进行量化,即把权重看作是在固定间隔上的取值,比如,每隔0.01取值。即使是这样,同时枚举多个特征的权重也是非常耗时的工作,当特征数量增多时这种方法的效率仍然很低。
\parinterval
这里介绍一种更加高效的特征权重调优方法
$
\ \dash
\
${
\small\bfnew
{
最小错误率训练
}}
\index
{
最小错误率训练
}
(Minimum Error Rate Training
\index
{
Minimum Error Rate Training
}
,MERT)。最小错误率训练是统计机器翻译发展中代表性工作,也是机器翻译领域原创的重要技术方法之一
\upcite
{
DBLP:conf/acl/Och03
}
。最小错误率训练假设:翻译结果相对于标准答案的错误是可度量的,进而可以通过降低错误数量的方式来找到最优的特征权重。假设有样本集合
$
S
=
\{
(
s
_
1
,
\seq
{
r
}_
1
)
,...,
(
s
_
N,
\seq
{
r
}_
N
)
\}
$
,
$
s
_
i
$
为样本中第
$
i
$
个源语言句子,
$
\seq
{
r
}_
i
$
为相应的参考译文。注意,
$
\seq
{
r
}_
i
$
可以包含多个参考译文。
$
S
$
通常被称为
{
\small\bfnew
{
调优集合
}}
\index
{
调优集合
}
(Tuning Set)
\index
{
Tuning Set
}
。对于
$
S
$
中的每个源语句子
$
s
_
i
$
,机器翻译模型会解码出
$
n
$
-best推导
$
\hat
{
\seq
{
d
}}_{
i
}
=
\{\hat
{
d
}_{
ij
}
\}
$
,其中
$
\hat
{
d
}_{
ij
}$
表示对于源语言句子
$
s
_
i
$
得到的第
$
j
$
个最好的推导。
$
\{\hat
{
d
}_{
ij
}
\}
$
可以被定义如下:
\parinterval
这里介绍一种更加高效的特征权重调优方法
$
\ \dash
\
${
\small\bfnew
{
最小错误率训练
}}
\index
{
最小错误率训练
}
(Minimum Error Rate Training
\index
{
Minimum Error Rate Training
}
,MERT)。最小错误率训练是统计机器翻译发展中代表性工作,也是机器翻译领域原创的重要技术方法之一
\upcite
{
DBLP:conf/acl/Och03
}
。最小错误率训练假设:翻译结果相对于标准答案的错误是可度量的,进而可以通过降低错误数量的方式来找到最优的特征权重。假设有样本集合
$
S
=
\{
(
s
^{
[
1
]
}
,
\seq
{
r
}^{
[
1
]
}
)
,...,
(
s
^{
[
N
]
}
,
\seq
{
r
}^{
[
N
]
}
)
\}
$
,
$
s
^{
[
i
]
}$
为样本中第
$
i
$
个源语言句子,
$
\seq
{
r
}^{
[
i
]
}$
为相应的参考译文。注意,
$
\seq
{
r
}^{
[
i
]
}$
可以包含多个参考译文。
$
S
$
通常被称为
{
\small\bfnew
{
调优集合
}}
\index
{
调优集合
}
(Tuning Set)
\index
{
Tuning Set
}
。对于
$
S
$
中的每个源语句子
$
s
^{
[
i
]
}$
,机器翻译模型会解码出
$
n
$
-best推导
$
\hat
{
\seq
{
d
}}_{
i
}
=
\{\hat
{
d
}_{
ij
}
\}
$
,其中
$
\hat
{
d
}_{
ij
}$
表示对于源语言句子
$
s
^{
[
i
]
}
$
得到的第
$
j
$
个最好的推导。
$
\{\hat
{
d
}_{
ij
}
\}
$
可以被定义如下:
\begin{eqnarray}
\begin{eqnarray}
\{\hat
{
d
}_{
ij
}
\}
&
=
&
\arg\max
_{
\{
d
_{
ij
}
\}
}
\sum
_{
i=1
}^{
M
}
\lambda
_
i
\cdot
h
_
i (d,
\seq
{
t
}
,
\seq
{
s
}
)
\{\hat
{
d
}_{
ij
}
\}
&
=
&
\arg\max
_{
\{
d
_{
ij
}
\}
}
\sum
_{
i=1
}^{
M
}
\lambda
_
i
\cdot
h
_
i (d,
\seq
{
t
}
,
\seq
{
s
}
)
...
...
Chapter8/Figures/figure-phrase-structure-tree-and-dependency-tree.tex
查看文件 @
86678898
...
@@ -23,8 +23,8 @@
...
@@ -23,8 +23,8 @@
\node
[anchor=west] (t4) at ([xshift=0.5em,]t3.east)
{
ball
}
;
\node
[anchor=west] (t4) at ([xshift=0.5em,]t3.east)
{
ball
}
;
\draw
[->] ([xshift=0em]t3.north) .. controls +(north:1em) and +(north:1em) .. ([xshift=-0.2em]t4.north);
\draw
[->] ([xshift=0em]t3.north) .. controls +(north:1em) and +(north:1em) .. ([xshift=-0.2em]t4.north);
\draw
[
->
] ([xshift=0.2em]t4.north) .. controls +(north:2.5em) and +(north:2.5em) .. ([xshift=0.2em]t2.north);
\draw
[
<-
] ([xshift=0.2em]t4.north) .. controls +(north:2.5em) and +(north:2.5em) .. ([xshift=0.2em]t2.north);
\draw
[
->
] ([xshift=0.0em]t1.north) .. controls +(north:2.5em) and +(north:2.5em) .. ([xshift=-0.2em]t2.north);
\draw
[
<-
] ([xshift=0.0em]t1.north) .. controls +(north:2.5em) and +(north:2.5em) .. ([xshift=-0.2em]t2.north);
\node
[anchor=north west] (cap2) at ([yshift=-0.2em,xshift=-0.5em]t2.south west)
{
\small
{
(b) 依存树
}}
;
\node
[anchor=north west] (cap2) at ([yshift=-0.2em,xshift=-0.5em]t2.south west)
{
\small
{
(b) 依存树
}}
;
\end{scope}
\end{scope}
...
...
编写
预览
Markdown
格式
0%
重试
或
添加新文件
添加附件
取消
您添加了
0
人
到此讨论。请谨慎行事。
请先完成此评论的编辑!
取消
请
注册
或者
登录
后发表评论