Skip to content
项目
群组
代码片段
帮助
当前项目
正在载入...
登录 / 注册
切换导航面板
R
ReadingList
概览
Overview
Details
Activity
Cycle Analytics
版本库
Repository
Files
Commits
Branches
Tags
Contributors
Graph
Compare
Charts
问题
0
Issues
0
列表
Board
标记
里程碑
合并请求
0
Merge Requests
0
CI / CD
CI / CD
流水线
作业
日程表
图表
维基
Wiki
代码片段
Snippets
成员
Collapse sidebar
Close sidebar
活动
图像
聊天
创建新问题
作业
提交
Issue Boards
Open sidebar
zengxin
ReadingList
Commits
e40923f8
Commit
e40923f8
authored
Jan 04, 2021
by
zengxin
Browse files
Options
Browse Files
Download
Email Patches
Plain Diff
bleu
parent
0ad7e18b
隐藏空白字符变更
内嵌
并排
正在显示
1 个修改的文件
包含
39 行增加
和
2 行删除
+39
-2
evaluation/evaluation.md
+39
-2
没有找到文件。
evaluation/evaluation.md
查看文件 @
e40923f8
## Bleu: a Method for Automatic Evaluation of Machine Translation , ACL 2002
*
BLEU:
**B**
i
**L**
ingual
**E**
valuation
**U**
nderstudy
\ No newline at end of file
*
BLEU:
**B**
i
**L**
ingual
**E**
valuation
**U**
nderstudy
*
算法详解: https://www.cnblogs.com/by-dream/p/7679284.html
*
“一般来说1-gram的结果代表了文中有多少个词被单独翻译出来了,因此它反映的是这篇译文的忠实度;而当我们计算2-gram以上时,更多时候结果反映的是译文的流畅度,值越高文章的可读性就越好。”
*
优点:
*
计算快
*
与语言无关
*
与人类评价结果高度相关
*
被学术界和工业界广泛采样
*
召回率(recall):是用你查出来的正确的数量除以所有正确的数量
*
准确率(precision):是用你查出来的正确的数量除以所有的数量(包含正确和不正确的数量)。
*
**召回率**
:
*
首先计算$n$-gram在译文中可能出现的最大次数:
$Count_{clip}=min(Count,Max\_Ref\_Count)$
其中$Count$是$n$-gram在机器翻译译文中出现的次数,$Max\_Ref\_Count$是该$n$-gram在参考译文中最大的出现次数。
*
计算:
*
$BLEU=BP
\c
dot exp(
\s
um_{n=1}^N w_n log P_n)$
*
$BP=
\l
eft
\{
\b
egin{array}{cl} 1 & if
\
c > r
\\
e^{1-r/c} & if
\
c
\l
eq r
\e
nd{array}
\r
ight. $
*
baseline : $N=4,w_n=1/N$
*
$c$ 候选译文长度,$r$参考译文长度
*
$P_n =
\f
rac{
\s
um_{c
\i
n
\{
candidates
\}
}
\s
um_{n-gram
\i
n c} Count_{clip}(n-gram)} {
\s
um_{c
\i
n
\{
candidates
\}
}
\s
um_{n-gram
\i
n c} Count(n-gram)}$
编写
预览
Markdown
格式
0%
重试
或
添加新文件
添加附件
取消
您添加了
0
人
到此讨论。请谨慎行事。
请先完成此评论的编辑!
取消
请
注册
或者
登录
后发表评论