Skip to content
项目
群组
代码片段
帮助
当前项目
正在载入...
登录 / 注册
切换导航面板
T
Toy-MT-Introduction
概览
Overview
Details
Activity
Cycle Analytics
版本库
Repository
Files
Commits
Branches
Tags
Contributors
Graph
Compare
Charts
问题
0
Issues
0
列表
Board
标记
里程碑
合并请求
0
Merge Requests
0
CI / CD
CI / CD
流水线
作业
日程表
图表
维基
Wiki
代码片段
Snippets
成员
Collapse sidebar
Close sidebar
活动
图像
聊天
创建新问题
作业
提交
Issue Boards
Open sidebar
单韦乔
Toy-MT-Introduction
Commits
602a1bd3
Commit
602a1bd3
authored
Mar 09, 2020
by
xiaotong
Browse files
Options
Browse Files
Download
Email Patches
Plain Diff
updates of section 6 (book)
parent
65fd1ab3
显示空白字符变更
内嵌
并排
正在显示
1 个修改的文件
包含
8 行增加
和
8 行删除
+8
-8
Book/Chapter6/Chapter6.tex
+8
-8
没有找到文件。
Book/Chapter6/Chapter6.tex
查看文件 @
602a1bd3
...
@@ -108,20 +108,20 @@
...
@@ -108,20 +108,20 @@
\centering
\centering
%\includegraphics[scale=0.7]{./Chapter6/Figures/mTER of different systems.png}
%\includegraphics[scale=0.7]{./Chapter6/Figures/mTER of different systems.png}
\input
{
./Chapter6/Figures/figure-score-of-mTER
}
\input
{
./Chapter6/Figures/figure-score-of-mTER
}
\caption
{
不同系统在不同长度句子
的mTER分值(神经机器翻译系统:NMT;统计机器翻译系统:SPB、HPB、PBSY)
}
\caption
{
不同系统在不同长度句子
上的mTER分值
}
\label
{
fig:6-3
}
\label
{
fig:6-3
}
\end{figure}
\end{figure}
%----------------------------------------------
%----------------------------------------------
\parinterval
除了上面例子中展示的流畅度和准确度外,
NMT的译文质量已全面优于统计机器翻译
\cite
{
Bentivogli2016NeuralVP
}
。在IWSLT 2015英语-德语任务中,与三个最先进的统计机器翻译系统(PBSY、HPB、SPB)相比,NMT译文的mTER得分在不同长度句子上都得到了明显的下降,如图
\ref
{
fig:6-3
}
(mTER越低越好)。其次,NMT翻译的单词的形态错误率(表
\ref
{
tab:HTER
}
``
\%
Δ'')和单词词义错误率(表
\ref
{
tab:HTER
}
``word'')都远低于统计机器翻译系统。并且,NMT译文与参考译文之间的KRS得分(88.3)大于表
\ref
{
tab:KRS
}
中任何一个PBMT系统(KRS得分表明了系统翻译的句子与标准句子之间的字序相关性,其分值越高越好)
。
\parinterval
除了上面例子中展示的流畅度和准确度外,
神经机器翻译在其它评价指标上的表现也全面超越统计机器翻译
\cite
{
Bentivogli2016NeuralVP
}
。比如,在IWSLT 2015英语-德语任务中,与三个最先进的统计机器翻译系统(PBSY、HPB、SPB)相比,神经机器翻译系统的mTER得分在不同长度句子上都得到了明显的下降,如图
\ref
{
fig:6-3
}
\footnote
{
mTER是一种错误率度量,值越低表明译文越好。
}
。其次,神经机器翻译的单词形态错误率和单词词义错误率都远低于统计机器翻译系统(表
\ref
{
tab:HTER
}
)。并且,神经机器翻译系统的KRS得分也优于统计机器翻译系统(表
\ref
{
tab:KRS
}
)
\footnote
{
KRS得分度量了了机器翻译译文与参考译文之间的字序相关性,其分值越高越好。
}
。
%----------------------------------------------
%----------------------------------------------
% 表
% 表
\begin{table}
[htp]
\begin{table}
[htp]
\centering
\centering
\caption
{
NMT与
最优秀的统计机器翻译系统译文的错误率得分
}
\caption
{
NMT与
SMT系统的译文错误率
\cite
{
Bentivogli2016NeuralVP
}
}
\label
{
tab:HTER
}
\label
{
tab:HTER
}
\begin{tabular}
{
c|cc
c
}
\begin{tabular}
{
r|ll
c
}
% & \multicolumn{2}{c}{HTERnoShift} & \\
% & \multicolumn{2}{c}{HTERnoShift} & \\
\textbf
{
system
}
&
\textbf
{
word
}
&
\textbf
{
lemma
}
&
\textbf
{
\%
Δ
}
\\
\hline
\textbf
{
system
}
&
\textbf
{
word
}
&
\textbf
{
lemma
}
&
\textbf
{
\%
Δ
}
\\
\hline
PBSY
&
27.1
&
22.5
&
-16.9
\\
PBSY
&
27.1
&
22.5
&
-16.9
\\
...
@@ -135,9 +135,9 @@ NMT & $ 21.7^{\ast}$ & $18.7^{\ast}$ & -1
...
@@ -135,9 +135,9 @@ NMT & $ 21.7^{\ast}$ & $18.7^{\ast}$ & -1
% 表
% 表
\begin{table}
[htp]
\begin{table}
[htp]
\centering
\centering
\caption
{
根据HTER计算和KRS中的移位运算对单词重新排序进行评估。对于每个系统,将报告生成的单词数,移位错误数及其相应的百分比
}
\caption
{
NMT与SMT系统的KRS得分、移位错误数和百分比
\cite
{
Bentivogli2016NeuralVP
}
}
\label
{
tab:KRS
}
\label
{
tab:KRS
}
\begin{tabular}
{
l
| l l l l
}
\begin{tabular}
{
r
| l l l l
}
\textbf
{
system
}
&
\textbf
{
\#
words
}
&
\textbf
{
\#
shifts
}
&
\textbf
{
\%
shifts
}
&
\textbf
{
KRS
}
\\
\hline
\textbf
{
system
}
&
\textbf
{
\#
words
}
&
\textbf
{
\#
shifts
}
&
\textbf
{
\%
shifts
}
&
\textbf
{
KRS
}
\\
\hline
PBSY
&
11.517
&
354
&
3.1
&
84.6
\\
PBSY
&
11.517
&
354
&
3.1
&
84.6
\\
HPB
&
11.417
&
415
&
3.6
&
84.3
\\
HPB
&
11.417
&
415
&
3.6
&
84.3
\\
...
@@ -169,13 +169,13 @@ NMT & $ 21.7^{\ast}$ & $18.7^{\ast}$ & -1
...
@@ -169,13 +169,13 @@ NMT & $ 21.7^{\ast}$ & $18.7^{\ast}$ & -1
%--------------------------------------
%--------------------------------------
\parinterval
在最近两年,神经机器翻译的发展更加迅速,新的模型、方法层出不穷。表
\ref
{
tab:result-of-wmt14
}
就给了2019年对当时
一些主流的神经机器翻译模型的对比
\cite
{
WangLearning
}
。可以看到,相比2017年,2018-2019年中机器翻译仍然有明显的进步。
\parinterval
在最近两年,神经机器翻译的发展更加迅速,新的模型、方法层出不穷。表
\ref
{
tab:result-of-wmt14
}
给出了2019年
一些主流的神经机器翻译模型的对比
\cite
{
WangLearning
}
。可以看到,相比2017年,2018-2019年中机器翻译仍然有明显的进步。
%----------------------------------------------
%----------------------------------------------
% 表
% 表
\begin{table}
[htp]
\begin{table}
[htp]
\centering
\centering
\caption
{
WMT14英德数据集上神经机器翻译系统的表现
\cite
{
WangLearning
}}
\caption
{
WMT14英德数据集上
不同
神经机器翻译系统的表现
\cite
{
WangLearning
}}
\label
{
tab:result-of-wmt14
}
\label
{
tab:result-of-wmt14
}
\begin{tabular}
{
l | l l l
}
\begin{tabular}
{
l | l l l
}
\textbf
{
模型
}
&
\textbf
{
作者
}
&
\textbf
{
年份
}
&
\textbf
{
BLEU
}
\\
\hline
\textbf
{
模型
}
&
\textbf
{
作者
}
&
\textbf
{
年份
}
&
\textbf
{
BLEU
}
\\
\hline
...
...
编写
预览
Markdown
格式
0%
重试
或
添加新文件
添加附件
取消
您添加了
0
人
到此讨论。请谨慎行事。
请先完成此评论的编辑!
取消
请
注册
或者
登录
后发表评论