Skip to content
项目
群组
代码片段
帮助
当前项目
正在载入...
登录 / 注册
切换导航面板
T
Toy-MT-Introduction
概览
Overview
Details
Activity
Cycle Analytics
版本库
Repository
Files
Commits
Branches
Tags
Contributors
Graph
Compare
Charts
问题
0
Issues
0
列表
Board
标记
里程碑
合并请求
0
Merge Requests
0
CI / CD
CI / CD
流水线
作业
日程表
图表
维基
Wiki
代码片段
Snippets
成员
Collapse sidebar
Close sidebar
活动
图像
聊天
创建新问题
作业
提交
Issue Boards
Open sidebar
NiuTrans
Toy-MT-Introduction
Commits
57dc6137
Commit
57dc6137
authored
May 15, 2020
by
xiaotong
Browse files
Options
Browse Files
Download
Email Patches
Plain Diff
updates of further reading
parent
02f515c5
显示空白字符变更
内嵌
并排
正在显示
1 个修改的文件
包含
5 行增加
和
3 行删除
+5
-3
Book/Chapter7/Chapter7.tex
+5
-3
没有找到文件。
Book/Chapter7/Chapter7.tex
查看文件 @
57dc6137
...
...
@@ -1862,11 +1862,13 @@ L_{\textrm{seq}} = - \textrm{logP}_{\textrm{s}}(\hat{\mathbf{y}} | \mathbf{x})
\vspace
{
0.5em
}
\item
无指导机器翻译。无指导机器翻译由于其不需要双语语料即可训练翻译模型的特性,在稀缺资源机器翻译的场景中有非常大的潜力而得到广泛的关注。目前无指导机器翻译主要有两种范式:第一种先得到词典的翻译,然后得到短语表的翻译和相应的统计机器翻译系统,最后使用统计机器翻译系统生成伪双语平行语料训练神经机器翻译系统
\cite
{
DBLP:conf/acl/ArtetxeLA19
}
;第二种是先预训练语言模型来初始化神经机器翻译系统的编码器和解码器,然后使用翻译中回译以及降噪自编码器来训练神经机器翻译系统
\cite
{
lample2019cross
}
。尽管目前无指导机器翻译在富资源的语种上取得了很大进展,但是离实际应用还有很远距离。比如,目前无指导系统都依赖于大量单语数据,而实际上稀缺资源的语种不但双语语料少,单语语料也少;此外,这些系统还无法在远距离如中英这些字母表重合少,需要大范围调序的语种对上取得可接受的结果;使用大量单语训练无指导系统还面临数据来自于不同领域的问题
\cite
{
DBLP:journals/corr/abs-2004-05516
}
。设计更鲁棒,使用单语数据更高效的无指导机器翻译方法乃至新范式会是未来的趋势。
\vspace
{
0.5em
}
\item
更多上下文信息的建模。由于人类语言潜在的歧义性,传统的神经机器翻译在单句翻译中可能会出现歧义。为此,一些研究工作在翻译过程中尝试引入更多的上下文信息,比如多模态翻译、基于树的翻译或者篇章级翻译。多模态
翻译的目标就是在给定一个图片和其源语描述的情况下,生成目标语言的描述。一般做法就是通过一个额外的编码器来提取图像特征
\cite
{
DBLP:journals/corr/ElliottFH15,DBLP:conf/acl/HitschlerSR16
}
,然后通过权重门控机制、注意力网络等融合到系统中
\cite
{
DBLP:conf/wmt/HuangLSOD16
}
。
\item
图片翻译。由于人类语言潜在的歧义性,传统的神经机器翻译在单句翻译中可能会出现歧义。为此,一些研究工作在翻译过程中尝试引入更多的上下文信息,比如多模态翻译、基于树的翻译或者篇章级翻译。比如,图片
翻译的目标就是在给定一个图片和其源语描述的情况下,生成目标语言的描述。一般做法就是通过一个额外的编码器来提取图像特征
\cite
{
DBLP:journals/corr/ElliottFH15,DBLP:conf/acl/HitschlerSR16
}
,然后通过权重门控机制、注意力网络等融合到系统中
\cite
{
DBLP:conf/wmt/HuangLSOD16
}
。
\parinterval
基于树的翻译是指在翻译模型中引入句法结构树或依存树,从而引入更多的句法信息。一种常用的做法是将句法树进行序列化,从而保留序列到序列的模型结构
\cite
{
DBLP:conf/emnlp/CurreyH18,DBLP:conf/acl/SaundersSGB18
}
。在此基础上,一些研究工作引入了更多的解析结果
\cite
{
DBLP:conf/acl/SumitaUZTM18,DBLP:conf/coling/ZaremoodiH18
}
。同时,也有一些研究工作直接使用Tree-LSTMs等网络结构
\cite
{
DBLP:conf/acl/TaiSM15,DBLP:conf/iclr/ShenTSC19
}
来直接表示树结构,并将其应用到神经机器翻译模型中
\cite
{
DBLP:conf/acl/EriguchiHT16,Yang2017TowardsBH,DBLP:conf/acl/ChenHCC17
}
。
\vspace
{
0.5em
}
\item
基于树的翻译。这类方法在翻译模型中引入句法结构树或依存树,从而引入更多的句法信息。一种常用的做法是将句法树进行序列化,从而保留序列到序列的模型结构
\cite
{
DBLP:conf/emnlp/CurreyH18,DBLP:conf/acl/SaundersSGB18
}
。在此基础上,一些研究工作引入了更多的解析结果
\cite
{
DBLP:conf/acl/SumitaUZTM18,DBLP:conf/coling/ZaremoodiH18
}
。同时,也有一些研究工作直接使用Tree-LSTMs等网络结构
\cite
{
DBLP:conf/acl/TaiSM15,DBLP:conf/iclr/ShenTSC19
}
来直接表示树结构,并将其应用到神经机器翻译模型中
\cite
{
DBLP:conf/acl/EriguchiHT16,Yang2017TowardsBH,DBLP:conf/acl/ChenHCC17
}
。
\parinterval
篇章级翻译是为了引入篇章级上下文信息,来处理篇章翻译中译文不连贯,主谓不一致等歧义现象。为此,一些研究人员针对该问题进行了改进,主要可以分为两类方法:一种是将当前句子与上下文进行句子级的拼接,不改变模型的结构
\cite
{
DBLP:conf/discomt/TiedemannS17
}
,另外一种是采用额外的编码器来捕获篇章信息
\cite
{
DBLP:journals/corr/JeanLFC17,DBLP:journals/corr/abs-1805-10163,DBLP:conf/emnlp/ZhangLSZXZL18
}
。编码器的结构除了传统的RNN、自注意力网络,还有利用层级注意力来编码之前的多句上文
\cite
{
Werlen2018DocumentLevelNM,tan-etal-2019-hierarchical
}
,使用可选择的稀疏注意力机制对整个文档进行篇章建模
\cite
{
DBLP:conf/naacl/MarufMH19
}
,使用记忆网络、缓存机制等对篇章中的关键词进行提取
\cite
{
DBLP:conf/coling/KuangXLZ18,DBLP:journals/tacl/TuLSZ18
}
或者采用两阶段解码的方式
\cite
{
DBLP:conf/aaai/XiongH0W19,DBLP:conf/acl/VoitaST19
}
。除了从建模角度引入上下文信息,也有一些工作使用篇章级修正模型
\cite
{
DBLP:conf/emnlp/VoitaST19
}
或者语言模型
\cite
{
DBLP:journals/corr/abs-1910-00553
}
对句子级翻译模型的译文进行修正,或者通过自学习在解码过程中保持翻译连贯性
\cite
{
DBLP:journals/corr/abs-2003-05259
}
。
\vspace
{
0.5em
}
\item
篇章级翻译。可以通过引入篇章级上下文信息,来处理篇章翻译中译文不连贯,主谓不一致等问题。为此,一些研究人员针对该问题进行了改进,主要可以分为两类方法:一种是将当前句子与上下文进行句子级的拼接,不改变模型的结构
\cite
{
DBLP:conf/discomt/TiedemannS17
}
,另外一种是采用额外的编码器来捕获篇章信息
\cite
{
DBLP:journals/corr/JeanLFC17,DBLP:journals/corr/abs-1805-10163,DBLP:conf/emnlp/ZhangLSZXZL18
}
。编码器的结构除了传统的RNN、自注意力网络,还有利用层级注意力来编码之前的多句上文
\cite
{
Werlen2018DocumentLevelNM,tan-etal-2019-hierarchical
}
,使用可选择的稀疏注意力机制对整个文档进行篇章建模
\cite
{
DBLP:conf/naacl/MarufMH19
}
,使用记忆网络、缓存机制等对篇章中的关键词进行提取
\cite
{
DBLP:conf/coling/KuangXLZ18,DBLP:journals/tacl/TuLSZ18
}
或者采用两阶段解码的方式
\cite
{
DBLP:conf/aaai/XiongH0W19,DBLP:conf/acl/VoitaST19
}
。除了从建模角度引入上下文信息,也有一些工作使用篇章级修正模型
\cite
{
DBLP:conf/emnlp/VoitaST19
}
或者语言模型
\cite
{
DBLP:journals/corr/abs-1910-00553
}
对句子级翻译模型的译文进行修正,或者通过自学习在解码过程中保持翻译连贯性
\cite
{
DBLP:journals/corr/abs-2003-05259
}
。
\vspace
{
0.5em
}
\item
语音翻译。在日常生活中,语音翻译也是有很大的需求。针对语音到文本翻译的特点,最简单的做法是使用自动语音识别(ASR)将语音转换成文本,然后送入文本翻译模型进行翻译
\cite
{
DBLP:conf/icassp/Ney99,DBLP:conf/interspeech/MatusovKN05
}
。然而为了避免流水线中的错误传播和高延迟问题,现在通常采用端到端的建模做法
\cite
{
DBLP:conf/naacl/DuongACBC16,DBLP:journals/corr/BerardPSB16
}
。同时,针对语音翻译数据稀缺的问题,一些研究工作采用各种方法来进行缓解,包括预训练
\cite
{
DBLP:conf/naacl/BansalKLLG19
}
、多任务学习
\cite
{
Weiss2017SequencetoSequenceMC,DBLP:conf/icassp/BerardBKP18
}
、课程学习
\cite
{
DBLP:conf/interspeech/KanoS017
}
、注意力传递
\cite
{
DBLP:journals/tacl/SperberNNW19
}
和知识精炼
\cite
{
DBLP:conf/interspeech/LiuXZHWWZ19,DBLP:conf/icassp/JiaJMWCCALW19
}
。
\vspace
{
0.5em
}
...
...
编写
预览
Markdown
格式
0%
重试
或
添加新文件
添加附件
取消
您添加了
0
人
到此讨论。请谨慎行事。
请先完成此评论的编辑!
取消
请
注册
或者
登录
后发表评论