Skip to content
项目
群组
代码片段
帮助
当前项目
正在载入...
登录 / 注册
切换导航面板
M
mtbookv2
概览
Overview
Details
Activity
Cycle Analytics
版本库
Repository
Files
Commits
Branches
Tags
Contributors
Graph
Compare
Charts
问题
0
Issues
0
列表
Board
标记
里程碑
合并请求
0
Merge Requests
0
CI / CD
CI / CD
流水线
作业
日程表
图表
维基
Wiki
代码片段
Snippets
成员
Collapse sidebar
Close sidebar
活动
图像
聊天
创建新问题
作业
提交
Issue Boards
Open sidebar
NiuTrans
mtbookv2
Commits
e9d44aef
Commit
e9d44aef
authored
Jan 06, 2021
by
xiaotong
Browse files
Options
Browse Files
Download
Email Patches
Plain Diff
wording (sec 15)
parent
cb9e76ab
显示空白字符变更
内嵌
并排
正在显示
1 个修改的文件
包含
1 行增加
和
1 行删除
+1
-1
Chapter15/chapter15.tex
+1
-1
没有找到文件。
Chapter15/chapter15.tex
查看文件 @
e9d44aef
...
...
@@ -1015,7 +1015,7 @@ lr &=& d_{\textrm{model}}^{-0.5}\cdot step\_num^{-0.5}
\parinterval
另一种方法是直接在目标语言端使用句法树进行建模。与源语言句法树的建模不同,目标语言句法树的生成伴随着译文的生成,因此无法像源语言端一样将整个句法树一起处理。这样译文生成问题本质上就变成了目标语言树结构的生成,从这个角度说,这个过程与统计机器翻译中串到树的模型是类似的(见
{
\chaptereight
}
)。树结构的生成有很多种策略,基本的思想均是根据已经生成的局部结构预测新的局部结构,并将这些局部结构拼装成更大的结构,直到得到完整的句法树结构
\upcite
{
DBLP:conf/iclr/Alvarez-MelisJ17
}{
\red
(文献格式错误?)
}
。
\parinterval
实现目标语言句法树生成的一种手段是将形式文法扩展,以适应分布式表示学习框架。这样,可以使用形式文法描述句法树的生成过程(见
{
\chapterthree
}
),同时利用分布式表示来进行建模和学习。比如,可以使用基于循环神经网络的文法描述方法,把句法分析过程看作是一个循环神经网络的执行过程
\upcite
{
DBLP:conf/naacl/DyerKBS16
}{
\red
(文献格式错误?)
}
。此外,也可以从
多任务
学习出发,用多个解码端共同完成目标语言句子的生成
\upcite
{
DBLP:journals/corr/LuongLSVK15
}{
\red
(文献格式错误?)
}
。图
\ref
{
fig:15-25
}
展示了由一个编码器(汉语)和多个解码器组成的序列生成模型。其中不同解码器分别负责不同的任务:第一个用于预测翻译结果,即翻译任务;
{
\red
第二个用于预测句法结构;第三个用于重新生成源语言序列,进行自编码。(描述和图不对应?)
}
其设计思想是各个任务之间能够相互辅助,使得编码器的表示能包含更多的信息,进而让多个任务都获得性能提升。这种方法也可以使用在多个编码器上,其思想是类似的。
\parinterval
实现目标语言句法树生成的一种手段是将形式文法扩展,以适应分布式表示学习框架。这样,可以使用形式文法描述句法树的生成过程(见
{
\chapterthree
}
),同时利用分布式表示来进行建模和学习。比如,可以使用基于循环神经网络的文法描述方法,把句法分析过程看作是一个循环神经网络的执行过程
\upcite
{
DBLP:conf/naacl/DyerKBS16
}{
\red
(文献格式错误?)
}
。此外,也可以从
{
\small\sffamily\bfnew
{
多任务学习
}}
\index
{
多任务学习
}
(Multitask Learning)
\index
{
Multitask Learning
}
学习出发,用多个解码端共同完成目标语言句子的生成
\upcite
{
DBLP:journals/corr/LuongLSVK15
}{
\red
(文献格式错误?)
}
。图
\ref
{
fig:15-25
}
展示了由一个编码器(汉语)和多个解码器组成的序列生成模型。其中不同解码器分别负责不同的任务:第一个用于预测翻译结果,即翻译任务;
{
\red
第二个用于预测句法结构;第三个用于重新生成源语言序列,进行自编码。(描述和图不对应?)
}
其设计思想是各个任务之间能够相互辅助,使得编码器的表示能包含更多的信息,进而让多个任务都获得性能提升。这种方法也可以使用在多个编码器上,其思想是类似的。
%----------------------------------------------
\begin{figure}
[htp]
...
...
编写
预览
Markdown
格式
0%
重试
或
添加新文件
添加附件
取消
您添加了
0
人
到此讨论。请谨慎行事。
请先完成此评论的编辑!
取消
请
注册
或者
登录
后发表评论