Skip to content
项目
群组
代码片段
帮助
当前项目
正在载入...
登录 / 注册
切换导航面板
M
mtbookv2
概览
Overview
Details
Activity
Cycle Analytics
版本库
Repository
Files
Commits
Branches
Tags
Contributors
Graph
Compare
Charts
问题
0
Issues
0
列表
Board
标记
里程碑
合并请求
0
Merge Requests
0
CI / CD
CI / CD
流水线
作业
日程表
图表
维基
Wiki
代码片段
Snippets
成员
Collapse sidebar
Close sidebar
活动
图像
聊天
创建新问题
作业
提交
Issue Boards
Open sidebar
NiuTrans
mtbookv2
Commits
c3378c31
Commit
c3378c31
authored
Jul 12, 2021
by
曹润柘
Browse files
Options
Browse Files
Download
Plain Diff
合并分支 'caorunzhe' 到 'master'
Caorunzhe 查看合并请求
!1111
parents
0fdce2fb
44254c21
隐藏空白字符变更
内嵌
并排
正在显示
3 个修改的文件
包含
1 行增加
和
4 行删除
+1
-4
Chapter13/chapter13.tex
+1
-2
Chapter15/chapter15.tex
+0
-1
Chapter2/chapter2.tex
+0
-1
没有找到文件。
Chapter13/chapter13.tex
查看文件 @
c3378c31
...
...
@@ -41,7 +41,6 @@
% NEW SECTION
%----------------------------------------------------------------------------------------
\sectionnewpage
\section
{
开放词表
}
\parinterval
对于神经机器翻译而言,研究人员通常希望使用更大的词表完成模型训练。因为大词表可以覆盖更多的语言现象,使模型对不同的语言现象有更强的区分能力。但是,人类的语言表达方式是十分多样的,这也体现在单词的构成上,甚至人们都无法想象数据中存在的不同单词的数量。比如,在WMT、CCMT等评测数据上,英语词表大小都会在100万以上。如果不加限制,机器翻译的词表将会很“大”。这也会导致模型参数量变大,模型训练变得极为困难。更严重的问题是,测试数据中的一些单词根本就没有在训练数据中出现过,这时会出现未登录词翻译问题(即OOV问题),即系统无法对未见单词进行翻译。在神经机器翻译中,通常会考虑使用更小的翻译单元来缓解数据稀疏问题。
...
...
@@ -707,7 +706,7 @@ L_{\textrm{seq}} = - \textrm{logP}_{\textrm{s}}(\hat{\seq{y}} | \seq{x})
\label
{
eq:13-24
}
\end{eqnarray}
这样的损失函数最直接的好处是,知识蒸馏的流程会非常简单。因为只需要利用教师模型将训练数据(源语言)翻译一遍,之后把它的输出
替换为训练数据的目标语言部分
。之后,利用新得到的双语数据训练学生模型即可。图
\ref
{
fig:13-12
}
对比了词级和序列级知识蒸馏方法。
这样的损失函数最直接的好处是,知识蒸馏的流程会非常简单。因为只需要利用教师模型将训练数据(源语言)翻译一遍,之后把它的输出
作为训练数据的目标语言部分构造出新的双语数据
。之后,利用新得到的双语数据训练学生模型即可。图
\ref
{
fig:13-12
}
对比了词级和序列级知识蒸馏方法。
\vspace
{
0.5em
}
\end{itemize}
...
...
Chapter15/chapter15.tex
查看文件 @
c3378c31
...
...
@@ -31,7 +31,6 @@
% NEW SECTION
%----------------------------------------------------------------------------------------
\sectionnewpage
\section
{
注意力机制的改进
}
\parinterval
注意力机制是神经机器翻译成功的关键。以Transformer模型为例,由于使用了自注意力机制,该模型展现出较高的训练并行性,同时在机器翻译、语言建模等任务上,该模型也取得了很好的表现。但是Transformer模型仍存在许多亟待解决的问题,例如,在处理长文本序列时(假设文本长度为
$
N
$
),自注意力机制的时间复杂度为
$
O
(
N
^
2
)
$
,当
$
N
$
过大时翻译速度很低。此外,尽管Transformer模型的输入中包含了绝对位置编码表示,但是现有的自注意力机制仍然无法显性捕获局部窗口下不同位置之间的关系。而且注意力机制也需要更多样的手段进行特征提取,例如,采用多头或者多分支结构对不同空间特征进行提取。针对以上问题,本节将介绍注意力机制的优化策略,并重点讨论Transformer模型的若干改进方法。
...
...
Chapter2/chapter2.tex
查看文件 @
c3378c31
...
...
@@ -32,7 +32,6 @@
% NEW SECTION
%----------------------------------------------------------------------------------------
\sectionnewpage
\section
{
概率论基础
}
\parinterval
为了便于后续内容的介绍,首先对本书中使用的概率和统计学概念进行简要说明。
...
...
编写
预览
Markdown
格式
0%
重试
或
添加新文件
添加附件
取消
您添加了
0
人
到此讨论。请谨慎行事。
请先完成此评论的编辑!
取消
请
注册
或者
登录
后发表评论