Skip to content
项目
群组
代码片段
帮助
当前项目
正在载入...
登录 / 注册
切换导航面板
M
mtbookv2
概览
Overview
Details
Activity
Cycle Analytics
版本库
Repository
Files
Commits
Branches
Tags
Contributors
Graph
Compare
Charts
问题
0
Issues
0
列表
Board
标记
里程碑
合并请求
0
Merge Requests
0
CI / CD
CI / CD
流水线
作业
日程表
图表
维基
Wiki
代码片段
Snippets
成员
Collapse sidebar
Close sidebar
活动
图像
聊天
创建新问题
作业
提交
Issue Boards
Open sidebar
NiuTrans
mtbookv2
Commits
fc9c7d2b
Commit
fc9c7d2b
authored
Jan 08, 2021
by
曹润柘
Browse files
Options
Browse Files
Download
Email Patches
Plain Diff
16 &17
parent
4e41bb1b
隐藏空白字符变更
内嵌
并排
正在显示
2 个修改的文件
包含
21 行增加
和
21 行删除
+21
-21
Chapter16/chapter16.tex
+14
-14
Chapter17/chapter17.tex
+7
-7
没有找到文件。
Chapter16/chapter16.tex
查看文件 @
fc9c7d2b
...
@@ -88,11 +88,11 @@
...
@@ -88,11 +88,11 @@
%----------------------------------------------
%----------------------------------------------
\begin{itemize}
\begin{itemize}
\vspace
{
0.5em
}
\vspace
{
0.5em
}
\item
丢掉单词
:句子中的每个词均有
$
\funp
{
P
}_{
\rm
{
Drop
}}$
的概率被丢弃。
\item
{
\small\bfnew
{
丢掉单词
}}
:句子中的每个词均有
$
\funp
{
P
}_{
\rm
{
Drop
}}$
的概率被丢弃。
\vspace
{
0.5em
}
\vspace
{
0.5em
}
\item
掩码单词
:句子中的每个词均有
$
\funp
{
P
}_{
\rm
{
Mask
}}$
的概率被替换为一个额外的<Mask>词。<Mask>的作用类似于占位符,可以理解为一个句子中的部分词被屏蔽掉,无法得知该位置词的准确含义。
\item
{
\small\bfnew
{
掩码单词
}}
:句子中的每个词均有
$
\funp
{
P
}_{
\rm
{
Mask
}}$
的概率被替换为一个额外的<Mask>词。<Mask>的作用类似于占位符,可以理解为一个句子中的部分词被屏蔽掉,无法得知该位置词的准确含义。
\vspace
{
0.5em
}
\vspace
{
0.5em
}
\item
打乱顺序
:将句子中距离较近的某些词的位置进行随机交换。
\item
{
\small\bfnew
{
打乱顺序
}}
:将句子中距离较近的某些词的位置进行随机交换。
\vspace
{
0.5em
}
\vspace
{
0.5em
}
\end{itemize}
\end{itemize}
%----------------------------------------------
%----------------------------------------------
...
@@ -112,11 +112,11 @@
...
@@ -112,11 +112,11 @@
%----------------------------------------------
%----------------------------------------------
\begin{itemize}
\begin{itemize}
\vspace
{
0.5em
}
\vspace
{
0.5em
}
\item
对单语数据加噪
。通过一个端到端模型预测源语言句子的调序结果,该模型和神经机器翻译模型的编码器共享参数,从而增强编码器的特征提取能力
\upcite
{
DBLP:conf/emnlp/ZhangZ16
}
;
\item
{
\small\bfnew
{
对单语数据加噪
}}
。通过一个端到端模型预测源语言句子的调序结果,该模型和神经机器翻译模型的编码器共享参数,从而增强编码器的特征提取能力
\upcite
{
DBLP:conf/emnlp/ZhangZ16
}
;
\vspace
{
0.5em
}
\vspace
{
0.5em
}
\item
训练降噪自编码器
。将加噪后的句子作为输入,原始句子作为输出,用来训练降噪自编码器,这一思想在无监督机器翻译中得到了广泛应用,详细方法可以参考
\ref
{
unsupervised-NMT
}
节;
\item
{
\small\bfnew
{
训练降噪自编码器
}}
。将加噪后的句子作为输入,原始句子作为输出,用来训练降噪自编码器,这一思想在无监督机器翻译中得到了广泛应用,详细方法可以参考
\ref
{
unsupervised-NMT
}
节;
\vspace
{
0.5em
}
\vspace
{
0.5em
}
\item
对伪数据进行加噪
。比如在上文中提到的对伪数据加入噪声的方法中,通常也使用上述这三种加噪方法来提高伪数据的多样性;
\item
{
\small\bfnew
{
对伪数据进行加噪
}}
。比如在上文中提到的对伪数据加入噪声的方法中,通常也使用上述这三种加噪方法来提高伪数据的多样性;
\vspace
{
0.5em
}
\vspace
{
0.5em
}
\end{itemize}
\end{itemize}
%----------------------------------------------
%----------------------------------------------
...
@@ -512,9 +512,9 @@
...
@@ -512,9 +512,9 @@
\begin{itemize}
\begin{itemize}
\vspace
{
0.5em
}
\vspace
{
0.5em
}
\item
基于无监督的分布匹配
。该步骤利用一些无监督的方法来得到一个包含噪声的初始化词典
$
D
$
。
\item
{
\small\bfnew
{
基于无监督的分布匹配
}}
。该步骤利用一些无监督的方法来得到一个包含噪声的初始化词典
$
D
$
。
\vspace
{
0.5em
}
\vspace
{
0.5em
}
\item
基于有监督的微调
。利用两个单语词嵌入和第一步中学习到的种子字典执行一些对齐算法来迭代微调,例如,
{
\small\bfnew
{
普氏分析
}}
\index
{
普氏分析
}
(Procrustes Analysis
\index
{
Procrustes Analysis
}
)
\upcite
{
1966ASchnemann
}
。
\item
{
\small\bfnew
{
基于有监督的微调
}}
。利用两个单语词嵌入和第一步中学习到的种子字典执行一些对齐算法来迭代微调,例如,
{
\small\bfnew
{
普氏分析
}}
\index
{
普氏分析
}
(Procrustes Analysis
\index
{
Procrustes Analysis
}
)
\upcite
{
1966ASchnemann
}
。
\vspace
{
0.5em
}
\vspace
{
0.5em
}
\end{itemize}
\end{itemize}
...
@@ -542,9 +542,9 @@
...
@@ -542,9 +542,9 @@
\begin{itemize}
\begin{itemize}
\vspace
{
0.5em
}
\vspace
{
0.5em
}
\item
基于生成对抗网络的方法
\upcite
{
DBLP:conf/iclr/LampleCRDJ18,DBLP:conf/acl/ZhangLLS17,DBLP:conf/emnlp/XuYOW18,DBLP:conf/naacl/MohiuddinJ19
}
。在这个方法中,通过生成器来产生映射
$
\mathbi
{
W
}$
,鉴别器负责区分随机抽样的元素
$
\mathbi
{
W
}
\mathbi
{
X
}$
和
$
\mathbi
{
Y
}$
,两者共同优化收敛后即可得到映射
$
\mathbi
{
W
}$
。
\item
{
\small\bfnew
{
基于生成对抗网络的方法
}}
\upcite
{
DBLP:conf/iclr/LampleCRDJ18,DBLP:conf/acl/ZhangLLS17,DBLP:conf/emnlp/XuYOW18,DBLP:conf/naacl/MohiuddinJ19
}
。在这个方法中,通过生成器来产生映射
$
\mathbi
{
W
}$
,鉴别器负责区分随机抽样的元素
$
\mathbi
{
W
}
\mathbi
{
X
}$
和
$
\mathbi
{
Y
}$
,两者共同优化收敛后即可得到映射
$
\mathbi
{
W
}$
。
\vspace
{
0.5em
}
\vspace
{
0.5em
}
\item
基于Gromov-wasserstein 的方法
\upcite
{
DBLP:conf/emnlp/Alvarez-MelisJ18,DBLP:conf/lrec/GarneauGBDL20,DBLP:journals/corr/abs-1811-01124,DBLP:conf/emnlp/XuYOW18
}
。Wasserstein距离是度量空间中定义两个概率分布之间距离的函数。在这个任务中,它用来衡量不同语言中单词对之间的相似性,利用空间近似同构的信息可以定义出一些目标函数,之后通过优化该目标函数也可以得到映射
$
\mathbi
{
W
}$
。
\item
{
\small\bfnew
{
基于Gromov-wasserstein 的方法
}}
\upcite
{
DBLP:conf/emnlp/Alvarez-MelisJ18,DBLP:conf/lrec/GarneauGBDL20,DBLP:journals/corr/abs-1811-01124,DBLP:conf/emnlp/XuYOW18
}
。Wasserstein距离是度量空间中定义两个概率分布之间距离的函数。在这个任务中,它用来衡量不同语言中单词对之间的相似性,利用空间近似同构的信息可以定义出一些目标函数,之后通过优化该目标函数也可以得到映射
$
\mathbi
{
W
}$
。
\vspace
{
0.5em
}
\vspace
{
0.5em
}
\end{itemize}
\end{itemize}
...
@@ -675,10 +675,10 @@
...
@@ -675,10 +675,10 @@
\parinterval
无监督神经机器翻译还有两个关键的技巧:
\parinterval
无监督神经机器翻译还有两个关键的技巧:
\begin{itemize}
\begin{itemize}
\vspace
{
0.5em
}
\vspace
{
0.5em
}
\item
词表共享
:对于源语言和目标语言里都一样的词使用同一个词嵌入,而不是源语言和目标语言各自对应一个词嵌入,比如,阿拉伯数字或者一些实体名字。这样相当于告诉模型这个词在源语言和目标语言里面表达同一个意思,隐式地引入了单词翻译的监督信号。在无监督神经机器翻译里词表共享搭配子词切分会更加有效,因为子词的覆盖范围广,比如,多个不同的词可以包含同一个子词。
\item
{
\small\bfnew
{
词表共享
}}
:对于源语言和目标语言里都一样的词使用同一个词嵌入,而不是源语言和目标语言各自对应一个词嵌入,比如,阿拉伯数字或者一些实体名字。这样相当于告诉模型这个词在源语言和目标语言里面表达同一个意思,隐式地引入了单词翻译的监督信号。在无监督神经机器翻译里词表共享搭配子词切分会更加有效,因为子词的覆盖范围广,比如,多个不同的词可以包含同一个子词。
\vspace
{
0.5em
}
\vspace
{
0.5em
}
\item
模型共享
:与多语言翻译系统类似,使用同一个翻译模型来进行正向翻译(源语言
$
\to
$
目标语言)和反向翻译(目标语言
$
\to
$
源语言)。这样做降低了模型的参数量。而且,两个翻译方向可以互相为对方起到正则化的作用,减小了过拟合的风险。
\item
{
\small\bfnew
{
模型共享
}}
:与多语言翻译系统类似,使用同一个翻译模型来进行正向翻译(源语言
$
\to
$
目标语言)和反向翻译(目标语言
$
\to
$
源语言)。这样做降低了模型的参数量。而且,两个翻译方向可以互相为对方起到正则化的作用,减小了过拟合的风险。
\vspace
{
0.5em
}
\vspace
{
0.5em
}
\end{itemize}
\end{itemize}
...
@@ -752,9 +752,9 @@
...
@@ -752,9 +752,9 @@
\begin{itemize}
\begin{itemize}
\vspace
{
0.5em
}
\vspace
{
0.5em
}
\item
基于数据的方法
。利用源领域的双语数据或目标领域单语数据进行数据选择或数据增强,来增加模型训练的数据量。
\item
{
\small\bfnew
{
基于数据的方法
}}
。利用源领域的双语数据或目标领域单语数据进行数据选择或数据增强,来增加模型训练的数据量。
\vspace
{
0.5em
}
\vspace
{
0.5em
}
\item
基于模型的方法
。针对领域适应开发特定的模型结构、训练策略和推断方法。
\item
{
\small\bfnew
{
基于模型的方法
}}
。针对领域适应开发特定的模型结构、训练策略和推断方法。
\vspace
{
0.5em
}
\vspace
{
0.5em
}
\end{itemize}
\end{itemize}
...
...
Chapter17/chapter17.tex
查看文件 @
fc9c7d2b
...
@@ -160,11 +160,11 @@
...
@@ -160,11 +160,11 @@
%----------------------------------------------------------------------------------------------------
%----------------------------------------------------------------------------------------------------
\begin{itemize}
\begin{itemize}
\vspace
{
0.5em
}
\vspace
{
0.5em
}
\item
错误传播问题
。级联模型导致的一个很严重的问题在于,语音识别模型得到的文本如果存在错误,这些错误很可能在翻译过程中被放大,从而使最后翻译结果出现比较大的偏差。比如识别时在句尾少生成了个“吗”,会导致翻译模型将疑问句翻译为陈述句。
\item
{
\small\bfnew
{
错误传播问题
}}
。级联模型导致的一个很严重的问题在于,语音识别模型得到的文本如果存在错误,这些错误很可能在翻译过程中被放大,从而使最后翻译结果出现比较大的偏差。比如识别时在句尾少生成了个“吗”,会导致翻译模型将疑问句翻译为陈述句。
\vspace
{
0.5em
}
\vspace
{
0.5em
}
\item
翻译效率问题
。由于需要语音识别模型和文本标注模型只能串行地计算,翻译效率相对较低,而实际很多场景中都需要达到低延时的翻译。
\item
{
\small\bfnew
{
翻译效率问题
}}
。由于需要语音识别模型和文本标注模型只能串行地计算,翻译效率相对较低,而实际很多场景中都需要达到低延时的翻译。
\vspace
{
0.5em
}
\vspace
{
0.5em
}
\item
语音中的副语言信息丢失
。将语音识别为文本的过程中,语音中包含的语气、情感、音调等信息会丢失,而同一句话在不同的语气中表达的意思很可能是不同的。尤其是在实际应用中,由于语音识别结果通常并不包含标点,还需要额外的后处理模型将标点还原,也会带来额外的计算代价。
\item
{
\small\bfnew
{
语音中的副语言信息丢失
}}
。将语音识别为文本的过程中,语音中包含的语气、情感、音调等信息会丢失,而同一句话在不同的语气中表达的意思很可能是不同的。尤其是在实际应用中,由于语音识别结果通常并不包含标点,还需要额外的后处理模型将标点还原,也会带来额外的计算代价。
\vspace
{
0.5em
}
\vspace
{
0.5em
}
\end{itemize}
\end{itemize}
%----------------------------------------------------------------------------------------------------
%----------------------------------------------------------------------------------------------------
...
@@ -199,9 +199,9 @@
...
@@ -199,9 +199,9 @@
%----------------------------------------------------------------------------------------------------
%----------------------------------------------------------------------------------------------------
\begin{itemize}
\begin{itemize}
\vspace
{
0.5em
}
\vspace
{
0.5em
}
\item
训练数据稀缺
。虽然语音识别和文本翻译的训练数据都很多,但是直接由源语言语音到目标语言文本的平行数据十分有限,因此端到端语音翻译天然地就是一种低资源翻译任务。
\item
{
\small\bfnew
{
训练数据稀缺
}}
。虽然语音识别和文本翻译的训练数据都很多,但是直接由源语言语音到目标语言文本的平行数据十分有限,因此端到端语音翻译天然地就是一种低资源翻译任务。
\vspace
{
0.5em
}
\vspace
{
0.5em
}
\item
建模复杂度更高
。在语音识别中,模型是学习如何生成语音对应的文字序列,输入和输出的对齐比较简单,不涉及到调序的问题。在文本翻译中,模型要学习如何生成源语言序列对应的目标语言序列,仅需要学习不同语言之间的映射,不涉及到模态的转换。而语音翻译模型需要学习从语音到目标语言文本的生成,任务更加复杂。
\item
{
\small\bfnew
{
建模复杂度更高
}}
。在语音识别中,模型是学习如何生成语音对应的文字序列,输入和输出的对齐比较简单,不涉及到调序的问题。在文本翻译中,模型要学习如何生成源语言序列对应的目标语言序列,仅需要学习不同语言之间的映射,不涉及到模态的转换。而语音翻译模型需要学习从语音到目标语言文本的生成,任务更加复杂。
\vspace
{
0.5em
}
\vspace
{
0.5em
}
\end{itemize}
\end{itemize}
%----------------------------------------------------------------------------------------------------
%----------------------------------------------------------------------------------------------------
...
@@ -231,9 +231,9 @@
...
@@ -231,9 +231,9 @@
%----------------------------------------------------------------------------------------------------
%----------------------------------------------------------------------------------------------------
\begin{itemize}
\begin{itemize}
\vspace
{
0.5em
}
\vspace
{
0.5em
}
\item
输入和输出之间的对齐是单调的
。也就是后面的输入只会预测与前面的序列相同或后面的输出内容。比如对于图
\ref
{
fig:17-8
}
中的例子,如果输入的位置t已经预测了字符l,那么t之后的位置不会再预测前面的字符h和e。
\item
{
\small\bfnew
{
输入和输出之间的对齐是单调的
}}
。也就是后面的输入只会预测与前面的序列相同或后面的输出内容。比如对于图
\ref
{
fig:17-8
}
中的例子,如果输入的位置t已经预测了字符l,那么t之后的位置不会再预测前面的字符h和e。
\vspace
{
0.5em
}
\vspace
{
0.5em
}
\item
输入和输出之间是多对一的关系
。也就是多个输入会对应到同一个输出上。这对于语音序列来说是非常自然的一件事情,由于输入的每个位置只包含非常短的语音特征,因此多个输入才可以对应到一个输出字符。
\item
{
\small\bfnew
{
输入和输出之间是多对一的关系
}}
。也就是多个输入会对应到同一个输出上。这对于语音序列来说是非常自然的一件事情,由于输入的每个位置只包含非常短的语音特征,因此多个输入才可以对应到一个输出字符。
\vspace
{
0.5em
}
\vspace
{
0.5em
}
\end{itemize}
\end{itemize}
%----------------------------------------------------------------------------------------------------
%----------------------------------------------------------------------------------------------------
...
...
编写
预览
Markdown
格式
0%
重试
或
添加新文件
添加附件
取消
您添加了
0
人
到此讨论。请谨慎行事。
请先完成此评论的编辑!
取消
请
注册
或者
登录
后发表评论