Skip to content
项目
群组
代码片段
帮助
当前项目
正在载入...
登录 / 注册
切换导航面板
M
mtbookv2
概览
Overview
Details
Activity
Cycle Analytics
版本库
Repository
Files
Commits
Branches
Tags
Contributors
Graph
Compare
Charts
问题
0
Issues
0
列表
Board
标记
里程碑
合并请求
0
Merge Requests
0
CI / CD
CI / CD
流水线
作业
日程表
图表
维基
Wiki
代码片段
Snippets
成员
Collapse sidebar
Close sidebar
活动
图像
聊天
创建新问题
作业
提交
Issue Boards
Open sidebar
NiuTrans
mtbookv2
Commits
51936a11
Commit
51936a11
authored
Nov 30, 2020
by
曹润柘
Browse files
Options
Browse Files
Download
Email Patches
Plain Diff
mirror update
parent
96abaf82
显示空白字符变更
内嵌
并排
正在显示
2 个修改的文件
包含
28 行增加
和
37 行删除
+28
-37
Chapter16/chapter16.tex
+6
-6
bibliography.bib
+22
-31
没有找到文件。
Chapter16/chapter16.tex
查看文件 @
51936a11
...
@@ -840,7 +840,7 @@ P(\mathbi{y}|\mathbi{x}) & = & \frac{\mathrm{cos}(\mathbi{x},\mathbi{y})/\tau}{\
...
@@ -840,7 +840,7 @@ P(\mathbi{y}|\mathbi{x}) & = & \frac{\mathrm{cos}(\mathbi{x},\mathbi{y})/\tau}{\
\begin{figure}
[h]
\begin{figure}
[h]
\centering
\centering
\includegraphics
[scale=3]
{
Chapter16/Figures/figure-the-meaning-of-pitch-in-different-fields.jpg
}
\includegraphics
[scale=3]
{
Chapter16/Figures/figure-the-meaning-of-pitch-in-different-fields.jpg
}
\caption
{
单词pitch(图里标红)在不同领域的不同词义实例
(
{
\color
{
red
}
这个是我们自己找的例子?如果不是,可以改造一下,或者引用论文!
}
)
}
\caption
{
单词pitch(图里标红)在不同领域的不同词义实例
}
\label
{
fig:16-1-wbh
}
\label
{
fig:16-1-wbh
}
\end{figure}
\end{figure}
...
@@ -851,7 +851,7 @@ P(\mathbi{y}|\mathbi{x}) & = & \frac{\mathrm{cos}(\mathbi{x},\mathbi{y})/\tau}{\
...
@@ -851,7 +851,7 @@ P(\mathbi{y}|\mathbi{x}) & = & \frac{\mathrm{cos}(\mathbi{x},\mathbi{y})/\tau}{\
\begin{itemize}
\begin{itemize}
\vspace
{
0.5em
}
\vspace
{
0.5em
}
\item
基于数据的方法。利用
其它领域的双语数据或领域内单语数据进行数据选择或数据增强,来提升(
{
\color
{
red
}
目标领域双语?
}
)
数据量。
\item
基于数据的方法。利用
源领域的双语数据或目标领域单语数据进行数据选择或数据增强,来提升模型训练的
数据量。
\vspace
{
0.5em
}
\vspace
{
0.5em
}
\item
基于模型的方法。针对领域适应开发特定的模型结构或训练策略、推断方法。
\item
基于模型的方法。针对领域适应开发特定的模型结构或训练策略、推断方法。
...
@@ -901,7 +901,7 @@ P(\mathbi{y}|\mathbi{x}) & = & \frac{\mathrm{cos}(\mathbi{x},\mathbi{y})/\tau}{\
...
@@ -901,7 +901,7 @@ P(\mathbi{y}|\mathbi{x}) & = & \frac{\mathrm{cos}(\mathbi{x},\mathbi{y})/\tau}{\
\parinterval
在真实场景中,由于每个领域的数据量有限,同时领域数量较多,针对每个领域单独训练一个机器翻译模型是不现实的。所以,通常的策略是训练一个机器翻译模型来支持多领域的翻译。虽然混合多个领域的数据可以有效增加训练数据规模,但正如前面所说,由于各个领域样本的数据量不平衡,在训练数据稀缺的领域上,模型表现往往差强人意。一种观点认为,数据量较少的领域数据具有更大的学习价值,可以提供较为珍贵的知识和信息,应该在训练过程中获得更大的权重。数据加权方法使用规则或统计方法对每个实例或领域进行评分,作为它们的权重,然后赋予每个样本或领域不同的权重来训练统计机器翻译模型。一般来说,数据量较少的领域数据权重更高,从而使这些更有价值的数据发挥出更大的作用
\upcite
{
DBLP:conf/emnlp/MatsoukasRZ09,DBLP:conf/emnlp/FosterGK10
}
。
\parinterval
在真实场景中,由于每个领域的数据量有限,同时领域数量较多,针对每个领域单独训练一个机器翻译模型是不现实的。所以,通常的策略是训练一个机器翻译模型来支持多领域的翻译。虽然混合多个领域的数据可以有效增加训练数据规模,但正如前面所说,由于各个领域样本的数据量不平衡,在训练数据稀缺的领域上,模型表现往往差强人意。一种观点认为,数据量较少的领域数据具有更大的学习价值,可以提供较为珍贵的知识和信息,应该在训练过程中获得更大的权重。数据加权方法使用规则或统计方法对每个实例或领域进行评分,作为它们的权重,然后赋予每个样本或领域不同的权重来训练统计机器翻译模型。一般来说,数据量较少的领域数据权重更高,从而使这些更有价值的数据发挥出更大的作用
\upcite
{
DBLP:conf/emnlp/MatsoukasRZ09,DBLP:conf/emnlp/FosterGK10
}
。
\parinterval
上述思想本质上在解决
{
\small\bfnew
{
类别不均衡问题
}}
\
index
{
类别不均衡问题
}
(Class Imbalance Problem
\index
{
Class Imbalance Problem
}
)(
{
\color
{
red
}
引用朱老师EMNLP的论文,应该是07 年
}
)。另一种方法是通过数据重新采样对语料库进行加权
\upcite
{
DBLP:conf/wmt/ShahBS10,rousseau2011lium
}
。语料库加权方法通过构建目标领域语言模型,比较各个语料库与目标领域的相似性,赋予相似的语料库更高的权重。
\parinterval
上述思想本质上在解决
{
\small\bfnew
{
类别不均衡问题
}}
\
upcite
{
DBLP:conf/emnlp/ZhuH07
}
\index
{
类别不均衡问题
}
(Class Imbalance Problem
\index
{
Class Imbalance Problem
}
)。另一种方法是通过数据重新采样对语料库进行加权
\upcite
{
DBLP:conf/wmt/ShahBS10,rousseau2011lium
}
。语料库加权方法通过构建目标领域语言模型,比较各个语料库与目标领域的相似性,赋予相似的语料库更高的权重。
%----------------------------------------------------------------------------------------
%----------------------------------------------------------------------------------------
% NEW SUB-SUB-SECTION
% NEW SUB-SUB-SECTION
...
@@ -937,7 +937,7 @@ P(\mathbi{y}|\mathbi{x}) & = & \frac{\mathrm{cos}(\mathbi{x},\mathbi{y})/\tau}{\
...
@@ -937,7 +937,7 @@ P(\mathbi{y}|\mathbi{x}) & = & \frac{\mathrm{cos}(\mathbi{x},\mathbi{y})/\tau}{\
\subsubsection
{
1. 基于多领域数据的方法
}
\subsubsection
{
1. 基于多领域数据的方法
}
\parinterval
一种简单的思路是利用其他领域的数据来辅助低资源领域上的模型训练,即基于多领域数据的领域适应
\upcite
{
chu2017empirical
,DBLP:journals/corr/abs-1708-08712,DBLP:conf/acl/WangTNYCP20,DBLP:conf/acl/JiangLWZ20
}
。实际上,多领域建模也可以看作是一种多语言建模问题(
\ref
{
multilingual-translation-model
}
节)。通过借助其他相似领域的训练数据,可以缓解目标领域数据缺乏的问题。比如,想要训练网络小说领域的翻译系统,可以通过加入文学、字幕等领域的翻译数据来增加数据量。
\parinterval
一种简单的思路是利用其他领域的数据来辅助低资源领域上的模型训练,即基于多领域数据的领域适应
\upcite
{
DBLP:conf/acl/ChuDK17
,DBLP:journals/corr/abs-1708-08712,DBLP:conf/acl/WangTNYCP20,DBLP:conf/acl/JiangLWZ20
}
。实际上,多领域建模也可以看作是一种多语言建模问题(
\ref
{
multilingual-translation-model
}
节)。通过借助其他相似领域的训练数据,可以缓解目标领域数据缺乏的问题。比如,想要训练网络小说领域的翻译系统,可以通过加入文学、字幕等领域的翻译数据来增加数据量。
\parinterval
但在神经机器翻译中,多领域数据不平衡问题也会导致数据量较少的领域训练不充分,带来较低的翻译品质。目前比较常用的多领域数据方法是在数据中加入标签来提高神经机器翻译模型对不同领域的区分能力
\upcite
{
DBLP:conf/acl/ChuDK17
}
,该方法主要通过两种策略来缓解领域不平衡问题:
\parinterval
但在神经机器翻译中,多领域数据不平衡问题也会导致数据量较少的领域训练不充分,带来较低的翻译品质。目前比较常用的多领域数据方法是在数据中加入标签来提高神经机器翻译模型对不同领域的区分能力
\upcite
{
DBLP:conf/acl/ChuDK17
}
,该方法主要通过两种策略来缓解领域不平衡问题:
...
@@ -987,7 +987,7 @@ P(\mathbi{y}|\mathbi{x}) & = & \frac{\mathrm{cos}(\mathbi{x},\mathbi{y})/\tau}{\
...
@@ -987,7 +987,7 @@ P(\mathbi{y}|\mathbi{x}) & = & \frac{\mathrm{cos}(\mathbi{x},\mathbi{y})/\tau}{\
\item
基于模型结构的方法,设计一个更适用于领域适应问题的模型结构
\upcite
{
2015OnGulcehre,2019Non,britz2017effective,DBLP:conf/ranlp/KobusCS17
}
。
\item
基于模型结构的方法,设计一个更适用于领域适应问题的模型结构
\upcite
{
2015OnGulcehre,2019Non,britz2017effective,DBLP:conf/ranlp/KobusCS17
}
。
\vspace
{
0.5em
}
\vspace
{
0.5em
}
\item
基于训练策略的方法,制定能够更好利用多领域数据的训练方法
\upcite
{
DBLP:conf/emnlp/WangULCS17,DBLP:conf/
aclnmt/ChenCFL17,DBLP:journals/corr/abs-1906-03129,dakwale2017finetuning,chu2015integrated,DBLP:conf/emnlp/ZengLSGLYL19,barone2017regularization,DBLP:conf/acl/SaundersB20,DBLP:conf/acl/LewisLGGMLSZ20
}
。 (
{
\color
{
red
}
引用的文献太多了,因为后面还会说,这里引用经典的就行,控制在2-4个就行
}
)
\item
基于训练策略的方法,制定能够更好利用多领域数据的训练方法
\upcite
{
DBLP:conf/emnlp/WangULCS17,DBLP:conf/
emnlp/WeesBM17,DBLP:conf/acl/ChuDK17
}
。
\vspace
{
0.5em
}
\vspace
{
0.5em
}
\item
基于模型推断的方法,生成更符合目标适应领域的翻译结果
\upcite
{
DBLP:conf/emnlp/DouWHN19,khayrallah2017neural,DBLP:journals/corr/FreitagA16,DBLP:conf/acl/SaundersSGB19
}
。
\item
基于模型推断的方法,生成更符合目标适应领域的翻译结果
\upcite
{
DBLP:conf/emnlp/DouWHN19,khayrallah2017neural,DBLP:journals/corr/FreitagA16,DBLP:conf/acl/SaundersSGB19
}
。
...
@@ -1003,7 +1003,7 @@ P(\mathbi{y}|\mathbi{x}) & = & \frac{\mathrm{cos}(\mathbi{x},\mathbi{y})/\tau}{\
...
@@ -1003,7 +1003,7 @@ P(\mathbi{y}|\mathbi{x}) & = & \frac{\mathrm{cos}(\mathbi{x},\mathbi{y})/\tau}{\
\parinterval
统计机器翻译时代基于模型结构的方法集中在提升词对齐模型、语言模型等子模型的领域适应性,从而提升统计机器翻译模型在特定领域的表现。而神经机器翻译模型是一个端到端的框架,因此对模型的调整往往体现在整体结构上。
\parinterval
统计机器翻译时代基于模型结构的方法集中在提升词对齐模型、语言模型等子模型的领域适应性,从而提升统计机器翻译模型在特定领域的表现。而神经机器翻译模型是一个端到端的框架,因此对模型的调整往往体现在整体结构上。
\parinterval
在使用多领域数据时,神经机器翻译的结构无法有效地利用多领域语料库的信息多样性,混合多个相差较大的领域数据进行训练会使单个领域的翻译性能下降
(
{
\color
{
red
}
参考文献!
}
)
。为了解决这一问题,一个比较典型的做法是在使用多领域数据训练时,如图
\ref
{
fig:16-2-wbh
}
所示,在神经机器翻译模型的编码器中添加一个判别器,使用判别器预测输入句子的领域
\upcite
{
DBLP:conf/wmt/BritzLP17
}
,具体的做法为:在编码器的顶部添加一个判别器网络,这个判别器使用源语言句子
$
x
$
的编码器表示
$
x'
$
作为输入,预测句子所属的领域标签
$
d
$
。为了使预测领域标签d的正确概率
$
\funp
{
P
(
d|H
)
}$
最大,模型在训练过程中最小化如下损失函数
$
\funp
{
L
}_{
\rm
{
disc
}}$
。
\parinterval
在使用多领域数据时,神经机器翻译的结构无法有效地利用多领域语料库的信息多样性,混合多个相差较大的领域数据进行训练会使单个领域的翻译性能下降
\upcite
{
DBLP:conf/eacl/NegriTFBF17
}
。为了解决这一问题,一个比较典型的做法是在使用多领域数据训练时,如图
\ref
{
fig:16-2-wbh
}
所示,在神经机器翻译模型的编码器中添加一个判别器,使用判别器预测输入句子的领域
\upcite
{
DBLP:conf/wmt/BritzLP17
}
,具体的做法为:在编码器的顶部添加一个判别器网络,这个判别器使用源语言句子
$
x
$
的编码器表示
$
x'
$
作为输入,预测句子所属的领域标签
$
d
$
。为了使预测领域标签d的正确概率
$
\funp
{
P
(
d|H
)
}$
最大,模型在训练过程中最小化如下损失函数
$
\funp
{
L
}_{
\rm
{
disc
}}$
。
\begin{figure}
[h]
\begin{figure}
[h]
\centering
\centering
...
...
bibliography.bib
查看文件 @
51936a11
...
@@ -8806,8 +8806,7 @@ author = {Zhuang Liu and
...
@@ -8806,8 +8806,7 @@ author = {Zhuang Liu and
@inproceedings{DBLP:conf/emnlp/FadaeeM18,
@inproceedings{DBLP:conf/emnlp/FadaeeM18,
author = {Marzieh Fadaee and
author = {Marzieh Fadaee and
Christof Monz},
Christof Monz},
title = {Back-Translation Sampling by Targeting Difficult Words in Neural Machine
title = {Back-Translation Sampling by Targeting Difficult Words in Neural Machine Translation},
Translation},
pages = {436--446},
pages = {436--446},
publisher = {Annual Meeting of the Association for Computational Linguistics},
publisher = {Annual Meeting of the Association for Computational Linguistics},
year = {2018}
year = {2018}
...
@@ -11197,13 +11196,6 @@ author = {Zhuang Liu and
...
@@ -11197,13 +11196,6 @@ author = {Zhuang Liu and
publisher = {International Conference on Computational Linguistics},
publisher = {International Conference on Computational Linguistics},
year = {2018}
year = {2018}
}
}
@inproceedings{chu2017empirical,
title={An empirical comparison of domain adaptation methods for neural machine translation},
author={Chu, Chenhui and Dabre, Raj and Kurohashi, Sadao},
publisher = {Annual Meeting of the Association for Computational Linguistics},
pages={385--391},
year={2017}
}
@article{DBLP:journals/corr/abs-1708-08712,
@article{DBLP:journals/corr/abs-1708-08712,
author = {Hassan Sajjad and
author = {Hassan Sajjad and
Nadir Durrani and
Nadir Durrani and
...
@@ -11238,16 +11230,6 @@ author = {Zhuang Liu and
...
@@ -11238,16 +11230,6 @@ author = {Zhuang Liu and
publisher = {Annual Meeting of the Association for Computational Linguistics},
publisher = {Annual Meeting of the Association for Computational Linguistics},
year = {2020}
year = {2020}
}
}
@inproceedings{DBLP:conf/acl/ChuDK17,
author = {Chenhui Chu and
Raj Dabre and
Sadao Kurohashi},
title = {An Empirical Comparison of Domain Adaptation Methods for Neural Machine
Translation},
pages = {385--391},
publisher = {Annual Meeting of the Association for Computational Linguistics},
year = {2017}
}
@inproceedings{DBLP:conf/emnlp/AxelrodHG11,
@inproceedings{DBLP:conf/emnlp/AxelrodHG11,
author = {Amittai Axelrod and
author = {Amittai Axelrod and
Xiaodong He and
Xiaodong He and
...
@@ -11446,17 +11428,6 @@ author = {Zhuang Liu and
...
@@ -11446,17 +11428,6 @@ author = {Zhuang Liu and
publisher = {Annual Conference of the North American Chapter of the Association for Computational Linguistics},
publisher = {Annual Conference of the North American Chapter of the Association for Computational Linguistics},
year = {2019}
year = {2019}
}
}
@inproceedings{DBLP:conf/emnlp/WangULCS17,
author = {Rui Wang and
Masao Utiyama and
Lemao Liu and
Kehai Chen and
Eiichiro Sumita},
title = {Instance Weighting for Neural Machine Translation Domain Adaptation},
pages = {1482--1488},
publisher = {Annual Meeting of the Association for Computational Linguistics},
year = {2017}
}
@article{DBLP:journals/corr/abs-1906-03129,
@article{DBLP:journals/corr/abs-1906-03129,
author = {Shen Yan and
author = {Shen Yan and
Leonard Dahlmann and
Leonard Dahlmann and
...
@@ -11556,7 +11527,27 @@ author = {Zhuang Liu and
...
@@ -11556,7 +11527,27 @@ author = {Zhuang Liu and
year = {2020}
year = {2020}
}
}
@inproceedings{DBLP:conf/emnlp/ZhuH07,
author = {Jingbo Zhu and
Eduard H. Hovy},
editor = {Jason Eisner},
title = {Active Learning for Word Sense Disambiguation with Methods for Addressing
the Class Imbalance Problem},
pages = {783--790},
publisher = {Conference on Empirical Methods in Natural Language Processing},
year = {2007}
}
@inproceedings{DBLP:conf/eacl/NegriTFBF17,
author = {M. Amin Farajian and
Marco Turchi and
Matteo Negri and
Nicola Bertoldi and
Marcello Federico},
title = {Neural vs. Phrase-Based Machine Translation in a Multi-Domain Scenario},
pages = {280--284},
publisher = {European Association of Computational Linguistics},
year = {2017}
}
%%%%% chapter 16------------------------------------------------------
%%%%% chapter 16------------------------------------------------------
%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
...
...
编写
预览
Markdown
格式
0%
重试
或
添加新文件
添加附件
取消
您添加了
0
人
到此讨论。请谨慎行事。
请先完成此评论的编辑!
取消
请
注册
或者
登录
后发表评论