Skip to content
项目
群组
代码片段
帮助
当前项目
正在载入...
登录 / 注册
切换导航面板
M
mtbookv2
概览
Overview
Details
Activity
Cycle Analytics
版本库
Repository
Files
Commits
Branches
Tags
Contributors
Graph
Compare
Charts
问题
0
Issues
0
列表
Board
标记
里程碑
合并请求
0
Merge Requests
0
CI / CD
CI / CD
流水线
作业
日程表
图表
维基
Wiki
代码片段
Snippets
成员
Collapse sidebar
Close sidebar
活动
图像
聊天
创建新问题
作业
提交
Issue Boards
Open sidebar
NiuTrans
mtbookv2
Commits
00719af7
Commit
00719af7
authored
Dec 02, 2020
by
曹润柘
Browse files
Options
Browse Files
Download
Email Patches
Plain Diff
update chapter 16
parent
c1b2f57d
显示空白字符变更
内嵌
并排
正在显示
5 个修改的文件
包含
12 行增加
和
10 行删除
+12
-10
Chapter16/Figures/figure-the-iterative-process-of-bidirectional-training.jpg
+0
-0
Chapter16/Figures/figure-the-iterative-process-of-bidirectional-training.png
+0
-0
Chapter16/Figures/figure-unsupervised-dual-learning-process.jpg.jpg
+0
-0
Chapter16/Figures/figure-unsupervised-dual-learning-process.png
+0
-0
Chapter16/chapter16.tex
+12
-10
没有找到文件。
Chapter16/Figures/figure-the-iterative-process-of-bidirectional-training.jpg
deleted
100644 → 0
查看文件 @
c1b2f57d
73.8 KB
Chapter16/Figures/figure-the-iterative-process-of-bidirectional-training.png
0 → 100644
查看文件 @
00719af7
45 KB
Chapter16/Figures/figure-unsupervised-dual-learning-process.jpg.jpg
deleted
100644 → 0
查看文件 @
c1b2f57d
19.8 KB
Chapter16/Figures/figure-unsupervised-dual-learning-process.png
0 → 100644
查看文件 @
00719af7
15.2 KB
Chapter16/chapter16.tex
查看文件 @
00719af7
...
@@ -301,7 +301,7 @@ g_{t}& = & \sigma (w^{T}s_{t}^{TM} + b)
...
@@ -301,7 +301,7 @@ g_{t}& = & \sigma (w^{T}s_{t}^{TM} + b)
\section
{
双向翻译模型
}
\section
{
双向翻译模型
}
\parinterval
机器翻译主要是通过双语数据训练一种语言到另外一种语言的翻译。显然这是一种双向任务。对于给定的双语数据,可以同时学习源语言到目标语言和目标语言到源语言的翻译模型。那么,两个方向的翻译模型能否联合起来,相辅相成呢?下面从双向训练和对偶学习两方面对双向翻译模型进行介绍。这些方法大量使用在低资源翻译系统中,比如,可以用双向翻译模型反复迭代构造伪数据。
\parinterval
机器翻译主要是通过双语数据训练一种语言到另外一种语言的翻译。显然这是一种双向任务。对于给定的双语数据,可以同时学习源语言到目标语言和目标语言到源语言的翻译模型。那么,两个方向的翻译模型能否联合起来,相辅相成呢?下面从双向训练和对偶学习两方面对双向翻译模型进行介绍。这些方法
被
大量使用在低资源翻译系统中,比如,可以用双向翻译模型反复迭代构造伪数据。
%----------------------------------------------------------------------------------------
%----------------------------------------------------------------------------------------
% NEW SUBSUB-SECTION
% NEW SUBSUB-SECTION
...
@@ -309,7 +309,9 @@ g_{t}& = & \sigma (w^{T}s_{t}^{TM} + b)
...
@@ -309,7 +309,9 @@ g_{t}& = & \sigma (w^{T}s_{t}^{TM} + b)
\subsection
{
双向训练
}
\subsection
{
双向训练
}
\parinterval
回顾神经机器翻译系统的建模过程,给定一个互译的句对
$
(
\seq
{
x
}
,
\seq
{
y
}
)
$
,一个从源语言句子
$
\seq
{
x
}$
到目标语言句子
$
\seq
{
y
}$
的翻译被表示为求条件概率
$
\funp
{
P
}
(
\seq
{
y
}
|
\seq
{
x
}
)
$
的问题。类似地,一个从目标语言句子
$
\seq
{
y
}$
到源语言句子
$
\seq
{
x
}$
的翻译可以表示为
$
\funp
{
P
}
(
\seq
{
x
}
|
\seq
{
y
}
)
$
。通常来说,神经机器翻译的训练一次只得到一个方向的模型,也就是
$
\funp
{
P
}
(
\seq
{
y
}
|
\seq
{
x
}
)
$
或者
$
\funp
{
P
}
(
\seq
{
x
}
|
\seq
{
y
}
)
$
。这意味着
$
\funp
{
P
}
(
\seq
{
y
}
|
\seq
{
x
}
)
$
和
$
\funp
{
P
}
(
\seq
{
x
}
|
\seq
{
y
}
)
$
之间是互相独立的。
$
\funp
{
P
}
(
\seq
{
y
}
|
\seq
{
x
}
)
$
和
$
\funp
{
P
}
(
\seq
{
x
}
|
\seq
{
y
}
)
$
是否真的没有关系呢?比如,假设
$
\seq
{
x
}$
和
$
\seq
{
y
}$
是相同大小的向量,且
$
\seq
{
x
}$
到
$
\seq
{
y
}$
的变换是一个线性变换,也就是与一个方阵
$
\seq
{
W
}$
做矩阵乘法:
\parinterval
回顾神经机器翻译系统的建模过程,给定一个互译的句对
$
(
\seq
{
x
}
,
\seq
{
y
}
)
$
,一个从源语言句子
$
\seq
{
x
}$
到目标语言句子
$
\seq
{
y
}$
的翻译被表示为求条件概率
$
\funp
{
P
}
(
\seq
{
y
}
|
\seq
{
x
}
)
$
的问题。类似地,一个从目标语言句子
$
\seq
{
y
}$
到源语言句子
$
\seq
{
x
}$
的翻译可以表示为
$
\funp
{
P
}
(
\seq
{
x
}
|
\seq
{
y
}
)
$
。通常来说,神经机器翻译的训练一次只得到一个方向的模型,也就是
$
\funp
{
P
}
(
\seq
{
y
}
|
\seq
{
x
}
)
$
或者
$
\funp
{
P
}
(
\seq
{
x
}
|
\seq
{
y
}
)
$
。这意味着
$
\funp
{
P
}
(
\seq
{
y
}
|
\seq
{
x
}
)
$
和
$
\funp
{
P
}
(
\seq
{
x
}
|
\seq
{
y
}
)
$
之间是互相独立的。但
$
\funp
{
P
}
(
\seq
{
y
}
|
\seq
{
x
}
)
$
和
$
\funp
{
P
}
(
\seq
{
x
}
|
\seq
{
y
}
)
$
是否真的没有关系呢?比如,假设
$
\seq
{
x
}$
和
$
\seq
{
y
}$
是相同大小的向量,且
$
\seq
{
x
}$
到
$
\seq
{
y
}$
的变换是一个线性变换,也就是与一个方阵
$
\seq
{
W
}$
做矩阵乘法:
\begin{eqnarray}
\begin{eqnarray}
\seq
{
y
}
&
=
&
\seq
{
x
}
\cdot
\seq
{
W
}
\seq
{
y
}
&
=
&
\seq
{
x
}
\cdot
\seq
{
W
}
...
@@ -318,15 +320,15 @@ g_{t}& = & \sigma (w^{T}s_{t}^{TM} + b)
...
@@ -318,15 +320,15 @@ g_{t}& = & \sigma (w^{T}s_{t}^{TM} + b)
\parinterval
这里可以把
$
\seq
{
x
}$
和
$
\seq
{
y
}$
都看作分布式的向量表示;
$
\seq
{
W
}$
应当是一个满秩矩阵,否则对于任意一个
$
\seq
{
x
}$
经过
$
\seq
{
W
}$
变换得到的
$
\seq
{
y
}$
只落在所有可能的
$
\seq
{
y
}$
的一个子空间内,即在给定
$
\seq
{
W
}$
的情况下有些
$
\seq
{
y
}$
不能被任何一个
$
\seq
{
x
}$
表达,而这不符合常识,因为不管是什么句子,我们总能找到它的一种译文。若
$
\seq
{
W
}$
是满秩矩阵说明
$
\seq
{
W
}$
可逆,也就是给定
$
\seq
{
x
}$
到
$
\seq
{
y
}$
的变换
$
\seq
{
W
}$
下,
$
\seq
{
y
}$
到
$
\seq
{
x
}$
的变换必然是
$
\seq
{
W
}$
的逆而不是其他矩阵。
\parinterval
这里可以把
$
\seq
{
x
}$
和
$
\seq
{
y
}$
都看作分布式的向量表示;
$
\seq
{
W
}$
应当是一个满秩矩阵,否则对于任意一个
$
\seq
{
x
}$
经过
$
\seq
{
W
}$
变换得到的
$
\seq
{
y
}$
只落在所有可能的
$
\seq
{
y
}$
的一个子空间内,即在给定
$
\seq
{
W
}$
的情况下有些
$
\seq
{
y
}$
不能被任何一个
$
\seq
{
x
}$
表达,而这不符合常识,因为不管是什么句子,我们总能找到它的一种译文。若
$
\seq
{
W
}$
是满秩矩阵说明
$
\seq
{
W
}$
可逆,也就是给定
$
\seq
{
x
}$
到
$
\seq
{
y
}$
的变换
$
\seq
{
W
}$
下,
$
\seq
{
y
}$
到
$
\seq
{
x
}$
的变换必然是
$
\seq
{
W
}$
的逆而不是其他矩阵。
\parinterval
这个例子说明
$
\funp
{
P
}
(
\seq
{
y
}
|
\seq
{
x
}
)
$
和
$
\funp
{
P
}
(
\seq
{
x
}
|
\seq
{
y
}
)
$
直觉上应当存在联系。当然,
$
\seq
{
x
}$
和
$
\seq
{
y
}$
之间是否存在简单的线性变换关系并没有结论,但是上面的例子给出了一种对源语言句子和目标语言句子进行相互转化的思路。实际上,研究人员已经通过一些数学技巧用目标函数来把
$
\funp
{
P
}
(
\seq
{
y
}
|
\seq
{
x
}
)
$
和
$
\funp
{
P
}
(
\seq
{
x
}
|
\seq
{
y
}
)
$
联系起来,这样训练神经机器翻译系统一次就可以同时得到两个方向的翻译模型,使得训练变得更加高效
\upcite
{
Hassan2018AchievingHP,DBLP:conf/aaai/Zhang0LZC18,DBLP:conf/wmt/SunJXHWW19
}
。双向联合训练的基本思想是:使用两个方向的翻译模型对单语数据进行解码,之后用解码后的翻译与原始的单语数据作为训练语料,通过多次迭代更新两个方向上的机器翻译模型。
\parinterval
这个例子说明
$
\funp
{
P
}
(
\seq
{
y
}
|
\seq
{
x
}
)
$
和
$
\funp
{
P
}
(
\seq
{
x
}
|
\seq
{
y
}
)
$
直觉上应当存在联系。当然,
$
\seq
{
x
}$
和
$
\seq
{
y
}$
之间是否存在简单的线性变换关系并没有结论,但是上面的例子给出了一种对源语言句子和目标语言句子进行相互转化的思路。实际上,研究人员已经通过一些数学技巧用目标函数来把
$
\funp
{
P
}
(
\seq
{
y
}
|
\seq
{
x
}
)
$
和
$
\funp
{
P
}
(
\seq
{
x
}
|
\seq
{
y
}
)
$
联系起来,这样训练神经机器翻译系统一次就可以同时得到两个方向的翻译模型,使得训练变得更加高效
\upcite
{
Hassan2018AchievingHP,DBLP:conf/aaai/Zhang0LZC18,DBLP:conf/wmt/SunJXHWW19
}
。双向联合训练的基本思想是:使用两个方向的翻译模型对单语数据进行解码,之后用解码后的翻译
结果
与原始的单语数据作为训练语料,通过多次迭代更新两个方向上的机器翻译模型。
\parinterval
图
\ref
{
fig:16-1-fk
}
给出了一个双向训练的详细流程,其中
$
M
_{
x
\rightarrow
y
}^{
k
}$
表示第
$
k
$
轮得到的
$
x
$
到
$
y
$
的翻译模型,
$
M
_{
y
\rightarrow
x
}^{
k
}$
表示第
$
k
$
轮得到的
$
y
$
到
$
x
$
的翻译模型。这里只展示了前两轮迭代。在第一次迭代开始之前,首先使用双语数据对两个初始翻译模型执行预训练。为了保持一致性,这里称之为第0 轮迭代。在第一轮迭代中,首先使用这两个翻译模型
$
M
_{
x
\rightarrow
y
}^{
0
}$
和
$
M
_{
y
\rightarrow
x
}^{
0
}$
翻译单语数据
$
X
=
\{
x
_
i
\}
$
和
$
Y
=
\{
y
_
i
\}
$
后得到译文
$
\{\hat
{
y
}_
i
^{
0
}
\}
$
和
$
\{
\hat
{
x
}_
i
^{
0
}
\}
$
。进一步,构建伪训练数据集
$
\{
x
_
i,
\hat
{
y
}_
i
^{
0
}
\}
$
与
$
\{
\hat
{
x
}_
i
^{
0
}
,y
_
i
\}
$
。然后
,模型
$
M
_{
x
\rightarrow
y
}^{
1
}$
和
$
M
_{
y
\rightarrow
x
}^{
1
}$
使用上面的两个伪训练集和原始双语数据混合进行训练
并执行参数更新,即用
$
\{
x
_
i,
\hat
{
y
}_
i
^{
0
}
\}
\bigcup
\{
x
_
i,y
_
i
\}
$
训练
$
M
_{
x
\rightarrow
y
}^{
1
}$
,用
$
\{
y
_
i,
\hat
{
x
}_
i
^{
0
}
\}
\bigcup
\{
y
_
i,x
_
i
\}
$
训练
$
M
_{
y
\rightarrow
x
}^{
1
}$
。第二轮迭代继续重复上述过程,使用更新参数后的翻译模型
$
M
_{
x
\rightarrow
y
}^{
1
}$
和
$
M
_{
y
\rightarrow
x
}^{
1
}$
得到新的伪数据集
$
\{
x
_
i,
\hat
{
y
}_
i
^{
1
}
\}
$
与
$
\{
\hat
{
x
}_
i
^{
1
}
,y
_
i
\}
$
。然后,进一步得到翻译模型
$
M
_{
x
\rightarrow
y
}^{
2
}$
和
$
M
_{
y
\rightarrow
x
}^{
2
}$
。这种方式本质上也是一种自学习的过程,通过逐步生成更好的伪数据提升模型质量。
\parinterval
图
\ref
{
fig:16-1-fk
}
给出了一个双向训练的详细流程,其中
$
M
_{
x
\rightarrow
y
}^{
k
}$
表示第
$
k
$
轮得到的
$
x
$
到
$
y
$
的翻译模型,
$
M
_{
y
\rightarrow
x
}^{
k
}$
表示第
$
k
$
轮得到的
$
y
$
到
$
x
$
的翻译模型。这里只展示了前两轮迭代。在第一次迭代开始之前,首先使用双语数据对两个初始翻译模型执行预训练。为了保持一致性,这里称之为第0 轮迭代。在第一轮迭代中,首先使用这两个翻译模型
$
M
_{
x
\rightarrow
y
}^{
0
}$
和
$
M
_{
y
\rightarrow
x
}^{
0
}$
翻译单语数据
$
X
=
\{
x
_
i
\}
$
和
$
Y
=
\{
y
_
i
\}
$
后得到译文
$
\{\hat
{
y
}_
i
^{
0
}
\}
$
和
$
\{
\hat
{
x
}_
i
^{
0
}
\}
$
。进一步,构建伪训练数据集
$
\{
x
_
i,
\hat
{
y
}_
i
^{
0
}
\}
$
与
$
\{
\hat
{
x
}_
i
^{
0
}
,y
_
i
\}
$
。然后
使用上面的两个伪训练集和原始双语数据混合训练得到模型
$
M
_{
x
\rightarrow
y
}^{
1
}$
和
$
M
_{
y
\rightarrow
x
}^{
1
}$
并执行参数更新,即用
$
\{
x
_
i,
\hat
{
y
}_
i
^{
0
}
\}
\bigcup
\{
x
_
i,y
_
i
\}
$
训练
$
M
_{
x
\rightarrow
y
}^{
1
}$
,用
$
\{
y
_
i,
\hat
{
x
}_
i
^{
0
}
\}
\bigcup
\{
y
_
i,x
_
i
\}
$
训练
$
M
_{
y
\rightarrow
x
}^{
1
}$
。第二轮迭代继续重复上述过程,使用更新参数后的翻译模型
$
M
_{
x
\rightarrow
y
}^{
1
}$
和
$
M
_{
y
\rightarrow
x
}^{
1
}$
得到新的伪数据集
$
\{
x
_
i,
\hat
{
y
}_
i
^{
1
}
\}
$
与
$
\{
\hat
{
x
}_
i
^{
1
}
,y
_
i
\}
$
。然后,进一步得到翻译模型
$
M
_{
x
\rightarrow
y
}^{
2
}$
和
$
M
_{
y
\rightarrow
x
}^{
2
}$
。这种方式本质上也是一种自学习的过程,通过逐步生成更好的伪数据提升模型质量。
%----------------------------------------------
%----------------------------------------------
\begin{figure}
[h]
\begin{figure}
[h]
\centering
\centering
\includegraphics
[scale=0.7]
{
Chapter16/Figures/figure-the-iterative-process-of-bidirectional-training.
jp
g
}
\includegraphics
[scale=0.7]
{
Chapter16/Figures/figure-the-iterative-process-of-bidirectional-training.
pn
g
}
\caption
{
双向训练的迭代过程
(
{
\color
{
red
}
图需要修改!
}
)
}
\caption
{
双向训练的迭代过程
}
\label
{
fig:16-1-fk
}
\label
{
fig:16-1-fk
}
\end{figure}
\end{figure}
%----------------------------------------------
%----------------------------------------------
...
@@ -354,13 +356,13 @@ g_{t}& = & \sigma (w^{T}s_{t}^{TM} + b)
...
@@ -354,13 +356,13 @@ g_{t}& = & \sigma (w^{T}s_{t}^{TM} + b)
\parinterval
公式
\ref
{
eq:16-7-xc
}
很自然地把两个方向的翻译模型
$
\funp
{
P
}
(
\seq
{
y
}
|
\seq
{
x
}
)
$
和
$
\funp
{
P
}
(
\seq
{
x
}
|
\seq
{
y
}
)
$
以及两个语言模型
$
\funp
{
P
}
(
\seq
{
x
}
)
$
和
$
\funp
{
P
}
(
\seq
{
y
}
)
$
联系起来:
$
\funp
{
P
}
(
\seq
{
x
}
)
\funp
{
P
}
(
\seq
{
y
}
|
\seq
{
x
}
)
$
应该与
$
\funp
{
P
}
(
\seq
{
y
}
)
\funp
{
P
}
(
\seq
{
x
}
|
\seq
{
y
}
)
$
接近,因为它们都表达了同一个联合分布
$
\funp
{
P
}
(
\seq
{
x
}
,
\seq
{
y
}
)
$
。因此,在构建训练两个方向的翻译模型的目标函数时,除了它们单独训练时各自使用的极大似然估计目标函数,可以额外增加一个目标项来鼓励两个方向的翻译模型:
\parinterval
公式
\ref
{
eq:16-7-xc
}
很自然地把两个方向的翻译模型
$
\funp
{
P
}
(
\seq
{
y
}
|
\seq
{
x
}
)
$
和
$
\funp
{
P
}
(
\seq
{
x
}
|
\seq
{
y
}
)
$
以及两个语言模型
$
\funp
{
P
}
(
\seq
{
x
}
)
$
和
$
\funp
{
P
}
(
\seq
{
y
}
)
$
联系起来:
$
\funp
{
P
}
(
\seq
{
x
}
)
\funp
{
P
}
(
\seq
{
y
}
|
\seq
{
x
}
)
$
应该与
$
\funp
{
P
}
(
\seq
{
y
}
)
\funp
{
P
}
(
\seq
{
x
}
|
\seq
{
y
}
)
$
接近,因为它们都表达了同一个联合分布
$
\funp
{
P
}
(
\seq
{
x
}
,
\seq
{
y
}
)
$
。因此,在构建训练两个方向的翻译模型的目标函数时,除了它们单独训练时各自使用的极大似然估计目标函数,可以额外增加一个目标项来鼓励两个方向的翻译模型:
\begin{eqnarray}
\begin{eqnarray}
\mathcal
{
L
}_{
\rm
{
dual
}}
&
=
&
(
\log
{
\funp
{
P
}
(
\seq
{
x
}
)
}
+
\log
{
\funp
{
P
}
(
\seq
{
y
}
|
\seq
{
x
}
)
}
-
\log
{
\funp
{
P
}
(
\seq
{
y
}
)
}
-
\log
{
\funp
{
P
}
(
\seq
{
x
}
|
\seq
{
y
}
))
^{
2
}}
{
L
}_{
\rm
{
dual
}}
&
=
&
(
\log
{
\funp
{
P
}
(
\seq
{
x
}
)
}
+
\log
{
\funp
{
P
}
(
\seq
{
y
}
|
\seq
{
x
}
)
}
-
\log
{
\funp
{
P
}
(
\seq
{
y
}
)
}
-
\log
{
\funp
{
P
}
(
\seq
{
x
}
|
\seq
{
y
}
))
^{
2
}}
\label
{
eq:16-8-xc
}
\label
{
eq:16-8-xc
}
\end{eqnarray}
\end{eqnarray}
\parinterval
通过该正则化项,我们将互为对偶的两个任务放在一块学习,通过任务对偶性加强监督学习的过程,就是有监督对偶学习
\upcite
{
DBLP:conf/icml/XiaQCBYL17,qin2020dual
}
。这里,
$
\funp
{
P
}
(
\seq
{
x
}
)
$
和
$
\funp
{
P
}
(
\seq
{
y
}
)
$
这两个语言模型是预先训练好的,并不参与翻译模型的训练。可以看到,对于单独的一个模型来说,其目标函数增加了与另外一个方向的模型相关的项。这样的形式与L1/L2正则化非常类似(见
{
\chapternine
}
),因此可以把这个方法看作是一种任务特定的正则化的手段(由翻译任务本身的性质所启发而来)。有监督对偶学习实际上要优化下面这个损失函数:
\parinterval
通过该正则化项,我们将互为对偶的两个任务放在一块学习,通过任务对偶性加强监督学习的过程,就是有监督对偶学习
\upcite
{
DBLP:conf/icml/XiaQCBYL17,qin2020dual
}
。这里,
$
\funp
{
P
}
(
\seq
{
x
}
)
$
和
$
\funp
{
P
}
(
\seq
{
y
}
)
$
这两个语言模型是预先训练好的,并不参与翻译模型的训练。可以看到,对于单独的一个模型来说,其目标函数增加了与另外一个方向的模型相关的项。这样的形式与L1/L2正则化非常类似(见
{
\chapternine
}
),因此可以把这个方法看作是一种任务特定的正则化的手段(由翻译任务本身的性质所启发而来)。有监督对偶学习实际上要优化下面这个损失函数:
\begin{eqnarray}
\begin{eqnarray}
\mathcal
{
L
}
&
=
&
\log
{
\funp
{
P
}
(
\seq
{
y
}
|
\seq
{
x
}
)
}
+
\log
{
\funp
{
P
}
(
\seq
{
x
}
|
\seq
{
y
}
)
}
+
\mathcal
{
L
}_{
\rm
{
dual
}}
{
L
}
&
=
&
\log
{
\funp
{
P
}
(
\seq
{
y
}
|
\seq
{
x
}
)
}
+
\log
{
\funp
{
P
}
(
\seq
{
x
}
|
\seq
{
y
}
)
}
+
\mathcal
{
L
}_{
\rm
{
dual
}}
\label
{
eq:16-2-fk
}
\label
{
eq:16-2-fk
}
\end{eqnarray}
\end{eqnarray}
...
@@ -388,8 +390,8 @@ g_{t}& = & \sigma (w^{T}s_{t}^{TM} + b)
...
@@ -388,8 +390,8 @@ g_{t}& = & \sigma (w^{T}s_{t}^{TM} + b)
%----------------------------------------------
%----------------------------------------------
\begin{figure}
[htp]
\begin{figure}
[htp]
\centering
\centering
\includegraphics
[scale=0.4]
{
./Chapter16/Figures/figure-unsupervised-dual-learning-process.
jp
g
}
\includegraphics
[scale=0.4]
{
./Chapter16/Figures/figure-unsupervised-dual-learning-process.
pn
g
}
\caption
{
无监督对偶学习流程
(
{
\color
{
red
}
图要改!
}
)
}
\caption
{
无监督对偶学习流程
}
\label
{
fig:16-10-xc
}
\label
{
fig:16-10-xc
}
\end{figure}
\end{figure}
%----------------------------------------------
%----------------------------------------------
...
...
编写
预览
Markdown
格式
0%
重试
或
添加新文件
添加附件
取消
您添加了
0
人
到此讨论。请谨慎行事。
请先完成此评论的编辑!
取消
请
注册
或者
登录
后发表评论