Skip to content
项目
群组
代码片段
帮助
当前项目
正在载入...
登录 / 注册
切换导航面板
M
mtbookv2
概览
Overview
Details
Activity
Cycle Analytics
版本库
Repository
Files
Commits
Branches
Tags
Contributors
Graph
Compare
Charts
问题
0
Issues
0
列表
Board
标记
里程碑
合并请求
0
Merge Requests
0
CI / CD
CI / CD
流水线
作业
日程表
图表
维基
Wiki
代码片段
Snippets
成员
Collapse sidebar
Close sidebar
活动
图像
聊天
创建新问题
作业
提交
Issue Boards
Open sidebar
NiuTrans
mtbookv2
Commits
64600e61
Commit
64600e61
authored
Dec 28, 2020
by
曹润柘
Browse files
Options
Browse Files
Download
Plain Diff
合并分支 'master' 到 'caorunzhe'
Master 查看合并请求
!724
parents
afc9b12a
c7b81ef1
隐藏空白字符变更
内嵌
并排
正在显示
4 个修改的文件
包含
69 行增加
和
32 行删除
+69
-32
Chapter17/chapter17.tex
+11
-13
ChapterAcknowledgement/acknowledgement.tex
+43
-0
Chapterpostscript/postscript.tex
+10
-15
mt-book-xelatex.tex
+5
-4
没有找到文件。
Chapter17/chapter17.tex
查看文件 @
64600e61
...
@@ -375,7 +375,7 @@
...
@@ -375,7 +375,7 @@
\subsection
{
图像到文本的翻译
}
\subsection
{
图像到文本的翻译
}
\parinterval
图像到文本的转换也可以看作是广义上的翻译,简单来说,就是把
源语言的形式替换成了图像。其中,图像描述生成是最典型的任务。虽然,这部分内容并不是本书的重点,不过为了保证多模态翻译内容的完整性,这里对相关技术进行简要介绍。图像描述生成是指给定图像生成文字描述,有时也被称作图说话、图像字幕生成。如何理解图像信息、在理解图像信息基础上生成描述是图像描述任务要解决的问题,可以发现,该任务涉及到自然语言处理和计算机视觉两个领域,是一项很有挑战的任务。同时,图像描述在图像检索、智能导盲、人机交互等领域有着广泛的应用场景,有很大的研究价值
。
\parinterval
图像到文本的转换也可以看作是广义上的翻译,简单来说,就是把
图像作为了源语言的唯一输入,而输出是文本。其中,图像描述生成是最典型的图像到文本的翻译任务。虽然,这部分内容并不是本书的重点,不过为了保证多模态翻译内容的完整性,这里对相关技术进行简要介绍。图像描述生成是指给定图像生成文字描述,有时也被称作图说话、图像字幕生成。如何理解图像信息、在理解图像信息基础上生成描述是图像描述任务要解决的问题,可以发现,该任务涉及到自然语言处理和计算机视觉两个领域,是一项很有挑战的任务。同时,图像描述在图像检索、智能导盲、人机交互等领域有着广泛的应用场景
。
%----------------------------------------------------------------------------------------------------
%----------------------------------------------------------------------------------------------------
\begin{figure}
[htp]
\begin{figure}
[htp]
...
@@ -386,7 +386,7 @@
...
@@ -386,7 +386,7 @@
\end{figure}
\end{figure}
%----------------------------------------------------------------------------------------------------
%----------------------------------------------------------------------------------------------------
\parinterval
传统图像描述生成有两种范式:基于检索的方法和基于模板的方法。其中图
\ref
{
fig:17-15
}
(a)是指在指定的图像描述候选句子中选择其中的句子作为图像的描述,这种方法的弊端是所选择的句子可能会和图像很大程度上不相符。而
\ref
{
fig:17-15
}
(b)是指在图像上检测视觉特征,然后把内容填在实现设计好的模板当中,这种方法的缺点是生成的图像描述过于呆板,“像是在一个模子中刻出来的”说的就是这个意思。近几年来 ,由于卷积神经网络在计算机视觉领域效果显著,而循环神经网络在自然语言处理领域卓有成效,受到机器翻译领域编码器-解码器框架的启发,逐渐的,这种基于卷积神经网络作为编码器编码图像,循环神经网络作为解码器解码描述的编码器-解码器框架成了图像描述任务的基础范式。本章节,从基础的图像描述范式编码器-解码器框架展开
\upcite
{
DBLP:conf/cvpr/VinyalsTBE15,DBLP:conf/icml/XuBKCCSZB15
}
,从编码器的改进、解码器的改进展开
介绍。
\parinterval
传统图像描述生成有两种范式:基于检索的方法和基于模板的方法。其中图
\ref
{
fig:17-15
}
(a)展示了一个基于检索的方法的实例,这种方法在图像描述候选中选择一个描述输出。但是,弊端是所选择的句子可能会和图像很大程度上不相符。而
\ref
{
fig:17-15
}
(b)展示的是一种基于模版的方法,这种方法需要在图像上提取视觉特征,然后把内容填在实现设计好的模板当中,这种方法的缺点是生成的图像描述过于呆板,“像是在一个模子中刻出来的”说的就是这个意思。近几年来 ,由于卷积神经网络在计算机视觉领域效果显著,而循环神经网络在自然语言处理领域卓有成效,受到机器翻译领域编码器-解码器框架的启发,逐渐的,这种基于卷积神经网络作为编码器编码图像,循环神经网络作为解码器解码描述的编码器-解码器框架成了图像描述任务的基础范式。本章节,从基础的图像描述范式编码器-解码器框架展开
\upcite
{
DBLP:conf/cvpr/VinyalsTBE15,DBLP:conf/icml/XuBKCCSZB15
}
,从编码器的改进、解码器的改进两个方面进行
介绍。
%----------------------------------------------------------------------------------------
%----------------------------------------------------------------------------------------
% NEW SUBSUB-SECTION
% NEW SUBSUB-SECTION
...
@@ -394,7 +394,7 @@
...
@@ -394,7 +394,7 @@
\subsubsection
{
1. 基础框架
}
\subsubsection
{
1. 基础框架
}
\parinterval
受到神经机器翻译的启发,编码器-解码器框架也应用到图像描述任务当中。其中,编码器将输入的图像转换为一种新的“表示”形式,这种表示包含了输入图像的所有信息。之后解码器把这种“表示”重新转换为输出的描述。图
\ref
{
fig:17-16
}
(a)是编码器-解码器框架在图像描述生成的应用
\upcite
{
DBLP:conf/cvpr/VinyalsTBE15
}
。首先,通过卷积神经网络提取图像特征到一个合适的长度向量表示。然后,利用长短时记忆网络(LSTM)解码生成文字描述,这个过程中与机器翻译解码过程类似。这种建模方式存在一定的短板:生成的描述单词不一定需要所有的图像信息,将全局的图像信息送入模型中,可能会引入噪音,使这种“表示”形式不准确。针对这个问题,图
\ref
{
fig:17-16
}
(b)
\upcite
{
DBLP:conf/icml/XuBKCCSZB15
}
为了弥补这种建模的局限性,引入了注意力机制。利用注意力机制在生成不同单词时,使
模型不再只关注图像的全局特征,而是关注“应该”关注的图像特征。
\parinterval
受到神经机器翻译的启发,编码器-解码器框架也应用到图像描述任务当中。其中,编码器将输入的图像转换为一种新的“表示”形式,这种表示包含了输入图像的所有信息。之后解码器把这种“表示”重新转换为输出的描述。图
\ref
{
fig:17-16
}
(a)是编码器-解码器框架在图像描述生成中的简单应用
\upcite
{
DBLP:conf/cvpr/VinyalsTBE15
}
。首先,通过卷积神经网络提取图像特征到一个向量表示。然后,利用长短时记忆网络(LSTM)解码生成文字描述,这个过程中与机器翻译的解码过程类似。这种建模方式存在一定的短板:生成的描述单词不一定需要所有的图像信息,将全局的图像信息送入模型中,可能会引入噪音,使这种“表示”形式不准确。针对这个问题,图
\ref
{
fig:17-16
}
(b)为了弥补这种建模的局限性,引入了注意力机制
\upcite
{
DBLP:conf/icml/XuBKCCSZB15
}
。这样,在生成不同单词时,
模型不再只关注图像的全局特征,而是关注“应该”关注的图像特征。
%----------------------------------------------------------------------------------------------------
%----------------------------------------------------------------------------------------------------
\begin{figure}
[htp]
\begin{figure}
[htp]
...
@@ -405,11 +405,11 @@
...
@@ -405,11 +405,11 @@
\end{figure}
\end{figure}
%----------------------------------------------------------------------------------------------------
%----------------------------------------------------------------------------------------------------
\parinterval
图像描述生成基本上沿用了编码器-解码器框架。接下来,
分别从编码器端的改进和解码器端的改进展开介绍
。这些改进总体来说是在解决以下两个问题:
\parinterval
图像描述生成基本上沿用了编码器-解码器框架。接下来,
从编码器端的改进和解码器端的改进展开讨论
。这些改进总体来说是在解决以下两个问题:
\begin{itemize}
\begin{itemize}
\vspace
{
0.5em
}
\vspace
{
0.5em
}
\item
在编码器端,如何更
丰富、更全面的编码图像信息
?
\item
在编码器端,如何更
全面地对图像信息进行编码
?
\vspace
{
0.5em
}
\vspace
{
0.5em
}
\item
在解码器端,如何更好的利用编码器端的特征表示?
\item
在解码器端,如何更好的利用编码器端的特征表示?
\vspace
{
0.5em
}
\vspace
{
0.5em
}
...
@@ -421,9 +421,9 @@
...
@@ -421,9 +421,9 @@
\subsubsection
{
2. 编码器的改进
}
\subsubsection
{
2. 编码器的改进
}
\parinterval
要想使编码器-解码器框架在图像描述中充分发挥作用,编码器也要更好的表示图像信息。对于编码器的改进,大多也是从这个
方向
出发。通常,体现在向编码器中添加图像的语义信息
\upcite
{
DBLP:conf/cvpr/YouJWFL16,DBLP:conf/cvpr/ChenZXNSLC17,DBLP:journals/pami/FuJCSZ17
}
和位置信息
\upcite
{
DBLP:conf/cvpr/ChenZXNSLC17,DBLP:conf/ijcai/LiuSWWY17
}
。
\parinterval
要想使编码器-解码器框架在图像描述中充分发挥作用,编码器也要更好的表示图像信息。对于编码器的改进,大多也是从这个
角度
出发。通常,体现在向编码器中添加图像的语义信息
\upcite
{
DBLP:conf/cvpr/YouJWFL16,DBLP:conf/cvpr/ChenZXNSLC17,DBLP:journals/pami/FuJCSZ17
}
和位置信息
\upcite
{
DBLP:conf/cvpr/ChenZXNSLC17,DBLP:conf/ijcai/LiuSWWY17
}
。
\parinterval
图像的语义信息一般是指图像中存在的实体、属性、场景等等。如图
\ref
{
fig:17-17
}
所示,从图像中利用属性或实体检测器提取出“child”、“river”、“bank”等等的属性词和实体词作为图像的语义信息,提取全局的图像特征初始化循环神经网络,再利用注意力机制计算目标词与属性词或实体词之间的注意力权重,根据该权重计算上下文向量,
从而将编码语义信息送入解码器端
\upcite
{
DBLP:conf/cvpr/YouJWFL16
}
,在解码‘bank’单词时,会更关注图像语义信息中的‘bank’。当然,除了图像中的实体和属性作为语义信息外,也可以将图片的场景信息加入到编码器当中
\upcite
{
DBLP:journals/pami/FuJCSZ17
}
。有关如何做属性、实体和场景的检测,涉及到目标检测任务的工作,例如Faster-RCNN
\upcite
{
DBLP:journals/pami/RenHG017
}
、YOLO
\upcite
{
DBLP:journals/corr/abs-1804-02767,DBLP:journals/corr/abs-2004-10934
}
等等,这里不过多赘述。
\parinterval
图像的语义信息一般是指图像中存在的实体、属性、场景等等。如图
\ref
{
fig:17-17
}
所示,从图像中利用属性或实体检测器提取出“child”、“river”、“bank”等等的属性词和实体词作为图像的语义信息,提取全局的图像特征初始化循环神经网络,再利用注意力机制计算目标词与属性词或实体词之间的注意力权重,根据该权重计算上下文向量,
并送入解码器
\upcite
{
DBLP:conf/cvpr/YouJWFL16
}
,在解码‘bank’单词时,会更关注图像语义信息中的‘bank’。当然,除了图像中的实体和属性作为语义信息外,也可以将图片的场景信息加入到编码器当中
\upcite
{
DBLP:journals/pami/FuJCSZ17
}
。有关如何做属性、实体和场景的检测,涉及到目标检测任务的工作,例如Faster-RCNN
\upcite
{
DBLP:journals/pami/RenHG017
}
、YOLO
\upcite
{
DBLP:journals/corr/abs-1804-02767,DBLP:journals/corr/abs-2004-10934
}
等等,这里不过多赘述。
%----------------------------------------------------------------------------------------------------
%----------------------------------------------------------------------------------------------------
\begin{figure}
[htp]
\begin{figure}
[htp]
...
@@ -434,7 +434,7 @@
...
@@ -434,7 +434,7 @@
\end{figure}
\end{figure}
%----------------------------------------------------------------------------------------------------
%----------------------------------------------------------------------------------------------------
\parinterval
以上的方法大都是将图像中的实体、属性、场景等映射到文字上,并把这些信息显式地添加到编码器
端。另一种方式,把图像中的语义特征隐式地作用到编码器端
\upcite
{
DBLP:conf/cvpr/ChenZXNSLC17
}
。例如,图像数据可以分解为三个通道(红、绿、蓝),简单来说,就是将图像的每一个像素点按照红色、绿色、蓝色分成三个部分,这样就将图像分成了三个通道。在很多图像中,不同通道伴随的特征是不一样的,可以将其作用于编码器端
。另一种方法是基于位置信息的编码器增强。位置信息指的是图像中对象(物体)的位置。利用目标检测技术检测系统获得图中的对象和对应的特征,这样就确定了图中的对象位置。显然,这些信息也可以加入到编码器端,以加强编码器的表示能力
\upcite
{
DBLP:conf/eccv/YaoPLM18
}
。
\parinterval
以上的方法大都是将图像中的实体、属性、场景等映射到文字上,并把这些信息显式地添加到编码器
中。另一种方式,把图像中的语义特征隐式地作用到编码器上
\upcite
{
DBLP:conf/cvpr/ChenZXNSLC17
}
。例如,图像数据可以分解为三个通道(红、绿、蓝),简单来说,就是将图像的每一个像素点按照红色、绿色、蓝色分成三个部分,这样就将图像分成了三个通道。在很多图像中,不同通道伴随的特征是不一样的,可以将其作用于编码器
。另一种方法是基于位置信息的编码器增强。位置信息指的是图像中对象(物体)的位置。利用目标检测技术检测系统获得图中的对象和对应的特征,这样就确定了图中的对象位置。显然,这些信息也可以加入到编码器端,以加强编码器的表示能力
\upcite
{
DBLP:conf/eccv/YaoPLM18
}
。
%----------------------------------------------------------------------------------------
%----------------------------------------------------------------------------------------
% NEW SUBSUB-SECTION
% NEW SUBSUB-SECTION
...
@@ -444,7 +444,7 @@
...
@@ -444,7 +444,7 @@
\parinterval
由于解码器输出的是语言文字序列,因此需要考虑语言的特点对其进行改进。 例如,解码过程中, “the”,“on”,“at”这种介词或者冠词与图像的相关性较低,这时图像信息的引入就会产生负面影响
\upcite
{
DBLP:conf/cvpr/LuXPS17
}
。因此,可以通过门等结构,控制视觉信号作用于文字生成的程度。另外,在解码过程中,生成的每个单词对应着图像的区域可能是不同的。因此也可以设计更为有效的注意力机制来捕捉解码器端对不同图像局部信息的关注程度
\upcite
{
DBLP:conf/cvpr/00010BT0GZ18
}
。
\parinterval
由于解码器输出的是语言文字序列,因此需要考虑语言的特点对其进行改进。 例如,解码过程中, “the”,“on”,“at”这种介词或者冠词与图像的相关性较低,这时图像信息的引入就会产生负面影响
\upcite
{
DBLP:conf/cvpr/LuXPS17
}
。因此,可以通过门等结构,控制视觉信号作用于文字生成的程度。另外,在解码过程中,生成的每个单词对应着图像的区域可能是不同的。因此也可以设计更为有效的注意力机制来捕捉解码器端对不同图像局部信息的关注程度
\upcite
{
DBLP:conf/cvpr/00010BT0GZ18
}
。
\parinterval
除了
在解码器端更好的使生成文本与图像特征相互作用以外,还有一些其他的解码器端改进的方向。例如:用其它结构(如卷积神经网络或者Transformer)代替解码器端
循环神经网络
\upcite
{
DBLP:conf/cvpr/AnejaDS18
}
。或者使用更深层的神经网络学习动词或者名词等视觉中不易表现出来的单词
\upcite
{
DBLP:journals/mta/FangWCT18
}
,其思想与深层神经机器翻译模型有相通之处(
{
\chapterfifteen
}
)。
\parinterval
除了
更好地使生成文本与图像特征进行相互作用以外,还有一些其他的解码器改进的方法。例如:用其它结构(如卷积神经网络或者Transformer)代替解码器所使用的
循环神经网络
\upcite
{
DBLP:conf/cvpr/AnejaDS18
}
。或者使用更深层的神经网络学习动词或者名词等视觉中不易表现出来的单词
\upcite
{
DBLP:journals/mta/FangWCT18
}
,其思想与深层神经机器翻译模型有相通之处(
{
\chapterfifteen
}
)。
%----------------------------------------------------------------------------------------
%----------------------------------------------------------------------------------------
% NEW SUB-SECTION
% NEW SUB-SECTION
...
@@ -454,11 +454,9 @@
...
@@ -454,11 +454,9 @@
\parinterval
当生成的目标对象是图像时,问题就变为了图像生成问题。虽然,这个领域本身并不属于机器翻译,但是其使用的基本方法与机器翻译有类似之处。二者也可以相互借鉴。因此,这里对图像生成问题也进行简要描述。
\parinterval
当生成的目标对象是图像时,问题就变为了图像生成问题。虽然,这个领域本身并不属于机器翻译,但是其使用的基本方法与机器翻译有类似之处。二者也可以相互借鉴。因此,这里对图像生成问题也进行简要描述。
\parinterval
计算机视觉领域,图像风格转移、图像语义分割、图像超分辨率等任务,都可以被视为
{
\small\bfnew
{
图像到图像的翻译
}}
\index
{
图像到图像的翻译
}
(Image-to-Image Translation)
\index
{
Image-to-Image Translation
}
问题。与机器翻译类似,这些问题的共同目标是学习从一个对象到另一个对象的映射,只不过这里的对象是指图像,而非机器翻译中的文字。例如,给定物体的轮廓生成真实物体照片或者给定白天照片生成夜晚的照片等。图像到图像的翻译有广阔的应用场景,如图片补全、风格迁移等
。
\parinterval
在计算机视觉中,图像风格变换、图像超分辨率等任务,都可以被视为
{
\small\bfnew
{
图像到图像的翻译
}}
\index
{
图像到图像的翻译
}
(Image-to-Image Translation)
\index
{
Image-to-Image Translation
}
问题。与机器翻译类似,这些问题的共同目标是学习从一个对象到另一个对象的映射,只不过这里的对象是指图像,而非机器翻译中的文字。例如,给定物体的轮廓生成真实物体图片,或者给定白天照片生成夜晚的照片等。图像到图像的翻译有广阔的应用场景,如图片补全、风格迁移等。
{
\small\bfnew
{
文本到图像的翻译
}}
\index
{
文本到图像的翻译
}
(Text-to-Image Translation)
\index
{
Text-to-Image Translation
}
是指给定描述物体颜色和形状等细节的自然语言文字,生成对应的图像。该任务也可以看作是图像描述任务的逆任务
。
\parinterval
对抗神经网络被广泛地应用在图像到图像的翻译任务当中
\upcite
{
DBLP:conf/nips/GoodfellowPMXWOCB14,DBLP:conf/nips/ZhuZPDEWS17,DBLP:journals/corr/abs-1908-06616
}
。实际上,这类方法非常适合图像生成类的任务。简单来说,对抗生成网络包括两个部分分别是:生成器和判别器。基于输入生成器生成一个结果,而判别器要判别生成的结果和真实结果是否是相同的,对抗的思想是,通过强化生成器的生成能力和判别器的判别能力,当生成器生成的结果可以“骗”过判别器时,即判别器无法分清真实结果和生成结果,认为模型学到了这种映射关系。在图像到图像的翻译中,根据输入图像,生成器生成预测图像,判别器判别是否为目标图像,多次迭代后,生成图像被判别为目标图像时,则模型学习到了“翻译能力”。以上的工作都是有监督的,即基于对齐的图像对数据集,但是,这种数据的标注是极为费时费力的,所以有很多的工作也基于无监督的方法展开
\upcite
{
DBLP:conf/iccv/ZhuPIE17,DBLP:conf/iccv/YiZTG17,DBLP:conf/nips/LiuBK17
}
,这里不过多赘述。
\parinterval
无论是图像到图像的生成,还是文本到图像的生成,一种广泛使用的方法是对抗神经网络
\upcite
{
DBLP:conf/nips/GoodfellowPMXWOCB14,DBLP:journals/corr/abs-1908-06616,DBLP:conf/icml/ReedAYLSL16,DBLP:journals/corr/DashGALA17
}
。在
{
\chapterthirteen
}
已经介绍了对抗样本训练,这里的思想与之类似。具体来说,对抗生成网络包括两个部分:生成器和判别器。基于输入生成器生成一个结果,而判别器要判别生成的结果和真实结果是否是相同的。对抗的思想是,通过强化生成器的生成能力和判别器的判别能力,当生成器生成的结果可以“骗”过判别器时,即判别器无法分清真实结果和生成结果,则认为模型学到了这种映射关系。以图像到图像翻译为例,根据输入图像,生成器可以生成图像,判别器判别是否为目标图像,多次迭代后,生成图像被判别为目标图像时,则模型学习到了图像翻译的能力。
\parinterval
{
\small\bfnew
{
文本到图像的翻译
}}
\index
{
文本到图像的翻译
}
(Text-to-Image Translation)
\index
{
Text-to-Image Translation
}
是指给定描述物体颜色和形状等细节的自然语言文字,生成对应的图像。该任务也可以看作是图像描述任务的逆任务。目前方法上大部分基于对抗神经网络
\upcite
{
DBLP:conf/icml/ReedAYLSL16,DBLP:journals/corr/DashGALA17,DBLP:conf/nips/ReedAMTSL16
}
。基本流程为:首先利用自然语言处理技术提取出文本信息,然后再用文本特征作为后面生成图像的约束,在对抗神经网络中生成器(Generator)中根据文本特征生成图像的约束,从而别鉴别器(Discriminator)鉴定其生成效果。
%----------------------------------------------------------------------------------------
%----------------------------------------------------------------------------------------
% NEW SECTION
% NEW SECTION
...
...
ChapterAcknowledgement/acknowledgement.tex
0 → 100644
查看文件 @
64600e61
% !Mode:: "TeX:UTF-8"
% !TEX encoding = UTF-8 Unicode
%----------------------------------------------------------------------------------------
% 机器翻译:统计建模与深度学习方法
% Machine Translation: Statistical Modeling and Deep Learning Methods
%
% Copyright 2020
% 肖桐(xiaotong@mail.neu.edu.cn) 朱靖波 (zhujingbo@mail.neu.edu.cn)
%----------------------------------------------------------------------------------------
%----------------------------------------------------------------------------------------
% CONFIGURATIONS
%----------------------------------------------------------------------------------------
\renewcommand\figurename
{
图
}
%将figure改为图
%----------------------------------------------------------------------------------------
% postscript
%----------------------------------------------------------------------------------------
\fancyhead
[LO]
{
\sffamily\normalsize\bfseries
{
后记
\ \quad
肖桐
\
朱靖波
}}
% Print the nearest section name on the left side of odd pages
\fancyhead
[RE]
{
\sffamily\normalsize\bfseries
{
后记
\ \quad
肖桐
\
朱靖波
}}
% Print the current chapter name on the right side of even pages
%\chapter*{后记}
\addcontentsline
{
toc
}{
chapter
}{
后记
}
{
\color
{
white
}
空
}
\vspace
{
1em
}
\begin{center}
{
\Huge
\bfnew
{
后记
}}
\end{center}
\vspace
{
2em
}
\begin{spacing}
{
1.18
}
\parinterval
写点儿什么 。。。
\hfill
肖桐
\hfill
2020.12.27
\end{spacing}
\ No newline at end of file
Chapterpostscript/postscript.tex
查看文件 @
64600e61
...
@@ -18,21 +18,21 @@
...
@@ -18,21 +18,21 @@
%----------------------------------------------------------------------------------------
%----------------------------------------------------------------------------------------
% postscript
% postscript
%----------------------------------------------------------------------------------------
%----------------------------------------------------------------------------------------
\fancyhead
[LO]
{
\sffamily\normalsize\bfseries
{
后记
\ \quad
肖桐
\
朱靖波
}}
% Print the nearest section name on the left side of odd pages
\fancyhead
[LO]
{
\sffamily\normalsize\bfseries
{
随笔
\ \quad
肖桐
\
朱靖波
}}
% Print the nearest section name on the left side of odd pages
\fancyhead
[RE]
{
\sffamily\normalsize\bfseries
{
后记
\ \quad
肖桐
\
朱靖波
}}
% Print the current chapter name on the right side of even pages
\fancyhead
[RE]
{
\sffamily\normalsize\bfseries
{
随笔
\ \quad
肖桐
\
朱靖波
}}
% Print the current chapter name on the right side of even pages
%\chapter*{后记}
%\chapter*{后记}
\addcontentsline
{
toc
}{
chapter
}{
后记
}
\addcontentsline
{
toc
}{
chapter
}{
随笔
}
{
\color
{
white
}
空
}
{
\color
{
white
}
空
}
\vspace
{
1em
}
\vspace
{
1em
}
\begin{center}
\begin{center}
{
\Huge
\bfnew
{
后记
}}
{
\Huge
\bfnew
{
随笔
}}
\end{center}
\end{center}
\vspace
{
2em
}
\vspace
{
2em
}
\begin{spacing}
{
1.18
}
\begin{spacing}
{
1.18
}
%\section{
后记
}
%\section{
随笔
}
\parinterval
自从计算机诞生开始,机器翻译即利用计算机软件技术实现不同语言自动翻译,就是人们首先想到的计算机主要应用之一。很多人说现在处于人工智能时代,是得语言者的天下,因此机器翻译也是认知智能的终极梦想之一,本节将分享我们对机器翻译技术和应用的一些思考,有些想法不一定正确,也许需要十年之后才能验证。
\parinterval
自从计算机诞生开始,机器翻译即利用计算机软件技术实现不同语言自动翻译,就是人们首先想到的计算机主要应用之一。很多人说现在处于人工智能时代,是得语言者的天下,因此机器翻译也是认知智能的终极梦想之一,本节将分享我们对机器翻译技术和应用的一些思考,有些想法不一定正确,也许需要十年之后才能验证。
...
@@ -99,15 +99,9 @@
...
@@ -99,15 +99,9 @@
\parinterval
最后简单评价一下机器翻译市场发展的趋势。机器翻译本身是个强刚需,用于解决全球用户多语言交流障碍问题。机器翻译产业真正热起来,应该归功于神经机器翻译技术应用,之前基于规则的方法和统计机器翻译技术虽然也在工业界得到了应用,但由于翻译品质没有达到用户预期,用户付费欲望比较差,没有良好的商业变现能力,导致机器翻译产业在2017年以前类似于“鸡肋”产业。严格上来说,2016年下半年开始,神经机器翻译技术工业界应用快速激活了用户需求,用户对机器翻译的认可度急剧上升,越来越丰富的应用模式和需求被挖掘出来,除了传统计算机辅助翻译CAT以外,语音和OCR与机器翻译技术结合,使得大家比较熟悉的语音翻译APP、翻译机、翻译笔、会议AI同传和垂直行业(专利、医药、旅游等)等的机器翻译解决方案也逐渐得到了广泛应用。总体来说,机器翻译产学研正处于快速上升期,每年市场规模达到至少100
\%
以上增长,随着多模态机器翻译和大数据翻译技术应用,应用场景会越来越丰富,随着5G甚至6G技术发展,视频翻译和电话通讯翻译等应用会进一步爆发。另外,随着人工智能芯片领域的发展,很自然地机器翻译芯片也会逐渐得到应用,比如嵌入到手机、打印机、复印机、传真机和电视机等智能终端设备,实现所有内容皆可翻译,任何场景皆可运行的目标,机器翻译服务将进入人们的日常生活中,无所不在,让生活更加美好!
\\
\parinterval
最后简单评价一下机器翻译市场发展的趋势。机器翻译本身是个强刚需,用于解决全球用户多语言交流障碍问题。机器翻译产业真正热起来,应该归功于神经机器翻译技术应用,之前基于规则的方法和统计机器翻译技术虽然也在工业界得到了应用,但由于翻译品质没有达到用户预期,用户付费欲望比较差,没有良好的商业变现能力,导致机器翻译产业在2017年以前类似于“鸡肋”产业。严格上来说,2016年下半年开始,神经机器翻译技术工业界应用快速激活了用户需求,用户对机器翻译的认可度急剧上升,越来越丰富的应用模式和需求被挖掘出来,除了传统计算机辅助翻译CAT以外,语音和OCR与机器翻译技术结合,使得大家比较熟悉的语音翻译APP、翻译机、翻译笔、会议AI同传和垂直行业(专利、医药、旅游等)等的机器翻译解决方案也逐渐得到了广泛应用。总体来说,机器翻译产学研正处于快速上升期,每年市场规模达到至少100
\%
以上增长,随着多模态机器翻译和大数据翻译技术应用,应用场景会越来越丰富,随着5G甚至6G技术发展,视频翻译和电话通讯翻译等应用会进一步爆发。另外,随着人工智能芯片领域的发展,很自然地机器翻译芯片也会逐渐得到应用,比如嵌入到手机、打印机、复印机、传真机和电视机等智能终端设备,实现所有内容皆可翻译,任何场景皆可运行的目标,机器翻译服务将进入人们的日常生活中,无所不在,让生活更加美好!
\\
\hfill
朱靖波 2020.12.10-16随笔
\hfill
朱靖波
%----------------------------------------------
\begin{figure}
[htp]
\hfill
2020.12.10-16 随笔
\centering
\includegraphics
[scale=0.4]
{
./Chapterpostscript/Figures/figure-niutrans.jpg
}
%\setlength{\abovecaptionskip}{-0.2cm}
%\caption{使用TranSmart系统进行交互式翻译的实例}
\label
{
fig:postscript-1
}
\end{figure}
%----------------------------------------------
\end{spacing}
\end{spacing}
\ No newline at end of file
mt-book-xelatex.tex
查看文件 @
64600e61
...
@@ -132,7 +132,7 @@
...
@@ -132,7 +132,7 @@
% CHAPTERS
% CHAPTERS
%----------------------------------------------------------------------------------------
%----------------------------------------------------------------------------------------
\include
{
Chapter1/chapter1
}
%
\include{Chapter1/chapter1}
%\include{Chapter2/chapter2}
%\include{Chapter2/chapter2}
%\include{Chapter3/chapter3}
%\include{Chapter3/chapter3}
%\include{Chapter4/chapter4}
%\include{Chapter4/chapter4}
...
@@ -149,9 +149,10 @@
...
@@ -149,9 +149,10 @@
%\include{Chapter15/chapter15}
%\include{Chapter15/chapter15}
%\include{Chapter16/chapter16}
%\include{Chapter16/chapter16}
%\include{Chapter17/chapter17}
%\include{Chapter17/chapter17}
\include
{
Chapter18/chapter18
}
%\include{Chapter18/chapter18}
\include
{
Chapterpostscript/postscript
}
\include
{
ChapterPostscript/postscript
}
\include
{
ChapterAppend/chapterappend
}
\include
{
ChapterAcknowledgement/acknowledgement
}
%\include{ChapterAppend/chapterappend}
%----------------------------------------------------------------------------------------
%----------------------------------------------------------------------------------------
...
...
编写
预览
Markdown
格式
0%
重试
或
添加新文件
添加附件
取消
您添加了
0
人
到此讨论。请谨慎行事。
请先完成此评论的编辑!
取消
请
注册
或者
登录
后发表评论