Skip to content
项目
群组
代码片段
帮助
当前项目
正在载入...
登录 / 注册
切换导航面板
T
Toy-MT-Introduction
概览
Overview
Details
Activity
Cycle Analytics
版本库
Repository
Files
Commits
Branches
Tags
Contributors
Graph
Compare
Charts
问题
0
Issues
0
列表
Board
标记
里程碑
合并请求
0
Merge Requests
0
CI / CD
CI / CD
流水线
作业
日程表
图表
维基
Wiki
代码片段
Snippets
成员
Collapse sidebar
Close sidebar
活动
图像
聊天
创建新问题
作业
提交
Issue Boards
Open sidebar
NiuTrans
Toy-MT-Introduction
Commits
8d1ff05e
Commit
8d1ff05e
authored
May 01, 2020
by
xiaotong
Browse files
Options
Browse Files
Download
Email Patches
Plain Diff
minor updates
parent
ef6e3eae
全部展开
隐藏空白字符变更
内嵌
并排
正在显示
5 个修改的文件
包含
4 行增加
和
4 行删除
+4
-4
Book/Chapter4/Figures/example-of-tree-to-string-rule-and-word-alignment.tex
+2
-2
Book/Chapter5/chapter5.tex
+1
-1
Book/Chapter7/Chapter7.tex
+1
-1
Book/mt-book-xelatex.idx
+0
-0
Book/mt-book-xelatex.ptc
+0
-0
没有找到文件。
Book/Chapter4/Figures/example-of-tree-to-string-rule-and-word-alignment.tex
查看文件 @
8d1ff05e
...
@@ -51,10 +51,10 @@
...
@@ -51,10 +51,10 @@
\end{pgfonlayer}
\end{pgfonlayer}
{
{
\node
[anchor=south] (rule1label) at ([xshift=1em]rule1s.north west)
{
\footnotesize\sffamily\bfseries
{
\red
{
正确的规则
}}}
;
\node
[anchor=south] (rule1label) at ([xshift=1em]rule1s.north west)
{
{
\footnotesize
\red
{
正确的规则
}}}
;
}
}
{
{
\node
[anchor=north west,align=left] (rule2label) at (rule2s.north east)
{
\footnotesize
{
\sffamily\bfseries
{
\color
{
blue
}
错误的规则
}}
\\\footnotesize
{
因为``satisfied''会
}
\\\footnotesize
{
对齐到规则外,
}
\\\footnotesize
{
也就是这条规则
}
\\\footnotesize
{
与词对齐不相容
}}
;
\node
[anchor=north west,align=left] (rule2label) at (rule2s.north east)
{
\footnotesize
{{
\color
{
blue
}
错误的规则
}}
\\\footnotesize
{
因为``satisfied''会
}
\\\footnotesize
{
对齐到规则外,
}
\\\footnotesize
{
也就是这条规则
}
\\\footnotesize
{
与词对齐不相容
}}
;
}
}
\end{scope}
\end{scope}
...
...
Book/Chapter5/chapter5.tex
查看文件 @
8d1ff05e
...
@@ -986,7 +986,7 @@ f(x)=\begin{cases} 0 & x\le 0 \\x & x>0\end{cases}
...
@@ -986,7 +986,7 @@ f(x)=\begin{cases} 0 & x\le 0 \\x & x>0\end{cases}
\begin{figure}
[htp]
\begin{figure}
[htp]
\centering
\centering
\input
{
./Chapter5/Figures/fig-save
}
\input
{
./Chapter5/Figures/fig-save
}
\caption
{
1阶
、2阶、3阶张量
的物理存储
}
\caption
{
1阶
(a)、2阶(b)、3阶张量(c)
的物理存储
}
\label
{
fig:save
}
\label
{
fig:save
}
\end{figure}
\end{figure}
%-------------------------------------------
%-------------------------------------------
...
...
Book/Chapter7/Chapter7.tex
查看文件 @
8d1ff05e
...
@@ -1646,7 +1646,7 @@ L_{\textrm{seq}} = - \textrm{logP}_{\textrm{s}}(\hat{\textbf{y}} | \textbf{x})
...
@@ -1646,7 +1646,7 @@ L_{\textrm{seq}} = - \textrm{logP}_{\textrm{s}}(\hat{\textbf{y}} | \textbf{x})
\begin{itemize}
\begin{itemize}
\item
无指导机器翻译。无指导机器翻译由于其不需要双语语料即可训练翻译模型的特性,在稀缺资源机器翻译的场景中有非常大的潜力而得到广泛的关注。目前无指导机器翻译主要有两种范式:第一种先得到词典的翻译,然后得到短语表的翻译和相应的统计机器翻译系统,最后使用统计机器翻译系统生成伪双语平行语料训练神经机器翻译系统
\cite
{
DBLP:conf/acl/ArtetxeLA19
}
;第二种是先预训练语言模型来初始化神经机器翻译系统的编码器和解码器,然后使用翻译中回译以及降噪自编码器来训练神经机器翻译系统
\cite
{
lample2019cross
}
。尽管目前无指导机器翻译在富资源的语种上取得了很大进展,但是离实际应用还有很远距离。比如,目前无指导系统都依赖于大量单语数据,而实际上稀缺资源的语种不但双语语料少,单语语料也少;此外,这些系统还无法在远距离如中英这些字母表重合少,需要大范围调序的语种对上取得可接受的结果;使用大量单语训练无指导系统还面临数据来自于不同领域的问题
\cite
{
DBLP:journals/corr/abs-2004-05516
}
。设计更鲁棒,使用单语数据更高效的无指导机器翻译方法乃至新范式会是未来的趋势。
\item
无指导机器翻译。无指导机器翻译由于其不需要双语语料即可训练翻译模型的特性,在稀缺资源机器翻译的场景中有非常大的潜力而得到广泛的关注。目前无指导机器翻译主要有两种范式:第一种先得到词典的翻译,然后得到短语表的翻译和相应的统计机器翻译系统,最后使用统计机器翻译系统生成伪双语平行语料训练神经机器翻译系统
\cite
{
DBLP:conf/acl/ArtetxeLA19
}
;第二种是先预训练语言模型来初始化神经机器翻译系统的编码器和解码器,然后使用翻译中回译以及降噪自编码器来训练神经机器翻译系统
\cite
{
lample2019cross
}
。尽管目前无指导机器翻译在富资源的语种上取得了很大进展,但是离实际应用还有很远距离。比如,目前无指导系统都依赖于大量单语数据,而实际上稀缺资源的语种不但双语语料少,单语语料也少;此外,这些系统还无法在远距离如中英这些字母表重合少,需要大范围调序的语种对上取得可接受的结果;使用大量单语训练无指导系统还面临数据来自于不同领域的问题
\cite
{
DBLP:journals/corr/abs-2004-05516
}
。设计更鲁棒,使用单语数据更高效的无指导机器翻译方法乃至新范式会是未来的趋势。
\vspace
{
0.5em
}
\vspace
{
0.5em
}
\item
更多上下文信息的建模
,多模态、基于树的模型、篇章翻译
。由于人类语言潜在的歧义性,传统的神经机器翻译在单句翻译中可能会出现歧义。为此,一些研究工作在翻译过程中尝试引入更多的上下文信息,比如多模态翻译、基于树的翻译或者篇章级翻译。多模态翻译的目标就是在给定一个图片和其源语描述的情况下,生成目标语言的描述。一般做法就是通过一个额外的编码器来提取图像特征
\cite
{
elliott2015multilingual,DBLP:conf/acl/HitschlerSR16
}
,然后通过权重门控机制、注意力网络等融合到系统中
\cite
{
DBLP:conf/wmt/HuangLSOD16
}
。
\item
更多上下文信息的建模。由于人类语言潜在的歧义性,传统的神经机器翻译在单句翻译中可能会出现歧义。为此,一些研究工作在翻译过程中尝试引入更多的上下文信息,比如多模态翻译、基于树的翻译或者篇章级翻译。多模态翻译的目标就是在给定一个图片和其源语描述的情况下,生成目标语言的描述。一般做法就是通过一个额外的编码器来提取图像特征
\cite
{
elliott2015multilingual,DBLP:conf/acl/HitschlerSR16
}
,然后通过权重门控机制、注意力网络等融合到系统中
\cite
{
DBLP:conf/wmt/HuangLSOD16
}
。
\parinterval
基于树的翻译是指在翻译模型中引入句法结构树或依存树,从而引入更多的句法信息。一种常用的做法是将句法树进行序列化,从而保留序列到序列的模型结构
\cite
{
DBLP:conf/emnlp/CurreyH18,DBLP:conf/acl/SaundersSGB18,DBLP:conf/wmt/NadejdeRSDJKB17
}
。在此基础上,一些研究工作引入了更多的解析结果
\cite
{
DBLP:conf/acl/SumitaUZTM18,DBLP:conf/coling/ZaremoodiH18
}
。同时,也有一些研究工作直接使用Tree-LSTMs等网络结构
\cite
{
DBLP:conf/acl/TaiSM15,DBLP:conf/iclr/ShenTSC19
}
来直接表示树结构,并将其应用到神经机器翻译模型中
\cite
{
DBLP:conf/acl/EriguchiHT16,Yang2017TowardsBH,DBLP:conf/acl/ChenHCC17
}
。
\parinterval
基于树的翻译是指在翻译模型中引入句法结构树或依存树,从而引入更多的句法信息。一种常用的做法是将句法树进行序列化,从而保留序列到序列的模型结构
\cite
{
DBLP:conf/emnlp/CurreyH18,DBLP:conf/acl/SaundersSGB18,DBLP:conf/wmt/NadejdeRSDJKB17
}
。在此基础上,一些研究工作引入了更多的解析结果
\cite
{
DBLP:conf/acl/SumitaUZTM18,DBLP:conf/coling/ZaremoodiH18
}
。同时,也有一些研究工作直接使用Tree-LSTMs等网络结构
\cite
{
DBLP:conf/acl/TaiSM15,DBLP:conf/iclr/ShenTSC19
}
来直接表示树结构,并将其应用到神经机器翻译模型中
\cite
{
DBLP:conf/acl/EriguchiHT16,Yang2017TowardsBH,DBLP:conf/acl/ChenHCC17
}
。
...
...
Book/mt-book-xelatex.idx
查看文件 @
8d1ff05e
差异被折叠。
点击展开。
Book/mt-book-xelatex.ptc
查看文件 @
8d1ff05e
差异被折叠。
点击展开。
编写
预览
Markdown
格式
0%
重试
或
添加新文件
添加附件
取消
您添加了
0
人
到此讨论。请谨慎行事。
请先完成此评论的编辑!
取消
请
注册
或者
登录
后发表评论