Skip to content
项目
群组
代码片段
帮助
当前项目
正在载入...
登录 / 注册
切换导航面板
M
mtbookv2
概览
Overview
Details
Activity
Cycle Analytics
版本库
Repository
Files
Commits
Branches
Tags
Contributors
Graph
Compare
Charts
问题
0
Issues
0
列表
Board
标记
里程碑
合并请求
0
Merge Requests
0
CI / CD
CI / CD
流水线
作业
日程表
图表
维基
Wiki
代码片段
Snippets
成员
Collapse sidebar
Close sidebar
活动
图像
聊天
创建新问题
作业
提交
Issue Boards
Open sidebar
NiuTrans
mtbookv2
Commits
c9f33385
Commit
c9f33385
authored
Aug 17, 2020
by
单韦乔
Browse files
Options
Browse Files
Download
Plain Diff
合并分支 'shanweiqiao' 到 'caorunzhe'
第一章和第二章图片、正文错字 查看合并请求
!71
parents
8dd2623a
f8fd93ee
隐藏空白字符变更
内嵌
并排
正在显示
4 个修改的文件
包含
71 行增加
和
10 行删除
+71
-10
Chapter1/Figures/comparison-between-interlingua-based-and-transfer-based-translation.tex
+4
-0
Chapter1/chapter1.tex
+1
-1
Chapter2/chapter2.tex
+9
-9
bibliography.bib
+57
-0
没有找到文件。
Chapter1/Figures/comparison-between-interlingua-based-and-transfer-based-translation.tex
查看文件 @
c9f33385
...
...
@@ -19,6 +19,8 @@
\draw
[<->,very thick] (s3.south) -- (m1.east);
\draw
[<->,very thick] (s4.north) -- (m1.east);
\node
[anchor=north] (l) at ([xshift=5em,yshift=-1em]s2.south)
{{
(a)
}}
;
\end{scope}
...
...
@@ -40,6 +42,8 @@
\draw
[<->,very thick] (s1.south east) -- (s4.north west);
\draw
[<->,very thick] (s2.north east) -- (s3.south west);
\node
[anchor=north] (l) at ([xshift=5em,yshift=-1em]s2.south)
{{
(b)
}}
;
\end{scope}
\end{tikzpicture}
...
...
Chapter1/chapter1.tex
查看文件 @
c9f33385
...
...
@@ -338,7 +338,7 @@
\begin{figure}
[htp]
\centering
\input
{
./Chapter1/Figures/comparison-between-interlingua-based-and-transfer-based-translation
}
\caption
{
基于中间语言的方法
与基于转换的方法
}
\caption
{
基于中间语言的方法
(a)与基于转换的方法(b)
}
\label
{
fig:1-13
}
\end{figure}
%-------------------------------------------
...
...
Chapter2/chapter2.tex
查看文件 @
c9f33385
...
...
@@ -43,11 +43,11 @@
\parinterval
{
\small\sffamily\bfseries
{
随机变量
}}
\index
{
随机变量
}
(Random Variable)
\index
{
Random Variable
}
是对随机事件发生可能状态的描述,是随机事件的数量表征。设
$
\Omega
=
\{
\omega
\}
$
为一个随机试验的样本空间,
$
X
=
X
(
\omega
)
$
就是定义在样本空间
$
\Omega
$
上的单值实数函数,即
$
X
=
X
(
\omega
)
$
为随机变量,记为
$
X
$
。随机变量是一种能随机选取数值的变量,常用大写的英文字母或希腊字母表示,其取值通常用小写字母来表示。例如,用
$
A
$
表示一个随机变量,用
$
a
$
表示变量
$
A
$
的一个取值。根据随机变量可以选取的值的某些性质,可以将其划分为离散变量和连续变量。
\parinterval
离散变量是
指在其取值区间内可以被一一列举,
总数有限并且可计算的数值变量。例如,用随机变量
$
X
$
代表某次投骰子出现的点数,点数只可能取1
$
\sim
$
6这6个整数,
$
X
$
就是一个离散变量。
\parinterval
离散变量是
在其取值区间内可以被一一列举、
总数有限并且可计算的数值变量。例如,用随机变量
$
X
$
代表某次投骰子出现的点数,点数只可能取1
$
\sim
$
6这6个整数,
$
X
$
就是一个离散变量。
\parinterval
连续变量是在其取值区间内连续取值
,无法被一一列举,
具有无限个取值的变量。例如,图书馆的开馆时间是8:30-22:00,用
$
X
$
代表某人进入图书馆的时间,时间的取值范围是[8:30,22:00]这个时间区间,
$
X
$
就是一个连续变量。
\parinterval
连续变量是在其取值区间内连续取值
无法被一一列举、
具有无限个取值的变量。例如,图书馆的开馆时间是8:30-22:00,用
$
X
$
代表某人进入图书馆的时间,时间的取值范围是[8:30,22:00]这个时间区间,
$
X
$
就是一个连续变量。
\parinterval
{
\small\bfnew
{
概率
}}
\index
{
概率
}
(Probability)
\index
{
Probability
}
是度量随机事件呈现其每个可能状态的可能性的数值,本质上它是一个测度函数
\upcite
{
mao-prob-book-2011
}
\upcite
{
kolmogorov2018foundations
}
。概率的大小表征了随机事件在一次试验中发生的可能性大小。用
$
P
(
\cdot
)
$
表示一个随机事件的可能性,即事件发生的概率。比如
$
P
(
\textrm
{
太阳从东方升起
}
)
$
表示“太阳从东方升起的可能性”,同理,
$
P
(
A
=
B
)
$
表示的就是“
$
A
=
B
$
”这件事的可能性。
\parinterval
{
\small\bfnew
{
概率
}}
\index
{
概率
}
(Probability)
\index
{
Probability
}
是度量随机事件呈现其每个可能状态的可能性的数值,本质上它是一个测度函数
\upcite
{
mao-prob-book-2011
}
\upcite
{
kolmogorov2018foundations
}
。概率的大小表征了随机事件在一次试验中发生的可能性大小。用
$
\funp
{
P
}
(
\cdot
)
$
表示一个随机事件的可能性,即事件发生的概率。比如
$
\funp
{
P
}
(
\textrm
{
太阳从东方升起
}
)
$
表示“太阳从东方升起”的可能性,同理,
$
\funp
{
P
}
(
A
=
B
)
$
表示的就是“
$
A
=
B
$
”这件事的可能性。
\parinterval
在实际问题中,往往需要得到随机变量的概率值。但是,真实的概率值可能是无法准确知道的,这时就需要对概率进行
{
\small\sffamily\bfseries
{
估计
}}
\index
{
估计
}
,得到的结果是概率的
{
\small\sffamily\bfseries
{
估计值
}}
\index
{
估计值
}
(Estimate)
\index
{
Estimate
}
。在概率论中,一个很简单的方法是利用相对频度作为概率的估计值。如果
$
\{
x
_
1
,x
_
2
,
\dots
,x
_
n
\}
$
是一个试验的样本空间,在相同情况下重复试验
$
N
$
次,观察到样本
$
x
_
i
(
1
\leq
{
i
}
\leq
{
n
}
)
$
的次数为
$
n
(
x
_
i
)
$
,那么
$
x
_
i
$
在这
$
N
$
次试验中的相对频率是
$
\frac
{
n
(
x
_
i
)
}{
N
}$
。当
$
N
$
越来越大时,相对概率也就越来越接近真实概率
$
P
(
x
_
i
)
$
,即
$
\lim
_{
N
\to
\infty
}
\frac
{
n
(
x
_
i
)
}{
N
}
=
P
(
x
_
i
)
$
。 实际上,很多概率模型都等同于相对频度估计,比如,对于一个服从多项式分布的变量的极大似然估计就可以用相对频度估计实现。
...
...
@@ -505,7 +505,7 @@ P(w_m|w_1 w_2 \ldots w_{m-1}) \approx P(w_m|w_{m-n+1} \ldots w_{m-1})
}
\end{table}
%------------------------------------------------------
\parinterval
可以看到,1-gram语言模型只是
$
n
$
-gram语言模型的一种特殊形式。基于独立性假设,1-gram假定当前词出现与否与任何历史都无关,这种方法大大化简了求解句子概率的复杂度。但是,实际上句子中的词汇并非完全相互独立的,这种
语言模型
并不能完美的描述客观世界的问题。如果需要更精确地获取句子的概率,就需要使用更长的“历史”信息。
\parinterval
可以看到,1-gram语言模型只是
$
n
$
-gram语言模型的一种特殊形式。基于独立性假设,1-gram假定当前词出现与否与任何历史都无关,这种方法大大化简了求解句子概率的复杂度。但是,实际上句子中的词汇并非完全相互独立的,这种
假设
并不能完美的描述客观世界的问题。如果需要更精确地获取句子的概率,就需要使用更长的“历史”信息。
\parinterval
$
n
$
-gram的优点在于,它所使用的历史信息是有限的,即
$
n
-
1
$
个单词。这种性质也反映了经典的马尔可夫链的思想
\upcite
{
liuke-markov-2004
}
\upcite
{
resnick1992adventures
}
,有时也被称作马尔可夫假设或者马尔可夫属性。因此
$
n
$
-gram也可以被看作是变长序列上的一种马尔可夫模型,比如,2-gram语言模型对应着1阶马尔可夫模型,3-gram语言模型对应着2阶马尔可夫模型,以此类推。
...
...
@@ -672,7 +672,7 @@ P(r>0) & = & \sum_{r>0}{P_r} \nonumber \\
\subsubsection
{
3.Kneser-Ney平滑方法
}
\parinterval
Kneser-Ney平滑方法是由R.Kneser和H.Ney于1995年提出的用于计算
$
n
$
元语法概率分布的方法
\upcite
{
kneser1995improved
}
\upcite
{
chen1999empirical
}
,并被广泛认为是最有效的平滑方法。这种平滑方法改进了Absolute Discounting中与高阶分布相结合的低阶分布的计算方法,使不同阶分布得到充分的利用。这种算法也综合利用了其他多种平滑算法的思想。
\parinterval
Kneser-Ney平滑方法是由R.Kneser和H.Ney于1995年提出的用于计算
$
n
$
元语法概率分布的方法
\upcite
{
kneser1995improved
}
\upcite
{
chen1999empirical
}
,并被广泛认为是最有效的平滑方法。这种平滑方法改进了Absolute Discounting
\upcite
{
ney1994on
}
\upcite
{
ney1991on
}
中与高阶分布相结合的低阶分布的计算方法,使不同阶分布得到充分的利用。这种算法也综合利用了其他多种平滑算法的思想。
\parinterval
首先介绍一下Absolute Discounting平滑算法,公式如下所示:
\begin{eqnarray}
...
...
@@ -918,9 +918,9 @@ w^{'} = \argmax_{w \in \chi}P(w)
% NEW SUB-SECTION
%----------------------------------------------------------------------------------------
\subsection
{
非经典搜索(局部搜索)
}
\subsection
{
局部搜索
}
\parinterval
由于全局搜索策略大
都要遍历整个解空间,所以全局搜索策略的时间、空间复杂度一般都比较高。在对于完备性与最优性要求不那么严格的搜索问题上,可以使用局部搜索策略。
局部搜索策略不必遍历完整的解空间,因此降低了时间、空间复杂度,但是这也导致可能会丢失最优解甚至找不到解,所以局部搜索都是不完备的而且非最优的。但是,在自然语言处理中,很多问题由于搜索空间过大无法使用全局搜索,因此使用局部搜索是非常普遍的。
\parinterval
由于全局搜索策略大
要遍历整个解空间,所以它的时间、空间复杂度一般都比较高。在对于完备性与最优性要求不那么严格的搜索问题上,可以使用非经典搜索策略。非经典搜索涵盖的内容非常广泛,其中包括局部搜索
\upcite
{
lowerre1976the
}
、连续空间搜索
\upcite
{
bishop1995neural
}
、信念状态搜索
\upcite
{
åström1965optimal
}
和实时搜索
\upcite
{
korf1990real
}
等等。局部搜索是非经典搜索里的一个重要方面,
局部搜索策略不必遍历完整的解空间,因此降低了时间、空间复杂度,但是这也导致可能会丢失最优解甚至找不到解,所以局部搜索都是不完备的而且非最优的。但是,在自然语言处理中,很多问题由于搜索空间过大无法使用全局搜索,因此使用局部搜索是非常普遍的。
%----------------------------------------------------------------------------------------
% NEW SUBSUB-SECTION
...
...
@@ -928,9 +928,9 @@ w^{'} = \argmax_{w \in \chi}P(w)
\subsubsection
{
1.贪婪搜索
}
\parinterval
{
\small\bfnew
{
贪婪搜索
}}
\index
{
贪婪搜索
}
(Greedy Search)
\index
{
Greedy Search
}
基于一种
假设,当一个问题可以拆分为多个子问题时,如果一直选择子问题的最优解就能得到原问题的最优解。基于这种假设
,它每次都优先挑选得分最高的词进行扩展,这一点与改进过的深度优先搜索类似。但是它们的区别在于,贪婪搜索在搜索到一个完整的序列,也就是搜索到<eos>即停止,而改进的深度优先搜索会遍历整个解空间。因此贪婪搜索非常高效,其时间和空间复杂度仅为
$
\textrm
{
O
}
(
m
)
$
,这里
$
m
$
为单词序列的长度。
\parinterval
{
\small\bfnew
{
贪婪搜索
}}
\index
{
贪婪搜索
}
(Greedy Search)
\index
{
Greedy Search
}
基于一种
思想:当一个问题可以拆分为多个子问题时,如果一直选择子问题的最优解就能得到原问题的最优解,那么就可以不必遍历原始的解空间,而是使用这种“贪婪”的策略进行搜索。基于这种思想
,它每次都优先挑选得分最高的词进行扩展,这一点与改进过的深度优先搜索类似。但是它们的区别在于,贪婪搜索在搜索到一个完整的序列,也就是搜索到<eos>即停止,而改进的深度优先搜索会遍历整个解空间。因此贪婪搜索非常高效,其时间和空间复杂度仅为
$
\textrm
{
O
}
(
m
)
$
,这里
$
m
$
为单词序列的长度。
\parinterval
由于贪婪搜索并没有遍历
解空间,所以该方法不保证一定能找到最优解。比如对于如图
\ref
{
fig:2-18
}
所示的一个搜索结构,贪婪搜索将选择红线所示的序列,该序列的最终得分是-1.7。但是,对比图
\ref
{
fig:2-16
}
可以发现,在另一条路径上有得分更高的序列“<sos>
\
I
\
agree
\
<eos>”,它的得分为-1.5。此时贪婪搜索并没有找到最优解,由于贪婪搜索选择的单词是当前步骤得分最高的,但是最后生成的单词序列的得分取决于它未生成部分的得分。因此当得分最高的单词的子树中未生成部分的得分远远小于其他子树时,贪婪搜索提供的解的质量会非常差。同样的问题可以出现在使用贪婪搜索的任意时刻
。
\parinterval
由于贪婪搜索并没有遍历
整个解空间,所以该方法不保证一定能找到最优解。比如对于如图
\ref
{
fig:2-18
}
所示的一个搜索结构,贪婪搜索将选择红线所示的序列,该序列的最终得分是-1.7。但是,对比图
\ref
{
fig:2-16
}
可以发现,在另一条路径上有得分更高的序列“<sos>
\
I
\
agree
\
<eos>”,它的得分为-1.5。此时贪婪搜索并没有找到最优解,由于贪婪搜索选择的单词是当前步骤得分最高的,但是最后生成的单词序列的得分取决于它未生成部分的得分。因此当得分最高的单词的子树中未生成部分的得分远远小于其他子树时,贪婪搜索提供的解的质量会非常差。同样的问题可以出现在使用贪婪搜索的任意时刻。但是,即使是这样,凭借其简单的思想以及在真实问题上的效果,贪婪搜索在很多场景中仍然得到了深入应用
。
%----------------------------------------------
\begin{figure}
[htp]
...
...
bibliography.bib
查看文件 @
c9f33385
...
...
@@ -1364,6 +1364,63 @@
number={3},
year={1957},
}
@book{lowerre1976the,
title="The HARPY speech recognition system",
author="Bruce T. {Lowerre}",
notes="Sourced from Microsoft Academic - https://academic.microsoft.com/paper/2137095888",
year="1976"
}
@book{bishop1995neural,
title="Neural networks for pattern recognition",
author="Christopher M. {Bishop}",
notes="Sourced from Microsoft Academic - https://academic.microsoft.com/paper/1554663460",
year="1995"
}
@article{åström1965optimal,
title="Optimal control of Markov processes with incomplete state information",
author="Karl Johan {Åström}",
journal="Journal of Mathematical Analysis and Applications",
volume="10",
number="1",
pages="174--205",
notes="Sourced from Microsoft Academic - https://academic.microsoft.com/paper/2011418219",
year="1965"
}
@article{korf1990real,
title="Real-time heuristic search",
author="Richard E. {Korf}",
journal="Artificial Intelligence",
volume="42",
number="2",
pages="189--211",
notes="Sourced from Microsoft Academic - https://academic.microsoft.com/paper/2021061679",
year="1990"
}
@article{ney1994on,
title="On structuring probabilistic dependences in stochastic language modelling",
author="Hermann {Ney} and Ute {Essen} and Reinhard {Kneser}",
journal="Computer Speech \& Language",
volume="8",
number="1",
pages="1--38",
notes="Sourced from Microsoft Academic - https://academic.microsoft.com/paper/2075201173",
year="1994"
}
@inproceedings{ney1991on,
title="On smoothing techniques for bigram-based natural language modelling",
author="H. {Ney} and U. {Essen}",
booktitle="[Proceedings] ICASSP 91: 1991 International Conference on Acoustics, Speech, and Signal Processing",
pages="825--828",
notes="Sourced from Microsoft Academic - https://academic.microsoft.com/paper/2020749563",
year="1991"
}
%%%%% chapter 2------------------------------------------------------
%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
...
...
编写
预览
Markdown
格式
0%
重试
或
添加新文件
添加附件
取消
您添加了
0
人
到此讨论。请谨慎行事。
请先完成此评论的编辑!
取消
请
注册
或者
登录
后发表评论