Skip to content
项目
群组
代码片段
帮助
当前项目
正在载入...
登录 / 注册
切换导航面板
T
Toy-MT-Introduction
概览
Overview
Details
Activity
Cycle Analytics
版本库
Repository
Files
Commits
Branches
Tags
Contributors
Graph
Compare
Charts
问题
0
Issues
0
列表
Board
标记
里程碑
合并请求
0
Merge Requests
0
CI / CD
CI / CD
流水线
作业
日程表
图表
维基
Wiki
代码片段
Snippets
成员
Collapse sidebar
Close sidebar
活动
图像
聊天
创建新问题
作业
提交
Issue Boards
Open sidebar
NiuTrans
Toy-MT-Introduction
Commits
cf59a7a3
Commit
cf59a7a3
authored
May 21, 2020
by
孟霞
Browse files
Options
Browse Files
Download
Plain Diff
合并分支 'mengxia' 到 'caorunzhe'
Mengxia 查看合并请求
!241
parents
39c10780
a65c53fd
隐藏空白字符变更
内嵌
并排
正在显示
1 个修改的文件
包含
24 行增加
和
22 行删除
+24
-22
Book/Chapter2/chapter2.tex
+24
-22
没有找到文件。
Book/Chapter2/chapter2.tex
查看文件 @
cf59a7a3
...
...
@@ -105,8 +105,6 @@
\parinterval
在实际问题中,往往需要得到随机变量的概率值。但是,真实的概率值可能是无法准确知道的,这时就需要对概率进行
{
\small\sffamily\bfseries
{
估计
}}
\index
{
估计
}
,得到的结果是概率的
{
\small\sffamily\bfseries
{
估计值
}}
\index
{
估计值
}
(Estimate)
\index
{
Estimate
}
。在概率论中,一个很简单的方法是利用相对频度作为概率的估计值。如果
$
\{
x
_
1
,x
_
2
,
\dots
,x
_
n
\}
$
是一个试验的样本空间,在相同情况下重复试验
$
N
$
次,观察到样本
$
x
_
i
(
1
\leq
{
i
}
\leq
{
n
}
)
$
的次数为
$
n
(
x
_
i
)
$
,那么
$
x
_
i
$
在这
$
N
$
次试验中的相对频率是
$
\frac
{
n
(
x
_
i
)
}{
N
}$
。当
$
N
$
越来越大时,相对概率也就越来越接近真实概率
$
\textrm
{
P
}
(
x
_
i
)
$
,即
$
\lim
_{
N
\to
\infty
}
\frac
{
n
(
x
_
i
)
}{
N
}
=
\textrm
{
P
}
(
x
_
i
)
$
。 实际上,很多概率模型都等同于相对频度估计,比如,对于一个服从多项式分布的变量的极大似然估计就可以用相对频度估计实现。
\parinterval
概率函数是用函数形式给出离散变量每个取值发生的概率,其实就是将变量的概率分布转化为数学表达形式。如果把
$
A
$
看做一个离散变量,
$
a
$
看做变量
$
A
$
的一个取值,那么
$
\textrm
{
P
}
(
A
)
$
被称作变量
$
A
$
的概率函数,
$
\textrm
{
P
}
(
A
=
a
)
$
被称作
$
A
=
a
$
的概率值,简记为
$
\textrm
{
P
}
(
a
)
$
。例如,在相同条件下掷一个骰子50次,用
$
A
$
表示投骰子出现的点数这个离散变量,
$
a
_
i
$
表示点数的取值,
$
\textrm
{
P
}_
i
$
表示
$
A
=
a
_
i
$
的概率值。下表为
$
A
$
的概率分布,给出了
$
A
$
的所有取值及其概率。
%--------------------------------------------------------------------
\begin{table}
[htp]
\centering
...
...
@@ -120,15 +118,9 @@
\end{table}
%--------------------------------------------------------------------
\parinterval
除此之外,概率函数
$
\textrm
{
P
}
(
\cdot
)
$
还具有非负性、归一性等特点。非负性是指,所有的概率函数
$
\textrm
{
P
}
(
\cdot
)
$
都必须是大于等于0的数值,概率函数中不可能出现负数,即
$
\forall
{
x
}
,
\textrm
{
P
}{
(
x
)
}
\geq
{
0
}$
。归一性,又称规范性,简单的说就是所有可能发生的事件的概率总和为1,即
$
\sum
_{
x
}
\textrm
{
P
}{
(
x
)
}
=
{
1
}$
。
\parinterval
概率函数是用函数形式给出离散变量每个取值发生的概率,其实就是将变量的概率分布转化为数学表达形式。如果把
$
A
$
看做一个离散变量,
$
a
$
看做变量
$
A
$
的一个取值,那么
$
\textrm
{
P
}
(
A
)
$
被称作变量
$
A
$
的概率函数,
$
\textrm
{
P
}
(
A
=
a
)
$
被称作
$
A
=
a
$
的概率值,简记为
$
\textrm
{
P
}
(
a
)
$
。例如,在相同条件下掷一个骰子50次,用
$
A
$
表示投骰子出现的点数这个离散变量,
$
a
_
i
$
表示点数的取值,
$
\textrm
{
P
}_
i
$
表示
$
A
=
a
_
i
$
的概率值。表
\ref
{
tab:2-1
}
为
$
A
$
的概率分布,给出了
$
A
$
的所有取值及其概率
。
\parinterval
对于离散变量
$
A
$
,
$
\textrm
{
P
}
(
A
=
a
)
$
是个确定的值,可以表示事件
$
A
=
a
$
的可能性大小;而对于连续变量,求在某个定点处的概率是无意义的,只能求其落在某个取值区间内的概率。因此,用
{
\small\sffamily\bfseries
{
概率分布函数
}}
\index
{
概率分布函数
}$
F
(
x
)
$
和
{
\small\sffamily\bfseries
{
概率密度函数
}}
\index
{
概率密度函数
}$
f
(
x
)
$
来统一描述随机变量取值的分布情况(如图
\ref
{
fig:2-3
}
)。概率分布函数
$
F
(
x
)
$
表示取值小于等于某个值的概率,是概率的累加(或积分)形式。假设
$
A
$
是一个随机变量,
$
a
$
是任意实数,将函数
$
F
(
a
)=
\textrm
{
P
}
\{
A
\leq
a
\}
$
,
$
-
\infty
<a<
\infty
$
定义为
$
A
$
的分布函数。通过分布函数,可以清晰地表示任何随机变量的概率。
\parinterval
概率密度函数反映了变量在某个区间内的概率变化快慢,概率密度函数的值是概率的变化率,该连续变量的概率也就是对概率密度函数求积分得到的结果。设
$
f
(
x
)
\geq
0
$
是连续变量
$
X
$
的概率密度函数,
$
X
$
的分布函数就可以用如下公式定义:
\begin{eqnarray}
F(x)=
\int
_{
-
\infty
}^
x f(x)dx
\label
{
eq:2-1
}
\end{eqnarray}
\parinterval
除此之外,概率函数
$
\textrm
{
P
}
(
\cdot
)
$
还具有非负性、归一性等特点。非负性是指,所有的概率函数
$
\textrm
{
P
}
(
\cdot
)
$
都必须是大于等于0的数值,概率函数中不可能出现负数,即
$
\forall
{
x
}
,
\textrm
{
P
}{
(
x
)
}
\geq
{
0
}$
。归一性,又称规范性,简单的说就是所有可能发生的事件的概率总和为1,即
$
\sum
_{
x
}
\textrm
{
P
}{
(
x
)
}
=
{
1
}$
。
%----------------------------------------------
\begin{figure}
[htp]
...
...
@@ -139,6 +131,14 @@ F(x)=\int_{-\infty}^x f(x)dx
\end{figure}
%-------------------------------------------
\parinterval
对于离散变量
$
A
$
,
$
\textrm
{
P
}
(
A
=
a
)
$
是个确定的值,可以表示事件
$
A
=
a
$
的可能性大小;而对于连续变量,求在某个定点处的概率是无意义的,只能求其落在某个取值区间内的概率。因此,用
{
\small\sffamily\bfseries
{
概率分布函数
}}
\index
{
概率分布函数
}$
F
(
x
)
$
和
{
\small\sffamily\bfseries
{
概率密度函数
}}
\index
{
概率密度函数
}$
f
(
x
)
$
来统一描述随机变量取值的分布情况(如图
\ref
{
fig:2-3
}
)。概率分布函数
$
F
(
x
)
$
表示取值小于等于某个值的概率,是概率的累加(或积分)形式。假设
$
A
$
是一个随机变量,
$
a
$
是任意实数,将函数
$
F
(
a
)=
\textrm
{
P
}
\{
A
\leq
a
\}
$
,
$
-
\infty
<a<
\infty
$
定义为
$
A
$
的分布函数。通过分布函数,可以清晰地表示任何随机变量的概率。
\parinterval
概率密度函数反映了变量在某个区间内的概率变化快慢,概率密度函数的值是概率的变化率,该连续变量的概率也就是对概率密度函数求积分得到的结果。设
$
f
(
x
)
\geq
0
$
是连续变量
$
X
$
的概率密度函数,
$
X
$
的分布函数就可以用如下公式定义:
\begin{eqnarray}
F(x)=
\int
_{
-
\infty
}^
x f(x)dx
\label
{
eq:2-1
}
\end{eqnarray}
%----------------------------------------------------------------------------------------
% NEW SUB-SECTION
%----------------------------------------------------------------------------------------
...
...
@@ -282,7 +282,7 @@ F(x)=\int_{-\infty}^x f(x)dx
\label
{
eq:2-12
}
\end{eqnarray}
\parinterval
贝叶斯公式常用于根据已知的结果来推断使之发生的各因素的可能性。
\parinterval
贝叶斯公式常用于根据已知的结果来推断使之发生的各因素的可能性。
\\
\\
%----------------------------------------------------------------------------------------
% NEW SUB-SECTION
...
...
@@ -379,7 +379,6 @@ F(x)=\int_{-\infty}^x f(x)dx
\parinterval
对于机器翻译系统而言,输入的是已经切分好的单词序列,而不是原始的字符串(图
\ref
{
fig:2-7
}
)。比如,对于一个中文句子,单词之间是没有间隔的,因此需要把一个个的单词切分出来,这样机器翻译系统可以区分不同的翻译单元。甚至,可以对语言学上的单词进行进一步切分,得到词片段序列(比如:中国人
$
\to
$
中国/人)。可以把上述过程看作是一种
{
\small\sffamily\bfseries
{
分词
}}
\index
{
分词
}
(Segmentation)
\index
{
Segmentation
}
过程,即:将一个输入的自然语言字符串切割成单元序列(token序列),每个单元都对应可以处理的最小单位。
\vspace
{
0.5em
}
%----------------------------------------------
\begin{figure}
[htp]
\centering
...
...
@@ -481,6 +480,8 @@ F(x)=\int_{-\infty}^x f(x)dx
\vspace
{
0.5em
}
\end{itemize}
\parinterval
图
\ref
{
fig:2-10
}
给出了一个基于统计建模的汉语分词实例。左侧是标注数据,其中每个句子是已经经过人工标注的分词结果(单词用斜杠分开)。之后,建立一个统计模型,记为
$
\textrm
{
P
}
(
\cdot
)
$
。模型通过在标注数据上的学习来对问题进行描述,即学习
$
\textrm
{
P
}
(
\cdot
)
$
。最后,对于新的未分词的句子,使用模型
$
\textrm
{
P
}
(
\cdot
)
$
对每个可能的切分方式进行概率估计,之后选择概率最高的切分结果输出。
%----------------------------------------------
\begin{figure}
[htp]
\centering
...
...
@@ -490,8 +491,7 @@ F(x)=\int_{-\infty}^x f(x)dx
\label
{
fig:2-10
}
\end{figure}
%-------------------------------------------
\parinterval
图
\ref
{
fig:2-10
}
给出了一个基于统计建模的汉语分词实例。左侧是标注数据,其中每个句子是已经经过人工标注的分词结果(单词用斜杠分开)。之后,建立一个统计模型,记为
$
\textrm
{
P
}
(
\cdot
)
$
。模型通过在标注数据上的学习来对问题进行描述,即学习
$
\textrm
{
P
}
(
\cdot
)
$
。最后,对于新的未分词的句子,使用模型
$
\textrm
{
P
}
(
\cdot
)
$
对每个可能的切分方式进行概率估计,之后选择概率最高的切分结果输出。
\vspace
{
-1em
}
%----------------------------------------------------------------------------------------
% NEW SUBSUB-SECTION
...
...
@@ -520,7 +520,7 @@ F(x)=\int_{-\infty}^x f(x)dx
\end{eqnarray}
\vspace
{
-0.5em
}
\parinterval
但是这个游戏没有人规定骰子是均匀的(有些被坑了的感觉)。如果骰子的六个面不均匀呢?我们可以用一种更加``聪明''的方式定义一种新的模型,即定义骰子的每一个面都以一定的概率出现,而不是相同的概率。描述如下:
\parinterval
但是这个游戏没有人规定骰子是均匀的(有些被坑了的感觉)。如果骰子的六个面不均匀呢?我们可以用一种更加``聪明''的方式定义一种新的模型,即定义骰子的
\\
\\
\\
每一个面都以一定的概率出现,而不是相同的概率。描述如下:
\begin{eqnarray}
\textrm
{
P(``1'')
}
&
=
&
\theta
_
1
\nonumber
\\
\textrm
{
P(``2'')
}
&
=
&
\theta
_
2
\nonumber
\\
...
...
@@ -697,7 +697,7 @@ F(x)=\int_{-\infty}^x f(x)dx
\label
{
eq:2-23
}
\end{eqnarray}
\parinterval
这样,整个序列
$
w
_
1
w
_
2
...w
_
m
$
的生成概率可以被重新定义为:
\parinterval
这样,整个序列
$
w
_
1
w
_
2
...w
_
m
$
的生成概率可以被重新定义为:
\\
\\
\\
\vspace
{
0.5em
}
\begin{center}
...
...
@@ -716,7 +716,7 @@ F(x)=\int_{-\infty}^x f(x)dx
}
\end{center}
\vspace
{
-
0.8
em
}
\vspace
{
-
1.5
em
}
\parinterval
可以看到,1-gram语言模型只是
$
n
$
-gram语言模型的一种特殊形式。
$
n
$
-gram的优点在于,它所使用的历史信息是有限的,即
$
n
-
1
$
个单词。这种性质也反映了经典的马尔可夫链的思想
\cite
{
liuke-markov-2004
}
\cite
{
resnick1992adventures
}
,有时也被称作马尔可夫假设或者马尔可夫属性。因此
$
n
$
-gram也可以被看作是变长序列上的一种马尔可夫模型,比如,2-gram语言模型对应着1阶马尔可夫模型,3-gram语言模型对应着2阶马尔可夫模型,以此类推。
\parinterval
那么,如何计算
$
\textrm
{
P
}
(
w
_
m|w
_{
m
-
n
+
1
}
... w
_{
m
-
1
}
)
$
呢?有很多种选择,比如:
...
...
@@ -814,6 +814,7 @@ F(x)=\int_{-\infty}^x f(x)dx
\subsubsection
{
古德-图灵估计法
}
\vspace
{
-0.5em
}
\parinterval
{
\small\bfnew
{
古德-图灵估计法
}}
\index
{
古德-图灵估计法
}
(Good-Turing Estimate)
\index
{
Good-Turing Estimate
}
是图灵(Alan Turing)和他的助手古德(I.J.Good)开发的,作为他们在二战期间破解德国密码机Enigma所使用的方法的一部分,在1953 年古德将其发表,这一方法也是很多平滑算法的核心,其基本思路是:把非零的
$
n
$
元语法单元的概率降低匀给一些低概率
$
n
$
元语法单元,以减小最大似然估计与真实概率之间的偏离
\cite
{
good1953population
}
\cite
{
gale1995good
}
。
\parinterval
假定在语料库中出现
$
r
$
次的
$
n
$
-gram有
$
n
_
r
$
个,特别的,出现0次的
$
n
$
-gram(即未登录词及词串)出现的次数为
$
n
_
0
$
个。语料库中全部词语的个数为
$
N
$
,显然
...
...
@@ -833,8 +834,9 @@ r^* = (r + 1)\frac{n_{r + 1}}{n_r}
\textrm
{
P
}_
r=
\frac
{
r
^
*
}{
N
}
\label
{
eq:2-30
}
\end{eqnarray}
\vspace
{
5em
}
其中
\noindent
其中
\begin{eqnarray}
N
&
=
&
\sum
_{
r=0
}^{
\infty
}{
r
^{
*
}
n
_
r
}
\nonumber
\\
&
=
&
\sum
_{
r=0
}^{
\infty
}{
(r + 1)n
_{
r + 1
}}
\nonumber
\\
...
...
@@ -1150,10 +1152,6 @@ s_0 \overset{r_1}{\Rightarrow} s_1 \overset{r_2}{\Rightarrow} s_2 \overset{r_3}{
\parinterval
显然,规则顺序的不同会导致句法树的推导这一确定的过程变得不确定。因此,需要进行
{
\small\bfnew
{
消歧
}}
\index
{
消歧
}
(Disambiguation)
\index
{
Disambiguation
}
。这里,可以使用启发式方法:要求规则使用都服从最左优先原则,这样得到的推导被称为
{
\small\bfnew
{
最左优先推导
}}
\index
{
最左优先推导
}
(Left-most Derivation)
\index
{
Left-most Derivation
}
。图
\ref
{
fig:2-23
}
中的推导1 就是符合最左优先原则的推导。
\parinterval
这样,对于一个上下文无关文法,每一棵句法树都有唯一的最左推导与之对应。于是,句法分析可以被描述为:对于一个句子找到能够生成它的最佳推导,这个推导所对应的句法树就是这个句子的句法分析结果。
\parinterval
不过问题又回来了,怎样才能知道什么样的推导或者句法树是``最佳''的呢?如图
\ref
{
fig:2-24
}
所示,对于语言学专家,他们可以很确定的分辨出哪些句法树是正确的,哪些句法树是错误。甚至普通人也可以通过一些课本中学到的知识产生一些模糊的判断。而计算机如何进行判别呢?沿着前面介绍的统计建模的思想,计算机可以得出不同句法树出现的概率,进而选择概率最高的句法树作为输出,而这正是统计句法分析所做的事情。
%-------------------------------------------
\begin{figure}
[htp]
\centering
...
...
@@ -1163,6 +1161,10 @@ s_0 \overset{r_1}{\Rightarrow} s_1 \overset{r_2}{\Rightarrow} s_2 \overset{r_3}{
\end{figure}
%-------------------------------------------
\parinterval
这样,对于一个上下文无关文法,每一棵句法树都有唯一的最左推导与之对应。于是,句法分析可以被描述为:对于一个句子找到能够生成它的最佳推导,这个推导所对应的句法树就是这个句子的句法分析结果。
\parinterval
不过问题又回来了,怎样才能知道什么样的推导或者句法树是``最佳''的呢?如图
\ref
{
fig:2-24
}
所示,对于语言学专家,他们可以很确定的分辨出哪些句法树是正确的,哪些句法树是错误。甚至普通人也可以通过一些课本中学到的知识产生一些模糊的判断。而计算机如何进行判别呢?沿着前面介绍的统计建模的思想,计算机可以得出不同句法树出现的概率,进而选择概率最高的句法树作为输出,而这正是统计句法分析所做的事情。
\parinterval
在统计句法分析中,需要对每个推导进行统计建模,于是定义一个模型
$
\textrm
{
P
}
(
\cdot
)
$
,对于任意的推导
$
d
$
,都可以用
$
\textrm
{
P
}
(
d
)
$
计算出推导
$
d
$
的概率。这样,给定一个输入句子,我们可以对所有可能的推导用
$
\textrm
{
P
}
(
d
)
$
计算其概率值,并选择概率最大的结果作为句法分析的结果输出(图
\ref
{
fig:2-25
}
)。
%-------------------------------------------
...
...
编写
预览
Markdown
格式
0%
重试
或
添加新文件
添加附件
取消
您添加了
0
人
到此讨论。请谨慎行事。
请先完成此评论的编辑!
取消
请
注册
或者
登录
后发表评论