Skip to content
项目
群组
代码片段
帮助
当前项目
正在载入...
登录 / 注册
切换导航面板
T
Toy-MT-Introduction
概览
Overview
Details
Activity
Cycle Analytics
版本库
Repository
Files
Commits
Branches
Tags
Contributors
Graph
Compare
Charts
问题
0
Issues
0
列表
Board
标记
里程碑
合并请求
0
Merge Requests
0
CI / CD
CI / CD
流水线
作业
日程表
图表
维基
Wiki
代码片段
Snippets
成员
Collapse sidebar
Close sidebar
活动
图像
聊天
创建新问题
作业
提交
Issue Boards
Open sidebar
NiuTrans
Toy-MT-Introduction
Commits
12db1254
Commit
12db1254
authored
May 12, 2020
by
孟霞
Browse files
Options
Browse Files
Download
Email Patches
Plain Diff
cha2-compose
parent
219ab289
隐藏空白字符变更
内嵌
并排
正在显示
1 个修改的文件
包含
61 行增加
和
49 行删除
+61
-49
Book/Chapter2/chapter2.tex
+61
-49
没有找到文件。
Book/Chapter2/chapter2.tex
查看文件 @
12db1254
...
@@ -22,7 +22,7 @@
...
@@ -22,7 +22,7 @@
\parinterval
语言分析部分将以汉语为例介绍词法和句法分析的基本概念。它们都是自然语言处理中的经典问题,而且在机器翻译中也会经常被使用。同样,本章会介绍这两个任务的定义和求解问题的思路。
\parinterval
语言分析部分将以汉语为例介绍词法和句法分析的基本概念。它们都是自然语言处理中的经典问题,而且在机器翻译中也会经常被使用。同样,本章会介绍这两个任务的定义和求解问题的思路。
\parinterval
语言建模是机器翻译中最常用的一种技术,它主要用于句子的生成和流畅度评价。本章会以传统统计语言模型为例,对语言建模的相关概念进行介绍。但是,这里并不深入探讨语言模型技术,在后面的章节中还会单独对神经网络语言模型等前沿技术进行讨论。
\parinterval
语言建模是机器翻译中最常用的一种技术,它主要用于句子的生成和流畅度评价。本章会以传统统计语言模型为例,对语言建模的相关概念进行介绍。但是,这里并不深入探讨语言模型技术,在后面的章节中还会单独对神经网络语言模型等前沿技术进行讨论。
\\
\\
\\
%----------------------------------------------------------------------------------------
%----------------------------------------------------------------------------------------
% NEW SECTION
% NEW SECTION
...
@@ -97,8 +97,6 @@
...
@@ -97,8 +97,6 @@
\parinterval
在实际问题中,往往需要得到随机变量的概率值。但是,真实的概率值可能是无法准确知道的,这时就需要对概率进行
{
\small\sffamily\bfseries
{
估计
}}
\index
{
估计
}
,得到的结果是概率的
{
\small\sffamily\bfseries
{
估计值
}}
\index
{
估计值
}
(Estimate)
\index
{
Estimate
}
。在概率论中,一个很简单的方法是利用相对频度作为概率的估计值。如果
$
\{
x
_
1
,x
_
2
,
\dots
,x
_
n
\}
$
是一个试验的样本空间,在相同情况下重复试验
$
N
$
次,观察到样本
$
x
_
i
(
1
\leq
{
i
}
\leq
{
n
}
)
$
的次数为
$
n
(
x
_
i
)
$
,那么
$
x
_
i
$
在这
$
N
$
次试验中的相对频率是
$
\frac
{
n
(
x
_
i
)
}{
N
}$
。当
$
N
$
越来越大时,相对概率也就越来越接近真实概率
$
\textrm
{
P
}
(
x
_
i
)
$
,即
$
\lim
_{
N
\to
\infty
}
\frac
{
n
(
x
_
i
)
}{
N
}
=
\textrm
{
P
}
(
x
_
i
)
$
。 实际上,很多概率模型都等同于相对频度估计,比如,对于一个服从多项式分布的变量的极大似然估计就可以用相对频度估计实现。
\parinterval
在实际问题中,往往需要得到随机变量的概率值。但是,真实的概率值可能是无法准确知道的,这时就需要对概率进行
{
\small\sffamily\bfseries
{
估计
}}
\index
{
估计
}
,得到的结果是概率的
{
\small\sffamily\bfseries
{
估计值
}}
\index
{
估计值
}
(Estimate)
\index
{
Estimate
}
。在概率论中,一个很简单的方法是利用相对频度作为概率的估计值。如果
$
\{
x
_
1
,x
_
2
,
\dots
,x
_
n
\}
$
是一个试验的样本空间,在相同情况下重复试验
$
N
$
次,观察到样本
$
x
_
i
(
1
\leq
{
i
}
\leq
{
n
}
)
$
的次数为
$
n
(
x
_
i
)
$
,那么
$
x
_
i
$
在这
$
N
$
次试验中的相对频率是
$
\frac
{
n
(
x
_
i
)
}{
N
}$
。当
$
N
$
越来越大时,相对概率也就越来越接近真实概率
$
\textrm
{
P
}
(
x
_
i
)
$
,即
$
\lim
_{
N
\to
\infty
}
\frac
{
n
(
x
_
i
)
}{
N
}
=
\textrm
{
P
}
(
x
_
i
)
$
。 实际上,很多概率模型都等同于相对频度估计,比如,对于一个服从多项式分布的变量的极大似然估计就可以用相对频度估计实现。
\parinterval
概率函数是用函数形式给出离散变量每个取值发生的概率,其实就是将变量的概率分布转化为数学表达形式。如果把
$
A
$
看做一个离散变量,
$
a
$
看做变量
$
A
$
的一个取值,那么
$
\textrm
{
P
}
(
A
)
$
被称作变量
$
A
$
的概率函数,
$
\textrm
{
P
}
(
A
=
a
)
$
被称作
$
A
=
a
$
的概率值,简记为
$
\textrm
{
P
}
(
a
)
$
。例如,在相同条件下掷一个骰子50次,用
$
A
$
表示投骰子出现的点数这个离散变量,
$
a
_
i
$
表示点数的取值,
$
\textrm
{
P
}_
i
$
表示
$
A
=
a
_
i
$
的概率值。下表为
$
A
$
的概率分布,给出了
$
A
$
的所有取值及其概率。
%--------------------------------------------------------------------
%--------------------------------------------------------------------
\begin{table}
[htp]
\begin{table}
[htp]
\centering
\centering
...
@@ -112,15 +110,9 @@
...
@@ -112,15 +110,9 @@
\end{table}
\end{table}
%--------------------------------------------------------------------
%--------------------------------------------------------------------
\parinterval
除此之外,概率函数
$
\textrm
{
P
}
(
\cdot
)
$
还具有非负性、归一性等特点,非负性是指,所有的概率函数
$
\textrm
{
P
}
(
\cdot
)
$
都必须是大于等于0的数值,概率函数中不可能出现负数:
$
\forall
{
x
}
,
\textrm
{
P
}{
(
x
)
}
\geq
{
0
}$
。归一性,又称规范性,简单的说就是所有可能发生的事件的概率总和为1,即
$
\sum
_{
x
}
\textrm
{
P
}{
(
x
)
}
=
{
1
}$
。
\parinterval
概率函数是用函数形式给出离散变量每个取值发生的概率,其实就是将变量的概率分布转化为数学表达形式。如果把
$
A
$
看做一个离散变量,
$
a
$
看做变量
$
A
$
的一个取值,那么
$
\textrm
{
P
}
(
A
)
$
被称作变量
$
A
$
的概率函数,
$
\textrm
{
P
}
(
A
=
a
)
$
被称作
$
A
=
a
$
的概率值,简记为
$
\textrm
{
P
}
(
a
)
$
。例如,在相同条件下掷一个骰子50次,用
$
A
$
表示投骰子出现的点数这个离散变量,
$
a
_
i
$
表示点数的取值,
$
\textrm
{
P
}_
i
$
表示
$
A
=
a
_
i
$
的概率值。表
\ref
{
tab:2-1
}
为
$
A
$
的概率分布,给出了
$
A
$
的所有取值及其概率。
\parinterval
对于离散变量
$
A
$
,
$
\textrm
{
P
}
(
A
=
a
)
$
是个确定的值,可以表示事件
$
A
=
a
$
的可能性大小;而对于连续变量,求在某个定点处的概率是无意义的,只能求其落在某个取值区间内的概率。因此,用
{
\small\sffamily\bfseries
{
概率分布函数
}}
\index
{
概率分布函数
}$
F
(
x
)
$
和
{
\small\sffamily\bfseries
{
概率密度函数
}}
\index
{
概率密度函数
}$
f
(
x
)
$
来统一描述随机变量取值的分布情况(如图
\ref
{
fig:2-3
}
)。概率分布函数
$
F
(
x
)
$
表示取值小于某个值的概率,是概率的累加(或积分)形式。假设
$
A
$
是一个随机变量,
$
a
$
是任意实数,将函数
$
F
(
a
)=
\textrm
{
P
}
\{
A
\leq
a
\}
$
,
$
-
\infty
<a<
\infty
$
定义为
$
A
$
的分布函数。通过分布函数,可以清晰地表示任何随机变量的概率。
\parinterval
概率密度函数反映了变量在某个区间内的概率变化快慢,概率密度函数的值是概率的变化率,该连续变量的概率也就是对概率密度函数求积分得到的结果。设
$
f
(
x
)
\geq
0
$
是连续变量
$
X
$
的概率密度函数,
$
X
$
的分布函数就可以用如下公式定义:
\parinterval
除此之外,概率函数
$
\textrm
{
P
}
(
\cdot
)
$
还具有非负性、归一性等特点,非负性是指,所有的概率函数
$
\textrm
{
P
}
(
\cdot
)
$
都必须是大于等于0的数值,概率函数中不可能出现负数:
$
\forall
{
x
}
,
\textrm
{
P
}{
(
x
)
}
\geq
{
0
}$
。归一性,又称规范性,简单的说就是所有可能发生的事件的概率总和为1,即
$
\sum
_{
x
}
\textrm
{
P
}{
(
x
)
}
=
{
1
}$
。
\begin{eqnarray}
F(X)=
\int
_{
-
\infty
}^
x f(x)dx
\label
{
eq:2-1
}
\end{eqnarray}
%----------------------------------------------
%----------------------------------------------
\begin{figure}
[htp]
\begin{figure}
[htp]
...
@@ -130,6 +122,16 @@ F(X)=\int_{-\infty}^x f(x)dx
...
@@ -130,6 +122,16 @@ F(X)=\int_{-\infty}^x f(x)dx
\label
{
fig:2-3
}
\label
{
fig:2-3
}
\end{figure}
\end{figure}
%-------------------------------------------
%-------------------------------------------
\vspace
{
-1em
}
\parinterval
对于离散变量
$
A
$
,
$
\textrm
{
P
}
(
A
=
a
)
$
是个确定的值,可以表示事件
$
A
=
a
$
的可能性大小;而对于连续变量,求在某个定点处的概率是无意义的,只能求其落在某个取值区间内的概率。因此,用
{
\small\sffamily\bfseries
{
概率分布函数
}}
\index
{
概率分布函数
}$
F
(
x
)
$
和
{
\small\sffamily\bfseries
{
概率密度函数
}}
\index
{
概率密度函数
}$
f
(
x
)
$
来统一描述随机变量取值的分布情况(如图
\ref
{
fig:2-3
}
)。概率分布函数
$
F
(
x
)
$
表示取值小于某个值的概率,是概率的累加(或积分)形式。假设
$
A
$
是一个随机变量,
$
a
$
是任意实数,将函数
$
F
(
a
)=
\textrm
{
P
}
\{
A
\leq
a
\}
$
,
$
-
\infty
<a<
\infty
$
定义为
$
A
$
的分布函数。通过分布函数,可以清晰地表示任何随机变量的概率。
\parinterval
概率密度函数反映了变量在某个区间内的概率变化快慢,概率密度函数的值是概率的变化率,该连续变量的概率也就是对概率密度函数求积分得到的结果。设
$
f
(
x
)
\geq
0
$
是连续变量
$
X
$
的概率密度函数,
$
X
$
的分布函数就可以用如下公式定义:
\begin{eqnarray}
F(X)=
\int
_{
-
\infty
}^
x f(x)dx
\label
{
eq:2-1
}
\end{eqnarray}
%----------------------------------------------------------------------------------------
%----------------------------------------------------------------------------------------
% NEW SUB-SECTION
% NEW SUB-SECTION
...
@@ -178,7 +180,7 @@ F(X)=\int_{-\infty}^x f(x)dx
...
@@ -178,7 +180,7 @@ F(X)=\int_{-\infty}^x f(x)dx
\label
{
fig:2-4
}
\label
{
fig:2-4
}
\end{figure}
\end{figure}
%-------------------------------------------
%-------------------------------------------
\vspace
{
-1.3em
}
%----------------------------------------------------------------------------------------
%----------------------------------------------------------------------------------------
% NEW SUB-SECTION
% NEW SUB-SECTION
%----------------------------------------------------------------------------------------
%----------------------------------------------------------------------------------------
...
@@ -199,7 +201,15 @@ F(X)=\int_{-\infty}^x f(x)dx
...
@@ -199,7 +201,15 @@ F(X)=\int_{-\infty}^x f(x)dx
\end{eqnarray}
\end{eqnarray}
\parinterval
下面的例子有助于更好的理解链式法则,如图
\ref
{
fig:2-5
}
所示,
$
A
$
、
$
B
$
、
$
C
$
、
$
D
$
、
\\
$
E
$
分别代表五个事件,其中,
$
A
$
只和
$
B
$
有关,
$
C
$
只和
$
B
$
、
$
D
$
有关,
$
E
$
只和
$
C
$
有关,
$
B
$
和
$
D
$
不依赖其他任何事件。则
$
\textrm
{
P
}
(
A,B,C,D,E
)
$
的表达式如下式:
\parinterval
下面的例子有助于更好的理解链式法则,如图
\ref
{
fig:2-5
}
所示,
$
A
$
、
$
B
$
、
$
C
$
、
$
D
$
、
\\
$
E
$
分别代表五个事件,其中,
$
A
$
只和
$
B
$
有关,
$
C
$
只和
$
B
$
、
$
D
$
有关,
$
E
$
只和
$
C
$
有关,
$
B
$
和
$
D
$
不依赖其他任何事件。则
$
\textrm
{
P
}
(
A,B,C,D,E
)
$
的表达式如下式:
\begin{eqnarray}
&
&
\textrm
{
P
}
(A,B,C,D,E)
\nonumber
\\
&
=
&
\textrm
{
P
}
(E
\mid
A,B,C,D)
\cdot
\textrm
{
P
}
(A,B,C,D)
\nonumber
\\
&
=
&
\textrm
{
P
}
(E
\mid
A,B,C,D)
\cdot
\textrm
{
P
}
(D
\mid
A,B,C)
\cdot
\textrm
{
P
}
(A,B,C)
\nonumber
\\
&
=
&
\textrm
{
P
}
(E
\mid
A,B,C,D)
\cdot
\textrm
{
P
}
(D
\mid
A,B,C)
\cdot
\textrm
{
P
}
(C
\mid
A,B)
\cdot
\textrm
{
P
}
(A,B)
\nonumber
\\
&
=
&
\textrm
{
P
}
(E
\mid
A,B,C,D)
\cdot
\textrm
{
P
}
(D
\mid
A,B,C)
\cdot
\textrm
{
P
}
(C
\mid
A,B)
\cdot
\textrm
{
P
}
(B
\mid
A)
\cdot
\textrm
{
P
}
(A)
\label
{
eq:2-7
}
\end{eqnarray}
\vspace
{
-2em
}
%----------------------------------------------
%----------------------------------------------
\begin{figure}
[htp]
\begin{figure}
[htp]
\centering
\centering
...
@@ -209,15 +219,7 @@ F(X)=\int_{-\infty}^x f(x)dx
...
@@ -209,15 +219,7 @@ F(X)=\int_{-\infty}^x f(x)dx
\label
{
fig:2-5
}
\label
{
fig:2-5
}
\end{figure}
\end{figure}
%-------------------------------------------
%-------------------------------------------
\vspace
{
2.5em
}
\begin{eqnarray}
&
&
\textrm
{
P
}
(A,B,C,D,E)
\nonumber
\\
&
=
&
\textrm
{
P
}
(E
\mid
A,B,C,D)
\cdot
\textrm
{
P
}
(A,B,C,D)
\nonumber
\\
&
=
&
\textrm
{
P
}
(E
\mid
A,B,C,D)
\cdot
\textrm
{
P
}
(D
\mid
A,B,C)
\cdot
\textrm
{
P
}
(A,B,C)
\nonumber
\\
&
=
&
\textrm
{
P
}
(E
\mid
A,B,C,D)
\cdot
\textrm
{
P
}
(D
\mid
A,B,C)
\cdot
\textrm
{
P
}
(C
\mid
A,B)
\cdot
\textrm
{
P
}
(A,B)
\nonumber
\\
&
=
&
\textrm
{
P
}
(E
\mid
A,B,C,D)
\cdot
\textrm
{
P
}
(D
\mid
A,B,C)
\cdot
\textrm
{
P
}
(C
\mid
A,B)
\cdot
\textrm
{
P
}
(B
\mid
A)
\cdot
\textrm
{
P
}
(A)
\label
{
eq:2-7
}
\end{eqnarray}
\parinterval
根据图
\ref
{
fig:2-5
}
易知
$
E
$
只和
$
C
$
有关,所以
$
\textrm
{
P
}
(
E
\mid
A,B,C,D
)=
\textrm
{
P
}
(
E
\mid
C
)
$
;
$
D
$
不依赖于其他事件,所以
$
\textrm
{
P
}
(
D
\mid
A,B,C
)=
\textrm
{
P
}
(
D
)
$
;
$
C
$
只和
$
B
$
、
$
D
$
有关,所以
$
\textrm
{
P
}
(
C
\mid
A,B
)=
\textrm
{
P
}
(
C
\mid
B
)
$
;
$
B
$
不依赖于其他事件,所以
$
\textrm
{
P
}
(
B
\mid
A
)=
\textrm
{
P
}
(
B
)
$
。最终化简可得:
\parinterval
根据图
\ref
{
fig:2-5
}
易知
$
E
$
只和
$
C
$
有关,所以
$
\textrm
{
P
}
(
E
\mid
A,B,C,D
)=
\textrm
{
P
}
(
E
\mid
C
)
$
;
$
D
$
不依赖于其他事件,所以
$
\textrm
{
P
}
(
D
\mid
A,B,C
)=
\textrm
{
P
}
(
D
)
$
;
$
C
$
只和
$
B
$
、
$
D
$
有关,所以
$
\textrm
{
P
}
(
C
\mid
A,B
)=
\textrm
{
P
}
(
C
\mid
B
)
$
;
$
B
$
不依赖于其他事件,所以
$
\textrm
{
P
}
(
B
\mid
A
)=
\textrm
{
P
}
(
B
)
$
。最终化简可得:
\begin{eqnarray}
\begin{eqnarray}
...
@@ -259,6 +261,7 @@ F(X)=\int_{-\infty}^x f(x)dx
...
@@ -259,6 +261,7 @@ F(X)=\int_{-\infty}^x f(x)dx
&
=
&{
0.36
}
&
=
&{
0.36
}
\label
{
eq:2-10
}
\label
{
eq:2-10
}
\end{eqnarray}
\end{eqnarray}
\vspace
{
-2em
}
\parinterval
{
\small\sffamily\bfseries
{
贝叶斯法则
}}
\index
{
贝叶斯法则
}
(Bayes' rule)
\index
{
Bayes' rule
}
是概率论中的一个经典公式,通常用于已知
$
\textrm
{
P
}
(
A
\mid
B
)
$
求
$
\textrm
{
P
}
(
B
\mid
A
)
$
。可以表述为:设
$
\{
B
_
1
,...,B
_
n
\}
$
是
$
S
$
的一个划分,
$
A
$
为事件,则对于
$
i
=
1
,...,n
$
,有如下公式
\parinterval
{
\small\sffamily\bfseries
{
贝叶斯法则
}}
\index
{
贝叶斯法则
}
(Bayes' rule)
\index
{
Bayes' rule
}
是概率论中的一个经典公式,通常用于已知
$
\textrm
{
P
}
(
A
\mid
B
)
$
求
$
\textrm
{
P
}
(
B
\mid
A
)
$
。可以表述为:设
$
\{
B
_
1
,...,B
_
n
\}
$
是
$
S
$
的一个划分,
$
A
$
为事件,则对于
$
i
=
1
,...,n
$
,有如下公式
\begin{eqnarray}
\begin{eqnarray}
...
@@ -273,8 +276,9 @@ F(X)=\int_{-\infty}^x f(x)dx
...
@@ -273,8 +276,9 @@ F(X)=\int_{-\infty}^x f(x)dx
&
=
&
\frac
{
\textrm
{
P
}
(A
\mid
B)
\textrm
{
P
}
(B)
}
{
\textrm
{
P
}
(A
\mid
B)
\textrm
{
P
}
(B)+
\textrm
{
P
}
(A
\mid
\bar
{
B
}
)
\textrm
{
P
}
(
\bar
{
B
}
)
}
&
=
&
\frac
{
\textrm
{
P
}
(A
\mid
B)
\textrm
{
P
}
(B)
}
{
\textrm
{
P
}
(A
\mid
B)
\textrm
{
P
}
(B)+
\textrm
{
P
}
(A
\mid
\bar
{
B
}
)
\textrm
{
P
}
(
\bar
{
B
}
)
}
\label
{
eq:2-12
}
\label
{
eq:2-12
}
\end{eqnarray}
\end{eqnarray}
\vspace
{
-1.5em
}
\parinterval
贝叶斯公式常用于根据已知的结果来推断使之发生的各因素的可能性。
\parinterval
贝叶斯公式常用于根据已知的结果来推断使之发生的各因素的可能性。
\\
\\
%----------------------------------------------------------------------------------------
%----------------------------------------------------------------------------------------
% NEW SUB-SECTION
% NEW SUB-SECTION
...
@@ -315,6 +319,7 @@ F(X)=\int_{-\infty}^x f(x)dx
...
@@ -315,6 +319,7 @@ F(X)=\int_{-\infty}^x f(x)dx
\label
{
fig:2-6
}
\label
{
fig:2-6
}
\end{figure}
\end{figure}
%-------------------------------------------
%-------------------------------------------
\vspace
{
0.5em
}
\parinterval
自信息处理的是变量单一取值的情况。若量化整个概率分布中的不确定性或信息量,可以用信息熵,记为
$
\textrm
{
H
}
(
x
)
$
。其公式如下:
\parinterval
自信息处理的是变量单一取值的情况。若量化整个概率分布中的不确定性或信息量,可以用信息熵,记为
$
\textrm
{
H
}
(
x
)
$
。其公式如下:
\begin{eqnarray}
\begin{eqnarray}
...
@@ -345,7 +350,6 @@ F(X)=\int_{-\infty}^x f(x)dx
...
@@ -345,7 +350,6 @@ F(X)=\int_{-\infty}^x f(x)dx
\item
非负性,即
$
\textrm
{
D
}_{
\textrm
{
KL
}}
(
\textrm
{
P
}
\parallel
\textrm
{
Q
}
)
\ge
0
$
,等号成立条件是
$
\textrm
{
P
}$
和
$
\textrm
{
Q
}$
相等。
\item
非负性,即
$
\textrm
{
D
}_{
\textrm
{
KL
}}
(
\textrm
{
P
}
\parallel
\textrm
{
Q
}
)
\ge
0
$
,等号成立条件是
$
\textrm
{
P
}$
和
$
\textrm
{
Q
}$
相等。
\vspace
{
0.5em
}
\vspace
{
0.5em
}
\item
不对称性,即
$
\textrm
{
D
}_{
\textrm
{
KL
}}
(
\textrm
{
P
}
\parallel
\textrm
{
Q
}
)
\neq
\textrm
{
D
}_{
\textrm
{
KL
}}
(
\textrm
{
Q
}
\parallel
\textrm
{
P
}
)
$
,所以
$
\textrm
{
KL
}$
距离并不是常用的欧式空间中的距离。为了消除这种不确定性,有时也会使用
$
\textrm
{
D
}_{
\textrm
{
KL
}}
(
\textrm
{
P
}
\parallel
\textrm
{
Q
}
)+
\textrm
{
D
}_{
\textrm
{
KL
}}
(
\textrm
{
Q
}
\parallel
\textrm
{
P
}
)
$
作为度量两个分布差异性的函数。
\item
不对称性,即
$
\textrm
{
D
}_{
\textrm
{
KL
}}
(
\textrm
{
P
}
\parallel
\textrm
{
Q
}
)
\neq
\textrm
{
D
}_{
\textrm
{
KL
}}
(
\textrm
{
Q
}
\parallel
\textrm
{
P
}
)
$
,所以
$
\textrm
{
KL
}$
距离并不是常用的欧式空间中的距离。为了消除这种不确定性,有时也会使用
$
\textrm
{
D
}_{
\textrm
{
KL
}}
(
\textrm
{
P
}
\parallel
\textrm
{
Q
}
)+
\textrm
{
D
}_{
\textrm
{
KL
}}
(
\textrm
{
Q
}
\parallel
\textrm
{
P
}
)
$
作为度量两个分布差异性的函数。
\vspace
{
0.5em
}
\end{itemize}
\end{itemize}
%----------------------------------------------------------------------------------------
%----------------------------------------------------------------------------------------
...
@@ -437,6 +441,7 @@ F(X)=\int_{-\infty}^x f(x)dx
...
@@ -437,6 +441,7 @@ F(X)=\int_{-\infty}^x f(x)dx
\parinterval
但是,基于词典的分词方法很``硬''。这是因为自然语言非常灵活,经常出现歧义,用词典定义的合法单词之间有重叠的交叉型歧义就很难解决。图
\ref
{
fig:2-9
}
就给出了上面例子中的交叉型歧义,从词典中查看,``实现''和``现在''都是合法的单词,但是在句子中二者有重叠,因此词典无法告诉我们哪个结果是正确的。
\parinterval
但是,基于词典的分词方法很``硬''。这是因为自然语言非常灵活,经常出现歧义,用词典定义的合法单词之间有重叠的交叉型歧义就很难解决。图
\ref
{
fig:2-9
}
就给出了上面例子中的交叉型歧义,从词典中查看,``实现''和``现在''都是合法的单词,但是在句子中二者有重叠,因此词典无法告诉我们哪个结果是正确的。
\setlength
{
\belowcaptionskip
}{
-0.5em
}
%----------------------------------------------
%----------------------------------------------
\begin{figure}
[htp]
\begin{figure}
[htp]
\centering
\centering
...
@@ -468,7 +473,7 @@ F(X)=\int_{-\infty}^x f(x)dx
...
@@ -468,7 +473,7 @@ F(X)=\int_{-\infty}^x f(x)dx
\begin{itemize}
\begin{itemize}
\vspace
{
0.5em
}
\vspace
{
0.5em
}
\item
{
\small\bfnew
{
训练
}}
\index
{
训练
}
(Training)
\index
{
Training
}
。利用标注数据,对统计模型的参数进行学习。
\item
{
\small\bfnew
{
训练
}}
\index
{
训练
}
(Training)
\index
{
Training
}
。利用标注数据,对统计模型的参数进行学习。
\\
\vspace
{
0.5em
}
\vspace
{
0.5em
}
\item
{
\small\bfnew
{
推断
}}
\index
{
推断
}
(Inference)
\index
{
Inference
}
。利用学习到的模型和参数,对新的句子进行切分。
\item
{
\small\bfnew
{
推断
}}
\index
{
推断
}
(Inference)
\index
{
Inference
}
。利用学习到的模型和参数,对新的句子进行切分。
\vspace
{
0.5em
}
\vspace
{
0.5em
}
...
@@ -485,7 +490,6 @@ F(X)=\int_{-\infty}^x f(x)dx
...
@@ -485,7 +490,6 @@ F(X)=\int_{-\infty}^x f(x)dx
%-------------------------------------------
%-------------------------------------------
\parinterval
图
\ref
{
fig:2-10
}
给出了一个基于统计建模的汉语分词实例。左侧是标注数据,其中每个句子是已经经过人工标注的分词结果(单词用斜杠分开)。之后,建立一个统计模型,记为
$
\textrm
{
P
}
(
\cdot
)
$
。模型通过在标注数据上的学习来对问题进行描述,即学习
$
\textrm
{
P
}
(
\cdot
)
$
。最后,对于新的未分词的句子,使用模型
$
\textrm
{
P
}
(
\cdot
)
$
对每个可能的切分方式进行概率估计,之后选择概率最高的切分结果输出。
\parinterval
图
\ref
{
fig:2-10
}
给出了一个基于统计建模的汉语分词实例。左侧是标注数据,其中每个句子是已经经过人工标注的分词结果(单词用斜杠分开)。之后,建立一个统计模型,记为
$
\textrm
{
P
}
(
\cdot
)
$
。模型通过在标注数据上的学习来对问题进行描述,即学习
$
\textrm
{
P
}
(
\cdot
)
$
。最后,对于新的未分词的句子,使用模型
$
\textrm
{
P
}
(
\cdot
)
$
对每个可能的切分方式进行概率估计,之后选择概率最高的切分结果输出。
\vspace
{
-0.5em
}
%----------------------------------------------------------------------------------------
%----------------------------------------------------------------------------------------
% NEW SUBSUB-SECTION
% NEW SUBSUB-SECTION
...
@@ -494,7 +498,6 @@ F(X)=\int_{-\infty}^x f(x)dx
...
@@ -494,7 +498,6 @@ F(X)=\int_{-\infty}^x f(x)dx
\subsubsection
{
掷骰子游戏
}
\subsubsection
{
掷骰子游戏
}
\parinterval
上述过程的核心在于从数据中学习一种对分词现象的统计描述,即学习函数
$
\textrm
{
P
}
(
\cdot
)
$
。如何让计算机利用分词好的数据学习到分词的知识呢?可以先看一个有趣的实例(图
\ref
{
fig:2-11
}
),用生活中比较常见的掷骰子来说,掷一个骰子,玩家猜一个数字,猜中就算赢,按照一般的常识,随便选一个数字,获胜的概率是一样的,即所有选择的获胜概率仅是
$
1
/
6
$
。因此这个游戏玩家很难获胜,除非运气很好。假设进行一次游戏,玩家随便选了一个数字,比如是1,投掷30骰子,得到命中
$
7
/
30
>
1
/
6
$
,还不错。
\parinterval
上述过程的核心在于从数据中学习一种对分词现象的统计描述,即学习函数
$
\textrm
{
P
}
(
\cdot
)
$
。如何让计算机利用分词好的数据学习到分词的知识呢?可以先看一个有趣的实例(图
\ref
{
fig:2-11
}
),用生活中比较常见的掷骰子来说,掷一个骰子,玩家猜一个数字,猜中就算赢,按照一般的常识,随便选一个数字,获胜的概率是一样的,即所有选择的获胜概率仅是
$
1
/
6
$
。因此这个游戏玩家很难获胜,除非运气很好。假设进行一次游戏,玩家随便选了一个数字,比如是1,投掷30骰子,得到命中
$
7
/
30
>
1
/
6
$
,还不错。
\vspace
{
-0.5em
}
%----------------------------------------------
%----------------------------------------------
\begin{figure}
[htp]
\begin{figure}
[htp]
...
@@ -506,7 +509,7 @@ F(X)=\int_{-\infty}^x f(x)dx
...
@@ -506,7 +509,7 @@ F(X)=\int_{-\infty}^x f(x)dx
\end{figure}
\end{figure}
%-------------------------------------------
%-------------------------------------------
\vspace
{
-
0.5em
}
\vspace
{
0.5em
}
\parinterval
似乎玩家的胜利只能来源于运气。不过,请注意,这里的假设``随便选一个数字''本身就是一个概率模型,它对骰子的六个面的出现做了均匀分布假设。
\parinterval
似乎玩家的胜利只能来源于运气。不过,请注意,这里的假设``随便选一个数字''本身就是一个概率模型,它对骰子的六个面的出现做了均匀分布假设。
\begin{eqnarray}
\begin{eqnarray}
\textrm
{
P(``1'')
}
=
\textrm
{
P(``2'')
}
=...=
\textrm
{
P(``5'')
}
=
\textrm
{
P(``6'')
}
=1/6
\textrm
{
P(``1'')
}
=
\textrm
{
P(``2'')
}
=...=
\textrm
{
P(``5'')
}
=
\textrm
{
P(``6'')
}
=1/6
...
@@ -514,7 +517,7 @@ F(X)=\int_{-\infty}^x f(x)dx
...
@@ -514,7 +517,7 @@ F(X)=\int_{-\infty}^x f(x)dx
\end{eqnarray}
\end{eqnarray}
\vspace
{
-0.5em
}
\vspace
{
-0.5em
}
\parinterval
但是这个游戏没有人规定骰子是均匀的(有些被坑了的感觉)。但是如果骰子的六个面不均匀呢?我们可以用一种更加``聪明''的方式定义一种新的模型,即定义骰子的每一个面都以一定的概率出现,而不是相同的概率。描述如
下:
\parinterval
但是这个游戏没有人规定骰子是均匀的(有些被坑了的感觉)。但是如果骰子的六个面不均匀呢?我们可以用一种更加``聪明''的方式定义一种新的模型,即定义骰子的每一个面都以一定的概率出现,而不是相同的概率。描述如
公式
\ref
{
eq:2-18
}
,这里,
$
\theta
_
1
\sim
\theta
_
5
$
可以被看作是模型的参数,因此这个模型的自由度是5。对于这样的模型,参数确定了,模型也就确定了。
\begin{eqnarray}
\begin{eqnarray}
\textrm
{
P(``1'')
}
&
=
&
\theta
_
1
\nonumber
\\
\textrm
{
P(``1'')
}
&
=
&
\theta
_
1
\nonumber
\\
\textrm
{
P(``2'')
}
&
=
&
\theta
_
2
\nonumber
\\
\textrm
{
P(``2'')
}
&
=
&
\theta
_
2
\nonumber
\\
...
@@ -525,7 +528,7 @@ F(X)=\int_{-\infty}^x f(x)dx
...
@@ -525,7 +528,7 @@ F(X)=\int_{-\infty}^x f(x)dx
\label
{
eq:2-18
}
\label
{
eq:2-18
}
\end{eqnarray}
\end{eqnarray}
\
noindent
这里,
$
\theta
_
1
\sim
\theta
_
5
$
可以被看作是模型的参数,因此这个模型的自由度是5。对于这样的模型,参数确定了,模型也就确定了。
但是,新的问题来了,在定义骰子每个面的概率后,如何求出具体的值呢?一种常用的方法是,从大量实例中学习模型参数,这个方法也是常说的
{
\small\bfnew
{
参数估计
}}
\index
{
参数估计
}
(Parameter Estimation)
\index
{
Parameter Estimation
}
。可以将这个不均匀的骰子先实验性的掷很多次,这可以被看作是独立同分布的若干次采样,比如
$
X
$
次,发现``1'' 出现
$
X
_
1
$
次,``2'' 出现
$
X
_
2
$
次,以此类推,得到了各个面出现的次数。假设掷骰子中每个面出现的概率符合多项式分布,通过简单的概率论知识可以知道每个面出现概率的极大似然估计为:
\
parinterval
但是,新的问题来了,在定义骰子每个面的概率后,如何求出具体的值呢?一种常用的方法是,从大量实例中学习模型参数,这个方法也是常说的
{
\small\bfnew
{
参数估计
}}
\index
{
参数估计
}
(Parameter Estimation)
\index
{
Parameter Estimation
}
。可以将这个不均匀的骰子先实验性的掷很多次,这可以被看作是独立同分布的若干次采样,比如
$
X
$
次,发现``1'' 出现
$
X
_
1
$
次,``2'' 出现
$
X
_
2
$
次,以此类推,得到了各个面出现的次数。假设掷骰子中每个面出现的概率符合多项式分布,通过简单的概率论知识可以知道每个面出现概率的极大似然估计为:
\begin{eqnarray}
\begin{eqnarray}
\textrm
{
P(``i'')
}
=
\frac
{
X
_
i
}{
X
}
\textrm
{
P(``i'')
}
=
\frac
{
X
_
i
}{
X
}
\label
{
eq:2-19
}
\label
{
eq:2-19
}
...
@@ -542,8 +545,11 @@ F(X)=\int_{-\infty}^x f(x)dx
...
@@ -542,8 +545,11 @@ F(X)=\int_{-\infty}^x f(x)dx
\end{figure}
\end{figure}
%-------------------------------------------
%-------------------------------------------
\vspace
{
0.5em
}
\parinterval
于是,我们看到了一个有倾向性的模型(图
\ref
{
fig:2-13
}
):在这样的预先实验基础上,可以知道如果再次玩掷骰子游戏的话,选则数字``4''获胜的可能性是最大的。
\parinterval
于是,我们看到了一个有倾向性的模型(图
\ref
{
fig:2-13
}
):在这样的预先实验基础上,可以知道如果再次玩掷骰子游戏的话,选则数字``4''获胜的可能性是最大的。
\parinterval
通过上面这个掷骰子的游戏,可以得到一个道理:
{
\small\sffamily\bfseries
{
上帝是不公平的
}}
。因为在``公平''的世界中,没有任何一个模型可以学到有价值的事情。从机器学习的角度来看,所谓的``不公平''实际上这是客观事物中蕴含的一种
{
\small\sffamily\bfseries
{
偏置
}}
\index
{
偏置
}
(Bias)
\index
{
Bias
}
,也就是很多事情天然就有对某些情况有倾向。而图像处理、自然语言处理等问题中绝大多数都存在着偏置。比如,我们翻译一个英文单词的时候,它最可能的翻译结果往往就是那几个词。设计统计模型的目的正是要学习这种偏置,之后利用这种偏置对新的问题做出足够好的决策。
%----------------------------------------------
%----------------------------------------------
\begin{figure}
[htp]
\begin{figure}
[htp]
\centering
\centering
...
@@ -552,8 +558,7 @@ F(X)=\int_{-\infty}^x f(x)dx
...
@@ -552,8 +558,7 @@ F(X)=\int_{-\infty}^x f(x)dx
\label
{
fig:2-13
}
\label
{
fig:2-13
}
\end{figure}
\end{figure}
%-------------------------------------------
%-------------------------------------------
\vspace
{
-0.5em
}
\parinterval
通过上面这个掷骰子的游戏,可以得到一个道理:
{
\small\sffamily\bfseries
{
上帝是不公平的
}}
。因为在``公平''的世界中,没有任何一个模型可以学到有价值的事情。从机器学习的角度来看,所谓的``不公平''实际上这是客观事物中蕴含的一种
{
\small\sffamily\bfseries
{
偏置
}}
\index
{
偏置
}
(Bias)
\index
{
Bias
}
,也就是很多事情天然就有对某些情况有倾向。而图像处理、自然语言处理等问题中绝大多数都存在着偏置。比如,我们翻译一个英文单词的时候,它最可能的翻译结果往往就是那几个词。设计统计模型的目的正是要学习这种偏置,之后利用这种偏置对新的问题做出足够好的决策。
%----------------------------------------------------------------------------------------
%----------------------------------------------------------------------------------------
% NEW SUBSUB-SECTION
% NEW SUBSUB-SECTION
...
@@ -622,7 +627,7 @@ F(X)=\int_{-\infty}^x f(x)dx
...
@@ -622,7 +627,7 @@ F(X)=\int_{-\infty}^x f(x)dx
\label
{
eq:2-20
}
\label
{
eq:2-20
}
\end{eqnarray}
\end{eqnarray}
}
}
\vspace
{
0.5em
}
\parinterval
以``确实现在数据很多''这个实例来说,如果把这句话按照``确实/现在/数据/很/多''这样的方式进行切分,这个句子切分的概率P(``确实/现在/数据/很/多'')可以通过每个词出现概率相乘的方式进行计算。
\parinterval
以``确实现在数据很多''这个实例来说,如果把这句话按照``确实/现在/数据/很/多''这样的方式进行切分,这个句子切分的概率P(``确实/现在/数据/很/多'')可以通过每个词出现概率相乘的方式进行计算。
\begin{eqnarray}
\begin{eqnarray}
...
@@ -635,6 +640,10 @@ F(X)=\int_{-\infty}^x f(x)dx
...
@@ -635,6 +640,10 @@ F(X)=\int_{-\infty}^x f(x)dx
这个假设也是自然语言处理中1-gram语言模型假设,即当前词的生成与任何历史都无关。当然,独立性假设并不能完美描述客观世界的问题,但是它大大化简了问题的复杂度。
这个假设也是自然语言处理中1-gram语言模型假设,即当前词的生成与任何历史都无关。当然,独立性假设并不能完美描述客观世界的问题,但是它大大化简了问题的复杂度。
\parinterval
最后再整体看一下分词系统的学习和使用过程。如图
\ref
{
fig:2-17
}
所示,我们利用大量人工标注好的分词数据,通过统计学习方法获得一个统计模型
$
\textrm
{
P
}
(
\cdot
)
$
,给定任意分词结果
$
W
=
w
_
1
w
_
2
...w
_
m
$
,都能通过
$
\textrm
{
P
}
(
W
)=
\textrm
{
P
}
(
w
_
1
)
\cdot
\textrm
{
P
}
(
w
_
2
)
\cdot
...
\cdot
\textrm
{
P
}
(
w
_
m
)
$
计算这种切分的概率值。
\parinterval
经过充分训练的统计模型
$
\textrm
{
P
}
(
\cdot
)
$
就是得到的分词模型。对于输入的新句子
$
S
$
,通过这个模型找到最佳的分词结果
$
W
^
*
$
输出。假设输入句子
$
S
$
是``确实现在数据很多'',可以通过列举获得不同切分方式的概率,其中概率最高的切分方式,就是系统的目标输出。
%----------------------------------------------
%----------------------------------------------
\begin{figure}
[htp]
\begin{figure}
[htp]
\centering
\centering
...
@@ -644,10 +653,7 @@ F(X)=\int_{-\infty}^x f(x)dx
...
@@ -644,10 +653,7 @@ F(X)=\int_{-\infty}^x f(x)dx
\end{figure}
\end{figure}
%-------------------------------------------
%-------------------------------------------
\parinterval
最后再整体看一下分词系统的学习和使用过程。如图
\ref
{
fig:2-17
}
所示,我们利用大量人工标注好的分词数据,通过统计学习方法获得一个统计模型
$
\textrm
{
P
}
(
\cdot
)
$
,给定任意分词结果
$
W
=
w
_
1
w
_
2
...w
_
m
$
,都能通过
$
\textrm
{
P
}
(
W
)=
\textrm
{
P
}
(
w
_
1
)
\cdot
\textrm
{
P
}
(
w
_
2
)
\cdot
...
\cdot
\textrm
{
P
}
(
w
_
m
)
$
计算这种切分的概率值。
\vspace
{
0.5em
}
\parinterval
经过充分训练的统计模型
$
\textrm
{
P
}
(
\cdot
)
$
就是得到的分词模型。对于输入的新句子
$
S
$
,通过这个模型找到最佳的分词结果
$
W
^
*
$
输出。假设输入句子
$
S
$
是``确实现在数据很多'',可以通过列举获得不同切分方式的概率,其中概率最高的切分方式,就是系统的目标输出。
\parinterval
这种分词方法也被称作基于1-gram语言模型的分词,或全概率分词,使用标注好的分词数据进行学习,获得分词模型。这种方法最大的优点是整个学习过程(模型训练过程)和推导过程(处理新句子进行切分的过程)都是全自动进行的。这种方法虽然简单,但是其效率很高,因此被广泛应用在工业界系统里。
\parinterval
这种分词方法也被称作基于1-gram语言模型的分词,或全概率分词,使用标注好的分词数据进行学习,获得分词模型。这种方法最大的优点是整个学习过程(模型训练过程)和推导过程(处理新句子进行切分的过程)都是全自动进行的。这种方法虽然简单,但是其效率很高,因此被广泛应用在工业界系统里。
\parinterval
当然,真正的分词系统还需要解决很多其他问题,比如使用动态规划等方法高效搜索最优解以及如何处理未见过的词等等,由于本节的重点是介绍中文分词的基础方法和统计建模思想,因此无法覆盖所有中文分词的技术内容,有兴趣的读者可以参考
\ref
{
sec2:summary
}
节的相关文献做进一步深入研究。
\parinterval
当然,真正的分词系统还需要解决很多其他问题,比如使用动态规划等方法高效搜索最优解以及如何处理未见过的词等等,由于本节的重点是介绍中文分词的基础方法和统计建模思想,因此无法覆盖所有中文分词的技术内容,有兴趣的读者可以参考
\ref
{
sec2:summary
}
节的相关文献做进一步深入研究。
...
@@ -657,9 +663,10 @@ F(X)=\int_{-\infty}^x f(x)dx
...
@@ -657,9 +663,10 @@ F(X)=\int_{-\infty}^x f(x)dx
%----------------------------------------------------------------------------------------
%----------------------------------------------------------------------------------------
\sectionnewpage
\sectionnewpage
\vspace
{
-0.5em
}
\section
{$
n
$
-gram语言模型
}
\section
{$
n
$
-gram语言模型
}
\parinterval
在基于统计的汉语分词模型中,我们通过``大题小做''的技巧,利用独立性假设把整个句子的单词切分概率转化为每个单个词出现概率的乘积。这里,每个单词也被称作1-gram(或uni-gram),而1-gram概率的乘积实际上也是在度量词序列出现的可能性(记为
$
\textrm
{
P
}
(
w
_
1
w
_
2
...w
_
m
)
$
)。这种计算整个单词序列概率
$
\textrm
{
P
}
(
w
_
1
w
_
2
...w
_
m
)
$
的方法被称为统计语言模型。1-gram语言模型是最简单的一种语言模型,它没有考虑任何的上下文。很自然的一个问题是:能否考虑上下文信息构建更强大的语言模型,进而得到更准确的分词结果。下面将进一步介绍更加通用的
$
n
$
-gram语言模型,它在机器翻译及其他自然语言处理任务中有更加广泛的应用。
\parinterval
在基于统计的汉语分词模型中,我们通过``大题小做''的技巧,利用独立性假设把整个句子的单词切分概率转化为每个单个词出现概率的乘积。这里,每个单词也被称作1-gram(或uni-gram),而1-gram概率的乘积实际上也是在度量词序列出现的可能性(记为
$
\textrm
{
P
}
(
w
_
1
w
_
2
...w
_
m
)
$
)。这种计算整个单词序列概率
$
\textrm
{
P
}
(
w
_
1
w
_
2
...w
_
m
)
$
的方法被称为统计语言模型。1-gram语言模型是最简单的一种语言模型,它没有考虑任何的上下文。很自然的一个问题是:能否考虑上下文信息构建更强大的语言模型,进而得到更准确的分词结果。下面将进一步介绍更加通用的
$
n
$
-gram语言模型,它在机器翻译及其他自然语言处理任务中有更加广泛的应用。
\\
\\
%----------------------------------------------------------------------------------------
%----------------------------------------------------------------------------------------
% NEW SUB-SECTION
% NEW SUB-SECTION
...
@@ -715,19 +722,18 @@ F(X)=\int_{-\infty}^x f(x)dx
...
@@ -715,19 +722,18 @@ F(X)=\int_{-\infty}^x f(x)dx
\begin{itemize}
\begin{itemize}
\vspace
{
0.5em
}
\vspace
{
0.5em
}
\item
{
\small\bfnew
{
极大似然估计
}}
\index
{
极大似然估计
}
。
直接利用词序列在训练数据中出现的频度计算出
$
\textrm
{
P
}
(
w
_
m|w
_{
m
-
n
+
1
}$
\\
$
... w
_{
m
-
1
}
)
$
\item
{
\small\bfnew
{
极大似然估计
}}
\index
{
极大似然估计
}
:
直接利用词序列在训练数据中出现的频度计算出
$
\textrm
{
P
}
(
w
_
m|w
_{
m
-
n
+
1
}$
\\
$
... w
_{
m
-
1
}
)
$
\begin{eqnarray}
\begin{eqnarray}
\textrm
{
P
}
(w
_
m|w
_{
m-n+1
}
...w
_{
m-1
}
)=
\frac
{
\textrm
{
count
}
(w
_{
m-n+1
}
...w
_
m)
}{
\textrm
{
count
}
(w
_{
m-n+1
}
...w
_{
m-1
}
)
}
\textrm
{
P
}
(w
_
m|w
_{
m-n+1
}
...w
_{
m-1
}
)=
\frac
{
\textrm
{
count
}
(w
_{
m-n+1
}
...w
_
m)
}{
\textrm
{
count
}
(w
_{
m-n+1
}
...w
_{
m-1
}
)
}
\label
{
eq:2-24
}
\label
{
eq:2-24
}
\vspace
{
0.5em
}
\end{eqnarray}
\end{eqnarray}
其中,
$
\textrm
{
count
}
(
\cdot
)
$
是在训练数据中统计频次的函数。
其中,
$
\textrm
{
count
}
(
\cdot
)
$
是在训练数据中统计频次的函数。
\vspace
{
0.3em
}
\vspace
{
0.5em
}
\item
{
\small\bfnew
{
人工神经网络方法
}}
\index
{
人工神经网络方法
}
。构建一个人工神经网络估计
$
\textrm
{
P
}
(
w
_
m|w
_{
m
-
n
+
1
}
... w
_{
m
-
1
}
)
$
的值,比如,可以构建一个前馈神经网络来对
$
n
$
-gram进行建模。
\item
{
\small\bfnew
{
人工神经网络方法
}}
\index
{
人工神经网络方法
}
:构建一个人工神经网络估计
$
\textrm
{
P
}
(
w
_
m|w
_{
m
-
n
+
1
}
... w
_{
m
-
1
}
)
$
的值,比如,可以构建一个前馈神经网络来对
$
n
$
-gram进行建模。
\vspace
{
0.5em
}
\end{itemize}
\end{itemize}
\vspace
{
0.3em
}
\parinterval
极大似然估计方法和前面介绍的统计分词中的方法是一致的,它的核心是使用
$
n
$
-gram出现的频度进行参数估计,因此也是自然语言处理中一类经典的
$
n
$
-gram方法。基于人工神经网络的方法在近些年也非常受关注,它直接利用多层神经网络对问题的输入
$
(
w
_{
m
-
n
+
1
}
...w
_{
m
-
1
}
)
$
和输出
$
\textrm
{
P
}
(
w
_
m|w
_{
m
-
n
+
1
}
... w
_{
m
-
1
}
)
$
进行建模,而模型的参数通过网络中神经元之间连接的权重进行体现。严格意义上了来说,基于人工神经网络的方法并不算基于
$
n
$
-gram的方法,或者说它并没有显性记录
$
n
$
-gram的生成概率,也不依赖
$
n
$
-gram的频度进行参数估计。为了保证内容的连贯性,本章将仍以传统
$
n
$
-gram语言模型为基础进行讨论,基于人工神经网络的方法将会在第五章和第六章进行详细介绍。
\parinterval
极大似然估计方法和前面介绍的统计分词中的方法是一致的,它的核心是使用
$
n
$
-gram出现的频度进行参数估计,因此也是自然语言处理中一类经典的
$
n
$
-gram方法。基于人工神经网络的方法在近些年也非常受关注,它直接利用多层神经网络对问题的输入
$
(
w
_{
m
-
n
+
1
}
...w
_{
m
-
1
}
)
$
和输出
$
\textrm
{
P
}
(
w
_
m|w
_{
m
-
n
+
1
}
... w
_{
m
-
1
}
)
$
进行建模,而模型的参数通过网络中神经元之间连接的权重进行体现。严格意义上了来说,基于人工神经网络的方法并不算基于
$
n
$
-gram的方法,或者说它并没有显性记录
$
n
$
-gram的生成概率,也不依赖
$
n
$
-gram的频度进行参数估计。为了保证内容的连贯性,本章将仍以传统
$
n
$
-gram语言模型为基础进行讨论,基于人工神经网络的方法将会在第五章和第六章进行详细介绍。
...
@@ -779,7 +785,6 @@ F(X)=\int_{-\infty}^x f(x)dx
...
@@ -779,7 +785,6 @@ F(X)=\int_{-\infty}^x f(x)dx
\parinterval
{
\small\bfnew
{
加法平滑
}}
\index
{
加法平滑
}
(Additive Smoothing)
\index
{
Additive Smoothing
}
是一种简单的平滑技术。本小节首先介绍这一方法,希望通过它了解平滑算法的思想。通常情况下,系统研发者会利用采集到的语料库来模拟真实的全部语料库。当然,没有一个语料库能覆盖所有的语言现象。常见的一个问题是,使用的语料无法涵盖所有的词汇。因此,直接依据这样语料所获得的统计信息来获取语言模型就会产生偏差。假设依据某语料
$
C
$
(从未出现`` 确实 现在''二元语法),评估一个已经分好词的句子
$
S
$
=``确实/现在/物价/很/高''的概率。当计算``确实/现在''的概率时,
$
\textrm
{
P
}
(
S
)
=
0
$
。显然这个结果是不合理的。
\parinterval
{
\small\bfnew
{
加法平滑
}}
\index
{
加法平滑
}
(Additive Smoothing)
\index
{
Additive Smoothing
}
是一种简单的平滑技术。本小节首先介绍这一方法,希望通过它了解平滑算法的思想。通常情况下,系统研发者会利用采集到的语料库来模拟真实的全部语料库。当然,没有一个语料库能覆盖所有的语言现象。常见的一个问题是,使用的语料无法涵盖所有的词汇。因此,直接依据这样语料所获得的统计信息来获取语言模型就会产生偏差。假设依据某语料
$
C
$
(从未出现`` 确实 现在''二元语法),评估一个已经分好词的句子
$
S
$
=``确实/现在/物价/很/高''的概率。当计算``确实/现在''的概率时,
$
\textrm
{
P
}
(
S
)
=
0
$
。显然这个结果是不合理的。
\parinterval
加法平滑方法假设每个
$
n
$
-gram出现的次数比实际统计次数多
$
\theta
$
次,
$
0
\le
\theta\le
1
$
。这样,计算概率的时候分子部分不会为0。重新计算
$
\textrm
{
P
}
(
\textrm
{
现在
}
|
\textrm
{
确实
}
)
$
,可以得到:
\parinterval
加法平滑方法假设每个
$
n
$
-gram出现的次数比实际统计次数多
$
\theta
$
次,
$
0
\le
\theta\le
1
$
。这样,计算概率的时候分子部分不会为0。重新计算
$
\textrm
{
P
}
(
\textrm
{
现在
}
|
\textrm
{
确实
}
)
$
,可以得到:
\begin{eqnarray}
\begin{eqnarray}
\textrm
{
P
}
(
\textrm
{
现在
}
|
\textrm
{
确实
}
)
&
=
&
\frac
{
\theta
+
\textrm
{
count
}
(
\textrm
{
确实/现在
}
)
}{
\sum
_{
w
}^{
|V|
}
(
\theta
+
\textrm
{
count
}
(
\textrm
{
确实/
}
w))
}
\nonumber
\\
\textrm
{
P
}
(
\textrm
{
现在
}
|
\textrm
{
确实
}
)
&
=
&
\frac
{
\theta
+
\textrm
{
count
}
(
\textrm
{
确实/现在
}
)
}{
\sum
_{
w
}^{
|V|
}
(
\theta
+
\textrm
{
count
}
(
\textrm
{
确实/
}
w))
}
\nonumber
\\
&
=
&
\frac
{
\theta
+
\textrm
{
count
}
(
\textrm
{
确实/现在
}
)
}{
\theta
{
|V|
}
+
\textrm
{
count
}
(
\textrm
{
确实
}
)
}
&
=
&
\frac
{
\theta
+
\textrm
{
count
}
(
\textrm
{
确实/现在
}
)
}{
\theta
{
|V|
}
+
\textrm
{
count
}
(
\textrm
{
确实
}
)
}
...
@@ -845,6 +850,7 @@ N & = & \sum_{r=0}^{\infty}{r^{*}n_r} \nonumber \\
...
@@ -845,6 +850,7 @@ N & = & \sum_{r=0}^{\infty}{r^{*}n_r} \nonumber \\
\parinterval
这里使用一个例子来说明这个方法是如何对事件出现的可能性进行平滑的。仍然考虑在加法平滑法中统计单词的例子,根据古德-图灵方法进行修正如表
\ref
{
tab:2-21
}
所示。
\parinterval
这里使用一个例子来说明这个方法是如何对事件出现的可能性进行平滑的。仍然考虑在加法平滑法中统计单词的例子,根据古德-图灵方法进行修正如表
\ref
{
tab:2-21
}
所示。
\vspace
{
0.5em
}
%------------------------------------------------------
%------------------------------------------------------
\begin{table}
[htp]
{
\begin{table}
[htp]
{
\begin{center}
\begin{center}
...
@@ -953,6 +959,7 @@ c_{\textrm{KN}}(\cdot) = \left\{\begin{array}{ll}
...
@@ -953,6 +959,7 @@ c_{\textrm{KN}}(\cdot) = \left\{\begin{array}{ll}
%----------------------------------------------------------------------------------------
%----------------------------------------------------------------------------------------
\sectionnewpage
\sectionnewpage
\vspace
{
-0.5em
}
\section
{
句法分析(短语结构分析)
}
\section
{
句法分析(短语结构分析)
}
\parinterval
通过前面两节的内容,已经了解什么叫做``词''、如何对分词问题进行统计建模。同时也了解了如何对词序列的生成进行概率描述。无论是分词还是语言模型都是句子浅层词串信息的一种表示。对于一个自然语言句子来说,它更深层次的结构信息可以通过句法信息来描述,而句法信息也是机器翻译和自然语言处理其他任务中常用的知识之一。
\parinterval
通过前面两节的内容,已经了解什么叫做``词''、如何对分词问题进行统计建模。同时也了解了如何对词序列的生成进行概率描述。无论是分词还是语言模型都是句子浅层词串信息的一种表示。对于一个自然语言句子来说,它更深层次的结构信息可以通过句法信息来描述,而句法信息也是机器翻译和自然语言处理其他任务中常用的知识之一。
...
@@ -973,6 +980,7 @@ c_{\textrm{KN}}(\cdot) = \left\{\begin{array}{ll}
...
@@ -973,6 +980,7 @@ c_{\textrm{KN}}(\cdot) = \left\{\begin{array}{ll}
\end{figure}
\end{figure}
%---------------------------
%---------------------------
\vspace
{
0.3em
}
\parinterval
图
\ref
{
fig:2-20
}
右侧展示的是另一种句法结构,被称作依存句法树。依存句法树表示了句子中单词和单词之间的依存关系。比如,从这个例子可以了解,``猫''依赖``喜欢'',``吃''依赖``喜欢'',``鱼''依赖``吃''。
\parinterval
图
\ref
{
fig:2-20
}
右侧展示的是另一种句法结构,被称作依存句法树。依存句法树表示了句子中单词和单词之间的依存关系。比如,从这个例子可以了解,``猫''依赖``喜欢'',``吃''依赖``喜欢'',``鱼''依赖``吃''。
\parinterval
短语结构树和依存句法树的结构和功能有很大不同。短语结构树的叶子节点是单词,中间节点是词性或者短语句法标记。在短语结构分析中,通常把单词称作
{
\small\bfnew
{
终结符
}}
\index
{
终结符
}
(Terminal)
\index
{
Terminal
}
,把词性称为
{
\small\bfnew
{
预终结符
}}
\index
{
预终结符
}
(Pre-terminal)
\index
{
Pre-terminal
}
,而把其他句法标记称为
{
\small\bfnew
{
非终结符
}}
\index
{
非终结符
}
(Non-terminal)
\index
{
Non-terminal
}
。依存句法树没有预终结符和非终结符,所有的节点都是句子里的单词,通过不同节点间的连线表示句子中各个单词之间的依存关系。每个依存关系实际上都是有方向的,头和尾分别指向``接受''和``发出''依存关系的词。依存关系也可以进行分类,图
\ref
{
fig:2-20
}
中我们对每个依存关系的类型都进行了标记,这也被称作是有标记的依存分析。如果不生成这些标记,这样的句法分析被称作无标记的依存分析。
\parinterval
短语结构树和依存句法树的结构和功能有很大不同。短语结构树的叶子节点是单词,中间节点是词性或者短语句法标记。在短语结构分析中,通常把单词称作
{
\small\bfnew
{
终结符
}}
\index
{
终结符
}
(Terminal)
\index
{
Terminal
}
,把词性称为
{
\small\bfnew
{
预终结符
}}
\index
{
预终结符
}
(Pre-terminal)
\index
{
Pre-terminal
}
,而把其他句法标记称为
{
\small\bfnew
{
非终结符
}}
\index
{
非终结符
}
(Non-terminal)
\index
{
Non-terminal
}
。依存句法树没有预终结符和非终结符,所有的节点都是句子里的单词,通过不同节点间的连线表示句子中各个单词之间的依存关系。每个依存关系实际上都是有方向的,头和尾分别指向``接受''和``发出''依存关系的词。依存关系也可以进行分类,图
\ref
{
fig:2-20
}
中我们对每个依存关系的类型都进行了标记,这也被称作是有标记的依存分析。如果不生成这些标记,这样的句法分析被称作无标记的依存分析。
...
@@ -1006,7 +1014,6 @@ c_{\textrm{KN}}(\cdot) = \left\{\begin{array}{ll}
...
@@ -1006,7 +1014,6 @@ c_{\textrm{KN}}(\cdot) = \left\{\begin{array}{ll}
\end{itemize}
\end{itemize}
\parinterval
以上三点是实现一个句法分析器的要素。本节的后半部分会对相关的概念和技术方法进行介绍。
\parinterval
以上三点是实现一个句法分析器的要素。本节的后半部分会对相关的概念和技术方法进行介绍。
\vspace
{
-0.5em
}
%----------------------------------------------------------------------------------------
%----------------------------------------------------------------------------------------
% NEW SUB-SECTION
% NEW SUB-SECTION
...
@@ -1058,6 +1065,7 @@ S=\{\textrm{IP}\} \nonumber
...
@@ -1058,6 +1065,7 @@ S=\{\textrm{IP}\} \nonumber
最后,文法的规则集定义图
\ref
{
fig:2-21
}
所示(其中
$
r
_
i
$
为规则的编号)
最后,文法的规则集定义图
\ref
{
fig:2-21
}
所示(其中
$
r
_
i
$
为规则的编号)
%\setlength{\belowcaptionskip}{-1em}
%----------------------------------------------
%----------------------------------------------
\begin{figure}
[htp]
\begin{figure}
[htp]
\centering
\centering
...
@@ -1125,6 +1133,7 @@ s_0 \overset{r_1}{\Rightarrow} s_1 \overset{r_2}{\Rightarrow} s_2 \overset{r_3}{
...
@@ -1125,6 +1133,7 @@ s_0 \overset{r_1}{\Rightarrow} s_1 \overset{r_2}{\Rightarrow} s_2 \overset{r_3}{
\end{figure}
\end{figure}
%-------------------------------------------
%-------------------------------------------
\vspace
{
0.5em
}
\parinterval
通常,可以把推导简记为
$
d
=
r
_
1
\circ
r
_
2
\circ
...
\circ
r
_
n
$
,其中
$
\circ
$
表示规则的组合。显然,
$
d
$
也对应了树形结构,也就是句法分析结果。从这个角度看,推导就是描述句法分析树的一种方式。此外,规则的推导也把规则的使用过程与生成的字符串对应起来。一个推导所生成的字符串,也被称作文法所产生的一个
{
\small\bfnew
{
句子
}}
\index
{
句子
}
(Sentence)
\index
{
Sentence
}
。而一个文法所能生成的所有句子是这个文法所对应的
{
\small\bfnew
{
语言
}}
\index
{
语言
}
(Language)
\index
{
Language
}
。
\parinterval
通常,可以把推导简记为
$
d
=
r
_
1
\circ
r
_
2
\circ
...
\circ
r
_
n
$
,其中
$
\circ
$
表示规则的组合。显然,
$
d
$
也对应了树形结构,也就是句法分析结果。从这个角度看,推导就是描述句法分析树的一种方式。此外,规则的推导也把规则的使用过程与生成的字符串对应起来。一个推导所生成的字符串,也被称作文法所产生的一个
{
\small\bfnew
{
句子
}}
\index
{
句子
}
(Sentence)
\index
{
Sentence
}
。而一个文法所能生成的所有句子是这个文法所对应的
{
\small\bfnew
{
语言
}}
\index
{
语言
}
(Language)
\index
{
Language
}
。
\parinterval
但是,句子和规则的推导并不是一一对应的。同一个句子,往往有很多推导的方式,这种现象被称为
{
\small\bfnew
{
歧义
}}
\index
{
歧义
}
(Ambiguity)
\index
{
Ambiguity
}
。甚至同一棵句法树,也可以对应不同的推导。图
\ref
{
fig:2-23
}
给出同一棵句法树所对应的两种不同的规则推导。
\parinterval
但是,句子和规则的推导并不是一一对应的。同一个句子,往往有很多推导的方式,这种现象被称为
{
\small\bfnew
{
歧义
}}
\index
{
歧义
}
(Ambiguity)
\index
{
Ambiguity
}
。甚至同一棵句法树,也可以对应不同的推导。图
\ref
{
fig:2-23
}
给出同一棵句法树所对应的两种不同的规则推导。
...
@@ -1139,12 +1148,11 @@ s_0 \overset{r_1}{\Rightarrow} s_1 \overset{r_2}{\Rightarrow} s_2 \overset{r_3}{
...
@@ -1139,12 +1148,11 @@ s_0 \overset{r_1}{\Rightarrow} s_1 \overset{r_2}{\Rightarrow} s_2 \overset{r_3}{
\end{figure}
\end{figure}
%-------------------------------------------
%-------------------------------------------
\vspace
{
0.5em
}
\parinterval
显然,规则顺序的不同会导致句法树的推导这一确定的过程变得不确定。因此,需要进行
{
\small\bfnew
{
消歧
}}
\index
{
消歧
}
(Disambiguation)
\index
{
Disambiguation
}
。这里,可以使用启发式方法:要求规则使用都服从最左优先原则,这样得到的推导被称为
{
\small\bfnew
{
最左优先推导
}}
\index
{
最左优先推导
}
(Left-most Derivation)
\index
{
Left-most Derivation
}
。图
\ref
{
fig:2-23
}
中的推导1 就是符合最左优先原则的推导。
\parinterval
显然,规则顺序的不同会导致句法树的推导这一确定的过程变得不确定。因此,需要进行
{
\small\bfnew
{
消歧
}}
\index
{
消歧
}
(Disambiguation)
\index
{
Disambiguation
}
。这里,可以使用启发式方法:要求规则使用都服从最左优先原则,这样得到的推导被称为
{
\small\bfnew
{
最左优先推导
}}
\index
{
最左优先推导
}
(Left-most Derivation)
\index
{
Left-most Derivation
}
。图
\ref
{
fig:2-23
}
中的推导1 就是符合最左优先原则的推导。
\parinterval
这样,对于一个上下文无关文法,每一棵句法树都有唯一的最左推导与之对应。于是,句法分析可以被描述为:对于一个句子找到能够生成它的最佳推导,这个推导所对应的句法树就是这个句子的句法分析结果。
\parinterval
这样,对于一个上下文无关文法,每一棵句法树都有唯一的最左推导与之对应。于是,句法分析可以被描述为:对于一个句子找到能够生成它的最佳推导,这个推导所对应的句法树就是这个句子的句法分析结果。
\parinterval
不过问题又回来了,怎样才能知道什么样的推导或者句法树是``最佳''的呢?对于语言学专家来说,可以很确定的分辨出哪些句法树是正确的,哪些句法树是错误。甚至对于普通人,也通过一些课本中学到知识产生一些模糊的判断。而计算机如何进行判别呢?沿着前面介绍的统计建模的思想,计算机可以得出不同句法树出现的概率,进而选择概率最高的句法树作为输出,而这正是统计句法分析所做的事情
%-------------------------------------------
%-------------------------------------------
\begin{figure}
[htp]
\begin{figure}
[htp]
\centering
\centering
...
@@ -1154,6 +1162,8 @@ s_0 \overset{r_1}{\Rightarrow} s_1 \overset{r_2}{\Rightarrow} s_2 \overset{r_3}{
...
@@ -1154,6 +1162,8 @@ s_0 \overset{r_1}{\Rightarrow} s_1 \overset{r_2}{\Rightarrow} s_2 \overset{r_3}{
\end{figure}
\end{figure}
%-------------------------------------------
%-------------------------------------------
\parinterval
不过问题又回来了,怎样才能知道什么样的推导或者句法树是``最佳''的呢?对于语言学专家来说,可以很确定的分辨出哪些句法树是正确的,哪些句法树是错误。甚至对于普通人,也通过一些课本中学到知识产生一些模糊的判断。而计算机如何进行判别呢?沿着前面介绍的统计建模的思想,计算机可以得出不同句法树出现的概率,进而选择概率最高的句法树作为输出,而这正是统计句法分析所做的事情
\parinterval
在统计句法分析中,需要对每个推导进行统计建模,于是定义一个模型
$
\textrm
{
P
}
(
\cdot
)
$
,对于任意的推导
$
d
$
,都可以用
$
\textrm
{
P
}
(
d
)
$
计算出推导
$
d
$
的概率。这样,给定一个输入句子,我们可以对所有可能的推导用
$
\textrm
{
P
}
(
d
)
$
计算其概率值,并选择概率最大的结果作为句法分析的结果输出(图
\ref
{
fig:2-25
}
)。
\parinterval
在统计句法分析中,需要对每个推导进行统计建模,于是定义一个模型
$
\textrm
{
P
}
(
\cdot
)
$
,对于任意的推导
$
d
$
,都可以用
$
\textrm
{
P
}
(
d
)
$
计算出推导
$
d
$
的概率。这样,给定一个输入句子,我们可以对所有可能的推导用
$
\textrm
{
P
}
(
d
)
$
计算其概率值,并选择概率最大的结果作为句法分析的结果输出(图
\ref
{
fig:2-25
}
)。
%-------------------------------------------
%-------------------------------------------
...
@@ -1224,7 +1234,6 @@ r_6: & & \textrm{VP} \to \textrm{VV}\ \textrm{NN} \nonumber
...
@@ -1224,7 +1234,6 @@ r_6: & & \textrm{VP} \to \textrm{VV}\ \textrm{NN} \nonumber
\parinterval
这也对应了词串``吃
\
鱼''的生成过程。首先,从起始非终结符VP开始,使用规则
$
r
_
6
$
生成两个非终结符VV和NN;进一步,分别使用规则
$
r
_
3
$
和
$
r
_
4
$
从VV和NN进一步生成单词``吃''和``鱼''。整个过程的概率等于三条规则概率的乘积。
\parinterval
这也对应了词串``吃
\
鱼''的生成过程。首先,从起始非终结符VP开始,使用规则
$
r
_
6
$
生成两个非终结符VV和NN;进一步,分别使用规则
$
r
_
3
$
和
$
r
_
4
$
从VV和NN进一步生成单词``吃''和``鱼''。整个过程的概率等于三条规则概率的乘积。
\parinterval
新的问题又来了,如何得到规则的概率呢?这里仍然可以从数据中学习文法规则的概率。假设有人工标注的数据,它包括很多人工标注句法树的句法,称之为
{
\small\bfnew
{
树库
}}
\index
{
树库
}
(Treebank)
\index
{
Treebank
}
。然后,对于规则
$
\textrm
{
r
}
:
\alpha
\to
\beta
$
可以使用极大似然估计:
\parinterval
新的问题又来了,如何得到规则的概率呢?这里仍然可以从数据中学习文法规则的概率。假设有人工标注的数据,它包括很多人工标注句法树的句法,称之为
{
\small\bfnew
{
树库
}}
\index
{
树库
}
(Treebank)
\index
{
Treebank
}
。然后,对于规则
$
\textrm
{
r
}
:
\alpha
\to
\beta
$
可以使用极大似然估计:
\begin{eqnarray}
\begin{eqnarray}
\textrm
{
P
}
(r) =
\frac
{
\text
{
规则
$
r
$
在树库中出现的次数
}}{
\alpha
\text
{
在树库中出现的次数
}}
\textrm
{
P
}
(r) =
\frac
{
\text
{
规则
$
r
$
在树库中出现的次数
}}{
\alpha
\text
{
在树库中出现的次数
}}
\label
{
eq:2-49
}
\label
{
eq:2-49
}
...
@@ -1241,8 +1250,9 @@ r_6: & & \textrm{VP} \to \textrm{VV}\ \textrm{NN} \nonumber
...
@@ -1241,8 +1250,9 @@ r_6: & & \textrm{VP} \to \textrm{VV}\ \textrm{NN} \nonumber
\end{figure}
\end{figure}
%-------------------------------------------
%-------------------------------------------
\vspace
{
0.5em
}
\parinterval
图
\ref
{
fig:2-27
}
展示了基于统计的句法分析的流程。首先,通过树库上的统计,获得各个规则的概率,这样就得到了一个上下文无关句法分析模型
$
\textrm
{
P
}
(
\cdot
)
$
。对于任意句法分析结果
$
d
=
r
_
1
\circ
r
_
2
\circ
...
\circ
r
_
n
$
,都能通过如下公式计算其概率值:
\parinterval
图
\ref
{
fig:2-27
}
展示了基于统计的句法分析的流程。首先,通过树库上的统计,获得各个规则的概率,这样就得到了一个上下文无关句法分析模型
$
\textrm
{
P
}
(
\cdot
)
$
。对于任意句法分析结果
$
d
=
r
_
1
\circ
r
_
2
\circ
...
\circ
r
_
n
$
,都能通过如下公式计算其概率值:
\setlength
{
\belowdisplayskip
}{
1pt
}
\begin{equation}
\begin{equation}
\textrm
{
P
}
(d)=
\prod
_{
i=1
}^{
n
}
\textrm
{
P
}
(r
_
i)
\textrm
{
P
}
(d)=
\prod
_{
i=1
}^{
n
}
\textrm
{
P
}
(r
_
i)
\end{equation}
\end{equation}
...
@@ -1256,6 +1266,7 @@ r_6: & & \textrm{VP} \to \textrm{VV}\ \textrm{NN} \nonumber
...
@@ -1256,6 +1266,7 @@ r_6: & & \textrm{VP} \to \textrm{VV}\ \textrm{NN} \nonumber
\end{figure}
\end{figure}
%-------------------------------------------
%-------------------------------------------
\vspace
{
1em
}
\parinterval
在获取统计分析模型后,就可以使用模型对任意句子进行分析,计算每个句法分析树的概率,并输出概率最高的树作为句法分析的结果。
\parinterval
在获取统计分析模型后,就可以使用模型对任意句子进行分析,计算每个句法分析树的概率,并输出概率最高的树作为句法分析的结果。
%----------------------------------------------------------------------------------------
%----------------------------------------------------------------------------------------
...
@@ -1263,6 +1274,7 @@ r_6: & & \textrm{VP} \to \textrm{VV}\ \textrm{NN} \nonumber
...
@@ -1263,6 +1274,7 @@ r_6: & & \textrm{VP} \to \textrm{VV}\ \textrm{NN} \nonumber
%----------------------------------------------------------------------------------------
%----------------------------------------------------------------------------------------
\sectionnewpage
\sectionnewpage
\vspace
{
0.5em
}
\section
{
小结及深入阅读
}
\label
{
sec2:summary
}
\section
{
小结及深入阅读
}
\label
{
sec2:summary
}
\parinterval
本章重点介绍了如何对自然语言处理问题进行统计建模,并从数据中自动学习统计模型的参数,最终使用学习到的模型对新的问题进行处理。之后,本章将这种思想应用到三个自然语言处理任务中,包括:中文分词、语言建模、句法分析,它们也和机器翻译有着紧密的联系。通过系统化的建模,可以发现:经过适当的假设和化简,统计模型可以很好的描述复杂的自然语言处理问题。相关概念和方法也会在后续章节的内容中被广泛使用。
\parinterval
本章重点介绍了如何对自然语言处理问题进行统计建模,并从数据中自动学习统计模型的参数,最终使用学习到的模型对新的问题进行处理。之后,本章将这种思想应用到三个自然语言处理任务中,包括:中文分词、语言建模、句法分析,它们也和机器翻译有着紧密的联系。通过系统化的建模,可以发现:经过适当的假设和化简,统计模型可以很好的描述复杂的自然语言处理问题。相关概念和方法也会在后续章节的内容中被广泛使用。
...
...
编写
预览
Markdown
格式
0%
重试
或
添加新文件
添加附件
取消
您添加了
0
人
到此讨论。请谨慎行事。
请先完成此评论的编辑!
取消
请
注册
或者
登录
后发表评论