Skip to content
项目
群组
代码片段
帮助
当前项目
正在载入...
登录 / 注册
切换导航面板
M
mtbookv2
概览
Overview
Details
Activity
Cycle Analytics
版本库
Repository
Files
Commits
Branches
Tags
Contributors
Graph
Compare
Charts
问题
0
Issues
0
列表
Board
标记
里程碑
合并请求
0
Merge Requests
0
CI / CD
CI / CD
流水线
作业
日程表
图表
维基
Wiki
代码片段
Snippets
成员
Collapse sidebar
Close sidebar
活动
图像
聊天
创建新问题
作业
提交
Issue Boards
Open sidebar
NiuTrans
mtbookv2
Commits
2a61d9b8
Commit
2a61d9b8
authored
Sep 01, 2020
by
曹润柘
Browse files
Options
Browse Files
Download
Plain Diff
合并分支 'master' 到 'caorunzhe'
Master 查看合并请求
!129
parents
c067ad78
4c6d581b
隐藏空白字符变更
内嵌
并排
正在显示
2 个修改的文件
包含
28 行增加
和
29 行删除
+28
-29
Chapter3/Figures/figure-process-of-statistical-syntax-analysis.tex
+1
-1
Chapter3/chapter3.tex
+27
-28
没有找到文件。
Chapter3/Figures/figure-process-of-statistical-syntax-analysis.tex
查看文件 @
2a61d9b8
...
...
@@ -55,7 +55,7 @@
\draw
[->,very thick,ublue] ([xshift=0.2em]corpus.east) -- ([xshift=4.2em]corpus.east) node [pos=0.5, above]
{
\color
{
red
}{
\scriptsize
{
统计学习
}}}
;
\draw
[->,very thick,ublue] ([xshift=0.2em]model.east) -- ([xshift=4.2em]model.east) node [pos=0.5, above]
{
\color
{
red
}{
\scriptsize
{
搜索
\&
计算
}}}
;
\draw
[->,very thick,ublue] ([xshift=0.2em]model.east) -- ([xshift=4.2em]model.east) node [pos=0.5, above]
{
\color
{
red
}{
\scriptsize
{
预测
}}}
;
{
\scriptsize
\node
[anchor=north west] (sentlabel) at ([xshift=6.2em,yshift=-1em]model.north east)
{{
\color
{
ublue
}
{
\scriptsize
\textbf
{
统计分析模型
}}}}
;
...
...
Chapter3/chapter3.tex
查看文件 @
2a61d9b8
...
...
@@ -532,7 +532,7 @@ Z(\mathbf{X})=\sum_{\mathbf{Y}}\exp(\sum_{i=1}^m\sum_{j=1}^k\lambda_{j}F_{j}(y_{
\parinterval
无论在日常生活中还是在研究工作中,都会遇到各种各样的分类问题,例如挑选西瓜时需要区分``好瓜''和``坏瓜''、编辑看到一篇新闻稿件时要对稿件进行分门别类。事实上,在机器学习中,对``分类任务''的定义会更宽泛而并不拘泥于``类别''的概念:在对样本进行预测时,只要预测标签集合是有限的且预测标签是离散的,就可认定其为分类任务。
\parinterval
具体来说,分类任务目标是训练一个可以根据输入数据预测离散标签的
{
\small\bfnew
{
分类器
}}
\index
{
分类器
}
(Classifier
\index
{
Classifier
}
),也可称为分类模型。在有监督的分类任务中
\footnote
{
与之相对应的,还有无监督、半监督分类任务,不过这些内容不是本书讨论的重点。读者可以参看参考文献
\upcite
{
周志华2016
《机器学习》,李航2019统计学习方法
}
对相关概念进行了解。
}
,训练数据集合通常由形似
$
(
\mathbf
{
x
}_
i,y
_
i
)
$
的带标注数据构成:
$
\mathbf
{
x
}_
i
=(
x
_
i
^
1
,x
_
i
^
2
,
\ldots
,x
_
i
^
k
)
$
作为分类器的输入数据(通常被称作一个训练样本),其中
$
x
_
i
^
j
$
表示样本
$
\mathbf
{
x
}_
i
$
的第
$
j
$
个特征;
$
y
_
i
$
作为输入数据对应的
{
\small\bfnew
{
标签
}}
\index
{
标签
}
(Label)
\index
{
Label
}
,反映了输入数据对应的``类别''。若标签集合大小为
$
n
$
,则分类任务的本质是通过对训练数据集合的学习,建立一个从
$
k
$
维样本空间到
$
n
$
维标签空间的映射关系。更确切地说,分类任务的最终目标是学习一个条件概率分布
$
\funp
{
P
}
(
y|
\mathbf
{
x
}
)
$
,这样对于输入
$
\mathbf
{
x
}$
可以找到概率最大的
$
y
$
作为分类结果输出。
\parinterval
具体来说,分类任务目标是训练一个可以根据输入数据预测离散标签的
{
\small\bfnew
{
分类器
}}
\index
{
分类器
}
(Classifier
\index
{
Classifier
}
),也可称为分类模型。在有监督的分类任务中
\footnote
{
与之相对应的,还有无监督、半监督分类任务,不过这些内容不是本书讨论的重点。读者可以参看参考文献
\upcite
{
周志华2016
机器学习,李航2019统计学习方法
}
对相关概念进行了解。
}
,训练数据集合通常由形似
$
(
\mathbf
{
x
}_
i,y
_
i
)
$
的带标注数据构成:
$
\mathbf
{
x
}_
i
=(
x
_
i
^
1
,x
_
i
^
2
,
\ldots
,x
_
i
^
k
)
$
作为分类器的输入数据(通常被称作一个训练样本),其中
$
x
_
i
^
j
$
表示样本
$
\mathbf
{
x
}_
i
$
的第
$
j
$
个特征;
$
y
_
i
$
作为输入数据对应的
{
\small\bfnew
{
标签
}}
\index
{
标签
}
(Label)
\index
{
Label
}
,反映了输入数据对应的``类别''。若标签集合大小为
$
n
$
,则分类任务的本质是通过对训练数据集合的学习,建立一个从
$
k
$
维样本空间到
$
n
$
维标签空间的映射关系。更确切地说,分类任务的最终目标是学习一个条件概率分布
$
\funp
{
P
}
(
y|
\mathbf
{
x
}
)
$
,这样对于输入
$
\mathbf
{
x
}$
可以找到概率最大的
$
y
$
作为分类结果输出。
\parinterval
与概率图模型一样,分类模型中也依赖特征定义。其定义形式与
\ref
{
sec3:feature
}
节的描述一致,这里不再赘述。分类任务一般根据类别数量分为二分类任务和多分类任务。二分类任务是最经典的分类任务,只需要对输出进行非零即一的预测。多分类任务则可以有多种处理手段,比如,可以将其``拆解''为多个二分类任务求解,或者直接让模型输出多个类别中的一个。在命名实体识别中,往往会使用多类别分类模型。比如,在BIO标注下,有三个类别(B、I和O)。一般来说,类别数量越大分类的难度也越大。比如,BIOES标注包含5个类别,因此使用同样的分类器,它要比BIO标注下的分类问题难度大。另一方面,更多的类别有助于准确的刻画目标问题。因此在实践中需要在类别数量和分类难度之间找到一种平衡。
...
...
@@ -566,15 +566,15 @@ Z(\mathbf{X})=\sum_{\mathbf{Y}}\exp(\sum_{i=1}^m\sum_{j=1}^k\lambda_{j}F_{j}(y_{
\section
{
句法分析(短语结构分析)
}
\parinterval
前面
两节已经介绍了什么叫做``词''、如何对分词问题进行统计建模。同时,也介绍了如何对多个单词构成的命名实体进行识别。无论是分词还是命名实体识别都是句子浅层信息的一种表示。对于一个自然语言句子来说,它更深层次的结构信息可以通过更完整的句法结构来描述,而句法结构
也是机器翻译和自然语言处理其他任务中常用的知识之一。
\parinterval
前面
已经介绍了什么叫做``词''、如何对分词问题进行统计建模。同时,也介绍了如何对多个单词构成的命名实体进行识别。无论是分词还是命名实体识别都是句子浅层信息的一种表示。对于一个自然语言句子来说,它更深层次的结构信息可以通过更完整的句法结构来描述,而句法信息
也是机器翻译和自然语言处理其他任务中常用的知识之一。
%----------------------------------------------------------------------------------------
% NEW SUB-SECTION
%----------------------------------------------------------------------------------------
\subsection
{
句
子的句法树表示
}
\subsection
{
句
法树
}
\parinterval
{
\small\bfnew
{
句法
}}
\index
{
句法
}
(Syntax)
\index
{
Syntax
}
是研究句子的每个组成部分和它们之间的组合方式。一般来说,句法和语言是相关的,比如,英文是主谓宾结构,而日语是主宾谓结构。因此不同的语言也会有不同的句法描述方式。自然语言处理领域最常用的两种句法分析形式是
{
\small\bfnew
{
短语结构分析
}}
\index
{
短语结构分析
}
(Phrase Structure Parsing)
\index
{
Phrase Structure Parsing
}
和
{
\small\bfnew
{
依存分析
}}
\index
{
依存分析
}
(Dependency Parsing)
\index
{
Dependency Parsing
}
。图
\ref
{
fig:3.4-1
}
展示了这两种的句法表示形式的实例。其中,左侧是短语结构树。它描述的是短语的结构功能,比如``吃''是动词(记为VV),``鱼''是名词(记为NN),``吃
\
鱼''组成动词短语,这个短语再与``喜欢''这一动词组成新的动词短语。短语结构树的每个子树都是一个句法功能单元,比如,子树VP(VV(吃) NN(鱼))就表示了``吃
\
鱼''这个动词短语的结构,其中子树根节点VP是句法功能标记。短语结构树利用嵌套的方式描述了语言学的功能。短语结构树中,每个词都有词性(或词类),不同的词或者短语可以组成名动结构、动宾结构等语言学短语结构。短语结构分析一般也被称为
{
\small\bfnew
{
成分分析
}}
\index
{
成分分析
}
(Constituency Parsing)或
{
\small\bfnew
{
完全分析
}}
\index
{
完全分析
}
(Full Parsing)
\index
{
Full Parsing
}
。
\parinterval
{
\small\bfnew
{
句法
}}
\index
{
句法
}
(Syntax)
\index
{
Syntax
}
是研究句子的每个组成部分和它们之间的组合方式。一般来说,句法和语言是相关的,比如,英文是主谓宾结构,而日语是主宾谓结构。因此不同的语言也会有不同的句法描述方式。自然语言处理领域最常用的两种句法分析形式是
{
\small\bfnew
{
短语结构分析
}}
\index
{
短语结构分析
}
(Phrase Structure Parsing)
\index
{
Phrase Structure Parsing
}
和
{
\small\bfnew
{
依存分析
}}
\index
{
依存分析
}
(Dependency Parsing)
\index
{
Dependency Parsing
}
。图
\ref
{
fig:3.4-1
}
展示了这两种的句法表示形式的实例。其中,左侧是短语结构树。它描述的是短语的结构功能,比如``吃''是动词(记为VV),``鱼''是名词(记为NN),``吃
/鱼''组成动词短语,这个短语再与``喜欢''这一动词组成新的动词短语。短语结构树的每个子树都是一个句法功能单元,比如,子树VP(VV(吃) NN(鱼))就表示了``吃/
鱼''这个动词短语的结构,其中子树根节点VP是句法功能标记。短语结构树利用嵌套的方式描述了语言学的功能。短语结构树中,每个词都有词性(或词类),不同的词或者短语可以组成名动结构、动宾结构等语言学短语结构。短语结构分析一般也被称为
{
\small\bfnew
{
成分分析
}}
\index
{
成分分析
}
(Constituency Parsing)或
{
\small\bfnew
{
完全分析
}}
\index
{
完全分析
}
(Full Parsing)
\index
{
Full Parsing
}
。
%----------------------------------------------
\begin{figure}
[htp]
...
...
@@ -587,11 +587,11 @@ Z(\mathbf{X})=\sum_{\mathbf{Y}}\exp(\sum_{i=1}^m\sum_{j=1}^k\lambda_{j}F_{j}(y_{
\parinterval
图
\ref
{
fig:3.4-1
}
右侧展示的是另一种句法结构,被称作依存句法树。依存句法树表示了句子中单词和单词之间的依存关系。比如,从这个例子可以了解,``猫''依赖``喜欢'',``吃''依赖``喜欢'',``鱼''依赖``吃''。
\parinterval
短语结构树和依存句法树的结构和功能有很大不同。短语结构树的叶子节点是单词,中间节点是词性或者短语句法标记。在短语结构分析中,通常把单词称作
{
\small\bfnew
{
终结符
}}
\index
{
终结符
}
(Terminal)
\index
{
Terminal
}
,把词性称为
{
\small\bfnew
{
预终结符
}}
\index
{
预终结符
}
(Pre-terminal)
\index
{
Pre-terminal
}
,而把其他句法标记称为
{
\small\bfnew
{
非终结符
}}
\index
{
非终结符
}
(Non-terminal)
\index
{
Non-terminal
}
。依存句法树没有预终结符和非终结符,所有的节点都是句子里的单词,通过不同节点间的连线表示句子中各个单词之间的依存关系。每个依存关系实际上都是有方向的,头和尾分别指向``接受''和``发出''依存关系的词。依存关系也可以进行分类,
图
\ref
{
fig:3.4-1
}
中我们对每个依存关系的类型都进行了
标记,这也被称作是有标记的依存分析。如果不生成这些标记,这样的句法分析被称作无标记的依存分析。
\parinterval
短语结构树和依存句法树的结构和功能有很大不同。短语结构树的叶子节点是单词,中间节点是词性或者短语句法标记。在短语结构分析中,通常把单词称作
{
\small\bfnew
{
终结符
}}
\index
{
终结符
}
(Terminal)
\index
{
Terminal
}
,把词性称为
{
\small\bfnew
{
预终结符
}}
\index
{
预终结符
}
(Pre-terminal)
\index
{
Pre-terminal
}
,而把其他句法标记称为
{
\small\bfnew
{
非终结符
}}
\index
{
非终结符
}
(Non-terminal)
\index
{
Non-terminal
}
。依存句法树没有预终结符和非终结符,所有的节点都是句子里的单词,通过不同节点间的连线表示句子中各个单词之间的依存关系。每个依存关系实际上都是有方向的,头和尾分别指向``接受''和``发出''依存关系的词。依存关系也可以进行分类,
例如,图
\ref
{
fig:3.4-1
}
中的对每个依存关系的类型都有一个
标记,这也被称作是有标记的依存分析。如果不生成这些标记,这样的句法分析被称作无标记的依存分析。
\parinterval
虽然短语结构树和依存树的句法表现形式有很大不同,但是它们在某些条件下能相互转化。比如,可以使用启发性规则将短语结构树自动转化为依存树。从应用的角度,依存分析由于形式更加简单,而且直接建模词语之间的依赖,因此在自然语言处理领域中受到很多关注。在机器翻译中,无论是哪种句法树结构,都已经被证明会对机器翻译系统产生帮助。特别是短语结构树,在机器翻译中的应用历史更长,研究更为深入,因此本节将会以短语结构分析为例介绍句法分析的相关概念。
\parinterval
而句法分析到底是什么呢?简单的理解,句法分析就是在小学语文课程中学习的句子成分的分析,以及对句子中各个成分内部、外部关系的判断。更规范一些的定义,可以参照百度百科
维基百科的
句法分析的解释。
\parinterval
而句法分析到底是什么呢?简单的理解,句法分析就是在小学语文课程中学习的句子成分的分析,以及对句子中各个成分内部、外部关系的判断。更规范一些的定义,可以参照百度百科
和维基百科关于
句法分析的解释。
%-------------------------------------------
\begin{definition}
句法分析
...
...
@@ -626,7 +626,7 @@ Z(\mathbf{X})=\sum_{\mathbf{Y}}\exp(\sum_{i=1}^m\sum_{j=1}^k\lambda_{j}F_{j}(y_{
\parinterval
句法树是对句子的一种抽象。这种树形结构表达了一种对句子结构的归纳过程,比如,从树的叶子开始,把每一个树节点看作一次抽象,最终形成一个根节点。那这个过程如何用计算机来实现呢?这就需要使用到形式文法。
\parinterval
形式文法是分析自然语言的一种重要工具。根据乔姆斯基的定义
\upcite
{
chomsky1957syntactic
}
,形式文法分为四种类型:无限制文法(0型文法)、上下文
相
关文法(1型文法)、上下文无关文法(2型文法)和正规文法(3型文法)。不同类型的文法有不同的应用,比如,正规文法可以用来描述有限状态自动机,因此也会被使用在语言模型等系统中。对于短语结构分析问题,常用的是
{
\small\bfnew
{
上下文无关文法
}}
\index
{
上下文无关文法
}
(Context-Free Grammar)
\index
{
Context-Free Grammar
}
。上下文无关文法的具体形式如下:
\parinterval
形式文法是分析自然语言的一种重要工具。根据乔姆斯基的定义
\upcite
{
chomsky1957syntactic
}
,形式文法分为四种类型:无限制文法(0型文法)、上下文
有
关文法(1型文法)、上下文无关文法(2型文法)和正规文法(3型文法)。不同类型的文法有不同的应用,比如,正规文法可以用来描述有限状态自动机,因此也会被使用在语言模型等系统中。对于短语结构分析问题,常用的是
{
\small\bfnew
{
上下文无关文法
}}
\index
{
上下文无关文法
}
(Context-Free Grammar)
\index
{
Context-Free Grammar
}
。上下文无关文法的具体形式如下:
%-------------------------------------------
\vspace
{
0.5em
}
...
...
@@ -636,25 +636,25 @@ Z(\mathbf{X})=\sum_{\mathbf{Y}}\exp(\sum_{i=1}^m\sum_{j=1}^k\lambda_{j}F_{j}(y_{
\begin{itemize}
\vspace
{
0.5em
}
\item
$
N
$
为一个非终结符集合
\item
$
N
$
为一个非终结符集合
;
\vspace
{
0.5em
}
\item
$
\Sigma
$
为一个终结符集合
\item
$
\Sigma
$
为一个终结符集合
;
\vspace
{
0.5em
}
\item
$
R
$
为一个规则(产生式)集合,每条规则
$
r
\in
R
$
的形式为
$
X
\to
Y
_
1
Y
_
2
...Y
_
n
$
,其中
$
X
\in
N
$
,
$
Y
_
i
\in
N
\cup
\Sigma
$
\item
$
R
$
为一个规则(产生式)集合,每条规则
$
r
\in
R
$
的形式为
$
X
\to
Y
_
1
Y
_
2
...Y
_
n
$
,其中
$
X
\in
N
$
,
$
Y
_
i
\in
N
\cup
\Sigma
$
;
\vspace
{
0.5em
}
\item
$
S
$
为一个起始符号集合且
$
S
\subseteq
N
$
\item
$
S
$
为一个起始符号集合且
$
S
\subseteq
N
$
。
\vspace
{
0.5em
}
\end{itemize}
\end{definition}
%-------------------------------------------
\parinterval
举例说明,假设有上下文无关文法
$
G
=
<N,
\Sigma
,R,S>
$
,可以用它描述一个简单
中文句法结构。其中非终结符集合为不同的中文
句法标记
\parinterval
举例说明,假设有上下文无关文法
$
G
=
<N,
\Sigma
,R,S>
$
,可以用它描述一个简单
汉语句法结构。其中非终结符集合为不同的汉语
句法标记
\begin{eqnarray}
N=
\{\textrm
{
NN
}
,
\textrm
{
VV
}
,
\textrm
{
NP
}
,
\textrm
{
VP
}
,
\textrm
{
IP
}
\}
\nonumber
\label
{
eq:3.4-1
}
\end{eqnarray}
这里,
\textrm
{
NN
}
代表名词,
\textrm
{
VV
}
代表动词,
\textrm
{
NP
}
代表名词短语,
\textrm
{
VP
}
代表动词短语,
\textrm
{
IP
}
代表单句。进一步,把终结符集合定义为
\noindent
这里,
\textrm
{
NN
}
代表名词,
\textrm
{
VV
}
代表动词,
\textrm
{
NP
}
代表名词短语,
\textrm
{
VP
}
代表动词短语,
\textrm
{
IP
}
代表单句。进一步,把终结符集合定义为
\begin{eqnarray}
\Sigma
=
\{\text
{
猫,喜欢,吃,鱼
}
\}
\nonumber
\label
{
eq:3.4-2
}
...
...
@@ -666,7 +666,7 @@ S=\{\textrm{IP}\} \nonumber
\label
{
eq:3.4-3
}
\end{eqnarray}
最后,文法的规则集定义图
\ref
{
fig:3.4-2
}
所示(其中
$
r
_
i
$
为规则的编号)
\parinterval
最后,文法的规则集定义图
\ref
{
fig:3.4-2
}
所示(其中
$
r
_
i
$
为规则的编号)。这个文法蕴含了不同``层次''的句法信息。比如,规则
$
r
_
1
$
、
$
r
_
2
$
、
$
r
_
3
$
和
$
r
_
4
$
表达了词性对单词的抽象;规则
$
r
_
6
$
、
$
r
_
7
$
和
$
r
_
8
$
是表达了短语结构的抽象,其中,规则
$
r
_
8
$
描述了汉语中名词短语(主语)+动词短语(谓语)的结构。在实际应用中,像
$
r
_
8
$
这样的规则可以覆盖很大的片段(试想一下一个包含50个词的主谓结构的句子,可以使用
$
r
_
8
$
进行描述)。
%----------------------------------------------
\begin{figure}
[htp]
...
...
@@ -677,9 +677,7 @@ S=\{\textrm{IP}\} \nonumber
\end{figure}
%---------------------------
\parinterval
上面这个文法蕴含了不同``层次''的句法信息。比如,规则
$
r
_
1
$
、
$
r
_
2
$
、
$
r
_
3
$
和
$
r
_
4
$
表达了词性对单词的抽象;规则
$
r
_
6
$
、
$
r
_
7
$
和
$
r
_
8
$
是表达了短语结构的抽象,其中,规则
$
r
_
8
$
描述了汉语中名词短语(主语)+动词短语(谓语)的结构。在实际应用中,像
$
r
_
8
$
这样的规则可以覆盖很大的片段(试想一下一个包含50个词的主谓结构的句子,可以使用
$
r
_
8
$
进行描述)。
\parinterval
上下文无关文法的规则是一种
{
\small\bfnew
{
产生式规则
}}
\index
{
产生式规则
}
(Production Rule)
\index
{
Production Rule
}
,形如
$
\alpha
\to
\beta
$
,它表示把规则左端的非终结符
$
\alpha
$
替换为规则右端的符号序列
$
\beta
$
。 通常,
$
\alpha
$
被称作规则的左部(Left-hand Side),
$
\beta
$
被称作规则的右部(Right-hand Side)。使用右部
$
\beta
$
替换左部
$
\alpha
$
的过程也被称作规则的使用,而这个过程的逆过程称为规约。规则的使用可以如下定义:
\parinterval
上下文无关文法的规则是一种
{
\small\bfnew
{
产生式规则
}}
\index
{
产生式规则
}
(Production Rule)
\index
{
Production Rule
}
,形如
$
\alpha
\to
\beta
$
,它表示把规则左端的非终结符
$
\alpha
$
替换为规则右端的符号序列
$
\beta
$
。 通常,
$
\alpha
$
被称作规则的
{
\small\bfnew
{
左部
}}
\index
{
左部
}
(Left-hand Side
\index
{
Left-hand Side
}
),
$
\beta
$
被称作规则的
{
\small\bfnew
{
右部
}}
\index
{
右部
}
(Right-hand Side
\index
{
Right-hand Side
}
)。使用右部
$
\beta
$
替换左部
$
\alpha
$
的过程也被称作规则的使用,而这个过程的逆过程称为规约。规则的使用可以如下定义:
%-------------------------------------------
\vspace
{
0.5em
}
...
...
@@ -724,7 +722,7 @@ s_0 \overset{r_1}{\Rightarrow} s_1 \overset{r_2}{\Rightarrow} s_2 \overset{r_3}{
\end{definition}
%-------------------------------------------
\parinterval
比如,使用前面的示例文法,可以对``猫
喜欢 吃
鱼''进行分析,并形成句法分析树(图
\ref
{
fig:3.4-3
}
)。从起始非终结符IP开始,使用唯一拥有IP作为左部的规则
$
r
_
8
$
推导出NP和VP,之后依次使用规则
$
r
_
5
$
、
$
r
_
1
$
、
$
r
_
7
$
、
$
r
_
2
$
、
$
r
_
6
$
、
$
r
_
3
$
、
$
r
_
4
$
,得到了完整的句法树。
\parinterval
比如,使用前面的示例文法,可以对``猫
/喜欢/吃/
鱼''进行分析,并形成句法分析树(图
\ref
{
fig:3.4-3
}
)。从起始非终结符IP开始,使用唯一拥有IP作为左部的规则
$
r
_
8
$
推导出NP和VP,之后依次使用规则
$
r
_
5
$
、
$
r
_
1
$
、
$
r
_
7
$
、
$
r
_
2
$
、
$
r
_
6
$
、
$
r
_
3
$
、
$
r
_
4
$
,得到了完整的句法树。
%-------------------------------------------
\begin{figure}
[htp]
...
...
@@ -762,7 +760,7 @@ s_0 \overset{r_1}{\Rightarrow} s_1 \overset{r_2}{\Rightarrow} s_2 \overset{r_3}{
\parinterval
这样,对于一个上下文无关文法,每一棵句法树都有唯一的最左推导与之对应。于是,句法分析可以被描述为:对于一个句子找到能够生成它的最佳推导,这个推导所对应的句法树就是这个句子的句法分析结果。
\parinterval
不过问题又回来了,怎样才能知道什么样的推导或者句法树是``最佳''的呢?如图
\ref
{
fig:3.4-5
}
所示,对于语言学专家,他们可以很确定
的
分辨出哪些句法树是正确的,哪些句法树是错误。甚至普通人也可以通过一些课本中学到的知识产生一些模糊的判断。而计算机如何进行判别呢?沿着前面介绍的统计建模的思想,计算机可以得出不同句法树出现的概率,进而选择概率最高的句法树作为输出,而这正是统计句法分析所做的事情。
\parinterval
不过问题又回来了,怎样才能知道什么样的推导或者句法树是``最佳''的呢?如图
\ref
{
fig:3.4-5
}
所示,对于语言学专家,他们可以很确定
地
分辨出哪些句法树是正确的,哪些句法树是错误。甚至普通人也可以通过一些课本中学到的知识产生一些模糊的判断。而计算机如何进行判别呢?沿着前面介绍的统计建模的思想,计算机可以得出不同句法树出现的概率,进而选择概率最高的句法树作为输出,而这正是统计句法分析所做的事情。
\parinterval
在统计句法分析中,需要对每个推导进行统计建模,于是定义一个模型
$
\funp
{
P
}
(
\cdot
)
$
,对于任意的推导
$
d
$
,都可以用
$
\funp
{
P
}
(
d
)
$
计算出推导
$
d
$
的概率。这样,给定一个输入句子,我们可以对所有可能的推导用
$
\funp
{
P
}
(
d
)
$
计算其概率值,并选择概率最大的结果作为句法分析的结果输出(图
\ref
{
fig:3.4-6
}
)。
...
...
@@ -790,13 +788,13 @@ s_0 \overset{r_1}{\Rightarrow} s_1 \overset{r_2}{\Rightarrow} s_2 \overset{r_3}{
一个概率上下文无关文法可以被视为一个系统
$
G
=
<N,
\Sigma
,R,S>
$
,其中
\begin{itemize}
\vspace
{
0.5em
}
\item
$
N
$
为一个非终结符集合
\item
$
N
$
为一个非终结符集合
;
\vspace
{
0.5em
}
\item
$
\Sigma
$
为一个终结符集合
\item
$
\Sigma
$
为一个终结符集合
;
\vspace
{
0.5em
}
\item
$
R
$
为一个规则(产生式)集合,每条规则
$
r
\in
R
$
的形式为
$
p:X
\to
Y
_
1
Y
_
2
...Y
_
n
$
,其中
$
X
\in
N
$
,
$
Y
_
i
\in
N
\cup
\Sigma
$
,每个
$
r
$
都对应一个概率
$
p
$
,表示其生成的可能性
。
\item
$
R
$
为一个规则(产生式)集合,每条规则
$
r
\in
R
$
的形式为
$
p:X
\to
Y
_
1
Y
_
2
...Y
_
n
$
,其中
$
X
\in
N
$
,
$
Y
_
i
\in
N
\cup
\Sigma
$
,每个
$
r
$
都对应一个概率
$
p
$
,表示其生成的可能性
;
\vspace
{
0.5em
}
\item
$
S
$
为一个起始符号集合且
$
S
\subseteq
N
$
\item
$
S
$
为一个起始符号集合且
$
S
\subseteq
N
$
。
\vspace
{
0.5em
}
\end{itemize}
\end{definition}
...
...
@@ -830,16 +828,16 @@ r_6: & & \textrm{VP} \to \textrm{VV}\ \textrm{NN} \nonumber
\label
{
eq:3.4-7
}
\end{eqnarray}
\parinterval
这也对应了词串``吃
\
鱼''的生成过程。首先,从起始非终结符VP开始,使用规则
$
r
_
6
$
生成两个非终结符VV和NN;进一步,分别使用规则
$
r
_
3
$
和
$
r
_
4
$
从VV和NN进一步生成单词``吃''和``鱼''。整个过程的概率等于三条规则概率的乘积。
\parinterval
这也对应了词串``吃
/
鱼''的生成过程。首先,从起始非终结符VP开始,使用规则
$
r
_
6
$
生成两个非终结符VV和NN;进一步,分别使用规则
$
r
_
3
$
和
$
r
_
4
$
从VV和NN进一步生成单词``吃''和``鱼''。整个过程的概率等于三条规则概率的乘积。
\parinterval
新的问题又来了,如何得到规则的概率呢?这里仍然可以从数据中学习文法规则的概率。假设有人工标注的数据,它包括很多人工标注句法树的句法,称之为
{
\small\bfnew
{
树库
}}
\index
{
树库
}
(Treebank)
\index
{
Treebank
}
。然后,对于规则
$
\textrm
{
r
}
:
\alpha
\to
\beta
$
可以使用
极大似然估计
:
\parinterval
新的问题又来了,如何得到规则的概率呢?这里仍然可以从数据中学习文法规则的概率。假设有人工标注的数据,它包括很多人工标注句法树的句法,称之为
{
\small\bfnew
{
树库
}}
\index
{
树库
}
(Treebank)
\index
{
Treebank
}
。然后,对于规则
$
\textrm
{
r
}
:
\alpha
\to
\beta
$
可以使用
基于频次的方法
:
\begin{eqnarray}
\funp
{
P
}
(r) =
\frac
{
\text
{
规则
$
r
$
在树库中出现的次数
}}{
\alpha
\text
{
在树库中出现的次数
}}
\label
{
eq:3.4-8
}
\end{eqnarray}
\parinterval
图
\ref
{
fig:3.4-7
}
展示了通过这种方法计算规则概率的过程。与词法分析类似,可以统计树库中规则左部和右部同时出现的次数,除以规则左部出现的全部次数,所得的结果就是所求规则的概率。这种方法也是典型的相对频次估计。但是如果规则左部和右部同时出现的次数为0时是否代表这个规则概率是0呢?遇到这种情况,可以使用平滑方法对概率进行平滑处理,具体思路可参考
{
\chaptertwo
}
内容。
\parinterval
图
\ref
{
fig:3.4-7
}
展示了通过这种方法计算规则概率的过程。与词法分析类似,可以统计树库中规则左部和右部同时出现的次数,除以规则左部出现的全部次数,所得的结果就是所求规则的概率。这种方法也是典型的相对频次估计。但是如果规则左部和右部同时出现的次数为0时是否代表这个规则概率是0呢?遇到这种情况,可以使用平滑方法对概率进行平滑处理,具体思路可参考
{
\chaptertwo
}
的相关
内容。
%-------------------------------------------
\begin{figure}
[htp]
...
...
@@ -856,6 +854,8 @@ r_6: & & \textrm{VP} \to \textrm{VV}\ \textrm{NN} \nonumber
\funp
{
P
}
(d)=
\prod
_{
i=1
}^{
n
}
\funp
{
P
}
(r
_
i)
\end{equation}
\parinterval
在获取统计分析模型后,就可以使用模型对任意句子进行分析,计算每个句法分析树的概率,并输出概率最高的树作为句法分析的结果。
%-------------------------------------------
\begin{figure}
[htp]
\centering
...
...
@@ -865,7 +865,6 @@ r_6: & & \textrm{VP} \to \textrm{VV}\ \textrm{NN} \nonumber
\end{figure}
%-------------------------------------------
\parinterval
在获取统计分析模型后,就可以使用模型对任意句子进行分析,计算每个句法分析树的概率,并输出概率最高的树作为句法分析的结果。
%----------------------------------------------------------------------------------------
% NEW SECTION
...
...
@@ -880,7 +879,7 @@ r_6: & & \textrm{VP} \to \textrm{VV}\ \textrm{NN} \nonumber
\begin{itemize}
\vspace
{
0.5em
}
\item
在建模方面,本章介绍的分词、句法分析任务是是基于人工先验知识进行模型设计的思路。也就是,问题所表达的现象被``一步一步''生成出来。这是一种典型的生成式建模思想,它把要解决的问题看作一些观测结果的隐含变量(比如,句子是观测结果,分词结果是隐含在背后的变量),之后通过对隐含变量生成观测结果的过程进行建模,以达到对问题进行数学描述的目的。这类模型一般需要依赖一些独立性假设,假设的合理性对最终的性能有较大影响。相对于
{
\small\sffamily\bfseries
{
生成模型
}}
\index
{
生成模型
}
(Generative Model)
\index
{
Generative Model
}
,另一类方法是
{
\small\sffamily\bfseries
{
判别模型
}}
\index
{
判别模型
}
(Discriminative Model)
\index
{
Discriminative Model
}
。本章序列标注内容中提到一些模型就是判别式模型。它直接描述了从隐含变量生成观测结果的过程,这样对问题的建模更加直接,同时这类模型可以更加灵活的引入不同的特征。判别模型在自然语言处理中也有广泛应用
\upcite
{
shannon1948mathematical
}
\upcite
{
ng2002discriminative
}
。 在本书的第七章也会使用到判别式模型。
\item
在建模方面,本章介绍的分词、句法分析任务是是基于人工先验知识进行模型设计的思路。也就是,问题所表达的现象被``一步一步''生成出来。这是一种典型的生成式建模思想,它把要解决的问题看作一些观测结果的隐含变量(比如,句子是观测结果,分词结果是隐含在背后的变量),之后通过对隐含变量生成观测结果的过程进行建模,以达到对问题进行数学描述的目的。这类模型一般需要依赖一些独立性假设,假设的合理性对最终的性能有较大影响。相对于
{
\small\sffamily\bfseries
{
生成模型
}}
\index
{
生成模型
}
(Generative Model)
\index
{
Generative Model
}
,另一类方法是
{
\small\sffamily\bfseries
{
判别模型
}}
\index
{
判别模型
}
(Discriminative Model)
\index
{
Discriminative Model
}
。本章序列标注内容中提到一些模型就是判别式模型。它直接描述了从隐含变量生成观测结果的过程,这样对问题的建模更加直接,同时这类模型可以更加灵活的引入不同的特征。判别模型在自然语言处理中也有广泛应用
\upcite
{
ng2002discriminative
}
。 在本书的第七章也会使用到判别式模型。
\vspace
{
0.5em
}
\item
此外,本章并没有对模型的推断方法进行深入介绍。比如,对于一个句子如何有效的找到概率最大的分词结果?这部分可以直接借鉴第二章中介绍的搜索方法。对于分词等问题,比较简单的解决方法是使用动态规划
\upcite
{
huang2008advanced
}
。如果使用动态规划的条件不满足,可以考虑使用更加复杂的搜索策略,并配合一定剪枝方法。实际上,无论是基于
$
n
$
-gram语言模型的分词还是简单的上下文无关文法都有高效的推断方法。比如,
$
n
$
-gram语言模型可以被视为概率有限状态自动机,因此可以直接使用成熟的自动机工具。对于更复杂的句法分析问题,可以考虑使用移进-规约方法来解决推断问题
\upcite
{
aho1972theory
}
。
\vspace
{
0.5em
}
...
...
编写
预览
Markdown
格式
0%
重试
或
添加新文件
添加附件
取消
您添加了
0
人
到此讨论。请谨慎行事。
请先完成此评论的编辑!
取消
请
注册
或者
登录
后发表评论