Skip to content
项目
群组
代码片段
帮助
当前项目
正在载入...
登录 / 注册
切换导航面板
M
mtbookv2
概览
Overview
Details
Activity
Cycle Analytics
版本库
Repository
Files
Commits
Branches
Tags
Contributors
Graph
Compare
Charts
问题
0
Issues
0
列表
Board
标记
里程碑
合并请求
0
Merge Requests
0
CI / CD
CI / CD
流水线
作业
日程表
图表
维基
Wiki
代码片段
Snippets
成员
Collapse sidebar
Close sidebar
活动
图像
聊天
创建新问题
作业
提交
Issue Boards
Open sidebar
NiuTrans
mtbookv2
Commits
50b3804d
Commit
50b3804d
authored
Jul 30, 2020
by
曹润柘
Browse files
Options
Browse Files
Download
Plain Diff
合并分支 'caorunzhe' 到 'master'
Caorunzhe 查看合并请求
!26
parents
12549149
a3cfa8a2
全部展开
隐藏空白字符变更
内嵌
并排
正在显示
8 个修改的文件
包含
141 行增加
和
31 行删除
+141
-31
Chapter1/chapter1.tex
+1
-1
Chapter2/Figures/figure-full-probability-word-segmentation-1.tex
+52
-0
Chapter2/Figures/figure-full-probability-word-segmentation-2.tex
+48
-0
Chapter2/Figures/figure-full-probability-word-segmentation-3.tex
+37
-0
Chapter2/chapter2.tex
+0
-0
Chapter5/chapter5.tex
+0
-0
Chapter6/chapter6.tex
+3
-3
bibliography.bib
+0
-27
没有找到文件。
Chapter1/chapter1.tex
查看文件 @
50b3804d
...
...
@@ -358,7 +358,7 @@
\parinterval
在基于规则的机器翻译时代,机器翻译技术研究有一个特点就是
{
\small\bfnew
{
语法
}}
\index
{
语法
}
(Grammer)
\index
{
Grammer
}
和
{
\small\bfnew
{
算法
}}
\index
{
算法
}
(Algorithm)
\index
{
Algorithm
}
分开,本质上是把语言分析和程序设计分开。传统方式使用程序代码来实现翻译规则,并把所谓的翻译规则隐含在程序代码实现中。其中最大问题是一旦翻译规则发生修改,程序代码也需要进行相应修改,导致维护代价非常高。此外书写翻译规则的语言学家与编代码的程序员沟通代价也非常高,有时候会出现鸡同鸭讲的感觉。把语法和算法分开对于基于规则的机器翻译技术来说最大好处就是可以将语言学家和程序员的工作分开,各自发挥自己的优势。
\parinterval
这种语言分析和程序设计分开的实现方式也使得基于人工书写翻译规则的机器翻译方法非常直观,语言学家可以非常容易将翻译知识利用规则的方法表达出来,并且不需要修改系统代码。例如:199
5年,北京大学冯志伟老师提出的“潜在歧义论”
\cite
{
冯志伟1995论歧义结构的潜在性
}
;2006年,清华大学黄昌宁老师提出的“由字构词”的分词方法
\cite
{
黄昌宁2006由字构词——中文分词新方法
}
;2001年,哈尔滨工业大学李生老师对当时机器词典编码问题进行论述
\cite
{
李生1994机器词典的信息表示及在汉英机器翻译中的实现
}
;1991年,东北大学自然语言处理实验室王宝库老师提出的规则描述语言(CTRDL)
\cite
{
王宝库1991机器翻译系统中一种规则描述语言
}
;1995年,东北大学自然语言处理实验室姚天顺老师提出的词汇语义驱动算法
\cite
{
唐泓英1995基于搭配词典的词汇语义驱动算法
}
,都是在这种思想上对机器翻译方法的一种改进。此外,使用规则本身就具有一定的优势。例如,翻译规则的书写颗粒度具有很大的可伸缩性。较大颗粒度的翻译规则有很强的概括能力,较小颗粒度的翻译规则具有精细的描述能力。同时翻译规则还便于处理复杂的句法结构和进行深层次的语义理解,比如解决翻译过程中的长距离依赖问题
\parinterval
这种语言分析和程序设计分开的实现方式也使得基于人工书写翻译规则的机器翻译方法非常直观,语言学家可以非常容易将翻译知识利用规则的方法表达出来,并且不需要修改系统代码。例如:199
1年,东北大学自然语言处理实验室王宝库教授提出的规则描述语言(CTRDL)
\cite
{
王宝库1991机器翻译系统中一种规则描述语言
}
;1995年,东北大学自然语言处理实验室姚天顺教授提出的词汇语义驱动算法
\cite
{
唐泓英1995基于搭配词典的词汇语义驱动算法
}
,都是在这种思想上对机器翻译方法的一种改进。此外,使用规则本身就具有一定的优势。例如,翻译规则的书写颗粒度具有很大的可伸缩性。较大颗粒度的翻译规则有很强的概括能力,较小颗粒度的翻译规则具有精细的描述能力。同时翻译规则还便于处理复杂的句法结构和进行深层次的语义理解,比如解决翻译过程中的长距离依赖问题。
\parinterval
通过图
\ref
{
fig:1-9
}
中规则的翻译实例中可以看出,规则的使用和人类进行翻译时所使用的思想非常类似,可以说基于规则的方法实际上在试图描述人类进行翻译的思维过程。虽然直接模仿人类的翻译方式对翻译问题建模是合理的,但是这一定程度上也暴露了基于规则的方法的弱点。基于规则的机器翻译方法中,人工书写翻译规则的主观因素重,有时与客观事实有一定差距。并且人工书写翻译规则的难度大,代价非常高,这也成为了后来基于数据驱动的机器翻译方法主要改进的方向。
...
...
Chapter2/Figures/figure-full-probability-word-segmentation-1.tex
0 → 100644
查看文件 @
50b3804d
\definecolor
{
ublue
}{
rgb
}{
0.152,0.250,0.545
}
\definecolor
{
ugreen
}{
rgb
}{
0,0.5,0
}
%%% outline
%-------------------------------------------------------------------------
\begin{tikzpicture}
{
\begin{scope}
\node
[anchor=west,draw,very thick,minimum size=25pt]
(s1) at (0,0)
{{
88
}}
;
\node
[anchor=west,draw,very thick,minimum size=25pt]
(s2) at ([xshift=0.2cm]s1.east)
{{
87
}}
;
\node
[anchor=west,draw,very thick,minimum size=25pt]
(s3) at ([xshift=0.2cm]s2.east)
{{
45
}}
;
\node
[anchor=west,draw,very thick,minimum size=25pt]
(s4) at ([xshift=0.2cm]s3.east)
{{
47
}}
;
\node
[anchor=west,draw,very thick,minimum size=25pt, inner sep=0]
(s5) at ([xshift=0.2cm]s4.east)
{{
100
}}
;
\node
[anchor=west,draw,very thick,minimum size=25pt]
(s6) at ([xshift=0.2cm]s5.east)
{{
15
}}
;
\end{scope}
\begin{scope}
[yshift=-1cm]
\node
[anchor=west,draw,very thick,minimum size=25pt, inner sep=0]
(s1) at (0,0)
{{
5
}}
;
\node
[anchor=west,draw,very thick,minimum size=25pt, inner sep=0]
(s2) at ([xshift=0.2cm]s1.east)
{{
230
}}
;
\node
[anchor=west,draw,very thick,minimum size=25pt]
(s3) at ([xshift=0.2cm]s2.east)
{{
7
}}
;
\node
[anchor=west,draw,very thick,minimum size=25pt, inner sep=0]
(s4) at ([xshift=0.2cm]s3.east)
{{
234
}}
;
\node
[anchor=west,draw,very thick,minimum size=25pt, inner sep=0]
(s5) at ([xshift=0.2cm]s4.east)
{{
500
}}
;
\node
[anchor=west,draw,very thick,minimum size=25pt]
(s6) at ([xshift=0.2cm]s5.east)
{{
39
}}
;
\node
[anchor=west,draw,very thick,minimum size=25pt, inner sep=0]
(s7) at ([xshift=0.2cm]s6.east)
{{
100
}}
;
\node
[anchor=west,draw,very thick,minimum size=25pt]
(s8) at ([xshift=0.2cm]s7.east)
{{
15
}}
;
\end{scope}
\begin{scope}
[yshift=-2cm]
\node
[anchor=west,draw,very thick,minimum size=25pt, inner sep=0]
(s1) at (0,0)
{{
975
}}
;
\node
[anchor=west,draw,very thick,minimum size=25pt]
(s2) at ([xshift=0.2cm]s1.east)
{{
7
}}
;
\node
[anchor=west,draw,very thick,minimum size=25pt, inner sep=0]
(s3) at ([xshift=0.2cm]s2.east)
{{
234
}}
;
\node
[anchor=west,draw,very thick,minimum size=25pt, inner sep=0]
(s4) at ([xshift=0.2cm]s3.east)
{{
294
}}
;
\node
[anchor=west,draw,very thick,minimum size=25pt, inner sep=0]
(s5) at ([xshift=0.2cm]s4.east)
{{
69
}}
;
\node
[anchor=west,draw,very thick,minimum size=25pt]
(s6) at ([xshift=0.2cm]s5.east)
{{
15
}}
;
\end{scope}
}
\end{tikzpicture}
Chapter2/Figures/figure-full-probability-word-segmentation-2.tex
0 → 100644
查看文件 @
50b3804d
\definecolor
{
ublue
}{
rgb
}{
0.152,0.250,0.545
}
\definecolor
{
ugreen
}{
rgb
}{
0,0.5,0
}
%%% outline
%-------------------------------------------------------------------------
\begin{tikzpicture}
\begin{scope}
\node
[anchor=west,draw,very thick,minimum size=25pt]
(s1) at (0,0)
{
这
}
;
\node
[anchor=west,draw,very thick,minimum size=25pt]
(s2) at ([xshift=0.2cm]s1.east)
{
是
}
;
\node
[anchor=west,draw,very thick,minimum size=25pt]
(s3) at ([xshift=0.2cm]s2.east)
{
一
}
;
\node
[anchor=west,draw,very thick,minimum size=25pt]
(s4) at ([xshift=0.2cm]s3.east)
{
种
}
;
\node
[anchor=west,draw,very thick,minimum size=25pt, inner sep=0]
(s5) at ([xshift=0.2cm]s4.east)
{
\small
{
数据
}}
;
\node
[anchor=west,draw,very thick,minimum size=25pt]
(s6) at ([xshift=0.2cm]s5.east)
{
。
}
;
\node
[anchor=west]
(s7) at ([xshift=0.2cm]s6.east)
{
...
}
;
\end{scope}
\begin{scope}
[yshift=-1cm]
\node
[anchor=west,draw,very thick,minimum size=25pt, inner sep=0]
(s1) at (0,0)
{
现在
}
;
\node
[anchor=west,draw,very thick,minimum size=25pt, inner sep=0]
(s2) at ([xshift=0.2cm]s1.east)
{
已经
}
;
\node
[anchor=west,draw,very thick,minimum size=25pt]
(s3) at ([xshift=0.2cm]s2.east)
{
有
}
;
\node
[anchor=west,draw,very thick,minimum size=25pt, inner sep=0]
(s4) at ([xshift=0.2cm]s3.east)
{
不少
}
;
\node
[anchor=west,draw,very thick,minimum size=25pt, inner sep=0]
(s5) at ([xshift=0.2cm]s4.east)
{
\small
{
可
}}
;
\node
[anchor=west,draw,very thick,minimum size=25pt]
(s6) at ([xshift=0.2cm]s5.east)
{
用
}
;
\node
[anchor=west,draw,very thick,minimum size=25pt, inner sep=0]
(s7) at ([xshift=0.2cm]s6.east)
{
数据
}
;
\node
[anchor=west,draw,very thick,minimum size=25pt]
(s8) at ([xshift=0.2cm]s7.east)
{
。
}
;
\node
[anchor=west]
(s9) at ([xshift=0.2cm]s8.east)
{
...
}
;
\end{scope}
\begin{scope}
[yshift=-2cm]
\node
[anchor=west,draw,very thick,minimum size=25pt, inner sep=0]
(s1) at (0,0)
{
确实
}
;
\node
[anchor=west,draw,very thick,minimum size=25pt]
(s2) at ([xshift=0.2cm]s1.east)
{
有
}
;
\node
[anchor=west,draw,very thick,minimum size=25pt, inner sep=0]
(s3) at ([xshift=0.2cm]s2.east)
{
很
}
;
\node
[anchor=west,draw,very thick,minimum size=25pt, inner sep=0]
(s4) at ([xshift=0.2cm]s3.east)
{
多
}
;
\node
[anchor=west,draw,very thick,minimum size=25pt, inner sep=0]
(s5) at ([xshift=0.2cm]s4.east)
{
疑问
}
;
\node
[anchor=west,draw,very thick,minimum size=25pt]
(s6) at ([xshift=0.2cm]s5.east)
{
。
}
;
\node
[anchor=west]
(s7) at ([xshift=0.2cm]s6.east)
{
...
}
;
\end{scope}
\end{tikzpicture}
%---------------------------------------------------------------------
Chapter2/Figures/figure-full-probability-word-segmentation-3.tex
0 → 100644
查看文件 @
50b3804d
\definecolor
{
ublue
}{
rgb
}{
0.152,0.250,0.545
}
\definecolor
{
ugreen
}{
rgb
}{
0,0.5,0
}
%%% outline
%-------------------------------------------------------------------------
\begin{tikzpicture}
\node
[anchor=west] (label1) at (0,0)
{
总词数:
$
6
+
8
+
5
=
20
$}
;
\node
[anchor=north west] (p1) at (label1.south west)
{$
\textrm
{
P
}
(
\textrm
{
“很”
}
)=
1
/
20
=
0
.
05
$}
;
\node
[anchor=north west] (p2) at (p1.south west)
{$
\textrm
{
P
}
(
\textrm
{
“。”
}
)=
3
/
20
=
0
.
15
$}
;
\node
[anchor=north west] (p3) at (p2.south west)
{$
\textrm
{
P
}
(
\textrm
{
“确实”
}
)=
1
/
20
=
0
.
05
$}
;
\node
[anchor=north west] (label11) at ([xshift=18.0em,yshift=1.63em]label1.south west)
{
更多数据-总词数:100K
$
\sim
$
1M
}
;
\node
[anchor=north west] (p12) at (label11.south west)
{$
\textrm
{
P
}
(
\textrm
{
“很”
}
)=
0
.
000010
$}
;
\node
[anchor=north west] (p22) at (p12.south west)
{$
\textrm
{
P
}
(
\textrm
{
“。”
}
)=
0
.
001812
$}
;
\node
[anchor=north west] (p32) at (p22.south west)
{$
\textrm
{
P
}
(
\textrm
{
“确实”
}
)=
0
.
000001
$}
;
\begin{pgfonlayer}
{
background
}
{
\node
[rectangle,draw=ublue, inner sep=0mm]
[fit =(label1)(label11)(p3)(p32)]
{}
;
}
\end{pgfonlayer}
\end{tikzpicture}
%---------------------------------------------------------------------
Chapter2/chapter2.tex
查看文件 @
50b3804d
差异被折叠。
点击展开。
Chapter5/chapter5.tex
查看文件 @
50b3804d
差异被折叠。
点击展开。
Chapter6/chapter6.tex
查看文件 @
50b3804d
...
...
@@ -268,7 +268,7 @@ p_0+p_1 & = & 1 \label{eq:6-11}
\subsection
{
``缺陷''问题
}
\parinterval
Deficiency
问题是指翻译模型会把一部分概率分配给一些根本不存在的源语言字符串。如果用
$
\textrm
{
P
}
(
\textrm
{
well
}
|
\mathbf
{
t
}
)
$
表示
$
\textrm
{
P
}
(
\mathbf
{
s
}
|
\mathbf
{
t
}
)
$
在所有的正确的(可以理解为语法上正确的)
$
\mathbf
{
s
}$
上的和,即
\parinterval
``缺陷''
问题是指翻译模型会把一部分概率分配给一些根本不存在的源语言字符串。如果用
$
\textrm
{
P
}
(
\textrm
{
well
}
|
\mathbf
{
t
}
)
$
表示
$
\textrm
{
P
}
(
\mathbf
{
s
}
|
\mathbf
{
t
}
)
$
在所有的正确的(可以理解为语法上正确的)
$
\mathbf
{
s
}$
上的和,即
\begin{eqnarray}
\textrm
{
P
}
(
\textrm
{
well
}
|
\mathbf
{
t
}
)=
\sum
_{
\mathbf
{
s
}
\textrm
{
\;
is
\;
well
\;
formed
}}{
\textrm
{
P
}
(
\mathbf
{
s
}
|
\mathbf
{
t
}
)
}
\label
{
eq:6-15
}
...
...
@@ -280,7 +280,7 @@ p_0+p_1 & = & 1 \label{eq:6-11}
\label
{
eq:6-16
}
\end{eqnarray}
\parinterval
本质上,模型3和模型4就是对应
$
\textrm
{
P
}
(
{
\textrm
{
failure
}
|
\mathbf
{
t
}}
)
>
0
$
的情况。这部分概率是模型损失掉的。有时候也把这类
Deficiency问题称为Technical Deficiency。还有一种Deficiency问题被称作Spiritually Deficiency,它是指
$
\textrm
{
P
}
(
{
\textrm
{
well
}
|
\mathbf
{
t
}}
)
+
\textrm
{
P
}
(
{
\textrm
{
ill
}
|
\mathbf
{
t
}}
)
=
1
$
且
$
\textrm
{
P
}
(
{
\textrm
{
ill
}
|
\mathbf
{
t
}}
)
>
0
$
的情况。模型1和模型2就有Spiritually Deficiency的问题。可以注意到,Technical Deficiency只存在于模型3和模型4中,模型1和模型2并没有Technical Deficiency问题。根本原因是模型1和模型2的词对齐是从源语言出发对应到目标语言,
$
\mathbf
{
t
}$
到
$
\mathbf
{
s
}$
的翻译过程实际上是从单词
$
s
_
1
$
开始到单词
$
s
_
m
$
结束,依次把每个源语言单词
$
s
_
j
$
对应到唯一一个目标语言位置。显然,这个过程能够保证每个源语言单词仅对应一个目标语言单词。但是,模型3和模型4中对齐是从目标语言出发对应到源语言,
$
\mathbf
{
t
}$
到
$
\mathbf
{
s
}$
的翻译过程从
$
t
_
1
$
开始
$
t
_
l
$
结束,依次把目标语言单词
$
t
_
i
$
生成的单词对应到某个源语言位置上。但是这个过程不能保证
$
t
_
i
$
中生成的单词所对应的位置没有被其他已经完成对齐的目标语单词所生成的某个源语言单词对应过,因此也就产生了Deficency
问题。
\parinterval
本质上,模型3和模型4就是对应
$
\textrm
{
P
}
(
{
\textrm
{
failure
}
|
\mathbf
{
t
}}
)
>
0
$
的情况。这部分概率是模型损失掉的。有时候也把这类
``缺陷''问题称为Technical Deficiency。还有一种``缺陷''问题被称作Spiritually Deficiency,它是指
$
\textrm
{
P
}
(
{
\textrm
{
well
}
|
\mathbf
{
t
}}
)
+
\textrm
{
P
}
(
{
\textrm
{
ill
}
|
\mathbf
{
t
}}
)
=
1
$
且
$
\textrm
{
P
}
(
{
\textrm
{
ill
}
|
\mathbf
{
t
}}
)
>
0
$
的情况。模型1和模型2就有Spiritually Deficiency的问题。可以注意到,Technical Deficiency只存在于模型3和模型4中,模型1和模型2并没有Technical Deficiency问题。根本原因是模型1和模型2的词对齐是从源语言出发对应到目标语言,
$
\mathbf
{
t
}$
到
$
\mathbf
{
s
}$
的翻译过程实际上是从单词
$
s
_
1
$
开始到单词
$
s
_
m
$
结束,依次把每个源语言单词
$
s
_
j
$
对应到唯一一个目标语言位置。显然,这个过程能够保证每个源语言单词仅对应一个目标语言单词。但是,模型3和模型4中对齐是从目标语言出发对应到源语言,
$
\mathbf
{
t
}$
到
$
\mathbf
{
s
}$
的翻译过程从
$
t
_
1
$
开始
$
t
_
l
$
结束,依次把目标语言单词
$
t
_
i
$
生成的单词对应到某个源语言位置上。但是这个过程不能保证
$
t
_
i
$
中生成的单词所对应的位置没有被其他已经完成对齐的目标语单词所生成的某个源语言单词对应过,因此也就产生了``缺陷''
问题。
\parinterval
这里还要强调的是,Technical Deficiency是模型3和模型4是模型本身的缺陷造成的,如果有一个``更好''的模型就可以完全避免这个问题。而Spiritually Deficiency几乎是不能从模型上根本解决的,因为对于任意一种语言都不能枚举所有的句子(
$
\textrm
{
P
}
(
{
\textrm
{
ill
}
|
\mathbf
{
t
}}
)
$
实际上是得不到的)。
...
...
@@ -313,7 +313,7 @@ p_0+p_1 & = & 1 \label{eq:6-11}
\sectionnewpage
\section
{
小结及深入阅读
}
{
\color
{
red
}
繁衍率
}
{
\color
{
red
}
繁衍率
需要增加
}
\parinterval
本章对IBM系列模型进行了全面的介绍和讨论,从一个简单的基于单词的翻译模型开始,本章以建模、解码、训练多个维度对统计机器翻译进行了描述,期间也涉及了词对齐、优化等多个重要概念。IBM 模型共分为5个模型,对翻译问题的建模依次由浅入深,同时模型复杂度也依次增加。IBM模型作为入门统计机器翻译的``必经之路'',其思想对今天的机器翻译仍然产生着影响。虽然单独使用IBM模型进行机器翻译现在已经不多见,甚至很多从事神经机器翻译等前沿研究的人对IBM模型已经逐渐淡忘,但是不能否认IBM模型标志着一个时代的开始。从某种意义上,当使用公式
$
\hat
{
\mathbf
{
t
}}
=
\argmax
_{
\mathbf
{
t
}}
\textrm
{
P
}
(
\mathbf
{
t
}
|
\mathbf
{
s
}
)
$
描述机器翻译问题的时候,或多或少都在与IBM模型使用相似的思想。
...
...
bibliography.bib
查看文件 @
50b3804d
...
...
@@ -801,33 +801,6 @@
bibsource = {dblp computer science bibliography, https://dblp.org}
}
@article{李生1994机器词典的信息表示及在汉英机器翻译中的实现,
title={机器词典的信息表示及在汉英机器翻译中的实现},
author={李生 and 赵铁军},
journal={中文信息学报},
volume={8},
number={1},
pages={45-55},
year={1994},
}
@inproceedings{黄昌宁2006由字构词——中文分词新方法,
title={由字构词——中文分词新方法},
author={黄昌宁 and 赵海},
booktitle={中文信息处理前沿进展——中国中文信息学会二十五周年学术会议论文集},
year={2006},
}
@article{冯志伟1995论歧义结构的潜在性,
title={论歧义结构的潜在性},
author={冯志伟},
journal={中文信息学报},
volume={9},
number={4},
pages={14-24},
year={1995},
}
@article{王宝库1991机器翻译系统中一种规则描述语言,
title={机器翻译系统中一种规则描述语言(CTRDL)},
author={王宝库 and 张中义 and 姚天顺},
...
...
编写
预览
Markdown
格式
0%
重试
或
添加新文件
添加附件
取消
您添加了
0
人
到此讨论。请谨慎行事。
请先完成此评论的编辑!
取消
请
注册
或者
登录
后发表评论