Skip to content
项目
群组
代码片段
帮助
当前项目
正在载入...
登录 / 注册
切换导航面板
M
mtbookv2
概览
Overview
Details
Activity
Cycle Analytics
版本库
Repository
Files
Commits
Branches
Tags
Contributors
Graph
Compare
Charts
问题
0
Issues
0
列表
Board
标记
里程碑
合并请求
0
Merge Requests
0
CI / CD
CI / CD
流水线
作业
日程表
图表
维基
Wiki
代码片段
Snippets
成员
Collapse sidebar
Close sidebar
活动
图像
聊天
创建新问题
作业
提交
Issue Boards
Open sidebar
NiuTrans
mtbookv2
Commits
6dd0c61b
Commit
6dd0c61b
authored
Jan 12, 2021
by
曹润柘
Browse files
Options
Browse Files
Download
Email Patches
Plain Diff
update wording of 5-7
parent
f1c8ed7c
隐藏空白字符变更
内嵌
并排
正在显示
2 个修改的文件
包含
19 行增加
和
25 行删除
+19
-25
Chapter5/chapter5.tex
+10
-13
Chapter6/chapter6.tex
+9
-12
没有找到文件。
Chapter5/chapter5.tex
查看文件 @
6dd0c61b
...
@@ -200,11 +200,12 @@ IBM模型由Peter F. Brown等人于上世纪九十年代初提出\upcite{DBLP:jo
...
@@ -200,11 +200,12 @@ IBM模型由Peter F. Brown等人于上世纪九十年代初提出\upcite{DBLP:jo
\parinterval
以汉译英为例,当翻译“我”这个单词时,可能直接会想到用“I”、“me”或“I'm”作为它的译文,而几乎不会选择“you”、“satisfied”等含义相差太远的译文。这是为什么呢?如果从统计学的角度来看,无论是何种语料,包括教材、新闻、小说等,绝大部分情况下“我”都翻译成了“I”、“me”等,几乎不会看到我被翻译成“you”或“satisfied”的情况。可以说“我”翻译成“I”、“me”等属于高频事件,而翻译成“you”、“satisfied”等属于低频或小概率事件。因此人在翻译时也是选择在统计意义上概率更大的译文,这也间接反映出统计模型可以在一定程度上描述人的翻译习惯和模式。
\parinterval
以汉译英为例,当翻译“我”这个单词时,可能直接会想到用“I”、“me”或“I'm”作为它的译文,而几乎不会选择“you”、“satisfied”等含义相差太远的译文。这是为什么呢?如果从统计学的角度来看,无论是何种语料,包括教材、新闻、小说等,绝大部分情况下“我”都翻译成了“I”、“me”等,几乎不会看到我被翻译成“you”或“satisfied”的情况。可以说“我”翻译成“I”、“me”等属于高频事件,而翻译成“you”、“satisfied”等属于低频或小概率事件。因此人在翻译时也是选择在统计意义上概率更大的译文,这也间接反映出统计模型可以在一定程度上描述人的翻译习惯和模式。
\parinterval
表
\ref
{
tab:5-1
}
展示了汉语到英语的单词翻译实例及相应的翻译概率。可以看到,“我”翻译成“I”的概率最高,为0.5。这是符合人类对翻译的认知的。此外,这种概率化的模型避免了非0即1的判断,所有的译文都是可能的,只是概率不同。这也使得统计模型可以覆盖更多的翻译现象,甚至捕捉到一些人所忽略的情况。
\\
\\
\\
\parinterval
表
\ref
{
tab:5-1
}
展示了汉语到英语的单词翻译实例及相应的翻译概率。可以看到,“我”翻译成“I”的概率最高,为0.5。这是符合人类对翻译的认知的。此外,这种概率化的模型避免了非0即1的判断,所有的译文都是可能的,只是概率不同。这也使得统计模型可以覆盖更多的翻译现象,甚至捕捉到一些人所忽略的情况。
%----------------------------------------------
%----------------------------------------------
\begin{table}
[htp]
\begin{table}
[htp]
\centering
\centering
\caption
{
汉译英单词翻译概率
}
\begin{tabular}
{
c | c c
}
\begin{tabular}
{
c | c c
}
源语言
&
目标语言
&
翻译概率
\\
\hline
源语言
&
目标语言
&
翻译概率
\\
\hline
&
I
&
0.50
\\
&
I
&
0.50
\\
...
@@ -214,7 +215,6 @@ IBM模型由Peter F. Brown等人于上世纪九十年代初提出\upcite{DBLP:jo
...
@@ -214,7 +215,6 @@ IBM模型由Peter F. Brown等人于上世纪九十年代初提出\upcite{DBLP:jo
&
am
&
0.10
\\
&
am
&
0.10
\\
...
&
...
&
...
\\
...
&
...
&
...
\\
\end{tabular}
\end{tabular}
\caption
{
汉译英单词翻译概率
}
\label
{
tab:5-1
}
\label
{
tab:5-1
}
\end{table}
\end{table}
%----------------------------------------------
%----------------------------------------------
...
@@ -1033,8 +1033,14 @@ f(s_u|t_v) &= &\lambda_{t_v}^{-1} \cdot \funp{P}(\seq{s}| \seq{t}) \cdot c_{\mat
...
@@ -1033,8 +1033,14 @@ f(s_u|t_v) &= &\lambda_{t_v}^{-1} \cdot \funp{P}(\seq{s}| \seq{t}) \cdot c_{\mat
f(s
_
u|t
_
v)
&
=
&
\frac
{
c
_{
\mathbb
{
E
}}
(s
_
u|t
_
v;
\seq
{
s
}
,
\seq
{
t
}
)
}
{
\sum\limits
_{
s'
_
u
}
c
_{
\mathbb
{
E
}}
(s'
_
u|t
_
v;
\seq
{
s
}
,
\seq
{
t
}
)
}
f(s
_
u|t
_
v)
&
=
&
\frac
{
c
_{
\mathbb
{
E
}}
(s
_
u|t
_
v;
\seq
{
s
}
,
\seq
{
t
}
)
}
{
\sum\limits
_{
s'
_
u
}
c
_{
\mathbb
{
E
}}
(s'
_
u|t
_
v;
\seq
{
s
}
,
\seq
{
t
}
)
}
\label
{
eq:5-44
}
\label
{
eq:5-44
}
\end{eqnarray}
\end{eqnarray}
%----------------------------------------------
\begin{figure}
[htp]
\centering
\input
{
./Chapter5/Figures/figure-calculation-formula
&
iterative-process-of-function
}
\caption
{$
f
(
s
_
u|t
_
v
)
$
的计算公式和迭代过程
}
\label
{
fig:5-27
}
\end{figure}
%----------------------------------------------
\parinterval
进一步,假设有
$
K
$
个互译的句对(称作平行语料):
\parinterval
进一步,假设有
$
K
$
个互译的句对(称作平行语料):
$
\{
(
\seq
{
s
}^{
[
1
]
}
,
\seq
{
t
}^{
[
1
]
}
)
,...,
(
\seq
{
s
}^{
[
K
]
}
,
\seq
{
t
}^{
[
K
]
}
)
\}
$
,
$
f
(
s
_
u|t
_
v
)
$
的期望频次为:
$
\{
(
\seq
{
s
}^{
[
1
]
}
,
\seq
{
t
}^{
[
1
]
}
)
,...,
(
\seq
{
s
}^{
[
K
]
}
,
\seq
{
t
}^{
[
K
]
}
)
\}
$
,
$
f
(
s
_
u|t
_
v
)
$
的期望频次为:
...
@@ -1048,15 +1054,6 @@ c_{\mathbb{E}}(s_u|t_v)&=&\sum\limits_{k=1}^{K} c_{\mathbb{E}}(s_u|t_v;s^{[k]},
...
@@ -1048,15 +1054,6 @@ c_{\mathbb{E}}(s_u|t_v)&=&\sum\limits_{k=1}^{K} c_{\mathbb{E}}(s_u|t_v;s^{[k]},
%----------------------------------------------
%----------------------------------------------
\begin{figure}
[htp]
\begin{figure}
[htp]
\centering
\centering
\input
{
./Chapter5/Figures/figure-calculation-formula
&
iterative-process-of-function
}
\caption
{$
f
(
s
_
u|t
_
v
)
$
的计算公式和迭代过程
}
\label
{
fig:5-27
}
\end{figure}
%----------------------------------------------
%----------------------------------------------
\begin{figure}
[htp]
\centering
\input
{
./Chapter5/Figures/figure-em-algorithm-flow-chart
}
\input
{
./Chapter5/Figures/figure-em-algorithm-flow-chart
}
\caption
{
EM算法流程图(IBM模型1)
}
\caption
{
EM算法流程图(IBM模型1)
}
\label
{
fig:5-28
}
\label
{
fig:5-28
}
...
...
Chapter6/chapter6.tex
查看文件 @
6dd0c61b
...
@@ -154,8 +154,6 @@
...
@@ -154,8 +154,6 @@
\parinterval
需要注意的是,公式
\eqref
{
eq:6-7
}
之所以被看作是一种隐马尔可夫模型,是由于其形式与标准的一阶隐马尔可夫模型无异。
$
\funp
{
P
}
(
a
_{
j
}
|a
_{
j
-
1
}
,l
)
$
可以被看作是一种状态转移概率,
$
f
(
s
_{
j
}
|t
_{
a
_
j
}
)
$
可以被看作是一种发射概率。关于隐马尔可夫模型具体的数学描述也可参考
{
\chapterthree
}
中的相关内容。
\parinterval
需要注意的是,公式
\eqref
{
eq:6-7
}
之所以被看作是一种隐马尔可夫模型,是由于其形式与标准的一阶隐马尔可夫模型无异。
$
\funp
{
P
}
(
a
_{
j
}
|a
_{
j
-
1
}
,l
)
$
可以被看作是一种状态转移概率,
$
f
(
s
_{
j
}
|t
_{
a
_
j
}
)
$
可以被看作是一种发射概率。关于隐马尔可夫模型具体的数学描述也可参考
{
\chapterthree
}
中的相关内容。
%----------------------------------------------------------------------------------------
%----------------------------------------------------------------------------------------
% NEW SECTION
% NEW SECTION
%----------------------------------------------------------------------------------------
%----------------------------------------------------------------------------------------
...
@@ -175,6 +173,15 @@
...
@@ -175,6 +173,15 @@
\parinterval
这里将会给出另一个翻译模型,能在一定程度上解决上面提到的问题
\upcite
{
DBLP:journals/coling/BrownPPM94,och2003systematic
}
。该模型把目标语言生成源语言的过程分解为如下几个步骤:首先,确定每个目标语言单词生成源语言单词的个数,这里把它称为
{
\small\sffamily\bfseries
{
繁衍率
}}
\index
{
繁衍率
}
或
{
\small\sffamily\bfseries
{
产出率
}}
\index
{
产出率
}
(Fertility)
\index
{
Fertility
}
;其次,决定目标语言句子中每个单词生成的源语言单词都是什么,即决定生成的第一个源语言单词是什么,生成的第二个源语言单词是什么,以此类推。这样每个目标语言单词就对应了一个源语言单词列表;最后把各组源语言单词列表中的每个单词都放置到合适的位置上,完成目标语言译文到源语言句子的生成。
\parinterval
这里将会给出另一个翻译模型,能在一定程度上解决上面提到的问题
\upcite
{
DBLP:journals/coling/BrownPPM94,och2003systematic
}
。该模型把目标语言生成源语言的过程分解为如下几个步骤:首先,确定每个目标语言单词生成源语言单词的个数,这里把它称为
{
\small\sffamily\bfseries
{
繁衍率
}}
\index
{
繁衍率
}
或
{
\small\sffamily\bfseries
{
产出率
}}
\index
{
产出率
}
(Fertility)
\index
{
Fertility
}
;其次,决定目标语言句子中每个单词生成的源语言单词都是什么,即决定生成的第一个源语言单词是什么,生成的第二个源语言单词是什么,以此类推。这样每个目标语言单词就对应了一个源语言单词列表;最后把各组源语言单词列表中的每个单词都放置到合适的位置上,完成目标语言译文到源语言句子的生成。
%----------------------------------------------
\begin{figure}
[htp]
\centering
\input
{
./Chapter6/Figures/figure-probability-translation-process
}
\caption
{
基于产出率的翻译模型执行过程
}
\label
{
fig:6-5
}
\end{figure}
%----------------------------------------------
\parinterval
对于句对
$
(
\seq
{
s
}
,
\seq
{
t
}
)
$
,令
$
\varphi
$
表示产出率,同时令
${
\tau
}$
表示每个目标语言单词对应的源语言单词列表。图
{
\ref
{
fig:6-5
}}
描述了一个英语句子生成汉语句子的过程。
\parinterval
对于句对
$
(
\seq
{
s
}
,
\seq
{
t
}
)
$
,令
$
\varphi
$
表示产出率,同时令
${
\tau
}$
表示每个目标语言单词对应的源语言单词列表。图
{
\ref
{
fig:6-5
}}
描述了一个英语句子生成汉语句子的过程。
\begin{itemize}
\begin{itemize}
...
@@ -184,18 +191,8 @@
...
@@ -184,18 +191,8 @@
\item
其次,确定英语句子中每个单词生成的汉语单词列表。比如“Scientists”生成“科学家”和“们”两个汉语单词,可表示为
${
\tau
}_
1
=
\{
{
\tau
}_{
11
}
=
\textrm
{
“科学家”
}
,
{
\tau
}_{
12
}
=
\textrm
{
“们”
}
\}
$
。 这里用特殊的空标记NULL表示翻译对空的情况;
\item
其次,确定英语句子中每个单词生成的汉语单词列表。比如“Scientists”生成“科学家”和“们”两个汉语单词,可表示为
${
\tau
}_
1
=
\{
{
\tau
}_{
11
}
=
\textrm
{
“科学家”
}
,
{
\tau
}_{
12
}
=
\textrm
{
“们”
}
\}
$
。 这里用特殊的空标记NULL表示翻译对空的情况;
\vspace
{
0.3em
}
\vspace
{
0.3em
}
\item
最后,把生成的所有汉语单词放在合适的位置。比如“科学家”和“们”分别放在
$
\seq
{
s
}$
的位置1和位置2。可以用符号
$
\pi
$
记录生成的单词在源语言句子
$
\seq
{
s
}$
中的位置。比如“Scientists” 生成的汉语单词在
$
\seq
{
s
}$
中的位置表示为
${
\pi
}_{
1
}
=
\{
{
\pi
}_{
11
}
=
1
,
{
\pi
}_{
12
}
=
2
\}
$
。
\item
最后,把生成的所有汉语单词放在合适的位置。比如“科学家”和“们”分别放在
$
\seq
{
s
}$
的位置1和位置2。可以用符号
$
\pi
$
记录生成的单词在源语言句子
$
\seq
{
s
}$
中的位置。比如“Scientists” 生成的汉语单词在
$
\seq
{
s
}$
中的位置表示为
${
\pi
}_{
1
}
=
\{
{
\pi
}_{
11
}
=
1
,
{
\pi
}_{
12
}
=
2
\}
$
。
\vspace
{
0.3em
}
\end{itemize}
\end{itemize}
%----------------------------------------------
\begin{figure}
[htp]
\centering
\input
{
./Chapter6/Figures/figure-probability-translation-process
}
\caption
{
基于产出率的翻译模型执行过程
}
\label
{
fig:6-5
}
\end{figure}
%----------------------------------------------
\parinterval
为了表述清晰,这里重新说明每个符号的含义。
$
\seq
{
s
}$
、
$
\seq
{
t
}$
、
$
m
$
和
$
l
$
分别表示源语言句子、目标语言译文、源语言单词数量以及译文单词数量。
$
\mathbf
{
\varphi
}$
、
$
\mathbf
{
\tau
}$
和
$
\mathbf
{
\pi
}$
分别表示产出率、生成的源语言单词以及它们在源语言句子中的位置。
${
\varphi
}_{
i
}$
表示第
$
i
$
个目标语言单词
$
t
_
i
$
的产出率。
${
\tau
}_{
i
}$
和
${
\pi
}_
i
$
分别表示
$
t
_
i
$
生成的源语言单词列表及其在源语言句子
$
\seq
{
s
}$
中的位置列表。
\parinterval
为了表述清晰,这里重新说明每个符号的含义。
$
\seq
{
s
}$
、
$
\seq
{
t
}$
、
$
m
$
和
$
l
$
分别表示源语言句子、目标语言译文、源语言单词数量以及译文单词数量。
$
\mathbf
{
\varphi
}$
、
$
\mathbf
{
\tau
}$
和
$
\mathbf
{
\pi
}$
分别表示产出率、生成的源语言单词以及它们在源语言句子中的位置。
${
\varphi
}_{
i
}$
表示第
$
i
$
个目标语言单词
$
t
_
i
$
的产出率。
${
\tau
}_{
i
}$
和
${
\pi
}_
i
$
分别表示
$
t
_
i
$
生成的源语言单词列表及其在源语言句子
$
\seq
{
s
}$
中的位置列表。
\parinterval
可以看出,一组
$
\tau
$
和
$
\pi
$
(记为
$
<
\tau
,
\pi
>
$
)可以决定一个对齐
$
\seq
{
a
}$
和一个源语句子
$
\seq
{
s
}$
。
\parinterval
可以看出,一组
$
\tau
$
和
$
\pi
$
(记为
$
<
\tau
,
\pi
>
$
)可以决定一个对齐
$
\seq
{
a
}$
和一个源语句子
$
\seq
{
s
}$
。
...
...
编写
预览
Markdown
格式
0%
重试
或
添加新文件
添加附件
取消
您添加了
0
人
到此讨论。请谨慎行事。
请先完成此评论的编辑!
取消
请
注册
或者
登录
后发表评论