Commit b361b2f5 by xiaotong

minor updates of section 4

parent dd84626e
...@@ -33,8 +33,8 @@ ...@@ -33,8 +33,8 @@
\begin{pgfonlayer}{background} \begin{pgfonlayer}{background}
{ {
\node [rectangle,draw=red,thick,inner sep=0.2em,fill=white,drop shadow] [fit = (t3) (t4)] (problemphrase) {}; \node [rectangle,draw,thick,inner sep=0.2em,fill=white,drop shadow] [fit = (t3) (t4)] (problemphrase) {};
\node [anchor=north,red,text width=8em,align=left] (problemlabel) at (problemphrase.south) {\begin{spacing}{0.8}\scriptsize{``红 茶''为一种搭配,应该翻译为``black tea''}\end{spacing}}; \node [anchor=north,text width=8em,align=left] (problemlabel) at (problemphrase.south) {\begin{spacing}{0.8}\scriptsize{``红 茶''为一种搭配,应该翻译为``black tea''}\end{spacing}};
} }
\end{pgfonlayer} \end{pgfonlayer}
......
...@@ -17,7 +17,7 @@ ...@@ -17,7 +17,7 @@
%---------4.1翻译中的结构信息 %---------4.1翻译中的结构信息
\section{翻译中的结构信息}\index{Chapter4.1} \section{翻译中的结构信息}\index{Chapter4.1}
\parinterval 首先,回顾一下基于单词的统计翻译模型是如何完成翻译的。图\ref{fig:example-of-translation-base-word}展示了一个实例。其中,左侧是一个单词的``翻译表'',它记录了源语言(中文)单词和目标语言(英文)单词之间的对应关系,以及这种对应的可能性大小(用P表示)。在翻译时,会使用这些单词一级的对应,生成目标语译文。比如,图\ref{fig:example-of-translation-base-word}右侧就展示了一个基于词的模型生成的翻译结果,其中\textbf{s}\textbf{t}分别表示源语言和目标语言句子,单词之间的连线表示两个句子中单词一级的对应。 \parinterval 首先,回顾一下基于单词的统计翻译模型是如何完成翻译的。图\ref{fig:example-of-translation-base-word}展示了一个实例。其中,左侧是一个单词的``翻译表'',它记录了源语言(中文)单词和目标语言(英文)单词之间的对应关系,以及这种对应的可能性大小(用P表示)。在翻译时,会使用这些单词一级的对应,生成目标语译文。比如,图\ref{fig:example-of-translation-base-word}右侧就展示了一个基于词的模型生成的翻译结果,其中\textbf{s}\textbf{t}分别表示源语言和目标语言句子,单词之间的连线表示两个句子中单词一级的对应。
%---------------------------------------------- %----------------------------------------------
% 图4.1 % 图4.1
...@@ -31,7 +31,7 @@ ...@@ -31,7 +31,7 @@
\end{figure} \end{figure}
%------------------------------------------- %-------------------------------------------
\parinterval\ref{fig:example-of-translation-base-word}的例子体现一个典型的基于单词对应关系的翻译方法。它非常适合组合性翻译(Compositional Translation)的情况,也就是通常说的直译。不过,自然语言作为人类创造的高级智能的载体,远比想象的复杂。比如,即使是同一个单词,词义也会根据不同的语境产生变化。图\ref{fig:example-of-translation-black-tea}给出了一个新的例子。如果同样使用概率化的单词翻译对问题进行建模,对于输入的句子``我\ 喜欢\ \ 茶'',翻译概率最大的译文是``I like red tea''。显然,``red tea''并不是英文中``红\ 茶''的说法,正确的译文应该是``black tea''。 \parinterval\ref{fig:example-of-translation-base-word}体现的是一个典型的基于单词对应关系的翻译方法。它非常适合{\small\bfnew{组合性翻译}}(Compositional Translation)的情况,也就是通常说的直译。不过,自然语言作为人类创造的高级智能的载体,远比想象的复杂。比如,即使是同一个单词,词义也会根据不同的语境产生变化。图\ref{fig:example-of-translation-black-tea}给出了一个新的例子。如果同样使用概率化的单词翻译对问题进行建模,对于输入的句子``我\ 喜欢\ \ 茶'',翻译概率最大的译文是``I like red tea''。显然,``red tea''并不是英文中``红\ 茶''的说法,正确的译文应该是``black tea''。
%---------------------------------------------- %----------------------------------------------
% 图4.2 % 图4.2
......
...@@ -95,7 +95,6 @@ ...@@ -95,7 +95,6 @@
\noindent 曹润柘、曾信、孟霞、单韦乔、姜雨帆、王子扬、刘辉、许诺、李北、刘继强、张哲旸、周书涵、周涛、张裕浩、李炎洋、林野、刘晓倩、牛蕊 \\ \noindent 曹润柘、曾信、孟霞、单韦乔、姜雨帆、王子扬、刘辉、许诺、李北、刘继强、张哲旸、周书涵、周涛、张裕浩、李炎洋、林野、刘晓倩、牛蕊 \\
} }
%---------------------------------------------------------------------------------------- %----------------------------------------------------------------------------------------
% TABLE OF CONTENTS % TABLE OF CONTENTS
%---------------------------------------------------------------------------------------- %----------------------------------------------------------------------------------------
...@@ -112,13 +111,13 @@ ...@@ -112,13 +111,13 @@
% CHAPTERS % CHAPTERS
%---------------------------------------------------------------------------------------- %----------------------------------------------------------------------------------------
\include{Chapter1/chapter1} %\include{Chapter1/chapter1}
\include{Chapter2/chapter2} %\include{Chapter2/chapter2}
\include{Chapter3/chapter3} %\include{Chapter3/chapter3}
\include{Chapter4/chapter4} \include{Chapter4/chapter4}
\include{Chapter5/chapter5} %\include{Chapter5/chapter5}
\include{Chapter6/chapter6} %\include{Chapter6/chapter6}
\include{ChapterAppend/chapterappend} %\include{ChapterAppend/chapterappend}
......
Markdown 格式
0%
您添加了 0 到此讨论。请谨慎行事。
请先完成此评论的编辑!
注册 或者 后发表评论