Commit 3d210521 by xiaotong

bug fixes

parent 8eb661b8
......@@ -1832,7 +1832,7 @@ $d$是一个$(\textbf{s},\textbf{t})$上基于短语的翻译推导,$\textrm{P
\item 抽取到短语之后,如何将这些短语对转化成概率化的短语表?这里使用极大似然估计的方法(MLE)对翻译概率进行估计:
\vspace{-0.5em}
\begin{displaymath}
\textrm{Pr}(\bar{t}|\bar{s}) = \frac{count(\bar{s},\bar{t})}{count(\bar{s})}
\textrm{P}(\bar{t}|\bar{s}) = \frac{count(\bar{s},\bar{t})}{count(\bar{s})}
\end{displaymath}
\vspace{-1.0em}
\begin{itemize}
......@@ -1889,7 +1889,7 @@ $d$是一个$(\textbf{s},\textbf{t})$上基于短语的翻译推导,$\textrm{P
\end{tikzpicture}
\vspace{-0.2em}
\item<4-> 在实际使用中,还可以加入反向翻译概率即$\textrm{Pr}(\bar{s}|\bar{t})$来提升机器翻译模型性能
\item<4-> 在实际使用中,还可以加入反向翻译概率即$\textrm{P}(\bar{s}|\bar{t})$来提升机器翻译模型性能
\end{itemize}
\end{frame}
......@@ -1901,7 +1901,7 @@ $d$是一个$(\textbf{s},\textbf{t})$上基于短语的翻译推导,$\textrm{P
\item 对于不常出现的短语可能会产生一些问题,可以将短语分解成词,计算他们的匹配程度。计算公式如下:
\vspace{-0.5em}
\begin{displaymath}
\textrm{$\textrm{Pr}_{lex}$}(\bar{t}|\bar{s}) = \prod_{j=1}^{J} \frac{1}{|\{j|a(j,i) = 1\}|} \sum_{\forall(j,i):a(j,i) = 1} w(t_i|s_j)
\textrm{$\textrm{P}_{lex}$}(\bar{t}|\bar{s}) = \prod_{j=1}^{J} \frac{1}{|\{j|a(j,i) = 1\}|} \sum_{\forall(j,i):a(j,i) = 1} w(t_i|s_j)
\end{displaymath}
\vspace{-1em}
\begin{itemize}
......@@ -1952,8 +1952,8 @@ $d$是一个$(\textbf{s},\textbf{t})$上基于短语的翻译推导,$\textrm{P
\node[align=center,elementnode,minimum size=0.3cm,inner sep=0.1pt,fill=blue!50] (la4) at (a41) {};
\node[align=center,elementnode,minimum size=0.3cm,inner sep=0.1pt,fill=blue!50] (la5) at (a30) {};
\node[anchor=west] (f1) at ([xshift=3em,yshift=0.8em]a43.east) {\scriptsize{$\textrm{Pr}_{lex}(\bar{t}|\bar{s})=w(t_1|s_1)\times$}};
\node[anchor=north] (f2) at ([xshift=6em]f1.south) {\scriptsize{$\frac{1}{2}(w(t_2|s_2)+(t_3|s_2)+(t_4|s_2))\times$}};
\node[anchor=west] (f1) at ([xshift=3em,yshift=0.8em]a43.east) {\scriptsize{$\textrm{P}_{lex}(\bar{t}|\bar{s})=w(t_1|s_1)\times$}};
\node[anchor=north] (f2) at ([xshift=6em]f1.south) {\scriptsize{$\frac{1}{2}(w(t_2|s_2)+w(t_4|s_2))\times$}};
\node[anchor=north west] (f3) at (f2.south west) {\scriptsize{$w(N|s_3)\times$}};
\node[anchor=north west] (f4) at (f3.south west) {\scriptsize{$w(t_4|s_4)\times$}};
......@@ -2238,7 +2238,7 @@ $X$ & $\to$ & $\bar{s},$ & $\bar{t}$ & (R3)\\
\end{itemize}
\visible<3->{
\begin{displaymath}
\Pr(\textbf{o}|\textbf{s},\textbf{t},\textbf{a}) = \prod_{i=1}^{K} \Pr(o_i| \bar{s}_{a_i}, \bar{t}_i, a_{i-1}, a_i)
\textrm{P}(\textbf{o}|\textbf{s},\textbf{t},\textbf{a}) = \prod_{i=1}^{K} \textrm{P}(o_i| \bar{s}_{a_i}, \bar{t}_i, a_{i-1}, a_i)
\end{displaymath}
}
......@@ -2252,7 +2252,7 @@ $X$ & $\to$ & $\bar{s},$ & $\bar{t}$ & (R3)\\
\item 来详细的分析一下
\vspace{-1em}
\begin{displaymath}
\Pr(\textbf{o}|\textbf{s},\textbf{t},\textbf{a}) = \prod_{i=1}^{K} \Pr(o_i| \bar{s}_{a_i}, \bar{t}_i, a_{i-1}, a_i)
\textrm{P}(\textbf{o}|\textbf{s},\textbf{t},\textbf{a}) = \prod_{i=1}^{K} \textrm{P}(o_i| \bar{s}_{a_i}, \bar{t}_i, a_{i-1}, a_i)
\end{displaymath}
\vspace{-1em}
\begin{itemize}
......@@ -2274,7 +2274,7 @@ o_i = \left\{ \begin{array}{ll}
\end{itemize}
\vspace{0.1em}
\begin{displaymath}
f_{M-pre}(d) = \prod_{i=1}^{K} \Pr(o_i = M| \bar{s}_{a_i}, \bar{t}_i, a_{i-1}, a_i)
f_{M-pre}(d) = \prod_{i=1}^{K} \textrm{P}(o_i = M| \bar{s}_{a_i}, \bar{t}_i, a_{i-1}, a_i)
\end{displaymath}
\vspace{-0.8em}
\begin{itemize}
......@@ -2478,7 +2478,7 @@ f_{M-pre}(d) = \prod_{i=1}^{K} \Pr(o_i = M| \bar{s}_{a_i}, \bar{t}_i, a_{i-1}, a
% \end{itemize}
\item 对于每一种翻译推导$d$,基于最大熵的调序模型的得分计算公式如下
\begin{displaymath}
f_{ME}(d) = \prod_{<o,X_1,X_2> \in d} \Pr(o|X_1, X_2)
f_{ME}(d) = \prod_{<o,X_1,X_2> \in d} \textrm{P}(o|X_1, X_2)
\end{displaymath}
\end{itemize}
\end{frame}
......@@ -2509,7 +2509,7 @@ f_{ME}(d) = \prod_{<o,X_1,X_2> \in d} \Pr(o|X_1, X_2)
\end{itemize}
\vspace{0.8em}
\begin{displaymath}
\textrm{P}(d,\textbf{t}|\textbf{s}) = \prod_{(\bar{s},\bar{t}) \in d} \Pr(\bar{t}|\bar{s})^{\lambda_{1}} \times f(d)^{\lambda_{2}} \times \Pr\nolimits_{lm}(\mathbf{t})^{\lambda_{lm}}
\textrm{P}(d,\textbf{t}|\textbf{s}) = \prod_{(\bar{s},\bar{t}) \in d} \textrm{P}(\bar{t}|\bar{s})^{\lambda_{1}} \times f(d)^{\lambda_{2}} \times \Pr\nolimits_{lm}(\mathbf{t})^{\lambda_{lm}}
\end{displaymath}
\item 可以引入更多的特征来提高翻译质量(下面介绍)
\end{itemize}
......@@ -2520,7 +2520,7 @@ f_{ME}(d) = \prod_{<o,X_1,X_2> \in d} \Pr(o|X_1, X_2)
\begin{frame}{特征}
% 给出特征列表
\begin{itemize}
\item \textbf{特征1-2: 短语翻译概率},即正向翻译概率$\Pr(\bar{s}|\bar{t})$和反向翻译概率$\Pr(\bar{t}|\bar{s})$。是基于短语的统计机器翻译模型中最主要的特征。
\item \textbf{特征1-2: 短语翻译概率},即正向翻译概率$\textrm{P}(\bar{s}|\bar{t})$和反向翻译概率$\textrm{P}(\bar{t}|\bar{s})$。是基于短语的统计机器翻译模型中最主要的特征。
\item \textbf{特征3-4: 词汇翻译概率},即正向词汇翻译概率$\Pr_{lex}(\bar{t}|\bar{s})$和反向词汇翻译概率$\Pr_{lex}(\bar{s}|\bar{t})$。用来描述短语对中源语端单词和目标语端单词的对应关系
\item<2-> \textbf{特征5: $n$-gram语言模型},即$\textrm{P}_{\textrm{lm}}(\textbf{t})$。度量译文的流畅度,可以使用大规模目标语单语数据得到。
\item<2-> \textbf{特征6:译文长度},即$|\textbf{t}|$。避免模型倾向于短译文,同时让系统自动学习对译文长度的偏好。
......@@ -2543,7 +2543,7 @@ f_{ME}(d) = \prod_{<o,X_1,X_2> \in d} \Pr(o|X_1, X_2)
\begin{scope}[minimum height = 15pt]
\node[anchor=west,minimum width=3em] (x1) at (0, 0) {\footnotesize{$\textrm{P}(d,\textbf{t}|\textbf{s}) = \prod_{(\bar{s},\bar{t}) \in d} score(\bar{s},\bar{t}) \times f_{ME}(d)^{\lambda_{ME}} \times f_{MSD}(d)^{\lambda_{MSD}} \times$}};
\node[anchor=north west] (x2) at ([xshift=4em,yshift=0.1em]x1.south west) {\footnotesize{$\Pr\nolimits_{lm}(\mathbf{t})^{\lambda_{lm}} \times \exp(\lambda_{TWB} \cdot length(\mathbf{t})) / Z(\mathbf{s})$}};
\node[anchor=north west] (x3) at ([yshift=-1.8em]x1.south west) {\footnotesize{$score(\bar{s},\bar{t}) = \Pr(\bar{t}|\bar{s})^{\lambda_{1}} \times \Pr(\bar{s}|\bar{t})^{\lambda_{2}} \times \Pr\nolimits_{lex}(\bar{t}|\bar{s})^{\lambda_{3}} \times \Pr\nolimits_{lex}(\bar{s}|\bar{t})^{\lambda_{4}} \times$}};
\node[anchor=north west] (x3) at ([yshift=-1.8em]x1.south west) {\footnotesize{$score(\bar{s},\bar{t}) = \textrm{P}(\bar{t}|\bar{s})^{\lambda_{1}} \times \textrm{P}(\bar{s}|\bar{t})^{\lambda_{2}} \times \Pr\nolimits_{lex}(\bar{t}|\bar{s})^{\lambda_{3}} \times \Pr\nolimits_{lex}(\bar{s}|\bar{t})^{\lambda_{4}} \times$}};
\node[anchor=north west] (x4) at ([xshift=5em,yshift=0.1em]x3.south west) {\footnotesize{$\exp(\lambda_{PB}) \times \exp(\lambda_{WDB} \cdot \delta(\bar{s} \to null))$}};
\end{scope}
\end{tikzpicture}
......@@ -2676,12 +2676,12 @@ t_{i}^{*} = \argmin_{t_{ij}} \sum_{k=1}^{M} \lambda_k \cdot h_k(t_{ij})
\begin{itemize}
\item 解码是根据模型以及输入原文,找到得分最高的译文 ${d}^*$
\begin{displaymath}
\mathbf{d}^* = \argmax_{\mathbf{t}} \sum_{d \in D(\mathbf{s}, \mathbf{t})} \Pr(\mathbf{t}, d|\mathbf{s})
\mathbf{d}^* = \argmax_{\mathbf{t}} \sum_{d \in D(\mathbf{s}, \mathbf{t})} \textrm{P}(\mathbf{t}, d|\mathbf{s})
\end{displaymath}
\vspace{-0.8em}
\begin{itemize}
\item 其中 $D$表示所有可能的推导构成的搜索空间。
\item $\Pr(\mathbf{t}, d|\mathbf{s})$表示前面提到的所有特征的得分
\item $\textrm{P}(\mathbf{t}, d|\mathbf{s})$表示前面提到的所有特征的得分
\end{itemize}
\item 实际解码过程中,通常按从左到右的顺序生成译文,递增的计算翻译概率,同时对已翻译的原文进行标记
\vspace{1em}
......@@ -2717,7 +2717,7 @@ t_{i}^{*} = \argmin_{t_{ij}} \sum_{k=1}^{M} \lambda_k \cdot h_k(t_{ij})
%%%------------------------------------------------------------------------------------------------------------
%%% 什么是解码
\begin{frame}{解码问题-翻译选项}
\begin{frame}{解码问题 - 翻译选项}
% 定义解码是啥
\begin{itemize}
\item 对于每个输入的源语句子$\textbf{s}$,可以从短语表中查询到所有可能的翻译选项,用来翻译
......@@ -2771,7 +2771,7 @@ t_{i}^{*} = \argmin_{t_{ij}} \sum_{k=1}^{M} \lambda_k \cdot h_k(t_{ij})
%%%------------------------------------------------------------------------------------------------------------
%%% 什么是解码
\begin{frame}{解码问题-假设扩展}
\begin{frame}{解码问题 - 假设扩展}
% 定义解码是啥
\begin{itemize}
\item 从翻译选项中挑选合适的选项,顺序地构建输出,构建的局部翻译称为翻译假设
......@@ -3667,7 +3667,7 @@ d = r_1 \circ r_2 \circ r_3 \circ r_4
\tau(\beta) & = & \textrm{be}\ \textrm{X}_2\ \textrm{with}\ \textrm{X}_1 \nonumber
\end{eqnarray}
\end{itemize}
\item<3-> \textbf{特征1-2: 短语翻译概率},即正向翻译概率$\Pr(\tau(\alpha)|\tau(\beta))$和反向翻译概率$\Pr(\tau(\alpha)|\tau(\beta))$。这里,$\tau(\alpha)$$\tau(\beta)$ 都被看做短语,因此可以直接复用短语系统的方法,使用极大似然估计进行计算。
\item<3-> \textbf{特征1-2: 短语翻译概率},即正向翻译概率$\textrm{P}(\tau(\alpha)|\tau(\beta))$和反向翻译概率$\textrm{P}(\tau(\alpha)|\tau(\beta))$。这里,$\tau(\alpha)$$\tau(\beta)$ 都被看做短语,因此可以直接复用短语系统的方法,使用极大似然估计进行计算。
\end{itemize}
\end{frame}
......
Markdown 格式
0%
您添加了 0 到此讨论。请谨慎行事。
请先完成此评论的编辑!
注册 或者 后发表评论