Commit 7e80636a by Lee

Update content

parent 714d515e
......@@ -1133,7 +1133,9 @@ NLP问题的隐含结构假设 & 无隐含结构假设,端到端学习 \\
%%% 词嵌入
\begin{frame}{模块1:词嵌入层}
\begin{itemize}
\item 词嵌入
\item 把输入的词转换成唯一对应的词表大小的0-1向量
\item 根据0-1向量,从词嵌入矩阵中取出对应的词嵌入$e_y$
\item 取出的词嵌入$e_y$作为循环神经网络的输入
\end{itemize}
%%% 图
\begin{center}
......@@ -1250,7 +1252,9 @@ NLP问题的隐含结构假设 & 无隐含结构假设,端到端学习 \\
%%% 输出
\begin{frame}{模块2:输出层}
\begin{itemize}
\item Softmax
\item 循环网络输出$s$经过权重矩阵$W$变换成词表大小的向量
\item 获得的向量经过Softmax变换得到不同词作为输出的概率
\item 一般选取概率最高的词作为模型最终的输出
\end{itemize}
%%% 图
\begin{center}
......@@ -1387,9 +1391,16 @@ NLP问题的隐含结构假设 & 无隐含结构假设,端到端学习 \\
%%%------------------------------------------------------------------------------------------------------------
%%% LSTM
\begin{frame}{模块3:循环单元 - 长短时记忆模型(LSTM)}
\begin{itemize}
\item LSTM
\end{itemize}
\only<1>{遗忘门根据输入的$x_t$$h_t$决定保留多大比例的$c_t$\\[5pt]}
\only<2>{输入门根据$x_t$$h_t$计算需要保存的记忆$\hat{c}_t$和其比例\\[5pt]}
\only<3>{$c_t$$\hat{c}_t$组合得到新的记忆$c_{t+1}$\\[5pt]}
\only<4>{输出门根据$x_t$$h_t$$c_{t+1}$得到新的隐藏状态$h_{t+1}$\\[5pt]}
\only<5>{如此反复,不断更新$c$$h$直到不再有新的$x$输入\\[5pt]}
{\scriptsize\begin{tabular}{rl}
*$x_t$:&上一层的输出\\
*$h_t$:&同一层上一时刻的隐藏状态\\
*$c_t$:&同一层上一时刻的记忆
\end{tabular}}
%%% 图
\begin{center}
\begin{tikzpicture}
......
Markdown 格式
0%
您添加了 0 到此讨论。请谨慎行事。
请先完成此评论的编辑!
注册 或者 后发表评论