Commit be1fc0fc by xiaotong

new pages

parent ab1f9dee
......@@ -119,22 +119,6 @@
\subsection{前馈、循环、自注意力神经网络}
%%%------------------------------------------------------------------------------------------------------------
%%% 在NLP中神经网络能干什么?
\begin{frame}{自然语言处理遇到神经网络}
\begin{itemize}
\item 神经网络方法给自然语言处理(NLP)带来了新的思路
\end{itemize}
\begin{tabular} {l | l}
\textbf{传统基于统计的方法} & \textbf{深度学习方法} \\ \hline
基于离散空间的表示模型 & 基于连续空间的表示模型 \\
NLP问题的隐藏结构假设 & 无隐藏结构假设,端到端学习 \\
特征工程为主 & 无显性特征,但需要设计网络 \\
特征、规则的存储耗资源 & 模型存储相对小,但计算慢
\end{tabular}
\end{frame}
%%%------------------------------------------------------------------------------------------------------------
%%% 利用前馈神经网络建模$n$-gram
\begin{frame}{$n$-gram建模 - 前馈神经网络}
\begin{itemize}
......
......@@ -3753,6 +3753,46 @@ $+2x^2+x+1)$ & \ \ $(x^4+2x^3+2x^2+x+1)$ & $+6x+1$ \\
\subsection{前馈、循环、自注意力神经网络}
%%%------------------------------------------------------------------------------------------------------------
%%% 在NLP中神经网络能干什么?
\begin{frame}{自然语言处理遇到神经网络}
\begin{itemize}
\item 神经网络方法给自然语言处理(NLP)带来了新的思路
\end{itemize}
\begin{tabular} {l | l}
\textbf{传统基于统计的方法} & \textbf{深度学习方法} \\ \hline
基于\alert{离散}空间的表示模型 & 基于\alert{连续}空间的表示模型 \\
NLP问题的\alert{隐含结构}假设 & 无隐含结构假设,\alert{端到端}学习 \\
\alert{特征工程}为主 & 无显性特征,但需要\alert{设计网络} \\
特征、规则的\alert{存储耗资源} & 模型存储相对小,但\alert{计算慢}
\end{tabular}
\vspace{0.5em}
\begin{itemize}
\item<2-> 语言模型任务也可以使用深度学习方法(而且效果非常好:))
\begin{itemize}
\item 语言模型要回答的问题是如何评价一个词串的好坏
\item 可以回忆一下第二章提到的$n$元语法模型
\end{itemize}
\vspace{0.5em}
\begin{displaymath}
\textbf{P}(w_0 w_1 ... w_m) = ?
\end{displaymath}
\end{itemize}
\visible<3->{
\begin{tcolorbox}[enhanced,size=normal,left=2mm,right=1mm,colback=blue!5!white,colframe=blue!75!black,drop fuzzy shadow]
{\Large
\textbf{如何用神经网络描述词串的概率?}
}
\end{tcolorbox}
}
\end{frame}
%%%------------------------------------------------------------------------------------------------------------
\subsection{词嵌入}
%%%------------------------------------------------------------------------------------------------------------
......
Markdown 格式
0%
您添加了 0 到此讨论。请谨慎行事。
请先完成此评论的编辑!
注册 或者 后发表评论