Skip to content
项目
群组
代码片段
帮助
当前项目
正在载入...
登录 / 注册
切换导航面板
T
Toy-MT-Introduction
概览
Overview
Details
Activity
Cycle Analytics
版本库
Repository
Files
Commits
Branches
Tags
Contributors
Graph
Compare
Charts
问题
0
Issues
0
列表
Board
标记
里程碑
合并请求
0
Merge Requests
0
CI / CD
CI / CD
流水线
作业
日程表
图表
维基
Wiki
代码片段
Snippets
成员
Collapse sidebar
Close sidebar
活动
图像
聊天
创建新问题
作业
提交
Issue Boards
Open sidebar
单韦乔
Toy-MT-Introduction
Commits
be1fc0fc
Commit
be1fc0fc
authored
Oct 21, 2019
by
xiaotong
Browse files
Options
Browse Files
Download
Email Patches
Plain Diff
new pages
parent
ab1f9dee
显示空白字符变更
内嵌
并排
正在显示
2 个修改的文件
包含
40 行增加
和
16 行删除
+40
-16
Section05-Neural-Networks-and-Language-Modeling/section05-test.tex
+0
-16
Section05-Neural-Networks-and-Language-Modeling/section05.tex
+40
-0
没有找到文件。
Section05-Neural-Networks-and-Language-Modeling/section05-test.tex
查看文件 @
be1fc0fc
...
@@ -119,22 +119,6 @@
...
@@ -119,22 +119,6 @@
\subsection
{
前馈、循环、自注意力神经网络
}
\subsection
{
前馈、循环、自注意力神经网络
}
%%%------------------------------------------------------------------------------------------------------------
%%%------------------------------------------------------------------------------------------------------------
%%% 在NLP中神经网络能干什么?
\begin{frame}
{
自然语言处理遇到神经网络
}
\begin{itemize}
\item
神经网络方法给自然语言处理(NLP)带来了新的思路
\end{itemize}
\begin{tabular}
{
l | l
}
\textbf
{
传统基于统计的方法
}
&
\textbf
{
深度学习方法
}
\\
\hline
基于离散空间的表示模型
&
基于连续空间的表示模型
\\
NLP问题的隐藏结构假设
&
无隐藏结构假设,端到端学习
\\
特征工程为主
&
无显性特征,但需要设计网络
\\
特征、规则的存储耗资源
&
模型存储相对小,但计算慢
\end{tabular}
\end{frame}
%%%------------------------------------------------------------------------------------------------------------
%%% 利用前馈神经网络建模$n$-gram
%%% 利用前馈神经网络建模$n$-gram
\begin{frame}
{$
n
$
-gram建模 - 前馈神经网络
}
\begin{frame}
{$
n
$
-gram建模 - 前馈神经网络
}
\begin{itemize}
\begin{itemize}
...
...
Section05-Neural-Networks-and-Language-Modeling/section05.tex
查看文件 @
be1fc0fc
...
@@ -3753,6 +3753,46 @@ $+2x^2+x+1)$ & \ \ $(x^4+2x^3+2x^2+x+1)$ & $+6x+1$ \\
...
@@ -3753,6 +3753,46 @@ $+2x^2+x+1)$ & \ \ $(x^4+2x^3+2x^2+x+1)$ & $+6x+1$ \\
\subsection
{
前馈、循环、自注意力神经网络
}
\subsection
{
前馈、循环、自注意力神经网络
}
%%%------------------------------------------------------------------------------------------------------------
%%%------------------------------------------------------------------------------------------------------------
%%% 在NLP中神经网络能干什么?
\begin{frame}
{
自然语言处理遇到神经网络
}
\begin{itemize}
\item
神经网络方法给自然语言处理(NLP)带来了新的思路
\end{itemize}
\begin{tabular}
{
l | l
}
\textbf
{
传统基于统计的方法
}
&
\textbf
{
深度学习方法
}
\\
\hline
基于
\alert
{
离散
}
空间的表示模型
&
基于
\alert
{
连续
}
空间的表示模型
\\
NLP问题的
\alert
{
隐含结构
}
假设
&
无隐含结构假设,
\alert
{
端到端
}
学习
\\
\alert
{
特征工程
}
为主
&
无显性特征,但需要
\alert
{
设计网络
}
\\
特征、规则的
\alert
{
存储耗资源
}
&
模型存储相对小,但
\alert
{
计算慢
}
\end{tabular}
\vspace
{
0.5em
}
\begin{itemize}
\item
<2-> 语言模型任务也可以使用深度学习方法(而且效果非常好:))
\begin{itemize}
\item
语言模型要回答的问题是如何评价一个词串的好坏
\item
可以回忆一下第二章提到的
$
n
$
元语法模型
\end{itemize}
\vspace
{
0.5em
}
\begin{displaymath}
\textbf
{
P
}
(w
_
0 w
_
1 ... w
_
m) = ?
\end{displaymath}
\end{itemize}
\visible
<3->
{
\begin{tcolorbox}
[enhanced,size=normal,left=2mm,right=1mm,colback=blue!5!white,colframe=blue!75!black,drop fuzzy shadow]
{
\Large
\textbf
{
如何用神经网络描述词串的概率?
}
}
\end{tcolorbox}
}
\end{frame}
%%%------------------------------------------------------------------------------------------------------------
\subsection
{
词嵌入
}
\subsection
{
词嵌入
}
%%%------------------------------------------------------------------------------------------------------------
%%%------------------------------------------------------------------------------------------------------------
...
...
编写
预览
Markdown
格式
0%
重试
或
添加新文件
添加附件
取消
您添加了
0
人
到此讨论。请谨慎行事。
请先完成此评论的编辑!
取消
请
注册
或者
登录
后发表评论