Skip to content
项目
群组
代码片段
帮助
当前项目
正在载入...
登录 / 注册
切换导航面板
T
Toy-MT-Introduction
概览
Overview
Details
Activity
Cycle Analytics
版本库
Repository
Files
Commits
Branches
Tags
Contributors
Graph
Compare
Charts
问题
0
Issues
0
列表
Board
标记
里程碑
合并请求
0
Merge Requests
0
CI / CD
CI / CD
流水线
作业
日程表
图表
维基
Wiki
代码片段
Snippets
成员
Collapse sidebar
Close sidebar
活动
图像
聊天
创建新问题
作业
提交
Issue Boards
Open sidebar
NiuTrans
Toy-MT-Introduction
Commits
e119c723
Commit
e119c723
authored
Sep 22, 2019
by
xiaotong
Browse files
Options
Browse Files
Download
Email Patches
Plain Diff
definitions of tensors
parent
6081a1a7
隐藏空白字符变更
内嵌
并排
正在显示
1 个修改的文件
包含
22 行增加
和
51 行删除
+22
-51
Section05-Neural-Networks-and-Language-Modeling/section05-test.tex
+22
-51
没有找到文件。
Section05-Neural-Networks-and-Language-Modeling/section05-test.tex
查看文件 @
e119c723
...
...
@@ -105,62 +105,33 @@
\subsection
{
神经网络的简单实现:张量计算
}
%%%------------------------------------------------------------------------------------------------------------
%%% 张量
\begin{frame}
{
如何描述神经网络 - 张量计算
}
%%% 张量
的简单定义
\begin{frame}
{
张量是什么
}
\begin{itemize}
\item
对于神经网络,输入
$
\textbf
{
x
}$
和输出
$
\textbf
{
y
}$
的形式并不仅仅是向量
\item
\textbf
{
深度学习
}
中,张量被``简单"地定义为
\alert
{
多维数组
}
\end{itemize}
\end{frame}
\begin{center}
\begin{tikzpicture}
\node
[anchor=center] (y) at (0,0)
{
\LARGE
{$
\textbf
{
y
}$}}
;
\node
[anchor=west] (eq) at (y.east)
{
\LARGE
{$
=
$}}
;
\node
[anchor=west] (func) at (eq.east)
{
\LARGE
{$
f
$}}
;
\node
[anchor=west] (brace01) at (func.east)
{
\LARGE
{$
(
$}}
;
\node
[anchor=west] (x) at (brace01.east)
{
\LARGE
{$
\textbf
{
x
}$}}
;
\node
[anchor=west] (dot) at (x.east)
{
\LARGE
{$
\cdot
$}}
;
\node
[anchor=west] (w) at (dot.east)
{
\LARGE
{$
\textbf
{
w
}$}}
;
\node
[anchor=west] (plus) at (w.east)
{
\LARGE
{$
+
$}}
;
\node
[anchor=west] (b) at (plus.east)
{
\LARGE
{$
\textbf
{
b
}$}}
;
\node
[anchor=west] (brace02) at (b.east)
{
\LARGE
{$
)
$}}
;
\visible
<2->
{
\node
[anchor=center,fill=yellow!30] (x2) at (x)
{
\LARGE
{$
\textbf
{
x
}$}}
;
\node
[anchor=south] (xlabel) at ([xshift=-3em,yshift=1.5em]x.north)
{
\alert
{
向量?矩阵?...
}}
;
\draw
[<-] ([yshift=0.2em,xshift=-0.5em]x2.north) -- ([xshift=1em]xlabel.south);
\node
[anchor=center,fill=red!20] (y2) at (y)
{
\LARGE
{$
\textbf
{
y
}$}}
;
\draw
[<-] ([yshift=0.2em,xshift=0.5em]y2.north) -- ([xshift=-1em]xlabel.south);
\node
[anchor=center,fill=green!20] (w2) at (w)
{
\LARGE
{$
\textbf
{
w
}$}}
;
\node
[anchor=north] (wlabel) at ([yshift=-1.0em]w.south)
{
矩阵 e.g.,
}
;
\draw
[<-] ([yshift=-0.2em]w2.south) -- (wlabel.north);
\node
[anchor=west] (wsample) at ([xshift=-0.5em]wlabel.east)
{
\footnotesize
{$
\left
(
\begin
{
array
}{
c c
}
1
&
2
\\
3
&
4
\end
{
array
}
\right
)
$}}
;
\node
[anchor=center,fill=purple!20] (b2) at (b)
{
\LARGE
{$
\textbf
{
b
}$}}
;
\node
[anchor=south] (blabel) at ([yshift=1.3em]b.north)
{
向量 e.g.,
}
;
\draw
[<-] ([yshift=0.2em]b2.north) -- (blabel.south);
\node
[anchor=west] (bsample) at ([xshift=-0.5em]blabel.east)
{
\footnotesize
{$
(
1
,
3
)
$}}
;
}
\end{tikzpicture}
\end{center}
%%%------------------------------------------------------------------------------------------------------------
%%% 张量是一个多维线性函数
\begin{frame}
{
事实上,张量是个函数 - 别慌,了解一下 :)
}
\begin{itemize}
\item
<3->
$
\textbf
{
x
}$
和
$
\textbf
{
y
}$
实际上是一个叫tensor的东西,即
\textbf
{
张量
}
。比如,
\item
\textbf
{
非常负责任的说
}
,张量
\alert
{
不是
}
向量和矩阵的简单扩展,甚至说,多维数组也
\alert
{
不是
}
张量所必须的表达形式
\item
<2-> 严格意义上,张量是:
\begin{itemize}
\item
<2->
\textbf
{
看不懂的定义
}
:由若干坐标系改变时满足一定坐标转化关系的抽象对象,它是一个不随参照系的坐标变换而变化的几何量(几何定义)
\item
<3->
\textbf
{
还是看不懂的定义
}
:若干向量和协向量通过张量乘法定义的量(代数定义)
\item
<4->
\textbf
{
还可以解释的定义
}
:
\alert
{
张量是多重线性函数
}
,是定义在一些向量空间和笛卡儿积上的多重线性映射
\begin{itemize}
\item
这里把张量表示为
$
T
(
v
_
0
,...,v
_
r
)
$
,其中输入的是
$
r
$
个向量
$
\{
v
_
0
,...,v
_
r
\}
$
\item
多重线性是指,对于每个输入,函数都是线性的,比如,对于一个
$
v
_
i
$
,我们有
\begin{displaymath}
T(v
_
0,...,v
_
i+c
\cdot
u,...,v
_
r) = T(v
_
0,...,v
_
i,...,v
_
r) + c
\cdot
T(v
_
0,...,u,...,v
_
r)
\end{displaymath}
其中,
$
c
$
为任意数。这个性质非常重要,它可以推导出前面的其它定义。
\end{itemize}
\end{itemize}
\end{itemize}
\begin{center}
\begin{tikzpicture}
\begin{scope}
\visible
<4->
{
\node
[anchor=west] (vector) at (0,0)
{$
\textbf
{
x
}
=
(
1
,
3
)
$}
;
}
\visible
<5->
{
\node
[anchor=west] (matrix) at ([xshift=0.1in]vector.east)
{$
\textbf
{
x
}
=
\left
(
\begin
{
array
}{
c c
}
-
1
&
3
\\
0
.
2
&
2
\end
{
array
}
\right
)
$}
;
}
\visible
<6->
{
\node
[anchor=west] (tensor3d) at ([xshift=0.1in]matrix.east)
{
啥?
$
\textbf
{
x
}
=
\left
(
\begin
{
array
}{
c
}
\left
(
\begin
{
array
}{
c c
}
-
1
&
3
\\
0
.
2
&
2
\end
{
array
}
\right
)
\\
\left
(
\begin
{
array
}{
c c
}
-
1
&
3
\\
0
.
2
&
2
\end
{
array
}
\right
)
\end
{
array
}
\right
)
$}
;
}
\end{scope}
\end{tikzpicture}
\end{center}
\end{frame}
%%%------------------------------------------------------------------------------------------------------------
...
...
编写
预览
Markdown
格式
0%
重试
或
添加新文件
添加附件
取消
您添加了
0
人
到此讨论。请谨慎行事。
请先完成此评论的编辑!
取消
请
注册
或者
登录
后发表评论