Skip to content
项目
群组
代码片段
帮助
当前项目
正在载入...
登录 / 注册
切换导航面板
M
mtbookv2
概览
Overview
Details
Activity
Cycle Analytics
版本库
Repository
Files
Commits
Branches
Tags
Contributors
Graph
Compare
Charts
问题
0
Issues
0
列表
Board
标记
里程碑
合并请求
0
Merge Requests
0
CI / CD
CI / CD
流水线
作业
日程表
图表
维基
Wiki
代码片段
Snippets
成员
Collapse sidebar
Close sidebar
活动
图像
聊天
创建新问题
作业
提交
Issue Boards
Open sidebar
NiuTrans
mtbookv2
Commits
56efe5f5
Commit
56efe5f5
authored
Nov 27, 2020
by
zengxin
Browse files
Options
Browse Files
Download
Email Patches
Plain Diff
12
parent
0f91cf9b
显示空白字符变更
内嵌
并排
正在显示
2 个修改的文件
包含
14 行增加
和
14 行删除
+14
-14
Chapter12/Figures/figure-example-of-self-attention-mechanism-calculation.tex
+2
-2
Chapter12/chapter12.tex
+12
-12
没有找到文件。
Chapter12/Figures/figure-example-of-self-attention-mechanism-calculation.tex
查看文件 @
56efe5f5
...
...
@@ -7,13 +7,13 @@
\node
[rnode,anchor=south west,fill=green!20!white] (key11) at (0,0)
{
\scriptsize
{$
h
(
\textrm
{
你
}
)
$}}
;
\node
[rnode,anchor=south west,fill=green!20!white] (key11) at (0,0)
{
\scriptsize
{$
h
(
\textrm
{
他
}
)
$}}
;
\node
[rnode,anchor=south west,fill=green!20!white] (key12) at ([xshift=0.8em]key11.south east)
{
\scriptsize
{$
h
(
\textrm
{
什么
}
)
$}}
;
\node
[rnode,anchor=south west,fill=green!20!white] (key13) at ([xshift=0.8em]key12.south east)
{
\scriptsize
{$
h
(
\textrm
{
也
}
)
$}}
;
\node
[rnode,anchor=south west,fill=green!20!white] (key14) at ([xshift=0.8em]key13.south east)
{
\scriptsize
{$
h
(
\textrm
{
没
}
)
$}}
;
\node
[rnode,anchor=south west,fill=green!20!white] (key15) at ([xshift=0.8em]key14.south east)
{
\scriptsize
{$
h
(
\textrm
{
学
}
)
$}}
;
\node
[rnode,anchor=east] (query1) at ([xshift=-1em]key11.west)
{
\scriptsize
{$
h
(
\textrm
{
你
}
)
$}}
;
\node
[rnode,anchor=east] (query1) at ([xshift=-1em]key11.west)
{
\scriptsize
{$
h
(
\textrm
{
他
}
)
$}}
;
\draw
[->] ([yshift=1pt,xshift=4pt]query1.north) .. controls +(90:0.6em) and +(90:0.6em) .. ([yshift=1pt]key11.north);
\draw
[->] ([yshift=1pt,xshift=0pt]query1.north) .. controls +(90:1.0em) and +(90:1.0em) .. ([yshift=1pt]key12.north);
...
...
Chapter12/chapter12.tex
查看文件 @
56efe5f5
...
...
@@ -64,15 +64,6 @@
\noindent
其中,
$
\mathbi
{
h
}_
i
$
为源语句子每个位置的表示结果,
$
\alpha
_{
i,j
}$
是目标位置
$
j
$
对
$
\mathbi
{
h
}_
i
$
的注意力权重。以源语句子为例,自注意力机制将序列中每个位置的表示
$
\mathbi
{
h
}_
i
$
看作
$
\mathrm
{
query
}$
(查询),并且将所有位置的表示看作
$
\mathrm
{
key
}$
(键)和
$
\mathrm
{
value
}$
(值)。自注意力模型通过计算当前位置与所有位置的匹配程度,也就是在注意力机制中提到的注意力权重,来对各个位置的
$
\mathrm
{
value
}$
进行加权求和。得到的结果可以被看作是在这个句子中当前位置的抽象表示。这个过程,可以叠加多次,形成多层注意力模型,对输入序列中各个位置进行更深层的表示。
\parinterval
举个例子,如图
\ref
{
fig:12-38
}
所示,一个汉语句子包含5个词。这里,用
$
h
$
(他)表示“他”当前的表示结果,其中
$
h
(
\cdot
)
$
是一个函数,用于返回输入单词所在位置对应的表示结果(向量)。如果把“他”看作目标,这时
$
\mathrm
{
query
}$
就是
$
h
$
(他),
$
\mathrm
{
key
}$
和
$
\mathrm
{
value
}$
是图中所有位置的表示,即:
{$
h
$
(他)、
$
h
$
(什么)、
$
h
$
(也)、
$
h
$
(没)、
$
h
$
(学)
}
。在自注意力模型中,首先计算
$
\mathrm
{
query
}$
和
$
\mathrm
{
key
}$
的相关度,这里用
$
\alpha
_
i
$
表示
$
h
$
(他)和位置
$
i
$
的表示之间的相关性。然后,把
$
\alpha
_
i
$
作为权重,对不同位置上的
$
\mathrm
{
value
}$
进行加权求和。最终,得到新的表示结果
$
\tilde
{
h
}$
(他):
\begin{eqnarray}
\tilde
{
h
}
(
\textrm
{
他
}
)
&
=
&
\alpha
_
1
{
h
}
(
\textrm
{
他
}
) +
\alpha
_
2
{
h
}
(
\textrm
{
什么
}
) +
\alpha
_
3
{
h
}
(
\textrm
{
也
}
) +
\nonumber
\\
&
&
\alpha
_
4
{
h
}
(
\textrm
{
没
}
) +
\alpha
_
5
{
h
}
(
\textrm
{
学
}
)
\label
{
eq:12-42
}
\end{eqnarray}
%----------------------------------------------
\begin{figure}
[htp]
\centering
...
...
@@ -82,7 +73,16 @@
\end{figure}
%----------------------------------------------
\parinterval
同理,也可以用同样的方法处理这个句子中的其他单词。可以看出,在注意力机制中,并不是使用类似于循环神经网络的记忆能力去访问历史信息。序列中所有单词之间的信息都是通过同一种操作(
$
\mathrm
{
query
}$
和
$
\mathrm
{
key
}$
的相关度)进行处理。这样,表示结果
$
\tilde
{
h
}
(
\textrm
{
他
}
)
$
在包含“他”这个单词的信息的同时,也包含了序列中其他词的信息。也就是,序列中每一个位置的表示结果中,都包含了其他位置的信息。从这个角度说,
$
\tilde
{
h
}
(
\textrm
{
他
}
)
$
已经不再是单词“他”自身的表示结果,而是一种在单词“他”的位置上的全局信息的表示。
\parinterval
举个例子,如图
\ref
{
fig:12-38
}
所示,一个汉语句子包含5个词。这里,用
$
h
$
(他)表示“他”当前的表示结果,其中
$
h
(
\cdot
)
$
是一个函数,用于返回输入单词所在位置对应的表示结果(向量)。如果把“他”看作目标,这时
$
\mathrm
{
query
}$
就是
$
h
$
(他),
$
\mathrm
{
key
}$
和
$
\mathrm
{
value
}$
是图中所有位置的表示,即:
{$
h
$
(他)、
$
h
$
(什么)、
$
h
$
(也)、
$
h
$
(没)、
$
h
$
(学)
}
。在自注意力模型中,首先计算
$
\mathrm
{
query
}$
和
$
\mathrm
{
key
}$
的相关度,这里用
$
\alpha
_
i
$
表示
$
h
$
(他)和位置
$
i
$
的表示之间的相关性。然后,把
$
\alpha
_
i
$
作为权重,对不同位置上的
$
\mathrm
{
value
}$
进行加权求和。最终,得到新的表示结果
$
\tilde
{
h
}$
(他):
\begin{eqnarray}
\tilde
{
h
}
(
\textrm
{
他
}
)
&
=
&
\alpha
_
1
{
h
}
(
\textrm
{
他
}
) +
\alpha
_
2
{
h
}
(
\textrm
{
什么
}
) +
\alpha
_
3
{
h
}
(
\textrm
{
也
}
) +
\nonumber
\\
&
&
\alpha
_
4
{
h
}
(
\textrm
{
没
}
) +
\alpha
_
5
{
h
}
(
\textrm
{
学
}
)
\label
{
eq:12-42
}
\end{eqnarray}
\parinterval
同理,也可以用同样的方法处理这个句子中的其他单词。可以看出,在自注意力机制中,并不是使用类似于循环神经网络的记忆能力去访问历史信息。序列中所有单词之间的信息都是通过同一种操作(
$
\mathrm
{
query
}$
和
$
\mathrm
{
key
}$
的相关度)进行处理。这样,表示结果
$
\tilde
{
h
}
(
\textrm
{
他
}
)
$
在包含“他”这个单词的信息的同时,也包含了序列中其他词的信息。也就是,序列中每一个位置的表示结果中,都包含了其他位置的信息。从这个角度说,
$
\tilde
{
h
}
(
\textrm
{
他
}
)
$
已经不再是单词“他”自身的表示结果,而是一种在单词“他”的位置上的全局信息的表示。
\parinterval
通常,也把生成
$
\tilde
{
h
}
(
w
_
i
)
$
的过程看作特征提取,而实现这个过程的模型被称为特征提取器。循环神经网络、卷积神经网络和自注意力模型都是典型的特征提取器。特征提取是神经机器翻译系统的关键步骤,在随后的内容中可以看到自注意力模型是一个非常适合机器翻译任务的特征提取器。
...
...
@@ -287,7 +287,7 @@
\noindent
首先,通过对
$
\mathbi
{
Q
}$
和
$
\mathbi
{
K
}$
的转置进行矩阵乘法操作,计算得到一个维度大小为
$
L
\times
L
$
的相关性矩阵,即
$
\mathbi
{
Q
}
\mathbi
{
K
}^{
\textrm
{
T
}}$
,它表示一个序列上任意两个位置的相关性。再通过系数1/
$
\sqrt
{
d
_
k
}$
进行放缩操作,放缩可以减少相关性矩阵的方差,具体体现在运算过程中实数矩阵中的数值不会过大,有利于模型训练。
\parinterval
在此基础上,通过对相关性矩阵累加一个掩码矩阵
$
\mathbi
{
Mask
}$
,来屏蔽掉矩阵中的无用信息。比如,在编码端,如果需要对多个句子同时处理,由于这些句子长度不
同意
,需要对句子的补齐。再比如,在解码端,训练的时候需要屏蔽掉当前目标语位置右侧的单词,因此这些单词在推断的时候是看不到的。
\parinterval
在此基础上,通过对相关性矩阵累加一个掩码矩阵
$
\mathbi
{
Mask
}$
,来屏蔽掉矩阵中的无用信息。比如,在编码端,如果需要对多个句子同时处理,由于这些句子长度不
统一
,需要对句子的补齐。再比如,在解码端,训练的时候需要屏蔽掉当前目标语位置右侧的单词,因此这些单词在推断的时候是看不到的。
\parinterval
随后,使用Softmax函数对相关性矩阵在行的维度上进行归一化操作,这可以理解为对第
$
i
$
行进行归一化,结果对应了
$
\mathbi
{
V
}$
中不同位置上向量的注意力权重。对于
$
\mathrm
{
value
}$
的加权求和,可以直接用相关性系数和
$
\mathbi
{
V
}$
进行矩阵乘法得到,即
$
\textrm
{
Softmax
}
(
\frac
{
\mathbi
{
Q
}
\mathbi
{
K
}^{
\textrm
{
T
}}}
{
\sqrt
{
d
_
k
}}
+
\mathbi
{
Mask
}
)
$
和
$
\mathbi
{
V
}$
进行矩阵乘。最终得到自注意力的输出,它和输入的
$
\mathbi
{
V
}$
的大小是一模一样的。图
\ref
{
fig:12-45
}
展示了点乘注意力计算的全过程。
...
...
@@ -356,7 +356,7 @@
\subsection
{
掩码操作
}
\parinterval
在公式
\eqref
{
eq:12-47
}
中提到了
{
\small\bfnew
{
掩码
}}
\index
{
掩码
}
(Mask
\index
{
Mask
}
),它的目的是对向量中某些值进行掩盖,避免无关位置的数值对运算造成影响。Transformer中的掩码主要应用在注意力机制中的相关性系数计算,具体方式是在相关性系数矩阵上累加一个掩码矩阵。该矩阵在需要掩码的位置的值为负无穷
$
-
$
inf(具体实现时是一个非常小的数,比如
$
-
$
1e
-
9),其余位置为0,这样在进行了Softmax 归一化操作之后,被掩码掉的位置计算得到的权重便近似为0,也就是说对无用信息分配的权重为0,从而避免了其对结果产生影响。Transformer包含两种掩码:
\parinterval
在公式
\eqref
{
eq:12-47
}
中提到了
{
\small\bfnew
{
掩码
}}
\index
{
掩码
}
(Mask
\index
{
Mask
}
),它的目的是对向量中某些值进行掩盖,避免无关位置的数值对运算造成影响。Transformer中的掩码主要应用在注意力机制中的相关性系数计算,具体方式是在相关性系数矩阵上累加一个掩码矩阵。该矩阵在需要掩码的位置的值为负无穷
$
-
$
inf(具体实现时是一个非常小的数,比如
$
-
$
1e9),其余位置为0,这样在进行了Softmax 归一化操作之后,被掩码掉的位置计算得到的权重便近似为0,也就是说对无用信息分配的权重为0,从而避免了其对结果产生影响。Transformer包含两种掩码:
\begin{itemize}
\vspace
{
0.5em
}
...
...
编写
预览
Markdown
格式
0%
重试
或
添加新文件
添加附件
取消
您添加了
0
人
到此讨论。请谨慎行事。
请先完成此评论的编辑!
取消
请
注册
或者
登录
后发表评论