\parinterval 在上文提到的评价指标中,无论是准确率、召回率还是$\textrm F_{mean}$,都是基于单个词汇信息衡量译文质量,而忽略了语序问题。为了将语序问题考虑进来,Meteor会考虑更长的匹配:将机器译文按照最长匹配长度分块,并对“块数”较多的机器译文给予惩罚。例如图\ref{fig:4-6}显示的最终词对齐结果中,机器译文被分为了三个“块”——“Can I have it”、“like he”、“?”在这种情况下,看起来上例中的准确率、召回率都还不错,但最终会受到很严重的惩罚。这种罚分机制能够识别出机器译文中的词序问题,因为当待测译文词序与参考答案相差较大时,机器译文将会被分割得比较零散,这种惩罚机制的计算公式如式\eqref{eq:4-11},其中$\textrm{count}_{\textrm{chunks}}$表示匹配的块数。
\parinterval 在上文提到的评价指标中,无论是准确率、召回率还是$\textrm F_{mean}$,都是基于单个词汇信息衡量译文质量,而忽略了语序问题。为了将语序问题考虑进来,Meteor会考虑更长的匹配:将机器译文按照最长匹配长度分块,并对“块数”较多的机器译文给予惩罚。例如图\ref{fig:4-6}显示的最终词对齐结果中,机器译文被分为了三个“块”——“Can I have it”、“like he”、“?”在这种情况下,看起来上例中的准确率、召回率都还不错,但最终会受到很严重的惩罚。这种罚分机制能够识别出机器译文中的词序问题,因为当待测译文词序与参考答案相差较大时,机器译文将会被分割得比较零散,这种惩罚机制的计算公式如式\eqref{eq:4-11},其中$\textrm{count}_{\textrm{chunks}}$表示匹配的块数。
\parinterval 感知机是人工神经元的一种实例,在上世纪50-60年代被提出后,对神经网络研究产生了深远的影响。感知机模型如图\ref{fig:9-5}所示,其输入是一个$n$维二值向量${\mathbi{x}}=(x_1,x_2,\dots,x_n)$,其中$ x_i=0$或$1$。权重${\mathbi{w}}=(w_1,w_2,\dots,w_n)$,每个输入变量对应一个权重$ w_i $。偏置$ b $是一个实数变量($-\sigma$)。输出也是一个二值结果,即$ y=0$或$1$。$ y $值的判定由输入的加权和是否大于(或小于)一个阈值$\sigma$决定(公式\eqref{eq:9-19}):
\parinterval 感知机是人工神经元的一种实例,在上世纪50-60年代被提出后,对神经网络研究产生了深远的影响。感知机模型如图\ref{fig:9-5}所示,其输入是一个$n$维二值向量${\mathbi{x}}=(x_1,x_2,\dots,x_n)$,其中$ x_i=0$或$1$。权重${\mathbi{w}}=(w_1,w_2,\dots,w_n)$,每个输入变量对应一个权重$ w_i $。偏置$ b $是一个实数变量($-\sigma$)。输出也是一个二值结果,即$ y=0$或$1$。$ y $值的判定由输入的加权和是否大于(或小于)一个阈值$\sigma$决定(公式\eqref{eq:9-19}):
\parinterval 将矩阵乘法扩展到高阶张量中:一个张量${\mathbi{x}}$若要与矩阵${\mathbi{W}}$做矩阵乘法,则${\mathbi{x}}$的最后一维度需要与${\mathbi{W}}$的行数大小相等,即:若张量${\mathbi{x}}$的形状为$\cdot\times n $,${\mathbi{W}}$须为$ n\times\cdot$的矩阵。公式\eqref{eq:9-25}是一个例子:
\parinterval 将矩阵乘法扩展到高阶张量中:一个张量${\mathbi{x}}$若要与矩阵${\mathbi{W}}$做矩阵乘法,则${\mathbi{x}}$的最后一维度需要与${\mathbi{W}}$的行数大小相等,即:若张量${\mathbi{x}}$的形状为$\cdot\times n $,${\mathbi{W}}$须为$ n\times\cdot$的矩阵。公式\eqref{eq:9-25}是一个例子: