Skip to content
项目
群组
代码片段
帮助
当前项目
正在载入...
登录 / 注册
切换导航面板
R
ReadingList
概览
Overview
Details
Activity
Cycle Analytics
版本库
Repository
Files
Commits
Branches
Tags
Contributors
Graph
Compare
Charts
问题
0
Issues
0
列表
Board
标记
里程碑
合并请求
0
Merge Requests
0
CI / CD
CI / CD
流水线
作业
日程表
图表
维基
Wiki
代码片段
Snippets
成员
Collapse sidebar
Close sidebar
活动
图像
聊天
创建新问题
作业
提交
Issue Boards
Open sidebar
zengxin
ReadingList
Commits
2fc5f9d1
Commit
2fc5f9d1
authored
Dec 21, 2020
by
zengxin
Browse files
Options
Browse Files
Download
Email Patches
Plain Diff
SIMILE
parent
d962aafd
显示空白字符变更
内嵌
并排
正在显示
1 个修改的文件
包含
27 行增加
和
0 行删除
+27
-0
Continuous Output for NMT/continuous output fot nmt.md
+27
-0
没有找到文件。
Continuous Output for NMT/continuous output fot nmt.md
查看文件 @
2fc5f9d1
*
Beyond BLEU: Training Neural Machine Translation with Semantic Similarity,ACL 2019
*
BLEU 并不完全可信,他会给语义相似但词汇不同的句子以惩罚。本文介绍一种新的评价指标SIMILE。
*
SIMILE是一种对句子相似度进行“连续”度量的指标,借鉴了专注于领域不可知的语义相似度的度量工作。
*
利用相似度评估句子,模型容易产生具有很多重复词或短语的“超长”句子(长度超过参考译文),为此SIM对“超长”句子进行惩罚:
$LP(r,h) = e^{1-
\f
rac{max(|r|,|h|)}{min()|r,|h||}} $
其中$r$为参考译文,$h$为模型生成的译文。
*
SIM的最终计算方式为:
$SIMILE=LP(r,h)^{
\a
lpha}SIM(r,h)$
其中$
\a
lpha
\i
n
\{
0.25,0.5
\}
$,目的在于降低$LP(.)$的影响。
*
语义相似度并不能完全替代质量评估,但至少就最小风险训练而言,它是个不错的指标。
*
Von Mises
**-Fisher**
Loss for Training Sequence to Sequence Models with Continuous Outputs,ICLR 2019
*
softmax的缺点:
*
速度慢、需要较大的内存、词汇表大小固定,不利于推理OOV的词
*
因此此论文使用连续词嵌入层替换Softmax层
*
创新点:
*
新的损失函数
*
使用预先训练的词嵌入概率分布进行训练和推断的过程
*
*
A Margin-based Loss with Synthetic Negative Samples for Continuous-output Machine Translation,EMNLP 2019
*
不使用softmax而是训练词嵌入的模型,模型参数更少,训练是速度更快。
编写
预览
Markdown
格式
0%
重试
或
添加新文件
添加附件
取消
您添加了
0
人
到此讨论。请谨慎行事。
请先完成此评论的编辑!
取消
请
注册
或者
登录
后发表评论