Skip to content
项目
群组
代码片段
帮助
当前项目
正在载入...
登录 / 注册
切换导航面板
W
WMT19-1.0.14
概览
Overview
Details
Activity
Cycle Analytics
版本库
Repository
Files
Commits
Branches
Tags
Contributors
Graph
Compare
Charts
问题
0
Issues
0
列表
Board
标记
里程碑
合并请求
0
Merge Requests
0
CI / CD
CI / CD
流水线
作业
日程表
图表
维基
Wiki
代码片段
Snippets
成员
Collapse sidebar
Close sidebar
活动
图像
聊天
创建新问题
作业
提交
Issue Boards
Open sidebar
libei
WMT19-1.0.14
Commits
3492c676
Commit
3492c676
authored
Mar 09, 2019
by
libei
Browse files
Options
Browse Files
Download
Email Patches
Plain Diff
add new hparams
parent
43b2a870
隐藏空白字符变更
内嵌
并排
正在显示
1 个修改的文件
包含
11 行增加
和
10 行删除
+11
-10
tensor2tensor/models/transformer_dla.py
+11
-10
没有找到文件。
tensor2tensor/models/transformer_dla.py
查看文件 @
3492c676
...
...
@@ -441,6 +441,7 @@ def transformer_dla_base():
hparams
.
encoder_layers
=
6
hparams
.
decoder_layers
=
6
hparams
.
normalize_before
=
True
hparams
.
optimizer_adam_beta2
=
0.997
hparams
.
attention_dropout
=
0.1
hparams
.
relu_dropout
=
0.1
hparams
.
learning_rate
=
0.4
...
...
@@ -450,20 +451,19 @@ def transformer_dla_base():
hparams
.
optimizer_multistep_accumulate_steps
=
4
return
hparams
@registry.register_hparams
def
transformer_dla_big
():
"""HParams for transfomer big model on WMT."""
hparams
=
transformer_dla
()
hparams
.
hidden_size
=
1024
hparams
.
filter_size
=
4096
hparams
.
num_heads
=
16
hparams
.
batching_mantissa_bits
=
2
hparams
.
residual_dropout
=
0.3
return
hparams
@registry.register_hparams
def
transformer_dla_base25_shared
():
hparams
=
transformer_dla_base
()
hparams
.
shared_decoder_input_and_softmax_weights
=
int
(
True
)
hparams
.
encoder_layers
=
25
return
hparams
@registry.register_hparams
def
transformer_dla_base_v2
():
hparams
=
transformer_dla_base
()
hparams
.
learning_rate
=
0.4
*
(
2
**
0.5
)
hparams
.
learning_rate_warmup_steps
=
16000
return
hparams
\ No newline at end of file
编写
预览
Markdown
格式
0%
重试
或
添加新文件
添加附件
取消
您添加了
0
人
到此讨论。请谨慎行事。
请先完成此评论的编辑!
取消
请
注册
或者
登录
后发表评论