Commit 89e0f654 by libei

remove log information

parent 971c395c
......@@ -123,18 +123,11 @@ class TransformerEncoder(FairseqEncoder):
def forward(self, src_tokens, src_lengths):
# embed tokens and positions
# print('src_wid:', src_tokens)
emb_token = self.embed_tokens(src_tokens)
# print('emb_token:', emb_token[0])
x = self.embed_scale * emb_token
# print('scaled_word_emb:', x[0])
pos_emb = self.embed_positions(src_tokens)
# print('pos:',pos_emb.size())
# print('pos:', pos_emb)
x += pos_emb
# print('final emb:', x.size())
# print('final emb:', x[0])
#raise
x = F.dropout(x, p=self.dropout, training=self.training)
# B x T x C -> T x B x C
......
Markdown 格式
0%
您添加了 0 到此讨论。请谨慎行事。
请先完成此评论的编辑!
注册 或者 后发表评论