bert-pytorch版源码详细解读.pdfVIP

  1. 1、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。。
  2. 2、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  3. 3、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
  4. 4、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
  5. 5、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们
  6. 6、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
  7. 7、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多
bert-pytorch版源码详细解读 前⾔ 主要代码 1.主函数⼊⼝ class BertModel(nn.Module) : def __ init__ (self, config : BertConfig) : super(BertModel, self).__ init__ () self.embeddings = B RT mbeddings(config) self.encoder = B RT ncoder(config) self.pooler = B RT Pooler(config) def forward(self, input_ ids, token_type_ ids=None, attention_ mask=None) : if attention_ mask is None: attention_ mask = torch.ones_ like(input_ ids) if token_type_ ids is None: token_type_ ids = torch.zeros_ like(input_ ids) # attention_ mask的维度应保持和多头的hidden_ states ⼀致 #!!!个⼈感觉 ⾥extended_ attention_ mask 还应该扩展 ⼀下,感觉 个维度不太对! extended_attention_ mask = attention_ mask.unsqueeze(1).unsqueeze(2) extended_attention_ mask = extended_attention_ mask.float() # mask部分token的权重直接给- 10000,使其在self-att的时候基本不起作⽤。 extended_attention_ mask = (1.0 - extended_attention_ mask) * -10000.0 #根据inp ut_ ids, token_ typ e_ ids以及p osition_ ids来确定初始embeddings embedding_output = self.embeddings(input_ ids, token_type_ ids) #核⼼层,由以多层self_ attention为主的神经⽹络构成 all_encoder_ layers = self.encoder(embedding_output, extended_attention_ mask) #最后 ⼀层隐藏层 sequence_output = all_encoder_ layers[-1] #取出最后 ⼀层隐藏层的[cls] 的表征,经过⽹络层(self p ooler)后得到p ooled_ outp ut pooled_output = self.pooler(sequence_output) return all_encoder_ layers, pooled_output ⼤致讲⼀下吧: ⼀般必传的三个参数input_idx ,token_type_ids,attention_mask。 维度均为 (batch_size, max_sent_length) input_idx就是每个token对应的idx ,对应关系在预训练模型⽂件集的vocab.txt⾥ token_type_ids有两种取值(0对应sentenceA,1对应sentenceB)该tensor会在self.embeddings的时候和input_iput⽣成的 embedding相加⽣成初始的embeddings。 attention_mask有两种取值 (1代表⾮mask词,0代表mask掉的词)⼀般来说在finetune阶段,我们会把padding部分都设成mask 掉的词。 其他基本也都注释了。

您可能关注的文档

文档评论(0)

鬼眼狂刀 + 关注
实名认证
文档贡献者

从事互联网营销行业,接触很多文档,分享给大家

1亿VIP精品文档

相关文档