- 1、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。。
- 2、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载。
- 3、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
- 4、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
- 5、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们。
- 6、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
- 7、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多
bert-pytorch版源码详细解读
前⾔
主要代码
1.主函数⼊⼝
class BertModel(nn.Module) :
def __ init__ (self, config : BertConfig) :
super(BertModel, self).__ init__ ()
self.embeddings = B RT mbeddings(config)
self.encoder = B RT ncoder(config)
self.pooler = B RT Pooler(config)
def forward(self, input_ ids, token_type_ ids=None, attention_ mask=None) :
if attention_ mask is None:
attention_ mask = torch.ones_ like(input_ ids)
if token_type_ ids is None:
token_type_ ids = torch.zeros_ like(input_ ids)
# attention_ mask的维度应保持和多头的hidden_ states ⼀致
#!!!个⼈感觉 ⾥extended_ attention_ mask 还应该扩展 ⼀下,感觉 个维度不太对!
extended_attention_ mask = attention_ mask.unsqueeze(1).unsqueeze(2)
extended_attention_ mask = extended_attention_ mask.float()
# mask部分token的权重直接给- 10000,使其在self-att的时候基本不起作⽤。
extended_attention_ mask = (1.0 - extended_attention_ mask) * -10000.0
#根据inp ut_ ids, token_ typ e_ ids以及p osition_ ids来确定初始embeddings
embedding_output = self.embeddings(input_ ids, token_type_ ids)
#核⼼层,由以多层self_ attention为主的神经⽹络构成
all_encoder_ layers = self.encoder(embedding_output, extended_attention_ mask)
#最后 ⼀层隐藏层
sequence_output = all_encoder_ layers[-1]
#取出最后 ⼀层隐藏层的[cls] 的表征,经过⽹络层(self p ooler)后得到p ooled_ outp ut
pooled_output = self.pooler(sequence_output)
return all_encoder_ layers, pooled_output
⼤致讲⼀下吧:
⼀般必传的三个参数input_idx ,token_type_ids,attention_mask。
维度均为 (batch_size, max_sent_length)
input_idx就是每个token对应的idx ,对应关系在预训练模型⽂件集的vocab.txt⾥
token_type_ids有两种取值(0对应sentenceA,1对应sentenceB)该tensor会在self.embeddings的时候和input_iput⽣成的
embedding相加⽣成初始的embeddings。
attention_mask有两种取值 (1代表⾮mask词,0代表mask掉的词)⼀般来说在finetune阶段,我们会把padding部分都设成mask
掉的词。
其他基本也都注释了。
您可能关注的文档
- 八年级地理《自然灾害》.ppt
- 初中地理八年级下册长江——人教版.ppt
- 第三节-中国的河流 :内流河与外流河.ppt
- 农作物秸秆综合利用PPT幻灯片共27页文档.ppt
- 精选-区域地理-黄河.pptx
- 人教版地理八年级上册气候 (1).pptx
- 起重机械安全使用培训(原创).pptx
- 2025秋苏科版(新教材)小学信息科技四年级上册期末测试卷附答案.docx
- 2025秋苏科版(新教材)小学信息科技五年级上册期末测试卷附答案(共3套).docx
- 2025秋苏科版(新教材)小学信息科技三年级上册期末测试卷附答案(三套).docx
- 浙江省温州市浙南名校联盟2025-2026学年高一上学期期中联考数学试题含解析.docx
- 26高考数学提分秘诀重难点34圆锥曲线中的定点、定值、定直线问题(举一反三专项训练)(全国通用)(含解析).docx
- 26高考数学提分秘诀重难点35概率与统计的综合问题(举一反三专项训练)(全国通用)(含解析).docx
- 26高考数学提分秘诀重难点31圆锥曲线中的切线与切点弦问题(举一反三专项训练)(全国通用)(含解析).docx
- 26高考数学提分秘诀重难点30圆锥曲线中的弦长问题与长度和、差、商、积问题(举一反三专项训练)(全国通用)(含解析).docx
- 26高考数学提分秘诀重难点29巧解圆锥曲线的离心率问题(举一反三专项训练)(全国通用)(含解析).docx
- 26高考数学提分秘诀重难点28直线与圆的综合(举一反三专项训练)(全国通用)(含解析).docx
- 寡核苷酸药物重复给药毒性研究技术指南.docx
- 重组溶瘤腺病毒生产质量管理标准.docx
- 26高考数学提分秘诀重难点27直线与圆中常考的最值与范围问题(举一反三专项训练)(全国通用)(含解析).docx
最近下载
- 调车员理论知识培训内容课件.pptx
- 医院手术离体组织处理制度.docx VIP
- 2022年剧本娱乐行业发展报告-中国文化娱乐行业协会-202305.docx VIP
- 处世奇书《荣枯鉴》(原文+译文+解读).pdf VIP
- 专题01代词2024高考英语语法专项突破(原卷版).pdf VIP
- DB54T 0380-2024 牦牛早期断奶技术规范.docx VIP
- 2024年吉林长春市总工会公招聘工会社会工作者考试真题.docx VIP
- DB54T 0335-2024 青稞米加工技术规程.docx VIP
- 一种从白云鄂博主东矿稀土浮选尾矿中富集铌矿物的方法.pdf VIP
- DB54T 0516-2025 牦牛繁殖技术规程.docx VIP
原创力文档


文档评论(0)