网站大量收购独家精品文档,联系QQ:2885784924

大模型面试题-5-transformers 操作篇.pdf

  1. 1、本文档共3页,可阅读全部内容。
  2. 2、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
  3. 3、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  4. 4、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
查看更多

transformers操作篇

来自:AiGC面试宝典

2024年01月28日13:20

•transformers操作篇

•1.如何利用transformers加载Bert模型?

•2.如何利用transformers输出Bert指定hidden_state?

•3.BERT获取最后一层或每一层网络的向量输出

•致谢

1.如何利用transformers加载Bert模型?

importtorch

fromtransformersimportBertModel,BertTokenizer

#这里我们调用bert-base模型,同时模型的词典经过小写处理

model_name=bert-base-uncased

#读取模型对应的tokenizer

tokenizer=BertTokenizer.from_pretrained(model_name)

#载入模型

model=BertModel.from_pretrained(model_name)

#输入文本

input_text=Hereissometexttoencode

#通过tokenizer把文本变成token_id

input_ids=tokenizer.encode(input_text,add_special_tokensTrue)

#input_ids:[101,2182,2003,2070,3793,2000,4372,16044,102]

input_ids=torch.tensor([input_ids])

#获得BERT模型最后一个隐层结果

withtorch.no_grad():

last_hidden_states=model(input_ids)[0]#Modelsoutputsarenowtuples

tensor([[[-0.0549,0.1053,-0.1065,...,-0.3550,0.0686,0.6506],

[-0.5759,-0.3650,-0.1383,...,-0.6782,0.2092,-0.1639],

[-0.1641,-0.5597,0.0150,...,-0.1603,-0.1346,0.6216],

...,

[0.2448,0.1254,0.1587,...,-0.2749,-0.1163,0.8809],

[0.0481,0.4950,-0.2827,...,-0.6097,-0.1212,0.2527],

[0.9046,0.2137,-0.5897,...,0.3040,-0.6172,-0.1950]]])

shape:(1,9,768)

可以看到,包括import在内的不到十行代码,我们就实现了读取一个预训练过的BERT模型,来

encode我们指定的一个文本,对文本的每一个token生成768维的向量。如果是二分类任务,我们

接下来就可以把第一个token也就是[CLS]的768维向量,接一个linear层,预测出分类的logits,或

者根据标签进行训练。

2.如何利用transformers输出Bert指定hidden_state?

Bert默认是十二层,但是有时候预训练时并不需要利用全部利用,而只需要预训练前面几层即

可,此时该怎么做呢?

下载到bert-base-uncased的模型目录里面包含配置文件config.json,该文件中包含

output_hidden_states,可以利用该参数来设置编码器内隐藏层层数

{

architectures:[

BertForMaskedLM

],

attention_

文档评论(0)

189****7098 + 关注
实名认证
内容提供者

该用户很懒,什么也没介绍

1亿VIP精品文档

相关文档