- 1、本文档共9页,其中可免费阅读3页,需付费100金币后方可阅读剩余内容。
- 2、本文档内容版权归属内容提供方,所产生的收益全部归内容提供方所有。如果您对本文有版权争议,可选择认领,认领后既往收益都归您。
- 3、本文档由用户上传,本站不保证质量和数量令人满意,可能有诸多瑕疵,付费之前,请仔细先通过免费阅读内容等途径辨别内容交易风险。如存在严重挂羊头卖狗肉之情形,可联系本站下载客服投诉处理。
- 4、文档侵权举报电话:400-050-0827(电话支持时间:9:00-18:30)。
查看更多
是一个为的研究人员寻求使用研究扩展大型模型的库该库的设计有两个强烈的目标尽可能简单和快速使用我们尽可能限制了要学习的面向对象抽象的类的数量实际上几乎没有抽象每个模型只需要使用三个标准类配置模型和所有这些类都可以通过使用公共的实例化方法从预训练实例以简单统一的方式初始化该方法将负责从库中下载缓存和加载相关类提供的预训练模型或你自己保存的模型因此这个库不是构建神经网络模块的工具箱如果您想扩展构建这个库只需使用常规的模块并从这个库的基类继承以重用诸如模型加载保存等功能提供最先进的模型与性能尽可能接近的
Transformers 是一个为NLP的研究人员寻求使用/研究/扩展大型
Tran sformers 模型的库。
该库的设计有两个强烈的目标 :
?尽可能简单和快速使用:
?我们尽可能限制了要学习的面向对象抽象的类的数量,实际上几乎没有抽象, 每个模型只需要使用三个标准类:配置、模型和tokenizer ,
?所有这些类都可以通过使用公共的from_p retrai ned() 实例化方法从预训练实 例以简单统一的方式初始化,该方法将负责从库中下载,缓存和加载相关类提 供的预训练模型或你自己保存的模型。
?因此,这个库不是构建神经网络模块的工具箱。如果您想扩展 /构建这个库,只
需使用常规的
文档评论(0)