基于 LLM 的内容分类方法用于通过 README 文件对 GitHub 仓库进行分类.pdfVIP

基于 LLM 的内容分类方法用于通过 README 文件对 GitHub 仓库进行分类.pdf

  1. 1、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。。
  2. 2、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  3. 3、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
  4. 4、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
  5. 5、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们
  6. 6、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
  7. 7、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多

基于LLM的内容分类方法用于通过

README文件对GitHub仓库进行分类

stnd

1MalikUzairMehmood2ShahidHussain

DepartmentofComputingandBuiltEnvironmentDepartmentofComputerScienceandSoftwareEngineering

BirminghamCityUniversitySchoolofEngineering

Birmingham,EnglandPennStateUniversity,Behrend,EriePA

malikuzair.mehmood@mail.bcu.ac.ukshussain@

rdth

3Wen-LiWang4MuhammadUsamaMalik

DepartmentofComputerScienceandSoftwareEngineeringDepartmentofElectricalEngineering

本SchoolofEngineeringUETTaxila

译PennStateUniversity,Behrend,EriePARawalpindi,Pakistan

中wxw18@usama.malik32@

1

v

9

9摘要—GitHub是全球最受欢迎的代码存储、分享和管理I.介绍

8

1平台。每个GitHub仓库都关联有一个README文件。根

2.据GitHub的建议,README文件应包含项目相关信息以GitHub拥有超过一亿的贡献开发者和四百二十

7支持仓库的使用和改进。然而,GitHub仓库的所有者有时会忽

0视这些建议。这阻碍了GitHub仓库发挥其全部潜力。本研究万个仓库[1],是全球最大的开源软件项目托管、版

5认为,GitHub仓库的README文件全面性对其被采用和本控制和代码共享平台。每个GitHub仓库都包含

2

:使用的程度有重大影响,缺少详细信息可能妨碍它在科研社区内一个README文件,该文件描述了项目的多个方

v

i广泛参与及产生影响的潜力。大型语言模型(LLMs)在许多基面。GitHub在其官方文档中[2]提供了一套创建有

x

r于文本的任务中表现出色,包括文本分类、文本生成、文本摘要效README文件的指南,包括项目的功能是什么、为

a

和文本翻译。本研究开发了一种方法来微调LLMs以自动分类什么这个项目有用、如何使用该项目、与该项目相关

GitHubREADME文件的不同部分。使用了三种仅编码器的

的帮助在哪里以及谁维护该项目等细节。GitHub的联

LLMs,包括BERT、DistilBERT和RoBERTa。这些预训

练模型随后基于一个包含4226个README文件部分的金合创始人TomWerner首次提出了Readme驱动开发

标准数据集进行了微调。这种方法优于当前最先进的方法,并实(RDD)[3]这个术语,并强调一个拥有编写得不好的

现了整体F1分数为0.98的成绩。此外,我们还研究了使用参README文件的优秀项目不能充分发挥其潜力。

数高效的微调(PEFT)技术如低秩适应(LoRA),并展示了在

文档评论(0)

专业Latex文档翻译 + 关注
实名认证
文档贡献者

该用户很懒,什么也没介绍

1亿VIP精品文档

相关文档