可解释学习者模型:可信个性化学习的技术关键.pdfVIP

可解释学习者模型:可信个性化学习的技术关键.pdf

  1. 1、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。。
  2. 2、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  3. 3、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
  4. 4、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
  5. 5、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们
  6. 6、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
  7. 7、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多
专题研讨 可解释学习者模型:可信个性化学习的技术关键VV 可解释学习者模型 :可信个性化学习的技术关键 □江波丁莹雯魏雨昂 [摘要]基于人工脅能的个性化学习技术一直是智能教育领域的研究热点,其技术挑战在于如何构建全面精准的学 习者模型 。在非常注重公平、伦理和责任的教育领域,人工智能的黑箱”本质可能会阻碍人对机器决策的信任,因此 构建透明和可解释的学习者模型尤为重要 。通过对学习者模型特征、结构和决策结果的解释,可以让教育关益者理 解其动机,接纳其决策,实现更好地人机协作 。该研究将可解释人工智能的技术理念延伸至个性化学习中,通过分析 其研究现状,阐明实现可解释学习者模型的必要性,并剖析现有的可解释学习者模型实例的技术原理,最后提出可 解释学习者模型的基本框架 ,旨在将可解释性作为学习者建模的关键原则。对可解释学习者模型的硏究可为个性化 学习系统的设计、开发、应用到评估的整个周期实现可解释性提供借鉴及参考,驱动可信个性化学习成为可能。 [关键词]学习者模型;个性化学习 ;可解释性;可信人工智能 [中图分类号]G420 [文献标识码]A [文章编号]1672-0008 (2023 )02-0048-10 [DOI] 10.15881/33-1304/g4.2023.02.005 认知、情感等方面对学习者进行画像,是当前智能教 SS —、弓I言 S 育领域的研究热点问题(戴静,等,2022) 。从技术的 脅 聲 冒 蛊 扁 人工智能的 “黑盒”模型会产生结果不可解释、 角度看,无论是早期的智能导学系统(Intelligent Tu­ 无法追责和歧视偏见等风险 (孔祥维,等,2022) 。因 toring System)还是如今的自适应学习系统(Adaptive 此 ,联合国教科文组织在《人工智能伦理建议书》 Learning System) ,其技术路线均是通过采集学习者 (2021)中提出,在设计与使用人工智能技术时需要 的学习过程数据 ,再利用人工智能算法建立学习者 考虑其透明度和可解释性(Transparency and Ex­ 模型,驱动个性化学习路径和资源的生成 。当前学习 • plainability) 。我国 《新一代人工智能伦理规范》 (国 者模型研究侧重于提升模型预测性能 ,对于模型可 家新一代人工智能治理专业委员会,2021)也强调, 解释性重视不足 。例如,在被广泛研究的知识追踪问 在设计、实现、应用等环节中,需要提升算法透明 题中,基于长短期神经网络、卷积神经网络和图神经 性、可解释性、可理解性、可靠性和可控性 。可解释 网络等各种深度学习算法被广泛用于知识追踪模型 性旨在让人工智能模型过程可以被追溯、决策机制 (Khajah,et al.,2016; Nakagawa.et al.,2019; Pandey

文档评论(0)

新能源知识科普(本账号发布文档均来源于互联网公开资料,仅用于技术分享交流,相关版权为原作者所有。如果侵犯了您的相关权利,请提出指正,我们将立即删除相关资料)。

1亿VIP精品文档

相关文档