- 1、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。。
- 2、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载。
- 3、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
- 4、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
- 5、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们。
- 6、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
- 7、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多
基于学习效率学习资源算法
基于学习效率学习资源算法
摘要:针对目前网络学习系统学习资源推荐的不足,提出了一种基于学习效率的学习资源推荐算法。我们利用逻辑回归模型,以学习者学习前的测试结果作为输入,计算输出测验得分提高的最高期望值。该算法通过测验得分提高的期望值来量化学习效率,并通过推荐资源以最大化这个期望值。
关键词:网络学习;学习资源推荐;逻辑回归
中图分类号:G424 文献标识码:A 文章编号:1009-3044(2014)36-8653-01
我们使用的传统教材中的资料和练习的先后顺序是固定的,这会使得学习非常低效,因为一些学习者会发现他们做的练习对他们来说太简单了,或是有的学习资料在目标测试中并没有涉及。我们提出一种可以直接提高学习效率的学习资源推荐算法。它可以使学习效率被测验得分提高的期望值所量化,以实现提高期望值的最大化。换句话说,我们的资源推荐算法使得学习者可以得出问题的正确答案,而这些问题在他们使用我们推荐的学习资源学习之前是无法正确作答的。
逻辑回归模型以学习者在学习之前不能正确作答的问题作为输入,就可以估算测验得分提高的期望值。利用学习日志数据和学习者测验结果来培养我们的逻辑回归模型,我们可以自动获取有利于测验成绩提高的学习资源信息。
1 推荐算法
1.1 准备工作
xi=1/-1,表示学习前问题i是/否被正确作答;yi=1/-1,表示学习后问题i是/否被正确作答。那么,学习前后的一系列测验问题V的结果分别用矩阵表示:
X=(xi)i∈V,Y=(yi)i∈V
zi是变量,zj=1表示资源j在学习期间被推荐,否则
zj =0 (1)
我们用Z矩阵表示推荐的资源,Z=(zj)j∈M,这里的M表示一系列的学习资源。
1.2 推荐算法
该推荐算法的设计目标是要从一系列的学习资源中选择合适的推荐资源供学习者在学习期间使用,以最大限度地提高学习效率。学习效率可以被测验分数提高的期望值所量化。
当学习者使用了推荐资源z后,测验分数提高的期望值可以表示如下:
[E(z)=i∈VP(i)P(xi=-1)P(yi=1|xi=-1,z)] (2)
这里的P(i)表示问题i出现在测验中的概率,P(xi=-1) 表示问题i在学习前错误作答的概率,P(yi=1|xi=-1,z)表示在学习之前问题i被错误作答,而在学习阶段使用了推荐资源z后,问题i被正确作答的概率。在公式(2)中,E(z)被看成是问题的期望值,这些问题在学习前未能被正确作答,但在完成了推荐资源的学习后就可以被正确作答了。
已知测验中问题出现的概率一致,测验得分提高的期望值可以被简化如下:
[E(z|x)∝i∈VI(xi=-1)P(yi=1|xi=-1,z)] (3)
这里的I(A)是指示函数, 例如,如果A为真表示为I(A)=1,否则I(A)=0。为了简单起见,在下一个阶段,我们使用公式(3)作为测验得分提高的期望值。接着我们依据如下公式从未推荐资源中选择一个推荐资源以实现测验得分提高的期望值的最大化:
[j∧=argmaxE(z+j|x)] (4)
这里的Z=(zj)j∈M表示当前的推荐资源,z+j表示推荐资源,并且 j是最新的推荐资源。
基于学习效率的P(yi=1|xi=-1,z)学习资源推荐算法步骤如下:
1) 输入学习x前的测试结果
2) 初始化推荐资源矩阵Z=(0,……,0)
3) 根据公式(4)选择一个资源j予以推荐
4) 更新推荐矩阵Z
5) 返回步骤(1),直到满足结束条件。
这里的结束条件可以是推荐资源的数量,测验得分的提高期望值或是学习时间超出了临界值。
1.3 期望值提高模型
要推荐资源的话,需要用到提高模型,它反映了学习者在完成了推荐资源z的学习后,问题i正确作答率提高的概率。这概率表示如下:
(5)
这里的μi和θi,是未知参数。简单地说,μi表示问题i的答题正确率提高的难易程度,而θij表示资源j对问题i的答题正确率提高的影响程度。
通过利用学习的日志数据和一组用户N对下列公式(6)求对数极大似然估计,将未知的参数θ估计出来。
[L(θ)=n∈Ni∈V(I(xni=-1∧yni=1)logP(yni=1|xni=-1,zn)]
[+I(xni=-1∧yni=-1)logP(yni=-1|xni=-1,zn))] (6)
这里的xni和yni表示问题i在学习前后是否被学习者n正确作答,而p(yni=-1|xni=-1,zn)表示问题i在学习前和使用了推荐资源z学习之后也未能被学习者n正确作答的概率。因为上述的基于逻辑回归模式的似然对数是一个凸函数,
您可能关注的文档
最近下载
- 专题突破10 几何辅助线与模型(10)——对角互补.pptx VIP
- 第8课《回忆鲁迅先生》课件 (共45张ppt) 2025-2026学年统编版语文八年级上册.pptx VIP
- Oracle集群-DG.doc VIP
- 电解槽电气绝缘资料.pptx VIP
- 2025兴业银行总行国际业务部交易银行部招聘笔试模拟试题及答案解析.docx VIP
- 竖炉扩容方案.pdf VIP
- 工业机器人离线编程与仿真(ABB)高职全套教学课件.pptx VIP
- ORACLE12CRAC+DG集群容灾主备部署搭建.docx VIP
- 2025广东东莞农村商业银行校园招聘笔试历年典型考题及考点剖析附带答案详解.docx
- 南宁老友粉品牌评价 区域公用品牌.docx VIP
原创力文档


文档评论(0)