网站大量收购独家精品文档,联系QQ:2885784924

机器学习算法汇总大全.pptVIP

  1. 1、本文档共411页,可阅读全部内容。
  2. 2、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
  3. 3、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  4. 4、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
  5. 5、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
  6. 6、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们
  7. 7、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
  8. 8、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多

;报告建议内容;《机器学习》,TomM.Mitchell〔汤姆·米切尔〕著,曾华军,张银华等译,机械工业出版社,2003年。;其它参考书;第1章引言;学习与智能;什么是机器学习?;机器学习与人工智能;什么是机器学习;What’sistheLearningProblem?;Pedro对学习理解;MachineLearning;机器学习的研究意义;机器学习的重要性!;机器学习的重要性;多学科交叉;重要性:例子—网络平安;搜索引擎;重要性:例子—生物信息学;重要性:例子—数据驱动控制;相关学科对ML的影响;机器学习目前主要的一些研究领域;MachineLearningTopicsfromWiki;机器学习简要开展历史回忆;ML的开展历史(1);ML的开展历史(2);ML的开展历史(3);ML的开展历史(4);未来开展趋势;讨论议题;机器学习系统的根本结构;学习问题的标准描述;学习问题的标准描述〔2〕;有监督学习;无监督学习;有监督学习;无监督学习;机器学习的问题;课程内容简介;参考期刊与会议;参考学术期刊及国际会议;一些网络资源(1);一些网络资源(2);一些网络资源(3);一些网络资源(4);概念学习

给定某一类别的假设干正例和反例,从中获得该类别的一般定义。

搜索的观点

在预定义的假设空间中搜索假设,使其与训练样例有最正确的拟合。

利用假设空间的偏序结构

算法收敛到正确假设的条件?

归纳学习的本质,从训练数据中泛化的理由?;简介;概念学习任务;概念学习任务〔2〕;概念学习任务〔3〕;概念学习任务〔4〕;术语定义;归纳学习假设;作为搜索的概念学习;假设的一般到特殊序;假设的一般到特殊序〔2〕;假设的一般到特殊序〔3〕;h1=Sunny??Strong??

h2=Sunny?????

h3=Sunny????Cool?;Find-S:寻找极大特殊假设;Find-S:寻找极大特殊假设〔2〕;Find-S:寻找极大特殊假设〔3〕;变型空间和候选消除算法;变型空间和候选消除算法〔2〕;变型空间和候选消除算法〔3〕;变型空间和候选消除算法〔4〕;变型空间和候选消除算法〔5〕;变型空间和候选消除算法〔6〕;变型空间和候选消除算法〔7〕;变型空间和候选消除算法〔8〕;图2-7最终变型空间;变型空间和候选消除的说明;变型空间和候选消除〔2〕;变型空间和候选消除〔3〕;概念的应用;概念的应用;归纳偏置;归纳偏置??2〕;归纳偏置〔3〕;归纳偏置〔4〕;归纳偏置〔5〕;归纳偏置〔6〕;归纳偏置〔6〕;归纳偏置〔7〕;小结;思考题;思考题;思考题;第3章决策树学习

(Decision-TreeAlgorithm);排名;概论;提纲;决策树根本概念;决策树根本概念;决策树根本概念;决策树根本概念;决策树表示法;决策树学习的适用问题;根本的决策树学习算法ID3;ID3算法通过自顶向下构造决策树来进行学习。;表3-1用于学习布尔函数的ID3算法;最正确分类属性;S的所有成员属于同一类,Entropy(S)=0;

S的正反样例数量相等,Entropy(S)=1;

S的正反样例数量不等,熵介于0,1之间;抛一枚均匀硬币的信息熵是多少?

解:出现正面与反面的概率均为0.5,信息熵是

;用信息增益度量期望的熵降低

属性的信息增益,由于使用这个属性分割样例而导致的期望熵降低

一个属性A相对样例集合S的信息增益Gain(S,A)被定义为:

Values(A)是属性A所有可能值的集合,Sv是S中属性A的值为v的子集

Gain(S,A)是在知道属性A的值后可以节省的二进制位数;

;big,red,circle:+small,red,circle:+

small,red,square:?big,blue,circle:?;Day;Humidity;*;Day;*;Outlook;*;*;决策树学习的归纳偏置;限定偏置和优选偏置;限定偏置和优选偏置;为什么短的假设优先?;奥坎姆剃刀;为什么短的假设优先;决策树学习的常见问题;防止过度拟合数据;防止过度拟合数据〔2〕;防止过度拟合数据〔3〕;防止过度拟合数据〔4〕;防止过度拟合数据〔5〕;防止过度拟合数据〔6〕;错误率降低修剪;决策树学习中错误率降低的修剪效果;规那么后修剪;规那么后修剪〔2〕;规那么后修剪〔3〕;规那么后修剪〔4〕;合并连续值属性;合并连续值属性〔2〕;属性选择的其它度量标准;属性选择的其它度量标准〔2〕;缺少属性值的训练样例;缺少属性值的训练样例〔2〕;处理不同代价的属性;C4.5改进的具体方面;*;小结和补充读物;参考;第4章人工神经

文档评论(0)

199****8042 + 关注
实名认证
文档贡献者

相信自己,相信明天

1亿VIP精品文档

相关文档