数据挖掘案例.docVIP

  1. 1、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。。
  2. 2、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  3. 3、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
  4. 4、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
  5. 5、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们
  6. 6、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
  7. 7、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多
数据挖掘案例.doc

数据挖掘案例:100美元挖来无价之宝 本文作者讲述了他们作为独立工程师开展数据挖掘项目的过程,告诉我们运用各种免费或开源工具挖掘数据的成本很低,同时降低了我们想象中的难度,探索精神值得我们学习。 今天各种强大的数据分析工具让我们有能力分析以前想都不敢想的大企业或者大机构的数据。 几周前,我们为Lucky Oyster执行原型技术搜索任务,当时有幸利用一些简单的组件,Common Crawl Data, AWS S3 , 几百行Ruby代码和各种开源软件。 当时的感觉就像在34亿Web 网页里面挖金矿、提取结构化的数据字节然后为近4亿实体内容提供搜索索引。费用是多少?100美元,14小时内完成的。 之前在检验Facebook的硬编码的长度和开放图谱tags的时候,发现Facebook在更广泛的网络里有着深远影响: 22%的网页对Facebook进行了硬编码引用,另外8%网页的集合了开放图谱。 在对结构化数据进行扩散的时候,我们发现Web搜索(Google和Bing)和社交网络之间的战争,实际上是就是内容本身可见性和所有权之间的较量。通常我们认为,像Facebook这样的网页不会指向额外的社会数据,但事实上情况是相反的,社交图谱拥有更多有用的内容和元数据指向更广的网络,而且这些高度结构化的、社交化的内容也是增长最快的,不管是在Web还是社交图谱上。 在Lucky Oyster里,每项工作都有具体的矢量,这样就能创建产品帮助人们辨别、分享、学习、发现网络世界的好东西,包括奔跑地、食谱、登山地、景点,旨在让生活因为网络发现而奇妙。 工作流程: Lucky Oyster的工作流程非常简单,n个工人、启动任务栏、提取数据后统计到一个主数据收集中心。它使用的工具如下: Common Crawl Data: 现成的数据集是基于2012年网络抓取,由70万个网络ARC文件组成,每个文件压缩了100M的网络抓取网页,约合34亿记录。这个可以说是最大的网络爬行工具了,而且免费。 AWS S3:Amazon Web Seivices 能很快地把抓取的资料在S3上当做公共数据处理,例如AWS的fabric就能轻松访问ARC文件,无需支付数据转换费用。 AWS Spot Instances:用Common Crawl Data处理10亿条URLs, 需要450美元,但是用 Spot Instances,以处理High-CPU Medium Instance 为例,每小时0.018美元,这为处理Spots省下了不少钱。 Master Queue,一个内存队列处理通常需要10倍的工作人数还不够,但是beanstalkd安装能够在30秒内整合,而且可以以30多种语言显示出来。 Worker Nodes(工作节点):在启动时,每一个工作节点会运行两个相同的流程。每个流程通过主队列、下载和缓冲解压缩导向AWS S3,然后辅助解析ARC文件和爬行记录,而且解析ARC文件的速度也很快,只要电脑CPU不是太差。 Master Data Collection Service(主数据收集中心),一个非常简单的服务区,接受GET和POST请求。分析出来的数据会追加到指定的本地文件夹供以后分析(求和,平均值,减少了密钥和/或值,索引等)。 接下来: 在这上面的工作完成之后,我们还会进行剔除、分析和平行地索引操作,然后把结果结交到一个集群运行的Solr/Lucene。 刚开始我们做这个工作只是为了好奇,但后来整个过程已经成为了 Lucky Oyster的核心,但分享的初衷一直没有变,很多人都在讲处理大数据、挖数据,那就从身边做起吧,试试把你的目光放在30亿网络文件上,花半天时间、100美元都分析好它,感受你分析出来的数据结果。

文档评论(0)

gdkb + 关注
实名认证
文档贡献者

该用户很懒,什么也没介绍

1亿VIP精品文档

相关文档