- 1、本文档共7页,可阅读全部内容。
- 2、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
- 3、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载。
- 4、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
- 5、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
- 6、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们。
- 7、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
- 8、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多
基于虚拟化技术对Deep Web聚焦爬虫数据源发现模型的优化辛洁,崔志明,赵鹏鹏,张广铭,鲜学丰, 和天旭(苏州大学 智能信息处理及应用研究所,江苏 苏州 215006)摘 要:为了提高聚焦爬虫发现和搜集深层网络数据源的能力,提出一种利用虚拟化技术改进Deep Web爬虫框架结构的方法。通过服务器虚拟化将一台服务器虚拟为解析下载服务器,聚焦爬行服务器和表单分类服务器,并根据各自的功能分配带宽及服务器资源,实验结果显示该方法可以有效提高Deep Web爬虫抓取数据源的效率,避免网络和硬件资源的浪费,证明了虚拟化技术的应用可以优化Deep Web爬虫的爬行能力。关键词:数据源发现;虚拟化技术; Deep Web;聚焦爬虫中图分类号:TP393 文献标识码:A The Optimization of Deep Web Focused Crawlers Data Source Discovery Model Based on Virtualization Technology XIN Jie, CUI Zhi-ming, ZHAO Peng-peng, ZHANG Guang-ming, XIAN Xue-feng, HE Tian-xu(The Institute of Intelligent Information Processing and Application, Soochow University, Suzhou 215006, China)Abstract: In order to improve the focused crawlers’ performance of Deep Web data sources discovery and search, a new method was raised to modify the architecture of Deep Web focused crawlers. Three servers were established after Server Virtualization named Download and Resolve Server, Focused Crawling Server and Interface Classification Server and given bandwidth and hardware recourses according to their functional needs. Experiment results indicated that this method could increase the crawling efficiency and avoided recourses waste. Therefore, applying virtualization technology is viable and useful for Deep Web focused crawlers in finding the interfaces of data sources. Key words: data source discovery; virtualization technology; Deep Web; focused crawlers1 引言基金项目:国家自然科学基金资助项目Foundation Items: National Natural Science Foundation of China ; 网络技术的飞速发展,海量数据使Web迅速的“深化”,这些由后台数据库动态产生的,对用户隐藏不可见的数据不能被传统的搜索引擎索引,只能通过表单提交查询来获得。如何从Deep Web中迅速有效的抽取信息,对数据源进行大规模的集成成为研究热点,其中包括数据源发现,查询接口抽取,数据源分类,查询转换,结果合成等,而Deep Web 数据源发现是信息集成的第一步。大多关于Deep Web数据源的搜索和发现的研究将重点放在改进对内部结构如已有的爬虫爬行策略,增加功能模块来避免下载不必要的页面从而提高Deep Web入口发现的效率和精度等方面。但在实际应用中,由于不可避免的大规模数据的下载及信息的交互,因此网络负载量,服务器的处理能力,资源调度等外在条件很大程度上制约了爬虫发现数据源入口的能力。虚拟化技术作为云计算实现的关键技术,越来越受到产业界和学术界的关注。其优点是可以将有限的固定的资源根据不同需求进行重新规划以达到最大利用率。本文利用服务器虚拟化改进了Deep Web聚焦爬虫数据源的模型,将一台服务器虚拟为解析下载服务器,聚焦爬行服务器和表单分类服务器等3台服务器,并依据其
您可能关注的文档
最近下载
- 2022年一级造价师-土建案例-陈江潮精讲班完整讲义.pdf
- 第一册: 标准设计与典型造价 V3.0版 智能配电站.pdf
- 第二课性骚扰的危害 课件 2024—2025学年华东师大版(2024))初中体育与健康七年级全一册.pptx VIP
- 《工程勘察设计收费管理规定》计价格【2002】10号.doc
- 【国家标准】GB14759-2010 食品安全国家标准 食品添加剂 牛磺酸.pdf
- 2020年广西防城港中考生物真题及答案.doc VIP
- 前列腺癌的基础知识.pptx
- 食品安全管理员考试试题及答案(2025版).docx VIP
- 2025年中国空调离合器皮带轮市场现状分析及前景预测报告.docx
- (2)IT运维管理:ITIL先锋论坛—DevOps来了运维如何改变.docx
文档评论(0)