- 5
- 0
- 约1.05万字
- 约 9页
- 2016-08-23 发布于江苏
- 举报
目 录 (Content)
一、绪论 2
1.1 引言 2
1.2 背景 2
1.3 定义 3
二、聚焦爬虫工作原理及关键技术 3
2.1 聚焦爬虫相关概念 3
2.2聚焦爬虫的研究内容 3
2.3网络爬虫工作原理 4
2.3.1抓取目标 4
2.3.2 抓取目标描述 4
三、网页搜索策略 5
3.1 广度优先搜索策略 5
3.2 最佳优先搜索策略 5
四、网页分析算法 5
4.1 基于网络拓扑的分析算法 5
4.1.1 网页(Webpage)粒度的分析算法 5
4.1.2 网站粒度的分析算法 6
4.1.3 网页块粒度的分析算法 6
4.2 基于网页内容的网页分析算法 6
4.2.1 基于文本的网页分析算法 6
4.2.2 Hidden Web的网页分析方法 6
4.2.3 数据密集型网页的分析方法 7
4.3 用户协作网页分析算法 7
4.4 基于领域概念定制的网页评价算法 7
五、 聚焦爬虫系统体系结构 8
5.1 基于分类器的聚焦爬虫 8
5.2 基于数据抽取器的聚焦爬虫 8
5.3 基于用户学习的聚焦爬虫。 8
六、 总结 8
结论 9
参考文献 9
一、绪论
1.1 引言随着网络的迅速发展,万维网成为大量信息的载体,如何有效地提取并利用这些信息成为一个巨大的挑战。搜索引擎(Search Engine),例如传统的通用搜索引擎AltaVista,Yahoo和Google等,作为一个辅助人们检索信息的工具成为用户访问万维网的入口和指南。但是,这些通用性搜索引擎也存在着一定的局限性,如:
(1) 不同领域、不同背景的用户往往具有不同的检索目的和需求,通用搜索引擎所返回的结果包含大量用户不关心的网页。
(2) 通用搜索引擎的目标是尽可能大的网络覆盖率,有限的搜索引擎服务器资源与无限的网络数据资源之间的矛盾将进一步加深。
(3) 万维网数据形式的丰富和网络技术的不断发展,图片、数据库、音频/视频多媒体等不同数据大量出现,通用搜索引擎往往对这些信息含量密集且具有一定结构的数据无能为力,不能很好地发现和获取。
(4) 通用搜索引擎大多提供基于关键字的检索,难以支持根据语义信息提出的查询。
为了解决上述问题,定向抓取相关网页资源的聚焦爬虫应运而生。聚焦爬虫是一个自动下载网页的程序,它根据既定的抓取目标,有选择的访问万维网上的网页与相关的链接,获取所需要的信息。与通用爬虫(general不同,聚焦爬虫并不追求大的覆盖,而将目标定为抓取与某一特定主题内容相关的网页,为面向主题的用户查询准备数据资源。Spider (或Crawler、robots、wanderer)等的意译。网络爬虫的定义有广义和狭义之分[1],狭义的定义为:利用标准的http协议,根据超级链接和Web文档检索的方法遍历万维网信息空间的软件程序。广义的定义为:所有能利用http协议检索Web文档的软件都称之为网络爬虫。网络爬虫是一个功能很强大的自动提取网页的程序,它为搜索引擎从万维网下载网页,是搜索引擎的重要组成部分。它通过请求站点上的HTML文档访问某一站点。它遍历Web空间,不断从一个站点移动到另一个站点,自动建立索引,并加入到网页数据库中。网络爬虫进入某个超级文本时。利用HTML语言的标记结构来搜索信息及获取指向其他超级文本的URL地址.可以完全不依赖用户干预实现网络上的自动“爬行”和搜索。
二、聚焦爬虫工作原理及关键技术1 聚焦爬虫?
?????聚焦爬虫,又称主题爬虫(或专业爬虫),是“面向特定主题”的一种网络爬虫程序。它与我们通常所说的爬虫(通用爬虫)的区别之处就在于,聚焦爬虫在实施网页抓取时要进行主题筛选。它尽量保证只抓取与主题相关的网页信息。
2.2聚焦爬虫的研究内容
聚焦爬虫的研究核心,集中在以下两点:
(一)主题相关度计算:即计算当前已经抓下来的页面的主题相关程度。对主题相关度超过某一规定阈值的,即与主题相关的网页,将其保存到网页库;不相关的,则抛弃不管。
(二)主题相关度预测:主题相关度预测是针对待抓URL的。也就是我们在分析当前已下载网页时所分离出来的哪些URLS。我们要通过计算它们的主题预测值来决定接下来是否对该URL所对应的网页进行抓取。
针对以上两个问题,研究聚焦爬虫的学者们大体提出了如下思路和方法来进行该课题的研究:
(一)基于网络拓扑结构的研究方法:网络的拓扑结构表征了网页间的一种链接关系,而大部分互相链接的网页间还是有一定的主题关联性的。比方说,一个介绍“计算机学科知识”的网站首页上可能会出现“数据库”、“操作系统”等相关子学科的链接。这种链接本身就体现了一种主题上的关联性。再者,了解PageRank和HITS算法
原创力文档

文档评论(0)