web末大报告.docVIP

  1. 1、本文档共25页,可阅读全部内容。
  2. 2、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
  3. 3、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  4. 4、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
  5. 5、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
  6. 6、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们
  7. 7、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
  8. 8、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多
web末大报告

考查课报告 课程名称:Lucene全文检索平台 学 院: 信息工程与自动化学院 专业年级: 计科121 学 号: 201210405118 学生姓名: 李刚 指导教师: 王红斌 日 期: 2015-6-16 期末考查结果评定 评分项目 分值 得分 报告条理清晰,内容详实,体会深刻 40 报告格式符合规范 10 程序符合要求 40 界面…………………………………………………………1 二、全文检索介绍……………………………………………………………2 三、Lucene简介………………………………………………………………3 四、Lucene技术介绍………………………………………………………4 1、Lucene索引的建立…………………………………………………5 2、Lucene的搜索………………………………………………………6 3、Lucene的排序…………………………………………………………7 4、Lucene的过滤器………………………………………………………8 5、Lucene的分词…………………………………………………………9 五、基于Lucene的全文搜索实现高校图书信息搜索…………………………………………………………………………………10 1、图书信息XML文档格式定义…………………………………………11 2、建立索引…………………………………………………………………12 3、图书搜索…………………………………………………………………13 4、利用dom4j获取XML文档信息的实现……………………………14 5、利用Lucene建立图书信息索引的实现…………………………15 6、利用Lucene实现图书信息的搜索…………………………………16 六、总结…………………………………………………………………………17 搜索引擎的概念 Internet 上的信息量之大、范围之广、用户之多都比以往任何时候表现得突出,然而如何从浩瀚的信息海洋中得到所需要的信息就显得更加重要。网络搜索引擎的出现从某种程度上解决了这个问题,它是目前比较有效的网上信息获取方法。据CNNIC 的统计,用搜索引擎搜索仅次于电子邮件的应用。目前,网上比较有影响的搜索工具中,中文的有:Google、百度(baidu )、北大天网、爱问(iask)、雅虎(Yahoo )、搜狗(Sogou)等搜索引擎;英文的有:Google、Yahoo、AltaVista、Excite、Infoseek、Lycos、Aol 等。另外还有专用搜索引擎,例如,专门搜索歌曲和音乐的;专门搜索电子邮件地址、电话与地址和公众信息的;专门搜索各种文件的FTP 搜索引擎等。 搜索引擎并不是真正搜索互联网,它搜索的实际上是预先整理好的网页索引 数据库。真正意义上的搜索引擎,通常指的是收集了Internet 上几千万到几十亿个网页并对网页中的每一个词(即关键词)进行索引,建立索引数据库的全文搜索引擎。当用户查找某个关键词的时候,所有在页面中包含了该关键词的网页都将作为搜索结果被搜出来。在经过复杂的算法进行排序后,这些结果将按照与搜索关键词的相关度高低依次排列。 搜索引擎的原理可分为四步:从Internet 网页抓取网页、建立索引数据库、 在索引数据库中搜索排序、对搜索结果进行处理和排序。 (1) 从Internet 上抓取网页。利用能够从Internet 上自动收集网页的Spider 系统程序,自动访问Internet 并沿着任何网页中的所有URL 爬到其他网页,重返这个过程,并把爬过的所有网页收集回来。 (2) 建立索引数据库。由分析所有系统程序对收集回来的网页进行分析,提取相关网页信息(包括网页所在URL、编码类型、页面内容包含的关键词、关键词位置、生成时间、大小、与其他网页的链接关系等),根据一定的相关度算法进行大量复杂计算,得到每一个网页针对页面内容中及超链接中每一个关键词的相关度(或重要性),然后用这些相关信息建立网页索引数据库。 (3) 在索

文档评论(0)

ipad0d + 关注
实名认证
文档贡献者

该用户很懒,什么也没介绍

1亿VIP精品文档

相关文档