网站Robots文件简介及书写方法.pptxVIP

  1. 1、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。。
  2. 2、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  3. 3、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
  4. 4、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
  5. 5、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们
  6. 6、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
  7. 7、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多
13 Robots协议 本节知识点 Robots协议的用途 认识各大搜索引擎蜘蛛 Robots.txt文件语法规则 13 学习目标 学会独立编写网站的robots文件,掌握其编写原理。 Robots协议 13 什么是Robots协议? Robots协议(也称为爬虫协议、机器人协议等)的全称是“网络爬虫排除标准”(Robots Exclusion Protocol),网站通过Robots协议告诉搜索引擎哪些页面可以抓取,哪些页面不能抓取。Robots协议的本质是网站和搜索引擎爬虫的沟通方式,用来指导搜索引擎更好地抓取网站内容,更好的保护用户的隐私和版权信息。 Robots协议 13 Robot是什么? Robot英文直译是机器人,在搜索引擎优化SEO中,我们经常翻译为:探测器。有时,你会碰到crawler(爬行器),spider(蜘蛛),都是探测器之一,只是叫法不同。 Robots协议 13 搜索技术应服务于人,同时尊重信息提供者意愿并维护其隐私权 网站有义务保护其使用者的个人信息和隐私不被侵犯 协 议 目 的 Robots协议 13 Robots事件 淘宝封杀 2008年9月8日,淘宝网宣布封杀百度爬虫,百度忍痛遵守爬虫协议。因为一旦破坏协议,用户的隐私和利益就无法得到保障,搜索网站就谈不到人性关怀。 京东封杀 2011年10月25日,京东商城正式将一淘网的搜索爬虫屏蔽,以防止一淘网对其的内容抓取。 Robots协议 13 淘宝封杀百度事件 Robots协议 13 京东封杀一淘事件 Robots协议 13 2012年8月,360综合搜索被指违反robots协议 Robots协议 13 Robots 作用 Robots协议 13 Robots.txt文件放在哪里? robots.txt文件应该放置在网站根目录下。举例来说,当spider访问一个网站(如 )时,首先会检查该网站中是否存在/robots.txt这个文件,如果 Spider找到这个文件,它就会根据这个文件内容,来确定它访问权限范围。 /robots.txt /robots.txt /robots.txt /robots.txt /robots.txt Robots协议 13 Robots文件写法 格式: User-agent: 蜘蛛名称 Disallow: 内容名称 Allow:内容名称 参数说明: User-agent 指定搜索引擎蜘蛛名称; Disallow要禁止抓取的内容; Allow允许抓取的内容 Robots协议 13 Robot名称 SEO中常说的探测器(Robot)是搜索引擎用来抓取网页的工具,它是一个软件或者说一系列自动程序。不同的搜索引擎给他们自己的探测器(Robot)起不同的名字。 谷歌:googlebot 百度:baiduspider MSN:MSNbot 雅虎:Slurp 有道:YoudaoBot 搜搜:Sosospider 搜狗:sogou spider 360:360Spider Robots协议 13 通配符说明: *表示所有搜索引擎,用于指定蜘蛛使用。 $表示以某字符串结尾 /表示当前目录下的所有内容 Robots协议 13 Robots文件写法参考 指定蜘蛛 User-agent: * 这里的*代表的所有的搜索引擎种类,*是一个通配符 禁止写法 Disallow: /admin/ 这里定义是禁止爬寻admin目录下面的目录 Disallow: /admin 这里定义是禁止爬寻admin目录 Disallow: /cgi-bin/*.htm 禁止访问/cgi-bin/目录下所有以“.htm”为后缀URL(包含子目录) Disallow: /*?* 禁止访问网站中所有包含问号(?)的网址 Disallow: /.jpg$ 禁止抓取网页所有的.jpg格式的图片 Disallow:/ab/adc.html 禁止爬取ab文件夹下面的adc.html文件。 允许写法 Allow: /cgi-bin/ 这里定义是允许爬寻cgi-bin目录下面的目录 Allow: /tmp 这里定义是允许爬寻tmp的整个目录 Allow: .htm$ 仅允许访问以.htm为后缀的URL。 Allow: .gif$ 允许抓取网页和gif格式图片 详细写法可参考文件:robots文件示例 Robots协议 13 Robots协议 13 Baiduspider - 百度蜘蛛 百度蜘蛛,英文名是“baiduspider”是百度搜索引擎的一个自动程序。它的作用是访问互联网上的html网页(当然动态页面也可以抓取),建立索引数据库,使用户能在百度搜索引擎中搜索到您网站的网页、图片、视频等内容。 百度蜘蛛的构建的原理。搜索引擎构建一个调度程序,来调度百度蜘蛛的工作,让百度蜘蛛

文档评论(0)

186****6410 + 关注
实名认证
文档贡献者

该用户很懒,什么也没介绍

1亿VIP精品文档

相关文档