- 1、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。。
- 2、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载。
- 3、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
- 4、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
- 5、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们。
- 6、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
- 7、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多
13
Robots协议
本节知识点
Robots协议的用途
认识各大搜索引擎蜘蛛
Robots.txt文件语法规则
13
学习目标
学会独立编写网站的robots文件,掌握其编写原理。
Robots协议
13
什么是Robots协议?
Robots协议(也称为爬虫协议、机器人协议等)的全称是“网络爬虫排除标准”(Robots Exclusion Protocol),网站通过Robots协议告诉搜索引擎哪些页面可以抓取,哪些页面不能抓取。Robots协议的本质是网站和搜索引擎爬虫的沟通方式,用来指导搜索引擎更好地抓取网站内容,更好的保护用户的隐私和版权信息。
Robots协议
13
Robot是什么?
Robot英文直译是机器人,在搜索引擎优化SEO中,我们经常翻译为:探测器。有时,你会碰到crawler(爬行器),spider(蜘蛛),都是探测器之一,只是叫法不同。
Robots协议
13
搜索技术应服务于人,同时尊重信息提供者意愿并维护其隐私权
网站有义务保护其使用者的个人信息和隐私不被侵犯
协
议
目
的
Robots协议
13
Robots事件
淘宝封杀
2008年9月8日,淘宝网宣布封杀百度爬虫,百度忍痛遵守爬虫协议。因为一旦破坏协议,用户的隐私和利益就无法得到保障,搜索网站就谈不到人性关怀。
京东封杀
2011年10月25日,京东商城正式将一淘网的搜索爬虫屏蔽,以防止一淘网对其的内容抓取。
Robots协议
13
淘宝封杀百度事件
Robots协议
13
京东封杀一淘事件
Robots协议
13
2012年8月,360综合搜索被指违反robots协议
Robots协议
13
Robots
作用
Robots协议
13
Robots.txt文件放在哪里?
robots.txt文件应该放置在网站根目录下。举例来说,当spider访问一个网站(如 )时,首先会检查该网站中是否存在/robots.txt这个文件,如果 Spider找到这个文件,它就会根据这个文件内容,来确定它访问权限范围。
/robots.txt
/robots.txt
/robots.txt
/robots.txt
/robots.txt
Robots协议
13
Robots文件写法
格式:
User-agent: 蜘蛛名称
Disallow: 内容名称
Allow:内容名称
参数说明:
User-agent 指定搜索引擎蜘蛛名称;
Disallow要禁止抓取的内容;
Allow允许抓取的内容
Robots协议
13
Robot名称
SEO中常说的探测器(Robot)是搜索引擎用来抓取网页的工具,它是一个软件或者说一系列自动程序。不同的搜索引擎给他们自己的探测器(Robot)起不同的名字。
谷歌:googlebot
百度:baiduspider
MSN:MSNbot
雅虎:Slurp
有道:YoudaoBot
搜搜:Sosospider
搜狗:sogou spider
360:360Spider
Robots协议
13
通配符说明:
*表示所有搜索引擎,用于指定蜘蛛使用。
$表示以某字符串结尾
/表示当前目录下的所有内容
Robots协议
13
Robots文件写法参考
指定蜘蛛
User-agent: * 这里的*代表的所有的搜索引擎种类,*是一个通配符
禁止写法
Disallow: /admin/ 这里定义是禁止爬寻admin目录下面的目录
Disallow: /admin 这里定义是禁止爬寻admin目录
Disallow: /cgi-bin/*.htm 禁止访问/cgi-bin/目录下所有以“.htm”为后缀URL(包含子目录)
Disallow: /*?* 禁止访问网站中所有包含问号(?)的网址
Disallow: /.jpg$ 禁止抓取网页所有的.jpg格式的图片
Disallow:/ab/adc.html 禁止爬取ab文件夹下面的adc.html文件。
允许写法
Allow: /cgi-bin/ 这里定义是允许爬寻cgi-bin目录下面的目录
Allow: /tmp 这里定义是允许爬寻tmp的整个目录
Allow: .htm$ 仅允许访问以.htm为后缀的URL。
Allow: .gif$ 允许抓取网页和gif格式图片
详细写法可参考文件:robots文件示例
Robots协议
13
Robots协议
13
Baiduspider - 百度蜘蛛
百度蜘蛛,英文名是“baiduspider”是百度搜索引擎的一个自动程序。它的作用是访问互联网上的html网页(当然动态页面也可以抓取),建立索引数据库,使用户能在百度搜索引擎中搜索到您网站的网页、图片、视频等内容。
百度蜘蛛的构建的原理。搜索引擎构建一个调度程序,来调度百度蜘蛛的工作,让百度蜘蛛
文档评论(0)