Robots规则常见误区及Google百度Robots工具的使用
对于robots.txt文件对于网站的作用大家都知道,但是通过观察发现,有些朋友对于robots.txt文件的规则还是有一定的误区。
比如有很多人这样写:
User-agent: *
Allow: /
Disallow: /mulu/
不知道大家有没有看出来,这个规则其实是不起作用的,第一句Allow: / 指的是允许蜘蛛爬行所有内容,第二句Disallow: /mulu/指的是禁止/mulu/下面的所有内容。(小贴士:20万人同时在线学习网络营销,推一把论坛:)
表面上看这个规则想达到的目的是:允许蜘蛛爬行除了/mulu/之外的网站所有页面。但是搜索引擎蜘蛛执行的规则是从上到下,这样会造成第二句命令失效。
正确的规则应该是:
User-agent: *
Disallow: /mulu/
Allow: /
也就是先执行禁止命令,再执行允许命令,这样就不会失效了。另外对于百度蜘蛛来说,还有一个容易犯的错误,那就是Disallow命令和Allow命令之后要以斜杠/开头,所以有些人这样写:Disallow: *.html 这样对百度蜘蛛来说是错误的,应该写成:Disallow: /*.html 。
有时候我们写这些规则可能会有一些没有注意到的问题,现在可以通过百度站长工具
您可能关注的文档
最近下载
- 2025年江西国科军工集团股份有限公司招聘7人 (第一批)备考试题及答案解析.docx VIP
- 福建省漳州地区2024-2025学年八年级下学期期中考试数学试卷(含解析).pdf VIP
- SONY索尼HXRNX80说明书NX80操作手册.pdf VIP
- 2026年四川省宜宾市中小学体育老师招聘考试参考试题及答案解析.docx VIP
- DVP-EH3 使用说明.pdf VIP
- 金冶炼厂的自动化与信息化建设考核试卷.docx VIP
- 【真题】2025年广东初中生物会考试题及答案 .pdf VIP
- 中国人寿创业签约培训.pptx VIP
- 2025湖州市产业投资发展集团有限公司招聘笔试参考题库附答案详解.docx VIP
- 2026年广东省东莞市中考化学模试卷(含答案解析).doc VIP
原创力文档

文档评论(0)