做seo的还需要学习那些.pdfVIP

  1. 1、本文档共5页,可阅读全部内容。
  2. 2、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
  3. 3、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  4. 4、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
  5. 5、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
  6. 6、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们
  7. 7、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
  8. 8、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多
做seo的还需要学习那些

做seo的还需要学习那些 一、 对SEO感兴趣的人、SEO专员、或其它需要参与网站SEO相关修改的人,如产品经理 1. 选择性的去看网上别人写的SEO文章,比如一线从业者所写的。如果自己没有对文章 质量的足够判断力,也可以完全不看 要始终明确的是,SEO的目的是最终效果(流量、转化),但可以发现的是,网上几乎没 任何一篇讲述做SEO的方法的文章,会清晰的提到什么改动会带来什么效果。 因为没什么经验的SEO,他们只能说出模棱两可的东西;而在一线工作的SEO往往限于保 密协议与行业道德,一些东西也无法说得很清楚。 同理,SEO书籍也是这样。哪怕偶尔能发现有的书上有一小章节,讲述些很有价值的东 西,但也会因为作者不愿意写透,不懂的读者看了还是不会懂。所以所有的SEO书籍,不看 也罢。 也同理,不要过于依赖SEO培训,只有少数培训里面稍有一部分干货。况且,若想用最 多几十个小时参加的培训,使自己的水平超过从事SEO上千小时的人的话,是绝不可能的事 情。 2. 需要具备各种互联网基础常识 互联网的基础常识,若要展开是个太大的话题了。这不仅指的是哪门技术,而是知识的 涵盖面。 举个最简单的例子,单独查看某网页上面的html写法时,有人用IE的查看源代码,有人 用Firefox的查看元素。虽然都能达成同样的目的,但前者极其低效,被专业人员视为是门 外汉做法。 类似这样的经验,没有什么书里面写着、也没什么文章总结,只能在自己日常工作中, 自问是否有更高效的方法,并不断尝试各种可能性,才会让知识面慢慢广泛起来。 W3school上面一些基础资料是需要先参考的,它是各类互联网技术的入门网站。当然想 让知识面变得广泛,更多的还是需要靠长时间的积累。 这部分,是学习SEO(或其它任何互联网技术)的初期,最需要耗时间去做的事情。 如果想检验常识是否较具备了,可以尝试自答以下问题: 前端、后端分别指的是什么? JavaScript、Java、PHP分别是什么类型的语言? 服务器、VPS与虚拟主机的区别? 如何查看网页返回的HTTP状态码? 3. 牢记《百度SEO指南》上面的所有内容 《百度SEO指南》是百度官方写的,一份总共才几十页的文档,但已提到了不少SEO需要 注意的重点事项。 许多SEO轻视这份指南,觉得百度尽写些没价值的东西,而实际上不然。比如其中提到 的两条:避免在重要内容使用ajax、URL需要保证唯一性,这两条非常重要,但我观察过的 一些大型网站上,没找到过把这些完全做好的。而这却极大的影响SEO效果,往往一个改动, 就可以对某类页面的某项数据指标造成数十个百分点的影响。 《Google网站站长工具帮助》上面有着更详尽的内容。不过因为内容很多,我和公司所 有产品经理说的是,这份资料可以考虑参考下,但百度的指南一定要记住。但对于SEO,这 份资料至少是需要熟读的。 二、需要写执行方案的SEO 1. 在具备广泛的互联网知识基础上,更深入的去了解一些技术知识 一般来说所有SEO的需求,最终落实到网站上都是技术人员来完成的。但大部分SEO需求, 技术上都不是说实现就能实现。 比如一个例子,在子域名的根目录需要批量加入不同的robots.txt,有人或许觉得,不 就是传个文件嘛,但多数情况下并不是这样。很多网站的架构中,不同子域名是共用一个根 目录的,只能放同一个文件。解决起来其实很简单,把robots.txt用php什么的来动态解析, 被访问时判断被访域名,并返回对应内容。但并不是每个程序员都经常遇到这种奇怪的需求, 不少人一下想不到这个方法。 诸如这样的很多时候,SEO都应当有能力和技术人员一起商讨解决方案。 可以尝试用以下问题来自我检验: 相关文章链接采用什么样的生成方式?具体到使用某开源程序或某算法的大致操作 除了URL追踪参数可以统计点击来源的具体位置之外,还有什么可行方法? 2. 具备SEO的全局观,注重影响效果的地方,而不要管一些细节 对于基础知识尚可的SEO,这是我发现在执行层面上普遍存在的最大问题。 何谓细节?对着一个预计SEO流量最多也占不到全站总量千分之一的页面,这边图片加 个alt、那边关键词删删减减等等。尤其这一大堆修改对于稍大的公司一般都是提交给别人 去做的,连累一群人。 而什么不是细节?列表页或内页模版上,这边图

文档评论(0)

精品报告 + 关注
实名认证
文档贡献者

该用户很懒,什么也没介绍

1亿VIP精品文档

相关文档