唐姐告诉您网站结构链接点必然关系之重要.docVIP

唐姐告诉您网站结构链接点必然关系之重要.doc

  1. 1、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。。
  2. 2、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  3. 3、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
  4. 4、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
  5. 5、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们
  6. 6、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
  7. 7、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多
  首先,我们要来个免责声明-他们并不一定是必要的-但以防万一你必须注意的是,这些是一个概念化的东西,至少我是这样认为的,还没有进行实际的测试和实践证明.   蜘蛛的逆向爬行…至少我第一次起这个名字的时候我是这样想的.这种想法来源于很多的地方:网站的页面的深度如果很高的话那对爬行和索引来说都是一个挑战,因为他们的结构很深,拥有大量的页面,会有爬行的障碍.   或者一个网站希望能够尽可能的充分并迅速的被索引(也许一个网站添加了新的内容,它的url就会发生戏剧化的改变,尽管301已经被定位了,或者这是一个新的站点).   因此,怎样才能使网站能够被正常的爬行和索引?通常是通过以下的几种方式:   发现:搜索引擎蜘蛛会根据链接进入到你的网站   提交:一个站长会把站点和页面提交给搜索引擎   xml网站地图:一个站长给他们的网站创建一个xml网站地图,并通过搜索引擎使他们变得有效,或者就把它放在网站的根目录作为一个网站地图或者利用robots文件来进行自动搜索.   这些方法都是优点和缺点的,但是他们至少解决了如何让蜘蛛进入他们的站点,通过使用xml网站地图,可以帮助蜘蛛越过一些爬行的障碍.   无论是直接还是间接,主页被发现了.那么蜘蛛就会按照他们自己的路线进行爬行.从顶级的导航到第二层让后到子导航,爬行到顶级的分类页面,通过子分类的界面,然后到更深的产品和信息页面.反过来说,你想进行索引的这些页面同时占领了头部和长尾的搜索.这些也很有可能是产生交易或者是转化的页面.   蜘蛛来到你页面的频率是多少?它们一次性通常会爬多少页面?新的页面会多久才会被发现和抓取?相对而言旧的页面会多久被发现和抓取?本质上来说,应该平衡抓取,这就解释了为什么排除重复性内容的重要性.你不想心爱的蜘蛛把时间浪费在爬过和收录过的内容.   当你为一些大型的网站指出这些问题的话,你发现想让蜘蛛去爬行和喜欢的url实在是多的让人觉得可怕,即使没有那些隐藏着的爬行障碍.请记住,甚至是xml网站地图,每个网站地图最多只能包括50000个url,最少20个单独的网站地图的话加起来就会有1000000个页面.   要说的是,我要提醒大家这种情况并不适用于所有的网站和情况.这种蜘蛛逆向爬行的基础和使用xml网站地图是有些不同的.典型的xml网站地图策略是要提交每一个url,就是希望每个页面都能被索引.这也许不是最好的策略,但是这是另外一个问题了.即使那样,这些策略往往会给首页过多的权重和优先权.   恰恰相反,我们应该把网站地图的重点放在一些低等级的页面上.通常都是单个的产品和信息页面.这种思想就是让蜘蛛去那些最深层最难爬的页面.   它们之后还会去哪儿呢?他们会按照蜘蛛做的那样做,开始爬行.想想这些深层次的页面.但愿他们内容丰富并且富有关键词.他们也许包括一些可以导航的元素,即使不是完全的高等级的导航,至少是一些分类导航.如果网站有类似的面包屑导航的话,我们可以直接喂给蜘蛛这些面包屑.   在这点上,我们应该更好的以更多的方式给蜘蛛展现我们的网站.这个观念也许并不是关于逆向爬行的,反而是关于让蜘蛛从两个底端开始爬行,这样的爬行最终也能到顶部的导航.   我们通常会假设蜘蛛会很自然的首先去找首页然后顺势往下爬遍整个网站.和那些多样化的产品等级的页面相比从主页到顶层页面有多少个唯一的url?我的猜想是因为页面深度的不同,两个等级的页面的抓取数量是有很大的不同的.   正如我提到的,我认为这是一个低风险的路线.无论有没有xml网站地图,蜘蛛们都能找到页面的.他们会找到不在网站地图中的页面,因此即使是一个没有首页和顶级页面的网站地图,也不会遗漏掉这些页面.   在自然环境下,也许不会出现这些问题.蜘蛛会迅速爬过整个网站.一旦他们发现了链接他们就会追根究底.也许这些页面埋得太深了,他们有点儿不太喜欢.   无论如何,让这些网页被爬到和索引是很重要的,对于我的站来说这的确是一个艰难的过程.或许这只是一个时间问题.至少我要去尝试.一旦像我想象的那样整个网站的那个等级的页面都被建立了索引,我就可以继续并在xml网站地图中添加其他的url,或者我可以做个实验,不把网站地图放在网站里.   医疗网站怎样优化,经验分享,做好以下四点:   1、专业的网站设计与构架   是网站的专业性和友好性的版面设计,考虑到网站的整体性、协调性和美观性等特点,并体现医院形象的专业网站设计则会大大吸引人的眼球.另外,网站方便快捷的导航不但便于用户查找,更可以通过它认识网站的背景,获得足够的信息,起到了传递最新消息的作用.因此专业的网站设计和构架也就从第一印象上赢得了用户的信任.   2、医院基础条件的展示   医院基础条件的展示最主要的目的是告诉用户医院存在的真实性,因此详细的医院介绍,医院地址,咨询热线以及

文档评论(0)

638922bb + 关注
实名认证
文档贡献者

该用户很懒,什么也没介绍

1亿VIP精品文档

相关文档