用一个站的统计数据来谈seo和搜索引擎.docVIP

用一个站的统计数据来谈seo和搜索引擎.doc

  1. 1、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。。
  2. 2、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  3. 3、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
  4. 4、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
  5. 5、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们
  6. 6、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
  7. 7、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多
用一个站的统计数据来谈seo和搜索引擎.doc

亿推英文文章发布,亿推代写英文软文,代写英文新闻稿,亿推英文文章撰写,写英文新闻稿,亿推写英文软文,写外贸推广软文,亿推标准化英文推广,TuiGuang123 亿推拥有: 1.英文外链——拥有超过1000个独立IP英文网站首页广告位,每个网站不超过8个广告 2.英文文章外链——拥有超过5,000,00篇英文专业软文,覆盖各行业,提供文章关键词广告 3.英文新闻稿发布——拥有超过3000个英文新闻合作站点,提供各种价位的新闻稿发布服务 4.英文软文撰写——国内超过20人英语专业写手,国外超过60人的本土软文撰写团队 做互联网已经2年,一直是做技术的,在网络运营上却是一片空白,说来真是惭愧的很。前一阵子决定自己做个站练练手,为将来从技术转向运营铺一下路。 由于从来没有做过运营和网站英文推广亿推,运营方面的朋友认识的不是很多,因此做交换链接的可能性不大。而自己刚做站,就那么一点点流量做交换也实在对不起人家。思前想后,对我来说最快的也是最可行的网站运营方法就是seo了,而且用seo来做网站运营和网站英文推广亿推跟技术更近一点,上手也比较快。于是看了很多seo的资料,不管是seo亿推英文推广优化网站的,还是用seo来作弊搞流量的,能看的都看了。但是写这篇文章的目的不是告诉大家如何用seo亿推英文推广优化更不是教大家如何用seo作弊,毕竟我也是刚刚学,而且seo的教材和资料已经相当多了。我写的肯定也没有人家写的好。我只是想用我的大米站的一些数据来对搜索引擎和seo建立一些假设,然后推测一些结论,最后大家再讨论一下,希望可以共同得到进步。 好了,废话不说了,先说一下我大米站的基本情况。我的站是一个小说导航网站(多迷小说之家duomimi),基本思想就是把各大小说网站的小说资料都采集下来,然后分类整理放到我的网站上,用户通过访问我的网站就可以同时搜索到几个大小说网站的所有小说资料并点击观看,同时也可以看到各站的排名,推荐,更新等信息。好了,不多说了,不然大家该以为我是在AD了。 首先是网站开发,界面仿照hao123,采用最简单方便的asp+access,也是因为我的4mb的虚拟空间空间只支持asp和access,系统一共只有4个页面,分别是index.asp(主页)、list.asp(列表页)、search.asp(搜索页)\bookReader.asp(详细页),一天的时间搞定。其中主页还做了一个模版用来生成静态页(由于服务器空间有限,不能把所有的页面都生成静态页,遗憾啊!把动态页生成静态页这点很重要,搜索引擎更喜欢静态页,这点在所有的搜索引擎官方说明中都有说明的)。接下来是数据采集,先选定了5个小说网站,分别是起点中文、小说阅读、红袖、潇湘、新浪读书,然后写了个程序,自动把数据采集下来并保存到sqlserver数据库上,用了2天的时间。大概采集了19多条吧,最后把数据再手动导入到access上(这里也有个小插曲,由于access数据库是单文件单用户的,功能非常有限。不能写存储过程,所以翻页只能用asp的Recordset对象,每次把所有符合条件的结果都放到内存中,然后再分页,我的19万数据每次都放到内存中,然后再从中拿出2条来,速度和占用内存量可想而知。所以这里教大家一个小技巧,就是把每条要分页的数据都加一个字段用来表示他出现的页数,这样每次只需要寻找这个页的数据就可以了,而且以后数据增加或者减少,只需要用毕加树算法重新改一下页字段问题就解决了。另一个头痛的问题是access没有全文检索。所以数据搜索基本靠like,我做过测试,数据量超过2万就有可能出现内存溢出的现象,解决这个问题的办法没有别的,只有自己建倒排索引。这是我在用access做大数据量处理时遇到的两个问题和解决办法,算是抛砖引玉吧) 网站做好,数据采集完毕,装上51la免费流量统计,做个搜索引擎跟踪器,就开始做试验了。上线2多天,没有做过什么英文推广亿推,只在贴吧中发过帖子(很幸运有个帖子被顶起来了)。流量中,6%是百度搜索引擎来的,16%回头客,16%贴吧(就是那个被顶起来的帖子),其它的是其它搜索引擎来的。基本统计信息和收录记录如下图: (这里有个问题要说一下,我的域名和空间是去年9月份前后申请的,但是放了一个垃圾系统就再也没有管。所以我在做多迷之前这个域名已经被bd和gg收录了,但是只有不到1页的收录量,所以我没有花太多的时间让搜索引擎收录我,只是重新让搜索引擎重新检索我的网站而已) 再给大家看两个数据,是我记录的bd和gg的搜索机器人(bot)每天取我网站的次数。(如图) ok!现在开始分析,首先说一下网页的设计,没有frame,没有没必要的ajax,所有内链接都加上了title,没有隐藏和堆砌关键词,没有同色链接,就是说没有进行seo作弊。(注:以下假设和分析只代

您可能关注的文档

文档评论(0)

feiyang66 + 关注
实名认证
文档贡献者

该用户很懒,什么也没介绍

1亿VIP精品文档

相关文档