数据据可视化 (爬取京东手机销售数据 ).docxVIP

数据据可视化 (爬取京东手机销售数据 ).docx

  1. 1、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。。
  2. 2、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  3. 3、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
  4. 4、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
  5. 5、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们
  6. 6、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
  7. 7、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多
PAGE 13 目录 一、目的3 二、系统需求及基本功能3 1、系统需求3 2、基本功能3 三、总体设计方案3 1、总体设计3 2、流程图3 四、详细设计4 五、项目源程序代码4 1、爬数据4 2、数据可视化6 六、运行测试结果截图11 七、总结与收获15 一、目的 将大量的、多维度的、不完全的、随机的数据,通过可视化提取出隐含在其中的、未知的、潜在有用的信息和知识; 快速有效呈现数据的重要特征; 揭示数据的客观规律; 引导用户从可视化结果分析和推理出有效信息,提升信息认知的效率; 二、系统需求及基本功能 1、系统需求 本随着网络的迅速发展,互联网成为大量信息的载体,如何有效地提取并利用这些信息成为一个巨大的挑战。本课设需要对大量的京东手机销售数据通过spider进行爬取,用MySQL编译器进行数据的存储,用pyecharts进行详细的数据分析,再将数据可视化,最后制作一个简单的网页。 2、基本功能 使用者可以直观清晰的了解当下京东手机销售的情况,对手机销售的价格,销量,好评率等有一个基本的认识。 三、总体设计方案 1、总体设计 寻找网页、创建爬虫项目获数据、创建数据库保存数据、分析数据、数据可视化、web设计界面。 2、流程图 四、详细设计 新建目标(Project):新建一个新的爬虫项目 明确目标(Items):明确你想要抓取的目标 制作爬虫(Spider):制作爬虫开始爬取网页 存储内容(Pipeline):设计管道存储将爬取的数据存入MySQL内容 制作网页图:连接数据库,画html数据分析图 Web创建网页:使用web创建简单的网页 五、项目源程序代码 1、创建爬虫项目获取数据 Jdsprider: import scrapy import re from copy import deepcopy from jdphone.items import JdphoneItem global i i=3 class JdSpider(scrapy.Spider): name = jd allowed_domains = [] start_urls = [/list.html?cat=9987,653,655] def parse(self, response): li_list=response.xpath(//*[@id=J_goodsList]/ul/li) item=JdphoneItem() for li in li_list: href=https:+li.xpath(./div/div[4]/a/@href).extract_first() item[dpname]=li.xpath(./div/div[7]/span/a/text()).extract_first() item[spname]=li.xpath(./div/div[4]/a/em/text()).extract_first() item[price]=li.xpath(./div/div[3]/strong/i/text()).extract_first() item[smemory] = li.xpath(./div/div[4]/span/span[1]/b/text()).extract_first() item[size] = li.xpath(./div/div[4]/span/span[2]/b/text()).extract_first() #屏幕尺寸 if len(href)70: id=href.split(/)[-1].replace(.html,) xhref=/comment/productCommentSummaries.action?referenceIds=+id+callback=jQuery1155102_=1609314427981%27 yield scrapy.Request(xhref,callback=self.parse_comment,meta={item:deepcopy(item),href:href}) #翻页 /list.html?cat=9987%2C653%2C655page=5s=118click=0 /list.html?cat=670%2C671%2C672page=3

文档评论(0)

东山书苑 + 关注
实名认证
文档贡献者

业务以学生学习成长为中心,为外语培训、中小学基础教育、学前教育,提供各种学习资料支持服务。

1亿VIP精品文档

相关文档