- 1、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。。
- 2、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载。
- 3、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
- 4、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
- 5、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们。
- 6、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
- 7、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多
用python分析1225万条淘宝数据,最终搞清楚了我的买卖行为
1)项目背景
??网购已经成为人们生活不行或缺的一部分,本次项目基于淘宝app平台数据,通过相关目标对用户行为进行分析,从而探究用户相关行为模式。
2)数据和字段说明
??本文使用的数据集包含了2021.11.18到2021.12.18之间,淘宝App移动端一个月内的用户行为数据。该数据记录,共6列数据。
user_id:用户身份
item_id:商品id
behavior_type:用户行为类型(包括点击、保藏、加入购物车、领取四种行为,分别用数字1、2、3、4表示)
user_geohash:地理位置
item_category:品类id(商品所属的分类)
time:用户行为发生的时间
3)分析的维度
流量目标分析
用户行为分析
漏斗流失分析
用户价值RFM分析
4)电商常用分析方法
5)什么是漏斗分析?
“漏斗分析”是一套流程式数据分析,它能够科学反映用户行为形态,以及从起点到起点各阶段用户转化率情况的一种重要分析模型。
2、导入相关库
import numpy as npimport pandas as pdimport matplotlib as mplimport matplotlib.pyplot as pltimport seaborn as snsimport warnings# 设置为seaborn绘图风格sns.set(style=darkgrid,font_scale=1.5)# 用来显示中文标签mpl.rcParams[font.family] = SimHei# 用来显示负号mpl.rcParams[axes.unicode_minus] = False# 有时候运转代码时会有很多warning输出,像提示新版本之类的,假如不想这些乱糟糟的输出,可以使用如下代码warnings.filterwarnings(ignore)
3、数据预览、数据预处理
# 留意:str是为了将全部的字段都读成字符串df = pd.read_csv(taobao.csv,dtype=str)df.shapedf.info()df.sample(5)
结果如下:
1)计算缺失率
# 由于地理位置的缺失值太多,我们也没方法填充,因而先删除这一列df.apply(lambda x:sum(x.isnull())/len(x),axis=0)
结果如下:
2)删除地理位置这一列
df.drop([user_geohash],axis=1,inplace=True)
3)处理时间time列,将该列拆分为date日期列,和hour小时列
df[date] = df.time.str[0:-3]df[hour] = df.time.str[-2:]df.sample(5)
结果如下:
4)将time、date列都变为标准日期格式,将hour列变为int格式
df[date] = pd.to_datetime(df[date])df[time] = pd.to_datetime(df[time])df[hour] = df[hour].astype(int)df.dtypes
结果如下:
5)将数据依据time列,升序陈列
df.sort_values(by=time,ascending=True,inplace=True)df.head()
解果如下:
6)删除原始索引,重重生成新的索引
df.reset_index(drop=True,inplace=True)df.head()
结果如下:
学问点:留意reset_index()中传入参数drop的这种用法。
7)使用describe()函数查看数据的分布,这里使用了一个include参数,留意一下
# 查看全部object字符串类型的数据分布情况df.describe(include=[object])# describe()默认只会统计数值型变量的数据分布情况。df.describe()# 查看全部数据类型的数据分布情况df.describe(include=all)
结果如下:
学问点:留意describe()函数中传入参数include的用法。
8)对时间数据做一个概览
df[date].unique()
结果如下:
4、模型构建
1)流量目标的处理
pv:指的是页面总扫瞄量。每个用户每刷新一次网页,就会添加一次pv。
uv:指的是独立访客数。一台电脑一个ip也就是一个独立访客。实际分析中,我们都是认为每个人只使用一台电脑,即每一个独立访客代表一个用户。
① 总计pv和uv
total_pv = df[user_id].
您可能关注的文档
- 党校学员鉴定评语.docx
- 党校学员交流发言稿.docx
- 党校学员廉洁自律承诺书.docx
- 党校学员演讲稿.docx
- 斩获猫眼.分,《中国医生》展现大国的医生担当.docx
- 旗帜鲜明地反对“码而优则仕”.docx
- 新手上路必学的Python函数基础知识,全在这里了(多段代码举例).docx
- 无监控,不运维.docx
- 日志易AIOps实践:日志数据大有用途.docx
- 昨天七夕,都干啥了呢?.docx
- 用Python分析了近几年胡润排行榜,我酸了....docx
- 用Python分析《令人心动的offer》的万条弹幕,网友们都在吐槽什么?.docx
- 用Python实现武侠小说中的武打动作残影特效.docx
- 用Python分析北京市蛋壳公寓租房数据.docx
- 用Python带你看看全国统一国庆节请假理由是什么~.docx
- 用Python快速分析和预测股票价格.docx
- 用Python打造一款D医疗影像识别系统.docx
- 用Python打造批量下载视频并能可视化下载进度的炫酷下载器.docx
- 用python爬取《龙岭迷窟》评论,看看比同系列鬼吹灯作品以及《盗墓笔记》好在哪里?.docx
- 党校主体班结业发言稿.docx
原创力文档


文档评论(0)