试用期工作总结及自我评价.docxVIP

  • 0
  • 0
  • 约3.5千字
  • 约 8页
  • 2026-02-17 发布于四川
  • 举报

试用期工作总结及自我评价

第一章入职背景与角色定位

1.1入职信息

2023年2月1日入职杭州云脉数据科技有限公司,任职数据运营中心·用户增长组·初级数据分析师,试用期6个月,汇报对象为中心总监李蔚,隔级汇报人为VP王铮。

1.2角色边界

公司采用“项目制+职能线”矩阵管理,我的直线职责是支持用户增长组所有数据需求;虚线职责是向数据中台输出埋点规范与数据资产沉淀。试用期KPI三条:①完成0→1搭建小程序行为数仓;②用数据驱动把新客30日留存提升3个百分点;③沉淀一套可复用的埋点评审SOP。

第二章试用期目标拆解与里程碑

2.1目标量化

①数仓:日增量1.2亿条,存储≤2TB,查询P95≤3秒;②留存:基线18.7%,目标21.7%;③SOP:评审节点≤3个,交付周期≤5个工作日。

2.2里程碑

T0(2.1)入职→T1(3.15)完成埋点治理→T2(4.30)数仓上线→T3(5.31)A/B实验迭代3轮→T4(6.30)留存提升验收→T5(7.31)试用期转正答辩。

第三章工作内容与实施细节

3.1埋点治理(2.1-3.15)

3.1.1问题诊断

①事件命名混乱:同一“点击购买”事件,iOS叫click_buy,安卓叫buy_click;②参数缺失:支付环节缺少coupon_id;③埋点遗漏:小程序43个页面中11个核心页面无曝光埋点。

3.1.2制度先行

发布《云脉数据埋点V5.0规范》,其中4.2条强制要求“任何新埋点须通过评审系统,未评审直接下发代码,发现一次扣绩效5%”。规范经法务审阅,符合《个人信息保护法》最小必要原则。

3.1.3工具落地

①自研埋点评审系统,前端用React,后端用Go,接入飞书审批流;②写Python脚本批量比对日志与埋点元数据,差异率0.5%自动飞书告警;③输出《埋点验收清单》模板,含27项检查点,例如“是否记录user_id”“是否加密手机号”。

3.1.4结果

3月15日全量1.2万个事件完成标准化,差异率降至0.18%,为后续数仓奠定元数据基础。

3.20→1搭建小程序行为数仓(3.16-4.30)

3.2.1技术选型

存储:阿里云OSS+MaxCompute;调度:Airflow2.5.1;实时:Flink1.15;BI:Superset2.1。

3.2.2模型设计

采用Kimball维度建模,事实表4张:曝光、点击、下单、支付;维度表7张:用户、商品、活动、渠道、页面、版本、时间。分区策略:ds按天+小时双分区,压缩格式ORC,ZLIB压缩比0.28。

3.2.3数据血缘与质量

①用ApacheAtlas做血缘采集,每日02:30全量解析任务依赖;②写42条SQL质量规则,如“支付金额0”“曝光-点击转化率≤50%”,异常自动入SLA工单系统;③建立“数据质量日报”飞书群,07:30自动推送,连续30天零重大事故。

3.2.4性能优化

把常用维度表缓存到Redis,设置TTL=6h,查询P95从8.7s降到2.4s,满足KPI。

3.3留存提升A/B实验(5.1-5.31)

3.3.1假设提出

通过漏斗分析发现:新客D7留存低的核心节点是“完成首单且评价≥4星”人群占比仅6.8%。假设:在订单完成页植入“晒单返5元券”弹窗,可提升该节点3pp,从而带动D30留存。

3.3.2实验设计

①人群:近7日注册且支付成功的新客,样本量14万,置信度95%,MDE1.5pp;②分层:按渠道(抖音/快手/微信)、城市等级、性别做8层StratifiedSampling;③指标:一级指标D30留存,二级指标返券使用率、差评率。

3.3.3实施步骤

Step1数据组写随机分流脚本,user_id%100映射到0-49实验组、50-99对照组,写入Redis白名单;Step2客户端拉取白名单,实验组弹窗,对照组无弹窗;Step3实时监控:Flink每15min输出实验指标,若差评率0.3%立即熔断;Step4实验21天,样本达标,关闭实验。

3.3.4结果

返券使用率42%,实验组D30留存22.1%,对照组19.4%,净提升2.7pp,虽未达3pp目标,但ROI为正,财务测算净利润+58万/月。

3.4埋点评审SOP固化(6.1-6.20)

3.4.1流程图

需求提出→数据PM预审→技术评审→测试验收→上线后回溯,共5节点。

3.4.2工具模板

文档评论(0)

1亿VIP精品文档

相关文档