个人工作总结通用3篇.docxVIP

  1. 1、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。。
  2. 2、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  3. 3、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
  4. 4、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
  5. 5、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们
  6. 6、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
  7. 7、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多

个人工作总结通用3篇

第一篇

这一年,我把“把事做成”当成唯一KPI。年初接手的老旧系统像一条被反复缝补的棉被,补丁越多越怕冷。我先用两周把代码仓库完整克隆到本地,用自写的静态扫描脚本跑了一遍,输出1872条告警。我把告警按业务域拆成七份,每天早会前花25分钟逐条过,能当场改的就当场改,不能改的写进“技术债看板”,贴到白板上,红条长度与预估人日成正比。三个月下来,告警降到92条,系统CPU峰值从87%降到41%,老板在季度会上第一次把“稳定性”说成“核心竞争力”。

二季度,销售部门突然要上线“秒杀”功能,留给技术的时间只有18天。我把需求拆成43张卡片,用MoSCoW法则标出Must7张、Should12张,其余全部扔进Won’t池。每天9点站会只问三件事:昨天阻塞、今天目标、是否需要配对评审。为了压测,我写了300行Go脚本,把线上真实流量镜像到测试环境,用k6在5分钟内打到2万QPS,发现订单表主键雪花算法在并发1.8万时重复。连夜把算法换成UUID加布隆过滤器,次日再压,重复率降到0。上线当天,峰值3.2万QPS,接口P99延迟68ms,库存超卖0笔,销售部在群里刷了99个“牛”。

三季度,我开始带新人。三个应届生,两个非科班,我让他们第一周只看日志,把INFO、WARN、ERROR各抄100条,然后闭卷复述上下文。第二周给每人一个200行以内的模块,要求48小时内提交重构方案。我手把手教他们做契约测试,用Pact生成消费者驱动契约,再反向生成Spring-Stubs。三周后,新人已经可以独立做CodeReview,一次指出我遗漏的空指针,我在周会上公开给他发200元红包,团队里从此没人再怕“问问题”。

四季度,我把目光放到成本。账单显示,仅消息队列每月就烧掉4.7万。我用自写的Topic流量分析器跑了一遍,发现62%的消息是“脏流量”——重复状态事件。我推动业务方把无意义事件降到0,同时把Kafka副本从3改2,把acks从all改1,再把linger.ms从5调到100,单分区吞吐从7MB/s提到19MB/s。一个月下来,消息费用降到1.9万,财务把截图贴到大群,CTO回了一个字:“赞”。

全年我个人提交1874次,合并412个PR,写掉9.2万行代码,删除5.4万行,净增长3.8万行。下班最晚的一天是2月28日,凌晨3点42分push,第二天8点50分又到公司,因为知道系统不等人。全年看完21本技术书,做了18万字笔记,把327张截图贴进Obsidian,打上双链,搜索平均0.3秒命中。身体方面,我把BMI从26.4降到22.1,靠的不是跑步,是把电梯卡故意落在工位,每天爬18层。

有人问我目标感从哪里来,我说很简单:把“让下一秒的自己和上一秒不一样”当成呼吸。代码、成本、团队、身体,每件事都遵循同一套闭环:观测→归因→实验→量化→固化。只要闭环跑通,雪球就会自己往下滚。年终绩效自评,我只写了一句话:“全年交付可量化价值862万元,其中降本223万,提效639万,数据已贴Jira,欢迎审计。”系统会替我证明,代码会替我说话,时间会把所有commit酿成复利。

第二篇

如果把一年拍成24帧电影,我的每一帧都写着“拆问题”。年初接到客户投诉:报表加载17秒,老板当场拍桌子“不能用”。我把Chrome的Performance面板录下来,发现8秒耗在一次3.2MB的json传输。用jq拆解后,里面62%字段是重复枚举。我写了一个字段去重中间层,把3.2MB压到0.9MB,再开HTTP/2多路复用,加载降到2.1秒。客户说“可以”,我却没停,继续把报表拆成5个虚拟滚动区块,再降到0.6秒,最终把“能用”升级到“爽用”。

三月,运营突然要做“千人千面”首页,留给算法团队只有6000条标注样本。我把推荐问题拆成召回、排序、策略三层,先用200行Python把用户近30天行为序列转成128维平均Embedding,做最粗暴的余弦召回,上线A/B测试,CTR提升4.3%。再用LightGBM加27个交叉特征,三棵树深度6,十折CV的AUC从0.61提到0.74,CTR再涨2.7%。最后用ThompsonSampling做策略,把探索率从0.1调到动态0.05–0.3,一周后

文档评论(0)

136****4675 + 关注
实名认证
文档贡献者

该用户很懒,什么也没介绍

1亿VIP精品文档

相关文档