后端开发工程师2025年工作总结及2026年工作计划.docxVIP

后端开发工程师2025年工作总结及2026年工作计划.docx

  1. 1、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。。
  2. 2、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  3. 3、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
  4. 4、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
  5. 5、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们
  6. 6、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
  7. 7、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多

后端开发工程师2025年工作总结及2026年工作计划

2025年是技术迭代加速、业务需求多元化的一年,作为后端开发工程师,我深度参与了公司核心系统的迭代优化、新技术落地及团队能力建设,在高并发场景支撑、分布式系统稳定性提升、云原生架构转型等方向取得阶段性成果。现将本年度工作成果、不足及2026年规划总结如下:

一、2025年工作总结

(一)核心项目交付与业务支撑

1.电商订单系统重构项目

年初主导启动订单系统从单体架构向微服务的拆分重构。原系统因业务快速扩张,出现接口响应延迟(平均RT从200ms升至500ms)、大促期间数据库CPU峰值达90%、跨业务模块耦合严重(如促销规则与支付逻辑强关联)等问题。项目分三阶段推进:

-第一阶段(1-3月):完成领域建模,将订单系统拆解为订单履约、支付清算、促销规则3个独立微服务,基于SpringCloudAlibaba实现服务注册(Nacos)、限流(Sentinel)、分布式事务(Seata);

-第二阶段(4-6月):针对订单履约服务的高并发写入场景,引入本地队列+批量落库(将单次写库操作从逐条插入改为每100条批量插入),配合Redis预扣库存(库存扣减RT从80ms降至15ms),大促期间订单提交成功率从92%提升至99.5%;

-第三阶段(7-9月):优化支付清算服务的对账逻辑,将T+1对账改为实时流式对账(基于RocketMQ的事务消息+Flink实时计算),对账耗时从4小时缩短至20分钟,全年累计减少人工对账工单8000+。

2.实时数据同步平台开发

为解决业务系统(如CRM、ERP)间数据孤岛问题,主导开发跨域实时数据同步平台。技术方案选择Canal监听MySQLbinlog,通过Kafka消息队列缓冲,结合Debezium实现增量数据捕获,最终同步至ES、ClickHouse等存储。平台上线后:

-数据同步延迟从小时级降至秒级(平均延迟500ms);

-支持日均1亿+条数据同步(峰值QPS1.2万),全年无重大故障;

-接入系统从初始3个扩展至12个,覆盖用户、商品、交易等核心数据域。

3.双十一大促技术保障

作为大促技术组核心成员,负责交易链路的稳定性保障。针对2025年大促预计200%流量增长(峰值QPS目标5万),开展以下工作:

-容量压测:对订单、支付、库存服务进行全链路压测,发现支付回调接口存在慢SQL(执行时间3s),通过索引优化(新增联合索引order_id+status)和结果缓存(Redis存储最近1小时回调结果),RT降至200ms;

-限流降级:为非核心服务(如物流详情查询)设置限流阈值(QPS2000),大促期间自动降级为返回“处理中”提示;

-预案演练:模拟数据库主库宕机场景,验证读写分离切换(从手动切换改为自动切换,耗时从5分钟降至30秒),确保故障恢复能力。最终大促期间交易链路零宕机,平均RT180ms,较2024年同期下降30%。

(二)技术优化与架构升级

1.微服务治理能力提升

针对微服务拆分后出现的服务调用链路复杂(单链路最多跨8个服务)、故障定位困难问题,优化治理体系:

-引入OpenTelemetry统一埋点,结合公司内部APM平台,实现全链路追踪(支持从用户请求到数据库调用的完整链路展示),故障定位时间从30分钟缩短至5分钟;

-优化服务注册发现机制,将Nacos心跳检测间隔从5秒缩短至2秒,服务实例上下线感知延迟从10秒降至3秒,减少因实例未及时摘除导致的调用失败;

-推动服务接口契约化,使用OpenAPI3.0定义接口文档,通过代码生成工具自动生成客户端SDK,全年接口变更导致的联调问题减少60%。

2.数据库与缓存优化

-数据库层面:对订单库进行分库分表(按用户ID取模分16库16表),单表数据量从2亿条降至1200万条,查询RT从800ms降至150ms;针对高并发读场景,引入TiDB作为OLAP分析库,将原MySQL的统计查询(如“近30天各地区销量”)迁移至TiDB,释放主库压力(主库CPU使用率从75%降至50%);

-缓存层面:优化Redis使用策略,将热点商品缓存(TOP1000商品)存储在本地Caffeine缓存(命中率90%),减少Redis集群压力;引入Redisson实现分布式锁,解决秒杀场景下的超卖问题(2025年秒杀活动未出现超卖);对Redis大key进行拆分(如将用户全量优惠券信息拆分为“未使用”“已使用”两个key),避免单key过大导致的网络阻塞,全年Redis集群因大key导致的故障次数为0。

3.云原生技术落地

推动部分

您可能关注的文档

文档评论(0)

183****5731 + 关注
实名认证
文档贡献者

该用户很懒,什么也没介绍

1亿VIP精品文档

相关文档