大数据运维工程师岗位的主要职责(真题29篇) .pdfVIP

大数据运维工程师岗位的主要职责(真题29篇) .pdf

  1. 1、本文档共20页,可阅读全部内容。
  2. 2、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
  3. 3、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  4. 4、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
  5. 5、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
  6. 6、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们
  7. 7、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
  8. 8、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多

大数据运维工程师岗位的主要职责(通用29篇)

大数据运维工程师岗位的主要职责篇1

1)承担团队的日常管理,如值班安排、工作分配、日常考评等;

2)组织制订、完善与本部门相关的管理制度、标准操作手册SOP、

维护操作MOP和等;

3)组织制定中心基础设施保养计划,做好相关计划的实现、控制

及优化工作;

4)审核、报批、组织实施各类变更申请、事件报告工作,做好相

关应急工作的指挥与处理;

5)组织开展数据中心基础设施运行维护相关培训、训练与演练;

6)协助商务部与外包服务商洽谈相关维护服务,监督服务实施并

要求进行审核与考评,确保相关基础设施的稳定运行;

7)负责数据中心基础设施资源统计、容量预警工作,做好每月用

水用电统计、PUE统计与分析;

8)配合数据中心进驻客户的场地选址、平面布局、改造实施、进

驻管理等支持协调工作;

9)基础设施月报、环境报告的编写和提交;

10)数据中心基础设施的持续优化和改善;

11)负责上级主管领导交办的其它工作。

大数据运维工程师岗位的主要职责篇2

职责:

根据产品需求,完成产品功能的设计、编码、测试和发布;

现场项目支持工作,对现场反馈工单问题进行分析、定位和解决;

对现场项目提出的新需求进行分析、设计并完成;

根据产品和技术发展要求,完成平台的设计、开发和支持维护工

作。

职位要求:

本科及以上学历,计算机、软件工程相关专业,3年以上相关工作

经验;

精通sql、greenplum/postgresql、impala、oracle、mysql至

少1种技术、可融汇贯通灵活转换使用;

熟悉hadoop平台zookeeper、hdfs、spark、MR及hbase等

常用组件的运行原理;

基于linux/unix平台进行shell、python的常用脚本开发。

大数据运维工程师岗位的主要职责篇3

职责:

1、负责公司大数据平台自动化运维开发、监控和优化工作,保障

数据平台服务的稳定性和可用性;

2、负责公司Hadoop核心技术组件日常运维工作;

3、负责公司大数据平台现场故障处理和排查工作;

4、研究大数据前沿技术,改进现有系统的服务和运维架构,提升

系统可靠性和可运维性;

任职要求:

1、本科或以上学历,计算机、软件工程等相关专业,3年以上相

关从业经验

2、精通Linux运维命令,熟悉Linux的维护和管理,熟悉

Shell/Python脚本开发,掌握Scala/JAVA优先;

3、熟悉大数据项目实施:包括不限于Kafka、Hadoop、Hive、

Hbase、Spark等大数据生态的平台搭建,监控和调优;

4、良好团队精神服务意识,沟通协调能力;

大数据运维工程师岗位的主要职责篇4

职责:

1、负责Hadoop、HBase、Hive、Spark等大数据平台规划、

部署、监控、系统优化等,确保高可用;

2、负责公司大数据平台的运维管理工作,集群容量规划、扩容及

性能优化;

3、处理公司大数据平台各类异常和故障,确保系统平台的稳定运

行;

4、设计实现大规模分布式集群的运维、监控和管理平台;

5、深入研究大数据业务相关运维技术,持续优化集群服务架构,

探索新的大数据运维技及发展方向。

任职要求:

1、熟悉Hadoop/HBase/Hive/Spark/Kafka/Zookeeper等开源

项目的安装与调试,升级扩容;

2、熟悉Hadoop大数据生态圈,包括但不限于HDFS、YARN、

Hive、HBase、Spark、Kafka、Flume等;

3、精通一门以上脚本语言(shell/perl/python等),熟练掌握Linux

系统及常规命令与工具,熟练的Shell脚本编写能力。

大数据运维工程师岗位的主要职责篇5

职责:

文档评论(0)

162****6579 + 关注
实名认证
文档贡献者

一线教师爱数学

1亿VIP精品文档

相关文档