大数据运维工程师岗位的基本职责描述.pdf

大数据运维工程师岗位的基本职责描述.pdf

  1. 1、本文档共4页,可阅读全部内容。
  2. 2、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
  3. 3、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  4. 4、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
查看更多

效率有影响的问题提供反馈意见,提升服务支撑团队专业度。以下是

店铺整理的大数据运维工程师岗位的基本职责描述。

大数据运维工程师岗位的基本职责描述1

职责:

1、负责维护服务器的运行,包括巡检、故障排除、数据备份等业

务,保证服务器高质量、高效率运行状态;

2、负责服务器漏洞整改及补丁升级;

3、负责hadoop运维相关工作;

4、负责大数据平台的日常部署、升级、扩容、迁移;

5、负责高并发,大存储和实时流的Hadoop/spark大数据平台规

划,运维,监控和优化工作。

任职资格

1、2年左右服务器运维经验;

2、对linux基础运维命令熟悉,shell,python至少精通一种,如

会scala语言可优先考虑;

3、熟悉Linux的维护和管理,熟悉bat及Shell脚本开发,能看

懂Python/Scala优先;

4、做过大规模hadoop集群优先;

5、大数据项目:包括不限于hadoop、hive、kafka、hbase、

spark、Kudu、Impala等大数据生态的平台搭建,监控,运维,调优、

生产环境hadoop集群troubleshooting、hadoop版本升级管理及

优化支持。

大数据运维工程师岗位的基本职责描述2

职责:

1、负责云平台等基础环境规划及建设,虚拟化等技术实施;

2、负责机房物理设备的日常巡检,对云平台及大数据运行环境的

日常维护,保证运行环境的安全和稳定,对突发事件进行快速处理和

;

3、负责Hadoop集群的部署及日常维护,熟悉Hadoop生态圈

组件的配置与调优;

4、负责硬件设备和系统软件购买采购数的拟定,以及运维相关技

术文档的整理和维护。

任职要求:

1、***优先,30岁以下,计算机相关专业,统招本科及以上学历,

3年以上中、大型云平台服务器运维经验。

2、具备基本的机房建设及管理能力,能对机房内服务器、交换机、

路由器等物理设备巡检维护数据备份及恢复。

3、熟悉TCP/IP协议,熟练掌握CISCO路由器、防火墙、交换机

配置,具备一定的网络规划和组网技术能力,负责VLan及子网划分,

提供内外网及VPN连接等网络接入方式;

4、熟悉KVM/Docker等虚拟化技术,及基于

VMWare/OpenStack云平台的搭建及运维;

5、有丰富的Hadoop生态系统运维经验,了解Hadoop、STorm、

Spark、Kafka、zookeeper这些组件的原理,具备部署、实施、维护

hadoop集群及相关组件的能力。

6、熟悉Zabbix、Nagios等开源运维监控系统,熟悉通过

LVS/Keepalived/Hearbeat技术实现负载均衡,了解CDN技术。

7、有中大型云平台数据中心容灾建设方案(一城两中心、两地三

中心)实施经验者优先;有思科认证(CCNA/CCNP/CCIE)证书者优先。

8、为人正直,有责任感,工作认真细心。

大数据运维工程师岗位的基本职责描述3

职责:

1.负责大数据业务集群的运维工作(Hadoop/Hbase/Hive/Yarn/

Spark/Storm/ES等大数据生态圈组件)确保高可用性。

2.负责集群容量规划、扩容及性能优化;

3.参入建设大规模分布式集群的运维、监控和管理平台;

4.参与业务架构设计,在设计阶段给出

文档评论(0)

199****2782 + 关注
实名认证
内容提供者

该用户很懒,什么也没介绍

1亿VIP精品文档

相关文档