- 1、本文档共4页,可阅读全部内容。
- 2、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
- 3、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载。
- 4、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
效率有影响的问题提供反馈意见,提升服务支撑团队专业度。以下是
店铺整理的大数据运维工程师岗位的基本职责描述。
大数据运维工程师岗位的基本职责描述1
职责:
1、负责维护服务器的运行,包括巡检、故障排除、数据备份等业
务,保证服务器高质量、高效率运行状态;
2、负责服务器漏洞整改及补丁升级;
3、负责hadoop运维相关工作;
4、负责大数据平台的日常部署、升级、扩容、迁移;
5、负责高并发,大存储和实时流的Hadoop/spark大数据平台规
划,运维,监控和优化工作。
任职资格
1、2年左右服务器运维经验;
2、对linux基础运维命令熟悉,shell,python至少精通一种,如
会scala语言可优先考虑;
3、熟悉Linux的维护和管理,熟悉bat及Shell脚本开发,能看
懂Python/Scala优先;
4、做过大规模hadoop集群优先;
5、大数据项目:包括不限于hadoop、hive、kafka、hbase、
spark、Kudu、Impala等大数据生态的平台搭建,监控,运维,调优、
生产环境hadoop集群troubleshooting、hadoop版本升级管理及
优化支持。
大数据运维工程师岗位的基本职责描述2
职责:
1、负责云平台等基础环境规划及建设,虚拟化等技术实施;
2、负责机房物理设备的日常巡检,对云平台及大数据运行环境的
日常维护,保证运行环境的安全和稳定,对突发事件进行快速处理和
;
3、负责Hadoop集群的部署及日常维护,熟悉Hadoop生态圈
组件的配置与调优;
4、负责硬件设备和系统软件购买采购数的拟定,以及运维相关技
术文档的整理和维护。
任职要求:
1、***优先,30岁以下,计算机相关专业,统招本科及以上学历,
3年以上中、大型云平台服务器运维经验。
2、具备基本的机房建设及管理能力,能对机房内服务器、交换机、
路由器等物理设备巡检维护数据备份及恢复。
3、熟悉TCP/IP协议,熟练掌握CISCO路由器、防火墙、交换机
配置,具备一定的网络规划和组网技术能力,负责VLan及子网划分,
提供内外网及VPN连接等网络接入方式;
4、熟悉KVM/Docker等虚拟化技术,及基于
VMWare/OpenStack云平台的搭建及运维;
5、有丰富的Hadoop生态系统运维经验,了解Hadoop、STorm、
Spark、Kafka、zookeeper这些组件的原理,具备部署、实施、维护
hadoop集群及相关组件的能力。
6、熟悉Zabbix、Nagios等开源运维监控系统,熟悉通过
LVS/Keepalived/Hearbeat技术实现负载均衡,了解CDN技术。
7、有中大型云平台数据中心容灾建设方案(一城两中心、两地三
中心)实施经验者优先;有思科认证(CCNA/CCNP/CCIE)证书者优先。
8、为人正直,有责任感,工作认真细心。
大数据运维工程师岗位的基本职责描述3
职责:
1.负责大数据业务集群的运维工作(Hadoop/Hbase/Hive/Yarn/
Spark/Storm/ES等大数据生态圈组件)确保高可用性。
2.负责集群容量规划、扩容及性能优化;
3.参入建设大规模分布式集群的运维、监控和管理平台;
4.参与业务架构设计,在设计阶段给出
文档评论(0)