大数据运维工程师岗位的工作职责概述文秘知识.docx

大数据运维工程师岗位的工作职责概述文秘知识.docx

  1. 1、本文档共6页,可阅读全部内容。
  2. 2、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
  3. 3、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  4. 4、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
查看更多
大数据运维工程师岗位的工作职责概述 大数据运维工程师需要负责服务过程中问题现象和处理方案的 收集撰写,形成知识库,并对知识库进行维护更新。以下是橙子整理 的大数据运维工程师岗位的工作职责概述。 大数据运维工程师岗位的工作职责概述 1 职责: 1 ,负责软件系统的部署运行 ; 2 、负责业务数据系统接入的规划和实施 ; 3 ,理解行业业务,梳理业务数据模型 ; 4 ,完成项目实施过程中各类文档的编写、收集、整理、归档 ; ,与客户保持密切沟通,建立良好的客户关系,保障良好的客户满意度 ; 有效的分析和控制客户需求, 解决项目实施过程中遇到的质量问 题和管理问题。 岗位要求: 1 、全日制本科以上学历,软件工程、计算机科学相关专业 ; 、3 年以上的软件 / 项目管理实施经验 ; 3 、熟悉 Linux 操作,熟练编写 shell/python 脚本 ; 4 、了解常用开源分布式系统 Hadoop/Spark/Hive/Hbase; 、熟练使用 SQL语句,熟悉 ETL工作 ; 1 / 6 文章来源网络整理,仅供参考学习 、熟悉 Oracle ,mysql 等关系型数据库 ; 、具有强烈的责任感与团队合作精神, 出色的沟通及学习能力 ; 、有较强的分析问题能力,独立解决问题能力,能接受在客户公司办公。 大数据运维工程师岗位的工作职责概述 2 职责 : 管理公司数据库,提供高可用、高性能数据库系统,并保障系统稳定运行。 负责数据库性能监控与优化,故障处理,数据备份及灾难恢 复。 负责数据库自助平台的高可用架构设计和负载均衡的设计和 实现。 负责业务系统数据库管理,包括数据库日常维护,系统数据安全以及权限管理、故障处理、日常错误情况处理等。 负责依据业务需求优化数据存储结构,负责数据库系统部署方案的计划、设计和实施。 负责系统数据库定期检查,进行性能分析与调优,充分保证信息系统数据的安全及系统高效运行。 任职资格 : 全日制本科及以上学历,计算机或相关专业 熟悉 MySQL实现原理, InnoDB,MyISAM,Memory引擎,熟悉 存储过程和事务。 2 / 6 文章来源网络整理,仅供参考学习 熟悉数据库原理、精通数据库核心参数的设置和调整,有规划、设计、部署以及数据库性能优化经验。 具备数据库设计、 SQL优化能力,能根据业务需求, 提供高可用、高性能、可扩展、稳定可靠的数据库解决方案。 了解 MongoDB等非关系型数据库的特点。了解Redis , Memcache等内存数据库及缓存系统的原理及实现。 熟悉 Linux 操作系统,对主机、存储、网络有一定的了解 , 会 使用 Shell/Perl/Python 中的一门脚本语言。 7. 有 Hadoop/Kafka/Spark/ElasticSearch 相关经验的优先考 虑。 大数据运维工程师岗位的工作职责概述 3 职责: 、负责 Hadoop集群的安装部署、维护及调优 : 2 、负责 spark 的安装邮署、维护及调优 : 3 、负责基于大数据平台开发的应用系统的部署、日常维护、调 优和问题处理 、负责 ELK 平台的部署及维护。技能要求: 、2 年以上大数据运维工仵经验 ; 、熟悉 Hadoop生态圈技术栈及各个组件原理 : ⒊、熟练掌握 HDFS、Hive 、HBase、sρark 、sqooρ 等组件,具 备部署、维护、调优的能力 : 3 / 6 文章来源网络整理,仅供参考学习 、热悉 kylin 技术原理 , 有一定的维护经验优先 : 、掌掇 ELK的日常维护技能·有一定的维护 . 经验优先 : 、有一定的 HQL/sql 性能调优经验 ; 、具备基本的 java 、python 等语言开发能力优先 : 、有较强的沟通、团队协作及学习能力。大数据运维工程师岗位的工作职责概述 4 职责: 1 、负责公司大数据 /Hadoop/hive/hbase/flink 等离线实时数据 平台运维保障 ; 2 、负责内部大数据自动化运维以及数据化运营平台开发工作 ; 、负责 Hadoop/Hbase等系统的业务监控、持续交付、应急响应、容量规划等 ; 、深入理解数据平台架构,发现并解决故障及性能瓶颈,打造一流的数据平台 ; 、持续的创新和优化能力, 提升产品整体质量, 改善用户体验,控制系统成本。 、善于表达、理解客户数据服务需求,具备数据需求转化落地能力。 任职要求: 1 、大学本科及以上学历,计算机或者相关专业 ; 2 、深入理解 linux 系统,运维体系结构,精于容量规划、性能 优化 ; 4 / 6 文章来源网络整理,仅供参考学习 、具备一定的开发能力,精通一门以上脚本语 言;(shell/perl/python等)

文档评论(0)

150****2132 + 关注
实名认证
内容提供者

该用户很懒,什么也没介绍

1亿VIP精品文档

相关文档