Azkaban-开源任务调度程序(使用篇).docx

Azkaban-开源任务调度程序(使用篇).docx

  1. 1、本文档共8页,可阅读全部内容。
  2. 2、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
  3. 3、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  4. 4、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
查看更多
登录https://localhost:8443https://localhost:8443注意是https,采用的是jetty ssl链接。输入账号密码azkaban/azkanban(如果你之前没有更改的话)首页首页有四个菜单projects:最重要的部分,创建一个工程,所有flows将在工程中运行。scheduling:显示定时任务executing:显示当前运行的任务history:显示历史运行任务主要介绍projects部分首先创建一个工程,填写名称和描述,比如o2olog。o2olog工程Flows:工作流程,有多个job组成Permissions:权限管理Project Logs:工程日志创建工程:创建之前我们先了解下之间的关系,一个工程包含一个或多个flows,一个flow包含多个job。job是你想在azkaban中运行的一个进程,可以是简单的linux命令,可是java程序,也可以是复杂的shell脚本,当然,如果你安装相关插件,也可以运行插件。一个job可以依赖于另一个job,这种多个job和它们的依赖组成的图表叫做flow。job创建创建job很简单,只要创建一个以.job结尾的文本文件就行了,例如我们创建一个工作,用来将日志数据导入hive中(关于大数据方面的东西,不在重复,可以理解为,将日志所需数据导入的mysql中),我们创建o2o_2_hive.jobtype=commandcommand=echo "data 2 hive"一个简单的job就创建好了,解释下,type的command,告诉azkaban用unix原生命令去运行,比如原生命令或者shell脚本,当然也有其他类型,后面说。一个工程不可能只有一个job,我们现在创建多个依赖job,这也是采用azkaban的首要目的。flows创建我们说过多个jobs和它们的依赖组成flow。怎么创建依赖,只要指定dependencies参数就行了。比如导入hive前,需要进行数据清洗,数据清洗前需要上传,上传之前需要从ftp获取日志。定义5个job:o2o_2_hive.job:将清洗完的数据入hive库o2o_clean_data.job:调用mr清洗hdfs数据o2o_up_2_hdfs.job:将文件上传至hdfso2o_get_file_ftp1.job:从ftp1获取日志o2o_get_file_fip2.job:从ftp2获取日志依赖关系:3依赖4和5,2依赖3,1依赖2,4和5没有依赖关系。o2o_2_hive.jobtype=command# 执行sh脚本,建议这样做,后期只需维护脚本就行了,azkaban定义工作流程command=sh /job/o2o_2_hive.shdependencies=o2o_clean_datao2o_clean_data.jobtype=command# 执行sh脚本,建议这样做,后期只需维护脚本就行了,azkaban定义工作流程command=sh /job/o2o_clean_data.shdependencies=o2o_up_2_hdfso2o_up_2_hdfs.jobtype=command#需要配置好hadoop命令,建议编写到shell中,可以后期维护command=hadoop fs -put /data/*#多个依赖用逗号隔开dependencies=o2o_get_file_ftp1,o2o_get_file_ftp2o2o_get_file_ftp1.jobtype=commandcommand=wget "ftp://file1" -O /data/file1o2o_get_file_ftp2.jobtype=commandcommand=wget "ftp:file2" -O /data/file2可以运行unix命令,也可以运行python脚本(强烈推荐)。将上述job打成zip包。ps:为了测试流程,我将上述command都改为echo +相应命令上传:上传上传完成点击o2o_2_hive进入流程,azkaban流程名称以最后一个没有依赖的job定义的。流程右上方是配置执行当前流程或者执行定时流程。流程执行Flow view:流程视图。可以禁用,启用某些jobNotification:定义任务成功或者失败是否发送邮件Failure Options:定义一个job失败,剩下的job怎么执行Concurrent:并行任务执行设置Flow Parametters:参数设置。1.执行一次设置好上述参数,点击execute。执行成功绿色代表成功,蓝色是运行,红色是失败。可以查看job运行时间,依赖和日志,点击details可以查看各个job运行情况。jobList2.定时执行

文档评论(0)

dashewan + 关注
实名认证
内容提供者

该用户很懒,什么也没介绍

1亿VIP精品文档

相关文档