网站大量收购闲置独家精品文档,联系QQ:2885784924

《数据实时处理flink》课件——第九章 Flink的部署和配置.pptVIP

《数据实时处理flink》课件——第九章 Flink的部署和配置.ppt

此“教育”领域文档为创作者个人分享资料,不作为权威性指导和指引,仅供参考
  1. 1、本文档共34页,可阅读全部内容。
  2. 2、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
  3. 3、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  4. 4、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
  5. 5、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
  6. 6、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们
  7. 7、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
  8. 8、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多

生产环境中,一般使用命令行管理作业,名为flink,放在Flink主目录下的bin目录下。功能:提交、取消、罗列当前作业,获取作业信息,设置Savepoint。会从conf/flink-conf.yaml里读取配置信息。使用方式:ACTION包括run(提交作业)、stop(取消作业)等。OPTIONS为一些预置的选项,ARGUMENTS是用户传入的参数。命令行工具$./bin/flinkACTION[OPTIONS][ARGUMENTS]模板:需要使用Maven对用户代码打包,得到JAR包。使用WordCount的例子:使用-c参数,设置程序入口类:在命令行中用-p选项设置这个作业的并行度提交作业$./bin/flinkrun[OPTIONS]xxx.jar[ARGUMENTS]$./bin/flinkrun./examples/streaming/WordCount.jar$./bin/flinkrun./examples/streaming/WordCount.jar -corg.apache.flink.streaming.examples.wordcount.WordCount$./bin/flinkrun-p2./examples/streaming/WordCount.jar传入参数,参数会写入main方法的参数String[]中使用-m选项来设置向具体哪个Master提交提交作业$./bin/flinkrun./examples/streaming/WordCount.jar -corg.apache.flink.streaming.examples.wordcount.WordCount --input/tmp/a.log’ --output/tmp/b.log$./bin/flinkrun-mmyJMHost:8081 \./examples/streaming/WordCount.jar罗列当前作业:触发一个作业执行Savepoint,savepointDirectory为目录:关停一个Flink作业:从一个Savepoint恢复一个应用作业:管理作业$./bin/flinklist$./bin/flinksavepointjobId[savepointDirectory]$./bin/flinkcanceljobID$./bin/flinkrun-ssavepointPath[OPTIONS]xxx.jarFlink集群部署模式Flink配置文件命令行工具Flink与Hadoop集成确认已经在机器上安装好Hadoop,配置好环境变量HADOOP_CONF_DIR:将Hadoop依赖包添加到Flink中,两种方法:在环境变量中添加HadoopClasspath,Flink从HadoopClasspath中读取所需依赖包。将所需的HadoopJAR包添加到Flink主目录下的lib目录中。与Hadoop集成HADOOP_CONF_DIR=/path/to/etc/hadoopHADOOP_CLASSPATH存储Hadoop相关类的路径hadoop是Hadoop提供的命令,hadoopclasspath返回Hadoop所有相关的JAR包和依赖下面的命令会添加环境变量:Flink启动时会从$HADOOP_CLASSPATH中寻找所需依赖包。直接使用已经安装的Hadoop。Flink所需要的依赖和已经安装的Hadoop提供的依赖有可能发生冲突。添加HadoopClasspathexportHADOOP_CLASSPATH=`hadoopclasspath`Flink主目录下有一个lib目录,专门存放各类第三方的依赖包。可以将Hadoop依赖包添加到这个目录下:从Flink官网下载预打包的Hadoop依赖包:一些通用的Hadoop版本从源码编译:一些定制的Hadoop将Hadoop添加到lib文件夹下本章中我们应该掌握了Flink集群的部署模式、常用配置和作业提交方式。这些操作可以帮助读者在生产环境中执行Flink作业。谢谢*NativeKubernetes:资源动态分配Flink1.11之后支持第*页第*页第*页前言第*页目录第*页本节概述和学习目标第*页第*页本章总结Flink的部署和配置通过对前文的学习,包括使用DataStreamAPI和使用TableAPISQL来编写程序。本章将重点

您可能关注的文档

文档评论(0)

青柠职教 + 关注
实名认证
服务提供商

从业10年,专注职业教育专业建设,实训室建设等。

1亿VIP精品文档

相关文档