- 1、本文档共8页,可阅读全部内容。
- 2、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
- 3、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载。
- 4、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
Flume数据消费执行脚本及实现
一、任务描述
编写Flume数据消费脚本,统一Hadoop及Flume的guava版本,在启动消费脚本后,
Flume会从Kafka中采集数据,最后将数据存储到HDFS分布式文件系统中。
二、能力目标
1.能根据Shell命令,正确启动Flume数据消费脚本
2.了解Hadoop及Flume中guava版本的冲突问题
三、任务准备
1.启动HDFS服务
2.启动Zookeeper服务
3.启动Kafka服务
四、任务实施
1.编写数据消费脚本
切换到node2节点上,在data_collection目录下创建数据消费启动与停止的脚本f2.sh。
[bigdata@node2~]$cd/opt/project/offlineDataWarehouse/data_collection/
[bigdata@node2data_collection]$vimf2.sh
在f2.sh脚本中添加如下内容:
#!/bin/bash
flume=$FLUME_HOME
dir=/opt/project/offlineDataWarehouse/data_collection
logs=/opt/project/offlineDataWarehouse/logs
case$1in
start){
foriinnode2
do
echo启动$i消费flume
ssh$isource/etc/profile;nohup$flume/bin/flume-ngagent-na1
-f$dir/kafka-flume-hdfs.conf-Dflume.root.logger=INFO,LOGFILE$logs/f2.log
21
done
};;
stop){
foriinnode2
do
echo停止$i消费flume
ssh$ips-ef|grepkafka-flume-hdfs|grep-vgrep|awk{print\
$2}|xargskill
done
};;
esac
赋予f2.sh脚本当前用户的执行权限。
[bigdata@node2data_collection]$chmodu+xf2.sh
2.统一Hadoop及Flume的guava版本
Hadoop3.3.0中的guava版本和Flume1.9.0中的版本不一致,Hadoop3.3.0中为
guava-27.0-jre.jar,Flume1.9.0中为guava-11.0.2.jar,版本不一致会导致Flume消费脚本
在执行时报错。解决方法是首先删除Flume中的guava,然后将Hadoop中高版本的guava
复制到Flume中。
在node1、node2两个节点分别删除Flume中的guava-11.0.2.jar。
[bigdata@node1opt]$rm-rf/opt/module/flume-1.9.0/lib/guava-11.0.2.jar
[bigdata@node2opt]$rm-rf/opt/module/flume-1.9.0/lib/guava-11.0.2.jar
下面在node1、node2两个节点分别将Hadoop中guava复制到Flume中。首先进入
到Hadoop中guava所在的目录。
[bigdata@node1opt]$cd/opt/module/hadoop-3.3.0/share/hadoop/common/lib
[bigdata@node2opt]$cd/opt/module/hadoop-3.3.0/share/hadoop/common/lib/
将Hadoop中的guava复制到Flume中。
[bigdata@node1lib]$cpguava-27.0-jre.jar/opt/module/flume-1.9.0/lib
[bigdata@node2lib]$cpguav
您可能关注的文档
- Hadoop大数据技术与项目实战 教案 模块2 大数据平台部署.docx
- Hadoop大数据技术与项目实战 实训指导书及代码资源 5.2 Sqoop数据迁移实训指导书.pdf
- Hadoop大数据技术与项目实战 实训指导书及代码资源 5.3.1 pyecharts可视化工具介绍.pdf
- Hadoop大数据技术与项目实战 实训指导书及代码资源 5.3.2 导入数据、绘制大屏标题.pdf
- Hadoop大数据技术与项目实战 实训指导书及代码资源 5.3.4 绘制象形柱状图、水球图.pdf
- Hadoop大数据技术与项目实战 实训指导书及代码资源 5.3.7 数据大屏展示.pdf
- Hadoop大数据技术与项目实战 实训指导书及代码资源 辅助实训指导书——导入uzet.sql数据库文件至虚拟机数据库.pdf
- Hadoop大数据技术与项目实战 实训指导书及代码资源 模块5 项目数据可视化展示.pdf
- Hadoop大数据技术与项目实战 实训指导书1——5.3.4 绘制象形柱状图(沉默用户数).pdf
- Hadoop大数据技术与项目实战 实训指导书1——5.3.7 安装bs4第三方库.pdf
- Hadoop大数据技术与项目实战 实训指导书及代码资源 2.1 大数据相关开发软件安装.pdf
- Hadoop大数据技术与项目实战 实训指导书及代码资源 2.2 Linux系统环境配置.pdf
- Hadoop大数据技术与项目实战 实训指导书及代码资源 2.3 Hadoop分布式集群环境搭建.pdf
- Hadoop大数据技术与项目实战 实训指导书及代码资源 2.8 Kafka集群环境搭建及应用.pdf
- Hadoop大数据技术与项目实战 实训指导书——2.1.1 IDEA的安装和配置.pdf
- Hadoop大数据技术与项目实战 实训指导书——2.1.2 VMware虚拟机安装.pdf
- Hadoop大数据技术与项目实战 实训指导书——2.1.3 Xftp的安装.pdf
- Hadoop大数据技术与项目实战 实训指导书——2.1.4 Xshell的安装.pdf
- Hadoop大数据技术与项目实战 实训指导书——2.2.1 安装虚拟机.pdf
- Hadoop大数据技术与项目实战 实训指导书——2.2.2 克隆虚拟机.pdf
文档评论(0)