- 1、本文档共8页,可阅读全部内容。
- 2、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
- 3、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载。
- 4、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
- 5、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
- 6、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们。
- 7、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
- 8、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多
Hadoop2.6中配置Mahout0.10.0.doc
Hadoop 2.6 + Spark 1.2.1中安装和配置Mahout 0.10.0
一、下载Mahout
/dist/mahout/
二、解压
(1)使用命令:tar -zxvf mahout-distribution-0.9.tar.gz 或者使用右键菜单解压
(2)将解压后的文件mahout-distribution-0.9移动到/home/hadoop下
三、配置环境变量
3.1、配置Mahout环境变量
(1)切换到root用户:
输入命令su
输入root用户密码
(2)打开配置文件
输入命令 vim /etc/profile,按键盘a字母键,开启编辑模式,在文件末尾加上:
# set java environment
export JAVA_HOME=/usr/lib/jvm/java-1.7.0-openjdk-1-.el7.x86_64
export JRE_HOME=/usr/lib/jvm/java-1.7.0-openjdk-1-.el7.x86_64/jre
export CLASSPATH=.:$CLASSPATH:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar:$JRE_HOME/lib
export PATH=$PATH:$JAVA_HOME/bin:$JRE_HOME/bin
# set hadoop environment
export HADOOP_HOME=/usr/hadoop
export HADOOP_CONF_DIR=$HADOOP_HOME/etc/hadoop
export PATH=$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin
# set spark environment
export SCALA_HOME=/usr/scala/scala-2.11.6
export PATH=$PATH:$SCALA_HOME/bin
export SPARK_HOME=/opt/spark-1.2.1-bin-hadoop2.4
export MASTER=spark://99:7077
export PATH=$PATH:$SPARK_HOME/bin
# set mahout environment
export MAHOUT_HOME=/home/hadoop/mahout/mahout-distribution-0.9
export MAHOUT_CONF_DIR=$MAHOUT_HOME/conf
export MAHOUT_LOCAL=
export PATH=$PATH:$MAHOUT_HOME/bin
export CLASSPATH=$CLASSPATH:$MAHOUT_HOME/lib
(3)保存配置
按下ESC键,退出编辑模式,并输入命令
:wq!
按Enter键,保存配置并关闭文件
输入命令 source /etc/profile使配置立即生效
(4)输入命令vim /home/hadoop/.bashrc,同样在末尾加上(2)中添加的内容,保存配置并退出,
利用命令source /home/hadoop/.bashrc使配置立即生效
四、验证Mahout是否安装成功
切换到hadoop用户,执行命令mahout。若列出一些算法,则成功,如图:
五、使用Mahout 之入门级使用(运行于Hadoop集群)
5.1、启动Hadoop
5.2、下载测试数据
/ml/databases/synthetic_control/链接中的synthetic_control.data
5.3、上传测试数据
(1)在HDFS文件系统中创建文件夹
hadoop fs -mkdir /user
hadoop fs -mkdir /user/hadoop
hadoop fs -mkdir /user/hadoop/testdata
(2)上传测试数据到Hadoop文件系统中
hadoop fs -put /home/hadoop/Downloads/synthetic_control.data /user/hadoop/testdata
(其他测试用例可参考/users/clustering/clustering-of-synthetic-control-data.html)
5.4 使用Mahout中的kmeans聚类算法,执行命令:
mahout org.apache.mahout.clustering.syntheti
文档评论(0)