SPARK安装过程

举报
shs 发表于 2018/12/17 11:32:32 2018/12/17
【摘要】 SPARK安装过程

环境:

1、操作系统:CentOS-6.5-x86_64

2、JDK:jdk-8u40-linux-x64

3、HADOOP:hadoop-2.6.0

4、HBASE:hbase-0.98.11-hadoop2

5、MySQL-server-5.5.28-1.linux2.6.x86_64

6、HIVE1.1.0


共3台虚拟机,每台虚拟机500M内存足矣,一台作namenode,两台作datanode

192.168.120.10    nn1

192.168.120.11    dn1

192.168.120.12    dn2


前提:安装好HADOOP2.6.0,安装好用于导入、导出测试的

***********************************************************************************************************

1、在.bash_profile文件中增加环境变量:

export SCALA_HOME=/home/hadoop/scala

export SPARK_HOME=/home/hadoop/spark

export PATH=$PATH:$SCALS_HOME/bin



2、在nn1上下载并解压scala和spark软件安装包(hadoop用户)

tar -zxvf scala-2.11.6.tgz

tar -zxvf spark-1.3.1-bin-hadoop2.6.tgz

mv scala-2.11.6 scala

mv spark-1.3.1-bin-hadoop2.6 spark


-------------------------

-------如果是单机,3-5不需要做

  3、修改spark/conf/下slaves文件,修改内容如下:

   dn1

   dn2


  4、将spark, scala  目录,打包并复制到dn1,dn2上



  5、启动spark集群(在nn1上)

   cd ~

   spark/sbin/start-all.sh

-------------------------

6、检查进程

(1)在nn1上,运行jps

Master   #会多出这个进程。

(2)在dn1,dn2上,运行jps

Worker   #会多出这个进程。



7、测试:

cd 

spark/bin/spark-shell



【版权声明】本文为华为云社区用户原创内容,转载时必须标注文章的来源(华为云社区)、文章链接、文章作者等基本信息, 否则作者和本社区有权追究责任。如果您发现本社区中有涉嫌抄袭的内容,欢迎发送邮件进行举报,并提供相关证据,一经查实,本社区将立刻删除涉嫌侵权内容,举报邮箱: cloudbbs@huaweicloud.com
  • 点赞
  • 收藏
  • 关注作者

评论(0

0/1000
抱歉,系统识别当前为高风险访问,暂不支持该操作

全部回复

上滑加载中

设置昵称

在此一键设置昵称,即可参与社区互动!

*长度不超过10个汉字或20个英文字符,设置后3个月内不可修改。

*长度不超过10个汉字或20个英文字符,设置后3个月内不可修改。