上一遍文章中其实最主要的就是JAVA环境变量以及hadoop环境变量的设置,这两个设置好了的话,运行hadoop基本上不会出问题。
在hadoop的基础上安装火花好简单。
安装火花之前需要先安装hadoop集群,因为之前已经安装了hadoop,所以我直接在之前的hadoop集群上安装火花。
硬件环境:
hddcluster1 10.0.0.197 redhat7
hddcluster2 10.0.0.228 centos7,这台作为大师
hddcluster3 10.0.0.202 redhat7
hddcluster4 10.0.0.181 centos7
软件环境:
scala-2.11.7
spark-2.0.2-bin-hadoop2.7。tgz
#所有操作用hadoop
基本流程:
1,主解压scala-2.11.7和spark-2.0.2-bin-hadoop2.7。tgz到相应的目录
2,配置scala和火花环境变量
3,修改配置文件
4,拷贝scala和火花到各个节点,授权
5,启动火花集群
# hadoop用户下操作,下载scala,安装 wget http://downloads.lightbend.com/scala/2.11.7/scala-2.11.7.tgz tar -zxvf  scala-2.11.7.tgz mv scala-2.11.7 /usr/地方/scala sudo mv  scala-2.11.7 /usr/地方/scala vim .bashrc ,,,, #添加 export SCALA_HOME=/usr/地方/scala export 路径=$路径:$ HADOOP_HOME/sbin: $ HADOOP_HOME/bin: $ SCALA_HOME/bin source . bashrc (hadoop@hddcluster2 ~),美元scala - version Scala code  runner version  2.11.7 ——, Copyright 2002 - 2013年,灯/EPFL
#在官网下载spark-2.0.2-bin-hadoop2.7.tgz tar -zxvf  spark-2.0.2-bin-hadoop2.7.tgz mv spark-2.0.2-bin-hadoop2.7 火花 sudo mv  spark /usr/地方/vim .bashrc ,, #添加 export SPARK_HOME=/usr/地方/火花 export 路径=$路径:$ HADOOP_HOME/sbin: $ HADOOP_HOME/bin: SCALA_HOME/bin:美元SPARK_HOME
#修改火花配置文件 cd /usr/地方/conf/火花 cp spark-env.sh.template  spark-env.sh vi spark-env.sh ,, #添加下面内容 # # # jdk dir export JAVA_HOME=/usr/lib/jvm/java - 1.8.0 openjdk 1.8.0.111 b15.el7_3.x86_64——2. # # # scala dir export SCALA_HOME=/usr/地方/scala # # #,ip of  master node of 火花 export SPARK_MASTER_IP=10.0.0.228 # # #,max memory  size of 工人 export SPARK_WORKER_MEMORY=8 g # # # hadoop configuration  file dir export HADOOP_CONF_DIR=/usr/地方/hadoop/etc/hadoop/#修改奴隶 cp slaves.template 奴隶 vi slaves ,, #把localhost改为下面内容 hddcluster1 hddcluster2 hddcluster3 hddcluster4
。启动火花集群: 启动火花之前需要先将hadoop的dfs以及纱线启动。/usr/local/spark/sbin/start-all.sh ,启动所有服务之后,在命令行输入译本: [hadoop@hddcluster2 ~]美元译本 29601,ResourceManager 32098,SparkSubmit 29188,DataNode 29364,SecondaryNameNode 29062,然后 29915,NodeManager 30251,主 30380,工人 30062,JobHistoryServer 18767,译本 ,比hadoop集群启动时多了主人和工人/usr/local/spark/bin/spark-shell.sh 出现scala>时说明成功。 在浏览器中输入10.0.0.228:8080时,会看到如下图,有4个工人hadoop&spark安装(下)