大数据:火花集群搭建

  

创建火花用户组,组ID1000

  

groupadd - g 1000火花

  

在火花用户组下创建用户ID 2000的火花用户获取视频中文档资料及完整视频的伙伴请加QQ群:2000
useradd - u 947967114 - g引发火花

  

设置密码

  

passwd火花   

修改sudo权限

  chmod u + w/etc/sudoers

  

vi/etc/sudoers   

找到   

根所有

=(所有)   

添加   

引发所有

=(所有)   

创建一个应用目录用来存放火花的软件环境(jdk, scala, spark)

  

mkdir/应用程序   

修改这个文件的属组和属主

  

乔恩- r火花:火花/应用

  

创建软   

mkdir/app/软

  

创建火花   

mkdir/app/火花

  

创建/火花/工作

  mkdir - p/home/spark/work

  

改变/火花/工作属组和属主

  

乔恩- r火花:火花/home/spark/work

  

切换用户

  根

苏   JDK

解压   cd/tmp/

  

焦油zxvf jdk-8u192-linux-x64.tar。广州- c/app/软/

  

如果没有权限首先使777年用chmod - r/tmp修改权限

  

cd/app/软/

  

会——

  

配置/etc/profile

  

第六sudo/etc/profile,所有需要的配置都添加了

  

JAVA_HOME=/app/软/jdk1.8.0_192

  

路径=$ JAVA_HOME/bin:路径:美元$ HOME/bin

  出口路径

  

让配置生效获取视频中文档资料及完整视频的伙伴请加QQ群:947967114源/etc/profile

  

安装scala:

  

焦油zxvf/tmp/scala-2.11.12。tgz - c/app/软/

  

配置环境变量

  

第六sudo/etc/profile   

JAVA_HOME=/app/软/jdk1.8.0_192

  

SCALA_HOME=/app/软/scala-2.11.12/

  

路径=$ JAVA_HOME/bin:路径:美元$ HOME/bin: $ SCALA_HOME/bin

  出口路径

  

配置ssh无秘登录

  

ssh - keygen - t rsa   

cd ~/cd . ssh/

  

修改公钥的名字

  

主节点:mv id_rsa。酒吧authorized_keys_master.pub

  

slave1节点:mv id_rsa。酒吧authorized_keys_slave1.pub

  

slave2节点:mv id_rsa。酒吧authorized_keys_slave2.pub

  

把slave1和slave2的公钥给主人

  

slave1节点:scp authorized_keys_slave1。酒吧spark@master:/home/火花/. ssh/

  

slave2节点:scp authorized_keys_slave2。酒吧spark@master:/home/火花/. ssh/

  

把三个节点的公钥都写在一个文件中

  

猫authorized_keys_master。酒吧在祝辞authorized_keys

  

猫authorized_keys_slave1。酒吧在祝辞authorized_keys

  

猫authorized_keys_slave2。酒吧在祝辞authorized_keys

  

查看一下总的公钥文件

  

vi authorized_keys   

把总的公钥文件authorized_keys给到slave1和slave2节点

  

scp authorized_keys spark@slave1:/home/火花/. ssh

  

scp authorized_keys spark@slave2:/home/火花/. ssh

  

修改authorized_keys的操作权限,三个节点都需要修改

  

chmod 400 authorized_keys   

验证免密登录是否成功

  

ssh的主人   ssh slave1

  ssh slave2

  

ssh的主人   

安装火花:

  

焦油-zxf/tmp/spark-2.1.0-bin-hadoop2.6。广州- c/app/火花/

  

cd/app/火花/

  ls

  

cd spark-2.1.0-bin-hadoop2.6/

配置环境变量:

  

vi/etc/profile   

JAVA_HOME=/app/软/jdk1.8.0_192

  

SCALA_HOME=/app/软/scala-2.11.12/

  

SPARK_HOME=/app/火花/spark-2.1.0-bin-hadoop2.6

  

路径=$ SPARK_HOME/bin: $ SPARK_HOME/sbin: $ JAVA_HOME/bin:路径:美元$ HOME/bin: $ SCALA_HOME/bin

  出口路径

  

配置引发的核心文件:

  

cd spark-2.1.0-bin-hadoop2.6/cd conf/

  

配置奴隶   

mv奴隶。模板奴隶

  

vi奴隶添加三个节点

  

大师   

slave1   

slave2   

配置spark-env.sh   

cp spark-env.sh。模板spark-env.sh

  

vi spark-env.sh   

export JAVA_HOME=/app/软/jdk1.8.0_192

  

export SCALA_HOME=/app/软/scala-2.11.12

  

export SPARK_MASTER_IP=主

  出口SPARK_MASTER_PORT=7077

  出口SPARK_EXECUTOR_INSTANCES=1

  出口SPARK_WORKER_INSTANCES=1

  出口SPARK_WORKER_CORES=1

  出口SPARK_WORKER_MEMORY

=1024   出口SPARK_MASTER_WEBUI=8080

  

export SPARK_CONF_DIR=/app/火花/spark-2.1.0-bin-hadoop2.6/conf/

大数据:火花集群搭建