<强>一,scala安装强>
首先下载scala压缩包
wget https://downloads.lightbend.com/scala/2.11.7/scala-2.11.7.tgz引用>
解压
焦油-zxvf scala-2.11.7.tgz 引用>
移动目录
mv scala-2.11.7/usr/local/引用>
改名
cd/usr/local/
引用>
mv scala-2.11.7 scala配置环境变量
vim/etc/profile
引用>
export SCALA_HOME=/usr/地方/scala
出口路径=$路径:SCALA_HOME美元/bin
环境变量生效
源/etc/profile引用>
查看scala版本
scala - version引用>
分发scala到其他主机
scp - r/usr/local/scala/root@Master:/usr/地方/
引用>
scp - r/usr/local/scala/root@Slave2:/usr/地方/<强>二,火花安装强>
复制火花压缩包到容器中码头工人cp/root/spark-2.1.2-bin-hadoop2.4。tgz b0c77:/
引用>
查看并解压
生效环境变量源/etc/profile引用>
编辑spark-env.sh
vim/usr/local/spark/conf/spark-env.sh引用>
<李> JAVA_HOME: Java安装目录李> <李> SCALA_HOME: Scala安装目录李> <李> HADOOP_HOME: hadoop安装目录李> <李> HADOOP_CONF_DIR: hadoop集群的配置文件的目录李> <李> SPARK_MASTER_IP:火花集群的主人节点的ip地址李> <李> SPARK_WORKER_MEMORY:每个工人节点能够最大分配给遗嘱执行人的内存大小李> <李> SPARK_WORKER_CORES:每个工人节点所占有的CPU核数目李> <李> SPARK_WORKER_INSTANCES:每台机器上开启的工人节点的数目
修改奴隶文件李>cp的奴隶。模板奴隶
引用>
vi设计/奴隶
引用>
scp - r/usr/local/spark/大师:/usr/当地
引用>
scp - r/usr/local/spark/Slave2:/usr/当地
引用>