码头工人中火花+ scala安装配置

  

<强>一,scala安装
首先下载scala压缩包

  
  wget https://downloads.lightbend.com/scala/2.11.7/scala-2.11.7.tgz

     

解压   

  

焦油-zxvf scala-2.11.7.tgz      

移动目录

  
  

mv scala-2.11.7/usr/local/   

改名   

  

cd/usr/local/
mv scala-2.11.7 scala

     

配置环境变量

  
  

vim/etc/profile
export SCALA_HOME=/usr/地方/scala
出口路径=$路径:SCALA_HOME美元/bin

     

码头工人中火花+ scala安装配置

  

环境变量生效

  
  源/etc/profile

     

查看scala版本

  
  scala - version

     

分发scala到其他主机

  
  

scp - r/usr/local/scala/root@Master:/usr/地方/
scp - r/usr/local/scala/root@Slave2:/usr/地方/

     

<强>二,火花安装
复制火花压缩包到容器中

  
  

码头工人cp/root/spark-2.1.2-bin-hadoop2.4。tgz b0c77:/

     

码头工人中火花+ scala安装配置

  

查看并解压

  

码头工人中火花+ scala安装配置“> <br/>在概要文件中添加火花环境变量<br/> <img src=
生效环境变量

  
  源/etc/profile

     

编辑spark-env.sh   

  vim/usr/local/spark/conf/spark-env.sh

     

码头工人中火花+ scala安装配置

  
      <李> JAVA_HOME: Java安装目录   <李> SCALA_HOME: Scala安装目录   <李> HADOOP_HOME: hadoop安装目录   <李> HADOOP_CONF_DIR: hadoop集群的配置文件的目录   <李> SPARK_MASTER_IP:火花集群的主人节点的ip地址李   <李> SPARK_WORKER_MEMORY:每个工人节点能够最大分配给遗嘱执行人的内存大小李   <李> SPARK_WORKER_CORES:每个工人节点所占有的CPU核数目李   <李> SPARK_WORKER_INSTANCES:每台机器上开启的工人节点的数目
    修改奴隶文件   
  
  

cp的奴隶。模板奴隶

     

码头工人中火花+ scala安装配置

  
  

vi设计/奴隶

     

码头工人中火花+ scala安装配置

  
  

scp - r/usr/local/spark/大师:/usr/当地

     

码头工人中火花+ scala安装配置

  
  

scp - r/usr/local/spark/Slave2:/usr/当地

     

码头工人中火花+ scala安装配置“> <br/>同时其他两个节点也要修改/etc/profile <br/>启动火花</p>
  <blockquote>
  <p>。/sbin/start-all.sh </p>
  </引用>
  <p> <img src=码头工人中火花+ scala安装配置