hadoop安装与配置

  

1。检查JDK版本


2。时间同步


3。设置免密码登录

 #生成密钥(node1, node2、node3 node4)
  ssh-keygen  -t  dsa  -P “, -f  ~/. ssh/id_dsa
  cd  ~/. ssh/ls
  #说明
  # # id_ds 私钥
  # # is_dsa.pub 公钥
  #将公钥文件追加到本地的认证文件中(node1, node2、node3 node4)
  cat  ~/. ssh/id_dsa.pub 在在~/. ssh/authorized_keys
  ssh  192.168.2.136
  # Last 登录:Sun  Jul , 9, 14:14:35  2017年,得到192.168.2.136,表示登录成功,并且是不需要输入密码的
  退出
  # logout 退出
  将node1中的公钥复制到node2, node3, node4中
  scp 。/id_dsa.pub  root@192.168.2.137:/opt/scp 。/id_dsa.pub  root@192.168.2.138:/opt/scp 。/id_dsa.pub  root@192.168.2.139:/opt/将/opt/id_dsa.pub添加到node2, node3, node4的认证文件中
  ,cat /opt/id_dsa.pub 祝辞祝辞~/sh/authorized_keys 


4。设置node1为NameNode, node2、node3 node4为datanode

<>之前将hadoop压缩包上传到node1的/根目录   tar  -zxvf  hadoop-2.5.1_x64.tar.gz      mv  hadoop-2.5.1 /home/cd /home/ls   cd  hadoop-2.5.1   ls   cd 等/hadoop      #配置1,修改hadoopenv.sh   vi  hadoop-env.sh   #将jdk的安装目录添加到这个文件   export  JAVA_HOME=/usr/java/jdk1.7.0_79      #配置2,修改core-site.xml   ,,,vi  core-site.xml   & lt; configuration>   ,,,& lt; property>   ,,,,,,,& lt; name> fs.defaultFS   ,,,,,,,& lt; value> hdfs://192.168.2.136:9000   ,,,& lt;/property>   ,,,& lt; property>   ,,,,,,,& lt; name> hadoop.tmp.dir   ,,,,,,,& lt; value>/opt/hadoop - 2.5 - & lt;/value>   ,,,& lt;/property>   & lt;/configuration>      #配置3,修改hdfs-site.xml   vi  hdfs-site.xml   & lt; configuration>   ,,,& lt; property>   ,,,,,,,& lt; name> dfs.namenode.secondary.http-address   ,,,,,,,& lt; value> 192.168.2.137:50090   ,,,& lt;/property>   ,,,& lt; property>   ,,,,,,,& lt; name> dfs.namenode.secondary.https-address   ,,,,,,,& lt; value> 192.168.2.137:50091   ,,,& lt;/property>   & lt;/configuration>      #配置4,修改奴隶   vi 奴隶   192.168.2.137   192.168.2.138   192.168.2.139      5 #配置,修改主人   vi 硕士   192.168.2.137


5。复制文件

<>以前scp  -r  hadoop-2.5.1/root@192.168.2.137:/home/scp  -r  hadoop-2.5.1/root@192.168.2.138:/home/scp  -r  hadoop-2.5.1/, root@192.168.2.139:/home/


6。配置hadoop环境变量,

 vi  ~/. bash_profile
  export  HADOOP_HOME=/home/hadoop-2.5.1
  export 路径=$路径:$ HADOOP_HOME/bin: $ HADOOP_HOME/sbin 


7。复制文件

<>以前scp  ~/.bash_profile  root@192.168.2.137:/根/scp  ~/.bash_profile  root@192.168.2.138:/根/scp  ~/.bash_profile  root@192.168.2.139:/根/


8。重新加载~/ash_profile

<>以前source  ~/ash_profile


9。格式化hdf文件系统,只能在NameNode (node1)上使用

 hdfs  namenode 格式


10。查看生成文件fsp_w_picpath

 cd /opt/hadoop - 2.5/dfs/名称/电流
  ls  - l 


11。启动节点

 start-dfs.sh
  #开始。sh 


12。关闭防火墙

<>以前service  iptables 停止


13。监控页面进行访问

 http://192.168.2.136:50070 dfshealth。html # tab-overview 


14。说明:保证/etc/主机下的配置正确


hadoop安装与配置