1。检查JDK版本
2。时间同步
3。设置免密码登录
#生成密钥(node1, node2、node3 node4) ssh-keygen -t  dsa -P “, -f ~/. ssh/id_dsa cd ~/. ssh/ls #说明 # # id_ds 私钥 # # is_dsa.pub 公钥 #将公钥文件追加到本地的认证文件中(node1, node2、node3 node4) cat ~/. ssh/id_dsa.pub 在在~/. ssh/authorized_keys ssh 192.168.2.136 # Last 登录:Sun Jul , 9, 14:14:35 2017年,得到192.168.2.136,表示登录成功,并且是不需要输入密码的 退出 # logout 退出 将node1中的公钥复制到node2, node3, node4中 scp 。/id_dsa.pub root@192.168.2.137:/opt/scp 。/id_dsa.pub root@192.168.2.138:/opt/scp 。/id_dsa.pub root@192.168.2.139:/opt/将/opt/id_dsa.pub添加到node2, node3, node4的认证文件中 ,cat /opt/id_dsa.pub 祝辞祝辞~/sh/authorized_keys
4。设置node1为NameNode, node2、node3 node4为datanode
<>之前将hadoop压缩包上传到node1的/根目录 tar -zxvf  hadoop-2.5.1_x64.tar.gz mv hadoop-2.5.1 /home/cd /home/ls cd hadoop-2.5.1 ls cd 等/hadoop #配置1,修改hadoopenv.sh vi hadoop-env.sh #将jdk的安装目录添加到这个文件 export JAVA_HOME=/usr/java/jdk1.7.0_79 #配置2,修改core-site.xml ,,,vi core-site.xml & lt; configuration> ,,,& lt; property> ,,,,,,,& lt; name> fs.defaultFS ,,,,,,,& lt; value> hdfs://192.168.2.136:9000 ,,,& lt;/property> ,,,& lt; property> ,,,,,,,& lt; name> hadoop.tmp.dir ,,,,,,,& lt; value>/opt/hadoop - 2.5 - & lt;/value> ,,,& lt;/property> & lt;/configuration> #配置3,修改hdfs-site.xml vi hdfs-site.xml & lt; configuration> ,,,& lt; property> ,,,,,,,& lt; name> dfs.namenode.secondary.http-address ,,,,,,,& lt; value> 192.168.2.137:50090 ,,,& lt;/property> ,,,& lt; property> ,,,,,,,& lt; name> dfs.namenode.secondary.https-address ,,,,,,,& lt; value> 192.168.2.137:50091 ,,,& lt;/property> & lt;/configuration> #配置4,修改奴隶 vi 奴隶 192.168.2.137 192.168.2.138 192.168.2.139 5 #配置,修改主人 vi 硕士 192.168.2.137
5。复制文件
<>以前scp -r hadoop-2.5.1/root@192.168.2.137:/home/scp -r  hadoop-2.5.1/root@192.168.2.138:/home/scp -r  hadoop-2.5.1/, root@192.168.2.139:/home/
6。配置hadoop环境变量,
vi ~/. bash_profile export HADOOP_HOME=/home/hadoop-2.5.1 export 路径=$路径:$ HADOOP_HOME/bin: $ HADOOP_HOME/sbin
7。复制文件
<>以前scp ~/.bash_profile root@192.168.2.137:/根/scp ~/.bash_profile  root@192.168.2.138:/根/scp ~/.bash_profile  root@192.168.2.139:/根/
8。重新加载~/ash_profile
<>以前source ~/ash_profile
9。格式化hdf文件系统,只能在NameNode (node1)上使用
hdfs namenode 格式
10。查看生成文件fsp_w_picpath
cd /opt/hadoop - 2.5/dfs/名称/电流 ls - l
11。启动节点
start-dfs.sh #开始。sh
12。关闭防火墙
<>以前service iptables 停止
13。监控页面进行访问
http://192.168.2.136:50070 dfshealth。html # tab-overview
14。说明:保证/etc/主机下的配置正确