生产环境:
3台机器:主人(192.168.0.61)slave1 (192.168.0.62) slave2 (192.168.0.63)
注意:主机名设置为大师/slave1 slave2
操作系统: rhel5.4 x86_64
主做为namenonde,将slave1和slave2做为datanode
1。在主:(在slave1和slave2上操作和以下相同)
vi/etc/hosts
192.168.0.61大师
192.168.0.62 slave1
192.168.0.63 slave2
2。用根操作
3。免密码登录
# ssh - keygen - t rsa #建立ssh目录,敲回车到底,这一步需要先在每台机器上执行。
在主人上
# scp ~/. ssh/id_rsa。酒吧root@slave1:/root/. ssh/id_rsa。pub_m将主人上的密钥传到slave1的/home/hadoop下
在slave1上
#猫/root/.ssh/id_rsa.pub_m祝辞祝辞~/sh/authorized_keys
# chmod 644 ~/. ssh/authorized_keys
反复操作第3步,完成master<4莝lave1 master<4莝lave2的免密码登录
这样主节点和从节点之间就可以不用密码直接ssh访问,另外,在启动hadoop时需要掌握ssh的主人,
因此,在主人的~/sh下,也执行下猫id_rsa。酒吧在祝辞authorized_keys即可。
4。安装JDK到/usr/当地下命名为jdk6
然后:
编辑三台机器的/etc/profile,增加如下内容
出口JAVA_HOME=/usr/地方/jdk6
出口CLASSPATH=$类路径:$ JAVA_HOME/lib: $ JAVA_HOME/jre/lib
出口HADOOP_HOME=/hadoop/hadoop
出口HBASE_HOME=/hadoop/hbase
=$ PATH: $ JAVA_HOME/bin: $ HADOOP_HOME/bin: $ HBASE_HOME/bin
# vi/root/.bashrc
(
增加
出口HADOOP_CONF_DIR=/hadoop/hadoop-config
出口HBASE_CONF_DIR=/hadoop/hbase-config
5,防火墙
,,各机器加入iptables策略:
# iptables -输入- s 192.168.0.0/255.255.255.0 - j失忆
#服务iptables保存
- - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - -
hadoop配置:
1。下载安装
# cd/hadoop
# wget http://labs.renren.com/apache-mirror//hadoop/core/hadoop-0.20.2/hadoop-0.20.2.tar.gz
#焦油-zxvf hadoop-0.20.2.tar。广州
# ln - s hadoop-0.20.2 hadoop
,,由于上述目录中hadoop的配置文件和hadoop的安装目录是放在一起的,这样一旦日后升级hadoop版本的时候所有的配置文件都会被覆盖,因此将配置文件与安装目录分离,一
种比较好的方法就是建立一个存放配置文件的目录,/hadoop/hadoop-config/,然后将/hadoop/hadoop/conf/目录中的core-site.xml,奴隶,hadoop-env。sh,大师,hdfs -
xml, mapred-site。xml,这6个文件拷贝到/hadoop/hadoop-config/目录中,并指定环境变量美元HADOOP_CONF_DIR指向该目录。环境变量在/根/ashrc中(设定。
# mkdir/hadoop/hadoop-config
# cd/hadoop/hadoop/conf/
# cp核心位点。xml hadoop-env奴隶。sh hdfs-site大师。xml mapred-site。xml/hadoop/hadoop-config/
2.修改6个文件
大师:
主
奴隶:
slave1
slave2
#切忌不要创建:/hadoop/hadoop/tmp
hadoop-env。承宪:
出口JAVA_HOME=/usr/地方/jdk6
出口HADOOP_PID_DIR=/hadoop/hadoop/tmp
核心位点。xml:
& lt; ?xml version=?.0“在
?
& lt; ?xml样式表类型=拔谋?xsl"href=https://www.yisu.com/zixun/癱onfiguration.xsl”?>
& lt; !——把特定站点属性覆盖在这个文件中。——在
& lt; configuration>
& lt; property>
,,& lt; name> fs.default.name
,,& lt; value> hdfs://主:54310 & lt;/value>
& lt;/property>
& lt;/configuration>
#切忌不要创建:
/hadoop/hadoop/名称
# mkdir/hadoop/hadoop/数据
hdfs-site。xml:
& lt; ?xml version=?.0“在
?
& lt; ?xml样式表类型=拔谋?xsl"href=https://www.yisu.com/zixun/癱onfiguration.xsl”?>
& lt; !——把特定站点属性覆盖在这个文件中。——在
& lt; configuration>
& lt; property>
& lt; name> dfs.name.dir
& lt; value>/hadoop/hadoop/名称/& lt;/value># hadoop的名字目录路径,,,,
& lt;/property>
& lt; property>
& lt; name> dfs.data.dir
& lt; value>/hadoop/hadoop/数据/& lt;/value># hadoop的数据目录路径
& lt;/property>
& lt; property>
,,& lt; name> dfs.replication
,,& lt; value> 3 & lt;/value>,,,,#指定HDFS中每个块被复制的次数,起数据冗余备份的作用,在典型的生产系统中,这个数常常设置为3