Linux系统Hadoop + Hbase安装配置实录

  

生产环境:
  3台机器:主人(192.168.0.61)slave1 (192.168.0.62) slave2 (192.168.0.63)
  注意:主机名设置为大师/slave1 slave2
  操作系统: rhel5.4 x86_64

  

主做为namenonde,将slave1和slave2做为datanode

  

1。在主:(在slave1和slave2上操作和以下相同)
  vi/etc/hosts
  192.168.0.61大师
  192.168.0.62 slave1
  192.168.0.63 slave2

  

2。用根操作

  

3。免密码登录
  # ssh - keygen - t rsa #建立ssh目录,敲回车到底,这一步需要先在每台机器上执行。
  在主人上
  # scp ~/. ssh/id_rsa。酒吧root@slave1:/root/. ssh/id_rsa。pub_m将主人上的密钥传到slave1的/home/hadoop下
  在slave1上
  #猫/root/.ssh/id_rsa.pub_m祝辞祝辞~/sh/authorized_keys
  # chmod 644 ~/. ssh/authorized_keys

  

反复操作第3步,完成master<4莝lave1 master<4莝lave2的免密码登录
  这样主节点和从节点之间就可以不用密码直接ssh访问,另外,在启动hadoop时需要掌握ssh的主人,
  因此,在主人的~/sh下,也执行下猫id_rsa。酒吧在祝辞authorized_keys即可。

  

4。安装JDK到/usr/当地下命名为jdk6
  然后:
  编辑三台机器的/etc/profile,增加如下内容
  出口JAVA_HOME=/usr/地方/jdk6
  出口CLASSPATH=$类路径:$ JAVA_HOME/lib: $ JAVA_HOME/jre/lib
  出口HADOOP_HOME=/hadoop/hadoop
  出口HBASE_HOME=/hadoop/hbase
=$ PATH: $ JAVA_HOME/bin: $ HADOOP_HOME/bin: $ HBASE_HOME/bin

  

# vi/root/.bashrc
(   增加
  出口HADOOP_CONF_DIR=/hadoop/hadoop-config
  出口HBASE_CONF_DIR=/hadoop/hbase-config

  

5,防火墙
  ,,各机器加入iptables策略:
  # iptables -输入- s 192.168.0.0/255.255.255.0 - j失忆
  #服务iptables保存

  

- - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - -
  hadoop配置:

  

1。下载安装
  # cd/hadoop
  # wget http://labs.renren.com/apache-mirror//hadoop/core/hadoop-0.20.2/hadoop-0.20.2.tar.gz
  #焦油-zxvf hadoop-0.20.2.tar。广州
  # ln - s hadoop-0.20.2 hadoop
  ,,由于上述目录中hadoop的配置文件和hadoop的安装目录是放在一起的,这样一旦日后升级hadoop版本的时候所有的配置文件都会被覆盖,因此将配置文件与安装目录分离,一

  

种比较好的方法就是建立一个存放配置文件的目录,/hadoop/hadoop-config/,然后将/hadoop/hadoop/conf/目录中的core-site.xml,奴隶,hadoop-env。sh,大师,hdfs -

  

xml, mapred-site。xml,这6个文件拷贝到/hadoop/hadoop-config/目录中,并指定环境变量美元HADOOP_CONF_DIR指向该目录。环境变量在/根/ashrc中(设定。
  # mkdir/hadoop/hadoop-config
  # cd/hadoop/hadoop/conf/
  # cp核心位点。xml hadoop-env奴隶。sh hdfs-site大师。xml mapred-site。xml/hadoop/hadoop-config/

  


  2.修改6个文件
  大师:
  主

  

奴隶:
  slave1
  slave2

  

#切忌不要创建:/hadoop/hadoop/tmp
  hadoop-env。承宪:
  出口JAVA_HOME=/usr/地方/jdk6
  出口HADOOP_PID_DIR=/hadoop/hadoop/tmp

  

核心位点。xml:
  & lt; ?xml version=?.0“在
?   & lt; ?xml样式表类型=拔谋?xsl"href=https://www.yisu.com/zixun/癱onfiguration.xsl”?>
  & lt; !——把特定站点属性覆盖在这个文件中。——在
  & lt; configuration>
  & lt; property>
  ,,& lt; name> fs.default.name
  ,,& lt; value> hdfs://主:54310 & lt;/value>
  & lt;/property>
  & lt;/configuration>

  

#切忌不要创建:
/hadoop/hadoop/名称   # mkdir/hadoop/hadoop/数据
  hdfs-site。xml:
  & lt; ?xml version=?.0“在
?   & lt; ?xml样式表类型=拔谋?xsl"href=https://www.yisu.com/zixun/癱onfiguration.xsl”?>
  & lt; !——把特定站点属性覆盖在这个文件中。——在
  & lt; configuration>
  & lt; property>
  & lt; name> dfs.name.dir
  & lt; value>/hadoop/hadoop/名称/& lt;/value># hadoop的名字目录路径,,,,
  & lt;/property>
  & lt; property>
  & lt; name> dfs.data.dir
  & lt; value>/hadoop/hadoop/数据/& lt;/value># hadoop的数据目录路径
  & lt;/property>
  & lt; property>
  ,,& lt; name> dfs.replication
  ,,& lt; value> 3 & lt;/value>,,,,#指定HDFS中每个块被复制的次数,起数据冗余备份的作用,在典型的生产系统中,这个数常常设置为3

Linux系统Hadoop + Hbase安装配置实录