redhat6。下安装配置hadoop环境——单实例版本

  

redhat6.4下(用作hadoop master:记录所有数据分布情况——namenode)——安装单实例计算机
1,修改主机名

的/etc/hosts [root@hadoop01] # vim (root@hadoop01) #主机名
hadoop01
2,关闭防火墙
[root@hadoop01] #服务iptables停止
iptables:设置链政策接受:[好]
iptables过滤:冲洗防火墙规则:[好]
iptables:卸载模块:[好]
[root@hadoop01] # chkconfig iptables了
[root@hadoop01] # vi/etc/selinux/config
3,配置java环境
[root@hadoop01] # vi/etc/profile
出口JAVA_HOME=/usr/lib/jvm/jre-1.7.0-openjdk。/x86_64/
export JRE_HOME=$ JAVA_HOME/jre
出口CLASSPARH=$ JACA_HOME/lib: $ JRE_HOME/lib: $出口路径类路径
=$ JAVA_HOME/bin: $ JRE_HOME/bin: $路径
[root@hadoop01] #源/etc/profile//环境生效
[root@hadoop01] # mv hadoop-2.7.6/opt
4,新建hadoop文件夹
mkdir/root/hadoop
mkdir/root/hadoop/tmp
mkdir/root/hadoop/var
mkdir/root/hadoop/dfs
mkdir/root/hadoop/dfs/name
mkdir/root/hadoop/dfs/data
5,配置hadoop
[root@hadoop01 hadoop] # pwd
/opt/hadoop-2.7.6/etc/hadoop
root@hadoop01 hadoop vim hadoop-env。sh//修改JAVA_HOME
export HADOOP_OPTS=?Djava.library.path=$ {HADOOP_HOME}/lib/native"
JAVA_HOME=/usr/lib/jvm/jre-1.7.0-openjdk.x86_64/

  

root@hadoop01 hadoop vim yarn-env。sh//修改JAVA_HOME
JAVA_HOME=/usr/lib/jvm/jre-1.7.0-openjdk.x86_64/

  

[root@hadoop01 hadoop] # vim core-site.xml
& lt; !——指定hadoop运行时产生文件的存储目录——在
& lt; property>
& lt; name> hadoop.tmp.dir
& lt; value>/根/hadoop/tmp
& lt; description>降低其他临时目录。你们;/description>
& lt;/property>
& lt; property>
& lt; name> io.file.bufefer.size
& lt; value> 131072 & lt;/value>
& lt;/property>
& lt; !——配置namenode的地址——在
& lt; property>
& lt; name> fs.default.name
& lt; value> hdfs://hadoop01:9000
& lt;/property>

  

[root@hadoop01 hadoop] # vim hdfs-site.xml
& lt; property>
& lt; name> dfs.namenode.secondary.http-address
& lt; value> hdfs://hadoop01:9001
& lt;/property>
& lt; property>
& lt; name> dfs.namenode.dir
& lt; value>/根/hadoop/dfs/name
& lt; description>在本地文件系统路径theNameNode商店名称空间和事务日志持续。;/description>
& lt;/property>
& lt; property>
& lt; name> dfs.datanode.dir
& lt; value>/根/hadoop/dfs/data
& lt; description>逗号分隔列表上的路径localfilesystem DataNode的。你们应该存储块;/description>
& lt;/property>
& lt; !——指定hdfs的副本数——在
& lt; property>
& lt; name> dfs.replication
& lt; value> 3 & lt;/value>
& lt;/property>
& lt; property>
& lt; name> dfs.webhdfs.enabled
& lt; value> true
& lt;/property>

  

[root@hadoop01 hadoop # vim mapred-site.xml
& lt; !——第三个就是制定当前Hadoop的并行运行计算架构,这里为纱、第四个就是工作运行的历史记录服务器,第五个就是历史运行记录的Web服务器。→
& lt; property>
& lt; name> mapred.job.tracker
& lt; value> hadoop01:9001
& lt;/property>
& lt; property>
& lt; name> mapred.local.dir
& lt; value>/根/Hadoop/var
& lt;/property>
& lt; !——指定先生运行在纱线上——在
& lt; property>
& lt; name> mapreduce.framework.name
& lt; value> yarn
& lt;/property>
& lt; !——历史服务的端口地址——在
& lt; property>
& lt; name> mapreduce.jobhistory.address
& lt; value> hadoop01:10020
& lt;/property>
& lt; !——历史服务的网络端口地址——在
& lt; property>
& lt; name> mapreduce.jobhistory.webapp.address
& lt; value> hadoop01:19888
& lt;/property>

  

[root@hadoop01 hadoop] # vim yarn-site.xml
& lt; !——指定nodeManager组件在哪个机子上跑,在
& lt; property>
& lt; name> yarn.nodemanager.aux-services
& lt; value> mapreduce_shuffle
& lt;/property>
& lt; !——指定resourcemanager组件在哪个机子上跑,在
& lt; property>
& lt; name> yarn.resourcemanager.hostname
& lt; value> hadoop01
& lt;/property>
& lt; !——resourcemanager web地址——比;& lt; property>
& lt; name> yarn.resourcemanager.webapp.address
& lt; value> hadoop01:8088
& lt;/property>
& lt; !——启用日志聚集功能,比;
& lt; property>
& lt; name> yarn.log-aggregation-enable

redhat6。下安装配置hadoop环境——单实例版本