-
<李>下载hadoop压缩包,这里下载的是5.14.2版本(地址:http://archive.cloudera.com/cdh6/cdh/5/)
李>
<代码> & lt; property> & lt; name> fs.defaultFS & lt; value> hdfs://192.168.56.109:9000 & lt;/property> & lt; property> & lt; name> hadoop.tmp.dir & lt; value>/opt/hadoopdata & lt;/property> & lt; property> & lt; name> hadoop.proxyuser.root.users & lt; value> * & lt;/value> & lt;/property> & lt; property> & lt; name> hadoop.proxyuser.root.groups & lt; value> * & lt;/value> & lt;/property> 代码>
8。配置3:vi hdfs-site。xml,和上一步一样的标签中加入如下代码
<代码> & lt; property> & lt; name> dfs.replication & lt; value> 1 & lt;/value> & lt;/property> 代码>
9。配置4,这个文件需要自己复制,和上一步一样的标签中加入如下代码
命令:cp mapred-site.xml。模板mapred-site。xml
配置:vi mapred-site。xml
<代码> & lt; property> & lt; name> mapreduce.framework.name & lt; value> yarn & lt;/property> 代码>
10。配置5:vi yarn-site。xml,中间有行注释可以删掉直接
<代码> & lt; property> & lt; name> yarn.resourcemanager.localhost & lt; value> localhost & lt;/property> & lt; property> & lt; name> yarn.nodemanager.aux-services & lt; value> mapreduce_shuffle & lt;/property> 代码>
11。配置六:vi/etc/profile,移动至最后,加入以下代码
<代码>出口HADOOP_HOME=/opt/bigdata/hadoop260 出口HADOOP_MAPRED_HOME=$ HADOOP_HOME 出口HADOOP_COMMON_HOME=$ HADOOP_HOME 出口HADOOP_HDFS_HOME=$ HADOOP_HOME 出口YARN_HOME=$ HADOOP_HOME 出口HADOOP_COMMON_LIB_NATIVE_DIR=$ HADOOP_HOME/lib/本地 导出路径=$路径:$ HADOOP_HOME/sbin: $ HADOOP_HOME/bin 出口HADOOP_INSTALL=$ HADOOP_HOME 代码>
12。激活配置文件:源/etc/profile
13。格式化namenode: hdfs namenode格式
14。运行:start-all.sh,然后每一步都输入是的
15。查看运行情况:译本,如果能查看到如下5个进程,则代表配置运行成功,如果少哪一个,就去检查对应的配置文件