大数据环境搭建——之hadoop 2.倍分布式部署——集群配置


1,下载hadoop并解压

2,为hadoop文件分配角色

,,,乔恩- r hadoop: hadoop hadoop

,,,,,,,,,,,,组名:角色名,,文件名

3, ls - l查看详细信息,角色分配是否成功

4,创建hadoop需要的文件目录

,,,mkdir - p/数据/dfs/名称

,,,mkdir - p/数据/dfs/数据

,,,mkdir - p/数据/tmp

5分配角色权限给自己的用户目录,如hadoop用户

,,hadoop,乔恩- r: hadoop hadoop/数据

, 6 ls - l查看是否分配成功

, 7日修改hadoop配置文件

,,,,,core-site.xml

,,,,b, hdfs-site.xml

,,,,c, mapred-site.xml

,,,,d,奴隶

, 8日配置hadoop环境变量

,,,,HADOOP_HOME=/usr/java/hadoop

,,,,路径=$ HADOOP_HOME/bin: $路径

,,,,出口HADOOP_HOME路径

, 9日格式化hadoop,然后,bin/hadoop格式

10,启动hadoop,,sbin/开始。sh

11日译本,查看进程是否启动

,,,,NodeManager

,,,,ResourceManager

,,,,Jps

,,,,DataNode

,,,,NameNode

,,,,SecondaryNameNode

12, hdfs创建目录

,,,,bin/hadoop, fs mkdir/dajiangtai

13日hdfs的dajiangtai目录添加文件

,,,,hadoop fs——/usr/java/hadoop/djt.txt/dajiangtai,,,,,,

14日验证地址

,,http://cjqlinux: 8088/集群应用

,,http://cjqlinux: 50070


大数据环境搭建——之hadoop 2.倍分布式部署——集群配置