一.hadoop伪分布式部署

  ========一.hadoop伪分布式=========& lt; code>   伪分布式环境配置   需要安装openjdk 和openjdk-devel软件包(用的是1.8.0版本)   | rpm  -ql  Java-openjdk-devel-1.8.0  grep /bin/javac的   vim /etc/profile   # Java   export  JAVA_HOME=/usr/lib/jvm/java - 1.8.0 openjdk 1.8.0.151 b12.el6_9.x86_64——1.   类路径=?$ JAVA_HOME/jre/lib/rt.jar: $ JAVA_HOME/lib/dt.jar: $ JAVA_HOME/lib/tools.jar   export 路径=$路径:$ JAVA_HOME/bin            #蜂巢   export  HIVE_HOME=/数据/hadoop/蜂巢=$ HIVE_HOME export 路径/bin: $路径      # hadoop   export , HADOOP_HOME=/数据/hadoop/hadoop-2.7.4   export 路径=$ HADOOP_HOME/bin: $路径      source /etc/profile    java  - version      添加hadoop 用户,useradd  -m  hadoop  -s /bin/bash   给予sudo权限,visudo 编辑配置文件的98行,在根这行下添加hadoop用户   root ,,,=(),,,,,,,   hadoop ,所有=(),,,,,,,      切换到hadoop 用户   然后设置远程登录   生成密钥对,   ssh-keygen  -t  rsa    cat  id_rsa.pub 祝辞祝辞,authorized_keys ,   chmod  600,。/authorized_keys(注意权限设置)      & lt;/code>=========二。安装hadoop=========& lt; code>      wget  http://114.242.101.2:808/hadoop/hadoop-2.7.4.tar.gz   tar  xf  hadoop-2.7.4.tar.gz  -C /数据/hadoop   chown  -R  hadoop.hadoop /数据/hadoop/hadoop-2.7.4   & lt;/code>==========三。配置文件=============& lt; code>/数据/hadoop/hadoop-2.7.4/etc/hadoop/,路径下   hdfs-site.xml   core-site.xml   mapred-site.xml.template      hdfs-site.xml:这里面定义的是数据节点个数以块文件大小   core-site.xml:定义的hadoop的头机   mapred-site.xml.template:定义的是hadoop文件存放的调度方式      针对伪分布式三个配置文件如下(默认为空)      core-site.xml配置文件如下:   ,,,& lt; property>   ,,,,,,,& lt; name> hadoop.tmp.dir   ,,,,,,,& lt; value>文件:/数据/hadoop/hadoop-2.7.4/tmp   ,,,,,,,& lt; description> Abase  for  other  temporary 目录。;/description>   ,,,& lt;/property>   ,,,& lt; property>   ,,,,,,,& lt; name> fs.defaultFS   ,,,,,,,& lt; value> hdfs://localhost: 9000 & lt;/value>   ,,,& lt;/property>   ,,,,   ,,,,   ,,,,   hdfs-site.xml配置文件如下:   ,,,& lt; property>   ,,,,,,,& lt; name> dfs.replication   ,,,,,,,& lt; value> 1 & lt;/value>   ,,,& lt;/property>   ,,,& lt; property>   ,,,,,,,& lt; name> dfs.namenode.name.dir   ,,,,,,,& lt; value>文件:/数据/hadoop/hadoop-2.7.4/tmp/dfs/name   ,,,& lt;/property>   ,,,& lt; property>   ,,,,,,,& lt; name> dfs.datanode.data.dir   ,,,,,,,& lt; value>文件:/数据/hadoop/hadoop-2.7.4/tmp/dfs/data   ,,,& lt;/property>   ,,,,   ,,,,   ,   mapred-site.xml.template配置文件如下:   ,,,& lt; property>   ,,,,,,,& lt; name> mapreduce.framework.name   ,,,,,,,& lt; value> yarn   ,,,& lt;/property>   cd /数据/hadoop/hadoop-2.7.4/执行。/bin/hdfs  namenode  -format 进行格式化   。/sbin/start-dfs.sh          启动完成后,可以通过命令,jps 来判断是否成功启动   若成功启动则会列出如下进程:,“然后”、“DataNode”和SecondaryNameNode         vim  ~/.bashrc 添加   export  JAVA_HOME=/usr/lib/jvm/java - 1.8.0 openjdk 1.8.0.151 b12.el6_9.x86_64——1.   source  ~/.bashrc 后重新启动   搭建完成         访问:http://192.168.0.12:50070   & lt;/code>


一.hadoop伪分布式部署