小编给大家分享一下Hadoop如何安装,相信大部分人都还不怎么了解,因此分享这篇文章给大家参考一下,希望大家阅读完这篇文章后大有收获、下面让我们一起去了解一下吧!
<强>一、强> <强> Hadoop 强> <强>的安装强>
1。下载地址:https://archive.apache.org/dist/hadoop/common/我下载的是hadoop-2.7.3.tar.gz版本。
2。在/usr/地方/创建文件夹饲养员
<代码> mkdir hadoop代码>
3。上传文件到Linux上的/usr/地方/源目录下
3。解压缩
运行如下命令:
<代码>焦油-zxvf hadoop-2.7.3.tar。gz-C/usr/local/hadoop 代码>
4。修改配置文件
进入到<代码>/usr/local/hadoop/hadoop-2.7.3 cd/etc/hadoop/> 代码,修改<代码> hadoop-env。sh 代码>
运行<代码> vimhadoop-env。sh> 代码,修改JAVA_HOME
5。将Hadoop的执行命令加入到我们的环境变量里
在/etc/profile文件中加入:
<代码>出口路径=$路径:/usr/地方/Hadoop/hadoop-2.7.3/bin:/usr/地方/Hadoop/hadoop-2.7.3/sbin/<代码>
执行/etc/profile文件:
<代码>源/etc/profile 代码>
6。将npfdev1机器上的hadoop复制到npfdev2和npfdev3和npfdev4机器上。使用下面的命令:
首先分别在npfdev2和npfdev3和npfdev4机器上,建立/usr/地方/hadoop目录,然后在npfdev1上分别执行下面命令:
<代码> scp - r/usr/local/hadoop/hadoop-2.7.3/npfdev2:/usr/地方/hadoop/代码>
<代码> scp - r/usr/local/hadoop/hadoop-2.7.3/npfdev3:/usr/地方/hadoop/代码>
<代码> scp - r/usr/local/hadoop/hadoop-2.7.3/npfdev4:/usr/地方/hadoop/代码>
记住:需要各自修改npfdev2和npfdev3和npfdev4的/etc/profile文件:
在/etc/profile文件中加入:
<代码>出口路径=$路径:/usr/地方/hadoop/hadoop-2.7.3/bin:/usr/地方/hadoop/hadoop-2.7.3/sbin/<代码>
执行/etc/profile文件:
<代码>源/etc/profile 代码>
然后分别在npfdev1和npfdev2和npfdev3和npfdev4机器上,执行hadoop命令,看是否安装成功,并且关闭防火墙。
7。确定所有机器之间可以相互ping通,使用下面的命令:
(1)。萍npfdev1
(2)。萍npfdev2
(3)。萍npfdev3
(4)。萍npfdev4
8。启动hadoop:
我们这里将npfdev1作为大师,npfdev2和npfdev3和npfdev4分别作为三台奴隶。
(1)。修改配置文件核心位点。xml
进入<代码>/usr/local/hadoop/hadoop-2.7.3 cd/etc/hadoop代码>
具体配置如下:
(2)。在主机器npfdev1上启动namenode
首先需要格式化namenode,第一次使用需要格式化,后来就不需要了。
<代码> hdfs namenode格式代码>
然后启动namenode:
<代码> hadoop-daemon。sh namenode启动代码>
通过jps命令查看,如果有namenode的java进程,就说明我们启动namenode成功。
(3)。在奴隶机器npfdev2、npfdev3 npfdev4上启动datanode