搭建部署Hadoop之纱

<强>

<强>

?纱是Hadoop的一个通用的资源管理系统

?纱角色

,,,,, Resourcemanager

,,,,, Nodemanager


,,,,, ApplicationMaster

,,,,,容器

,,,,,客户

?ResourceManager

,,,,,处理客户端请求

,,,,,启动/监控ApplicationMaster

,,,,,监控NodeManager

,,,,,资源分配与调度

?NodeManager

,,,,,单个节点上的资源管理

,,,,,处理来自ResourceManager的命令

,,,,,处理来自ApplicationMaster的命令

?容器

,,,,,对任务运行行环境的抽象,封装了CPU、内存等

,,,,,多维资源以及环境变量,启动命令等任务运行相关的信息资源分配与调度

?ApplicationMaster

,,,,,数据切分

,,,,,为应用程序申请资源,并分配给内部任务

,,,,,任务监控与容错

?客户

,,,,,用户与纱线交互的客户端程序

,,,,,提交应用程序,监控应用程序状态,杀死应用程序等

纱结构

搭建部署Hadoop之纱



?纱的核心思想

?将JobTracker和TaskTacker进行分离,它由下面几大构成组件:

,,,,, ResourceManager一个全局的资源管理器

,,,,, NodeManager每个节点(RM)代理

,,,,, ApplicationMaster表示每个应用

,,,,,每一个ApplicationMaster有多个容器在NodeManager上运行


<强>

主机,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,角色,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,软件

192.168.4.1 ,,, master ,,,,,资源Manager ,,,,,,纱

192.168.4.2 ,,, node1 ,,,,,,节点Manager ,,,,,,,,,,纱

192.168.4.3 ,,, node2 ,,,,,,节点Manager ,,,,,,,,,,,,,,纱

192.168.4.4 ,,, node3 ,,,,,,,节点Manager ,,,,,,,,,,,,,,,纱


<强> ,,,,,

具体实验准备可以参考,https://blog.51cto.com/13558754/2066708


# ssh 192.168.4.1

# cd/usr/local/hadoop/

# cd等/hadoop/

# cp mapred-site.xml。模板mapred-site。xml

# vim mapred-site.xml

& lt; configuration>

,& lt; property>

,,& lt; name> mapreduce.framework.name

,,& lt; value> yarn,,,,,,,,,,,,,,,,,,,,,,,,//配置使用纱资源管理系统

,& lt;/property>

& lt;/configuration>


# vim yarn-site.xml

& lt; configuration>

,& lt; property>

,,& lt; name> yarn.resourcemanager.hostname

,,& lt; value> master,,,,,,,,,,,,,,,,//配置,资源管理器角色,

,& lt;/property>

,& lt; property>

,,& lt; name> yarn.nodemanager.aux-services

,,& lt; value> mapreduce_shuffle,,,,,,,,,,,,//一个java的类真实环境与开发人员沟通

,& lt;/property>

& lt;/configuration>

配置完成以后

#我在节点{3}1 . .,,,,,,,,,,,,,,,,,,,,//将配置文件同步到所有主机

比;

比;rsync -azSH——delete/usr/local/hadoop/etc/hadoop/${我}:/usr/地方/hadoop/etc/hadoop - e & # 39; ssh # 39;

比;完成了


# cd/usr/local/hadoop/

启动纱服务

#。/sbin/start-yarn.sh 

在所有主机上执行译本,查看是否启动成功

#我在主节点{3}1 . .

比;

比;echo ${我}

比;ssh ${我}“jps"

比;null

搭建部署Hadoop之纱