原创文章,欢迎转载。转载请注明:转载自它人故事会,谢谢!
原文链接地址:“高级篇“码头工人之kubernetes基础集群部署(下)(34)这次继续集群的部署简单版本(下)。源码:https://github.com/limingios/msA-docker k8分支和https://github.com/limingios/kubernetes-starter
引用> 引用>
部署调度器(主节点)
简介h5>
kube-scheduler负责分配调度吊舱到集群内的节点上,它监听kube-apiserver,查询还未分配节点的豆荚,然后根据调度策略为这些Pod分配节点。我们前面讲到的kubernetes的各种调度策略就是它实现的。
部署h5>
<强>通过系统服务方式部署强>
<代码类=" language-bash "> cp ~//主节点/kube-scheduler kubernetes-starter/目标。服务/lib/systemd/system/systemctl启用kube-scheduler.service 服务kube-scheduler开始 journalctl - f - u kube-scheduler 代码>
重点配置说明
<代码类=" language-bash "> vi/lib/systemd/system/kube-scheduler。服务代码> >之前(单位)引用>
描述=Kubernetes调度器
…
[服务]
ExecStart=/home/michael/bin/kube-scheduler \
#对外服务的监听地址,这里表示只有本机的程序可以访问它
——地址=127.0.0.1 \
# apiserver
——主的url=http://127.0.0.1:8080 \
…
PS:最重要的三个核心组件就部署完了,
部署CalicoNode(所有节点)
它是通过系统服务加码头工人的方式来完成的。
引用>简介h5>
印花实现了参股接口,是kubernetes网络方案的一种选择,它一个纯三层的数据中心网络方案(不需要覆盖),并且与OpenStack, kubernetes, AWS,全球教育运动等IaaS和容器平台都有良好的集成。
棉布在每一个计算节点利用Linux内核实现了一个高效的vRouter来负责数据转发,而每个vRouter通过边界网关协议协议负责把自己上运行的工作负载的路由信息像整个印花网络内传播,小规模部署可以直接互联,大规模下可通过指定的边界网关协议路由反射器来完成。这样保证最终所有的工作量之间的数据流量都是通过IP路由的方式完成互联的。部署h5>
<强>棉布是通过系统服务+码头工人方式完成的强>
<代码类=" language-bash "> cp ~//所有节点/kube-calico kubernetes-starter/目标。服务/lib/systemd/system/systemctl启用kube-calico.service 服务kube-calico开始 journalctl - f - u kube-calico 代码>
查看配置h5>
<代码类=" language-bash "> vi/lib/systemd/system/kube-calico.service 代码>
“高级篇“码头工人之kubernetes基础集群部署(下)(34)