美丽,Kubernetes环境搭建,集群搭建,1个mst, 2个节点

  

安装虚拟机

  

1。安装3台虚拟机,或者使用其他物理机都好。
2。三台IP地址分别为:192.168.222.135,192.168.222.139,192.168.222.140
2。设置主机名、主节点设置

  
 <代码> hostnamectl set-hostname大师 
  

3。两个节点节点设置

  
 <代码> hostnamectl set-hostname node1  
  

4。退出壳重新登录

  <人力资源/>   

安装组件

  

1。在三台服务器上都安装码头工人,kubelet, kubeadm, kubectl,这里有个脚本,大家可以拿来使用。

  
 <代码> # vi setup.sh ~)
  以下内容复制进文件
  #/bin/sh
  
  #安装一些工具
  使用sudo yum安装- y vim telnet bind-utils wget
  
  sudo bash - c的猫& lt; & lt; EOF祝辞/etc/yum.repos.d/kubernetes.repo
  (kubernetes)
  name=Kubernetes
  baseurl=http://mirrors.aliyun.com/kubernetes/yum/repos/kubernetes-el7-x86_64
  启用=1
  gpgcheck=1
  repo_gpgcheck=1
  gpgkey=http://mirrors.aliyun.com/kubernetes/yum/doc/yum-key.gpg http://mirrors.aliyun.com/kubernetes/yum/doc/rpm-package-key.gpg
  EOF的
  
  #安装和启动码头工人
  sudo yum安装- y码头工人
  sudo systemctl使码头工人,,sudo systemctl开始码头工人
  #验证码头工人和更大的版本是1.12。
  
  sudo setenforce 0
  
  #安装kubeadm kubectl, kubelet。
  使用sudo yum安装- y kubelet kubeadm kubectl
  
  sudo bash - c的猫& lt; & lt; EOF祝辞/etc/sysctl.d/k8s.conf
  net.bridge。bridge-nf-call-ip6tables=1
  net.bridge。bridge-nf-call-iptables=1
  net.ipv4.ip_forward=1
  EOF的
  sudo sysctl -系统
  
  sudo systemctl停止firewalld
  sudo systemctl禁用firewalld
  sudo swapoff——
  sudo systemctl启用kubelet,,sudo systemctl开始kubelet  
  

2。将setup.sh复制到另外两台服务器上

  
 <代码> scp设置。sh root@192.168.222.139:/根/scp的设置。sh root@192.168.222.140:/根/ 
  

3。分别在三台服务器上执行这个脚本,脚本其实就是安装一些组件,大家都应该能看得懂。

  
 <代码> sh setup.sh  
  

安装确认

  

分别在三台机器上运行以下命令,确认是否安装完毕需要的组件

  
 <代码> [root@node2 ~] kubeadm #/usr/bin/kubeadm
  kubelet (root@node2 ~) #/usr/bin/kubelet
  kubectl (root@node2 ~) #/usr/local/bin/kubectl
  (root@node2 ~) #码头工人的版本
  客户:
  版本 :         1.13.1
  API版本:1.26
  包版本:码头工人gitb2f74b2.el7.centos.x86_64——1.13.1 - 94.
  版本:go1.10.3
  Git提交:b2f74b2/1.13.1
  建:2019年3月12日星期二10:27:24
  OS/拱:linux/amd64
  
  服务器:
  版本 :         1.13.1
  API版本:1.26(最低1.12版本)
  包版本:码头工人gitb2f74b2.el7.centos.x86_64——1.13.1 - 94.
  版本:go1.10.3
  Git提交:b2f74b2/1.13.1
  建:2019年3月12日星期二10:27:24
  OS/拱:linux/amd64
  实验:假
   
  

确认没问题后进入下一个步骤

  

主配置

  

1。主节点上进行kubeadmin init

  
 <代码> sudo kubeadm init - pod-network-cidr 172.100.0.0/16——apiserver-advertise-address 192.168.222.135
  #——pod-network-cidr:豆荚节点的网段
  #——apiserver-advertise-address: apiserver的IP地址,这里写成主节点的IP即可
  # - * * -apiserver-cert-extra-sans:如果需要使用公网IP,加上这一条,并且后面加上你的公网IP地址* *  
  

2。如果发现拉取镜像失败,我是拉取失败了~ ~ ~ ~所以去百度了一下,我们通过码头工人。io/mirrorgooglecontainers中转一下,运行以下命令,直接复制即可

  
 <代码> kubeadm配置图片列表| sed - e ' s/^/码头工人拉/g - e # k8s.gcr.io #码头工人。io/mirrorgooglecontainers # g ' | sh - x
  码头工人图片| grep mirrorgooglecontainers | awk的{打印“码头工人标签”,1美元”:“2美元,1美元”:“$ 2}”| sed - e ' s # docker.io/mirrorgooglecontainers # k8s.gcr。io # 2 ' | sh - x
  码头工人图片| grep mirrorgooglecontainers | awk的{打印“码头工人rmi”, 1美元”:“$ 2}”| sh - x
  码头工人拉coredns/coredns: 1.2.2
  码头工人标签coredns/coredns: 1.2.2 k8s.gcr.io/coredns: 1.3.1
  码头工人rmi coredns/coredns: 1.2.2  
  

查看镜像列表,没毛病,如果发现init还报错的话,按照kubeadm的报错信息更改下码头工人镜像的标签,具体各位百度下吧

  
 <代码> root@master ~ #码头工人的照片
  标签影像ID创建存储库的大小
  k8s.gcr。io/kube-proxy v1.14.1 20 a2d7035165 2天前82.1 MB
  k8s.gcr。io/kube-apiserver v1.14.1 cfaa4ad74c37 2天前210 MB
  k8s.gcr。io/kube-controller-manager v1.14.1 efb3887b411d 2天前158 MB
  k8s.gcr。io/kube-scheduler v1.14.1 8931473 d5bdb 2天前81.6 MB
  k8s.gcr。io/etcd 3.3.10 2 c4adeb21b4f 4个月前258 MB
  k8s.gcr。io/coredns 1.3.1 367 cdc8433a4 7个月前39.2 MB
  k8s.gcr。io/暂停3.1 da86e6ba6ca1 15个月前742 kB
  

美丽,Kubernetes环境搭建,集群搭建,1个mst, 2个节点