k8实践Ⅺ(车)

  

一、车部署

  
  
      <李>车是一个开源的原生云存储协调器,为各种存储解决方案提供平台,框架和支持,以便与云原生环境本地集成.Rook通过自动化部署,引导,配置,置备,扩展,升级,迁移,灾难恢复,监控和资源管理来实现此目的.Rook使用底层云本机容器管理,调度和编排平台提供的工具来实现它自身的功能。   
     

1。使用舵安装车操作符
Ceph运营商执掌图

  
 <代码> #执掌回购添加rook-release https://charts.rook.io/release
  #舵安装——名称空间rook-ceph rook-release/rook-ceph——名字rook-ceph  
  

2。在k8集群中三个节点节点上新增一块磁盘深发展

  
 <代码> root@k8s-node01 ~ # lsblk
  名字MAJ:最小RM大小RO类型挂载点
  sda 8:0 0 200 g 0磁盘
  深发展八16 0 0 50克磁盘 
  

3。创建车集群

  
 <代码> # git克隆https://github.com/rook/rook.git
  # cd车/集群//kubernetes/ceph/例子
  # kubectl应用- f cluster.yaml  
  
  

如果要删除已创建的Ceph集群,需要删除/var/lib/车/目录下的文件

     

4。部署Ceph仪表板

  
  

在集群。yaml文件中默认已经启用了ceph仪表板,但是默认服务类型为ClusterIP类型,只能集群内部访问,如果外部访问的话,就需要使用NodePort服务暴漏方式。

     
 <代码> # kubectl得到svc - n rook-ceph | grep mgr-dashboard
  rook-ceph-mgr-dashboard ClusterIP 10.106.163.135 & lt; none>8443/TCP 6 h4m
   
  
 <代码> # kubectl应用- f dashboard-external-https.yaml  
  
 <代码> # kubectl得到svc - n rook-ceph | grep mgr-dashboard
  rook-ceph-mgr-dashboard ClusterIP 10.106.163.135 & lt; none>8443/TCP 6 h4m
  rook-ceph-mgr-dashboard-external-https NodePort 10.98.230.103 & lt; none>8443:31656/TCP 23 h
   
  

5。登录Ceph仪表板

  
 <代码> # kubectl cluster-info | grep的主人
  Kubernetes主运行https://20.0.20.200:6443  
  

 k8实践Ⅺ(车)

  
  

获取登录密码

     
 <代码> # kubectl得到pod - n rook-ceph | grep经理
  rook-ceph-mgr-a-6b9cf7f6f6-fdhz5 1/1 0 6 h21m运行
  # kubectl - n rook-ceph日志rook-ceph-mgr-a-6b9cf7f6f6-fdhz5 | grep密码
  调试2019-09-20 01:09:34.166 7 f51ba8d2700 0 log_channel(审计)日志(DBG):从='端。24290 -实体='端。管理' cmd=[{“用户名”:“admin”、“前缀”:“仪表板set-login-credentials”,“密码”:“5 pgcufgey2”,“目标”:“经理”,“,“格式”:“json”}]:调度
   
  

 k8实践Ⅺ(车)

  

6。部署Ceph工具箱

  
  

默认启动的Ceph集群,是开启Ceph认证的,这样你登陆Ceph组件所在的舱里,是没法去获取集群状态,以及执行CLI命令,这时需要部署Ceph工具箱

     
 <代码> # - f toolbox.yaml kubectl适用
  部署。应用程序/rook-ceph-tools创建
  # kubectl - n rook-ceph得到豆荚- o宽| grep ceph-tools
  84年代rook-ceph-tools-7cf4cc7568-m6wbb 1/1运行0 20.0.20.206 k8s-node03 & lt; none>& lt; none>
   
  
 <代码> # kubectl - n rook-ceph exec - rook-ceph-tools-7cf4cc7568-m6wbb bash
  [root@k8s-node03/] # ceph的地位
  集群:
  id: aa31c434 cd - 13 - 4858 - 9535 - 3 - eb6fa1a441c
  健康:HEALTH_OK
  
  服务:
  我:3守护进程,群体a, b, c h(6岁)
  下:一个(活跃,因为6 h)
  osd: 3 osd: 3(因为6 h), 3(因为6 h)
  
  数据:
  池:0池,0动力分配
  对象:对象,0 B
  用法:使用3.0镶条,144镶条/147镶条效果
  后卫:
  
  root@k8s-node03/# ceph df
  原始的存储:
  班级规模效果使用生使用%生使用
  硬盘147直布罗陀144直布罗陀海峡4.7 MiB 3.0镶条2.04
  总147直布罗陀144直布罗陀海峡4.7 MiB 3.0镶条2.04
  
  池:
  池使用ID存储对象%使用MAX效果
   
  

7。创建池和StorageClass

  
 <代码> # - f flex/storageclass.yaml kubectl适用
  cephblockpool.ceph.rook。io/replicapool创建
  storageclass.storage.k8s。io/rook-ceph-block创建 
  
 <代码> # kubectl storageclass
  姓名粮食供应者年龄
  rook-ceph-block ceph.rook。io/块50年代

k8实践Ⅺ(车)