一、车部署
<李>车是一个开源的原生云存储协调器,为各种存储解决方案提供平台,框架和支持,以便与云原生环境本地集成.Rook通过自动化部署,引导,配置,置备,扩展,升级,迁移,灾难恢复,监控和资源管理来实现此目的.Rook使用底层云本机容器管理,调度和编排平台提供的工具来实现它自身的功能。李>
引用>1。使用舵安装车操作符
Ceph运营商执掌图<代码> #执掌回购添加rook-release https://charts.rook.io/release #舵安装——名称空间rook-ceph rook-release/rook-ceph——名字rook-ceph 代码>2。在k8集群中三个节点节点上新增一块磁盘深发展
<代码> root@k8s-node01 ~ # lsblk 名字MAJ:最小RM大小RO类型挂载点 sda 8:0 0 200 g 0磁盘 深发展八16 0 0 50克磁盘代码>3。创建车集群
<代码> # git克隆https://github.com/rook/rook.git # cd车/集群//kubernetes/ceph/例子 # kubectl应用- f cluster.yaml 代码>如果要删除已创建的Ceph集群,需要删除/var/lib/车/目录下的文件
引用>4。部署Ceph仪表板
在集群。yaml文件中默认已经启用了ceph仪表板,但是默认服务类型为ClusterIP类型,只能集群内部访问,如果外部访问的话,就需要使用NodePort服务暴漏方式。
引用><代码> # kubectl得到svc - n rook-ceph | grep mgr-dashboard rook-ceph-mgr-dashboard ClusterIP 10.106.163.135 & lt; none>8443/TCP 6 h4m 代码><代码> # kubectl应用- f dashboard-external-https.yaml 代码><代码> # kubectl得到svc - n rook-ceph | grep mgr-dashboard rook-ceph-mgr-dashboard ClusterIP 10.106.163.135 & lt; none>8443/TCP 6 h4m rook-ceph-mgr-dashboard-external-https NodePort 10.98.230.103 & lt; none>8443:31656/TCP 23 h 代码>5。登录Ceph仪表板
<代码> # kubectl cluster-info | grep的主人 Kubernetes主运行https://20.0.20.200:6443 代码>
获取登录密码
引用><代码> # kubectl得到pod - n rook-ceph | grep经理 rook-ceph-mgr-a-6b9cf7f6f6-fdhz5 1/1 0 6 h21m运行 # kubectl - n rook-ceph日志rook-ceph-mgr-a-6b9cf7f6f6-fdhz5 | grep密码 调试2019-09-20 01:09:34.166 7 f51ba8d2700 0 log_channel(审计)日志(DBG):从='端。24290 -实体='端。管理' cmd=[{“用户名”:“admin”、“前缀”:“仪表板set-login-credentials”,“密码”:“5 pgcufgey2”,“目标”:“经理”,“,“格式”:“json”}]:调度 代码>
6。部署Ceph工具箱
默认启动的Ceph集群,是开启Ceph认证的,这样你登陆Ceph组件所在的舱里,是没法去获取集群状态,以及执行CLI命令,这时需要部署Ceph工具箱
引用><代码> # - f toolbox.yaml kubectl适用 部署。应用程序/rook-ceph-tools创建 # kubectl - n rook-ceph得到豆荚- o宽| grep ceph-tools 84年代rook-ceph-tools-7cf4cc7568-m6wbb 1/1运行0 20.0.20.206 k8s-node03 & lt; none>& lt; none> 代码><代码> # kubectl - n rook-ceph exec - rook-ceph-tools-7cf4cc7568-m6wbb bash [root@k8s-node03/] # ceph的地位 集群: id: aa31c434 cd - 13 - 4858 - 9535 - 3 - eb6fa1a441c 健康:HEALTH_OK 服务: 我:3守护进程,群体a, b, c h(6岁) 下:一个(活跃,因为6 h) osd: 3 osd: 3(因为6 h), 3(因为6 h) 数据: 池:0池,0动力分配 对象:对象,0 B 用法:使用3.0镶条,144镶条/147镶条效果 后卫: root@k8s-node03/# ceph df 原始的存储: 班级规模效果使用生使用%生使用 硬盘147直布罗陀144直布罗陀海峡4.7 MiB 3.0镶条2.04 总147直布罗陀144直布罗陀海峡4.7 MiB 3.0镶条2.04 池: 池使用ID存储对象%使用MAX效果 代码>7。创建池和StorageClass
<代码> # - f flex/storageclass.yaml kubectl适用 cephblockpool.ceph.rook。io/replicapool创建 storageclass.storage.k8s。io/rook-ceph-block创建代码><代码> # kubectl storageclass 姓名粮食供应者年龄 rook-ceph-block ceph.rook。io/块50年代k8实践Ⅺ(车)