Kubernetes 持久化存储 Cephfs

阅读数:34 2019 年 11 月 24 日 23:49

Kubernetes持久化存储Cephfs

Kubernetes volume

熟悉 kubernetes volume 的同学应该了解,kubernetes 对 volume 的提供支持“静态 PV”和“动态 PV”两种方式。

  • 静态 PV

集群管理员创建一些 PV,之后便可用于 PVC 消费。

  • 动态 PV

相比静态 PV 而言,动态 PV 无需管理员手动创建 PV,PV 的操作是由一个叫 StorageClass 的控制器创建。对于 Cephfs volume 来说,截止到 kubernetes 1.10 版本并没有直接提供 Cephfs 的 StorageClass。

Kubernetes持久化存储Cephfs

虽然官方并没有直接提供对 Cephfs StorageClass 的支持,但是社区给出了类似的解决方案 external-storage/ cephfs,后面我们会使用到。

1 静态 PV

编辑 Cephfs PV 对象文件 cephfs-pv.yaml:

复制代码
apiVersion: v1
kind: PersistentVolume
metadata:
name: cephfs-pv
spec:
capacity:
storage: 1Gi
accessModes:
- ReadWriteMany
cephfs:
monitors:
- 192.168.0.3:6789
user: kube
secretRef:
name: secret-for-cephfs
readOnly: false
persistentVolumeReclaimPolicy: Recycle

创建 PV:

复制代码
$ kubectl create -f cephfs-pv.yaml -n cephfs
persistentvolume "cephfs-pv" created
$ kubectl get pv -n cephfs

创建 PVC

复制代码
$ vim cephfs-pv-claim.yaml
apiVersion: v1
kind: PersistentVolumeClaim
metadata:
name: cephfs-pv-claim
namespace: cephfs
spec:
accessModes:
- ReadWriteMany
resources:
requests:
storage: 1Gi

在 deployment 中使用 PV:

复制代码
metadata:
name: cephfs-pvc
namespace: cephfs
spec:
replicas: 2
template:
metadata:
labels:
app: cephfs-pvc
spec:
containers:
- name: nginx
image: busybox:latest
volumeMounts:
- name: cephfs-pv
mountPath: /data/cephfs
readOnly: false
volumes:
- name: cephfs
persistentVolumeClaim:
claimName: cephfs-pv-claim

这样,在同一个 deployment 中的 2 个 pod 容器内都可以读写同一个 cephfs volume 了。

2 动态 PV

对于规模不大的容器平台而言,静态 PV 方式就可以满足需求;但是当容器规模很大时,你不知道用户什么时候创建 PV,因此动态 PV 方式就非常有用了。下面我们看下如何基于 external-storage/cephfs 来实现动态 PV。

部署 cephfs-provisioner

cephfs-provisioner 是 kubernetes 官方社区提供的 Cephfs 的 StorageClass 支持。用于动态的调用后端存储 Cephfs 创建 PV。

cephfs-provisoner 的实现机制如图所示:

Kubernetes持久化存储Cephfs

它主要是包含两部分:

  • cephfs-provisoner.go

是 cephfs-provisoner(cephfs 的 StorageClass)的核心,主要是 watch kubernetes 中 PVC 资源的 CURD 事件,然后以命令行方式调用 cephfs_provisor.py 脚本创建 PV。

  • cephfs_provisoner.py

python 脚本实现的与 cephfs 交互的命令行工具。cephfs-provisoner 对 cephfs 端 volume 的创建都是通过该脚本实现。里面封装了 volume 的增删改查等功能。

创建 StorageClass

复制代码
#kubectl create -f class.yaml
# kubectl get sc -n cephfsNAME PROVISIONER AGEcephfs ceph.com/cephfs 33d

基于 RBAC 授权方式启动 cephfs-provisioner

复制代码
# kubectl create -f *
# kubectl get deploy -n cephfs

这样动态创建 PV 的环境就准备好了。

动态 PV 方式,无需再手动创建 PV,只需创建 PVC,cephfs-provisoner 会自动的为该 PVC 在后端 cephfs 存储上创建对应的 PV。

复制代码
kind: PersistentVolumeClaim
apiVersion: v1
metadata:
name: pvc-1
annotations:
volume.beta.kubernetes.io/storage-class: "cephfs"
spec:
accessModes:
- ReadWriteMany
resources:
requests:
storage: 1Gi

此时,我们创建 PVC 后,会看到同时会自动创建并绑定上一个 PV。

至此,基于 cephfs 的动态 PV 方式就介绍完了。

cephfs-provisoner 的坑

在使用 cephfs-provisoner 与公司 cephfs 对接的时候遇到了一些坑,在这里一并说一下。

  • 路径问题

在 cephfs_provisioner/ cephfs_provisioner.py 的实现中,默认在 cephfs 中创建的根目录名是”kubernetes“,所有后续创建的卷都在 cephfs 端的 /kubernetes/ 一级目录下 ,代码实现中以 VOlUME_GROUP="kubernetes" 定义。 因此,如果你不想在 cephfs 中以该名字命名,需要修改 VOLUME_GROUP 值。

另外,它的二级目录也是固定的为 /kubernetes/volumes,二级目录是 python-cephfs 模块中由 DEFAULT_VOL_PREFIX 变量定义:

复制代码
POOL_PREFIX = "fsvolume_"
DEFAULT_VOL_PREFIX = "/volumes"
DEFAULT_NS_PREFIX = "fsvolumens_"

因此,要定制化在 cephfs 端的一级和二级目录,需要修改这两个地方。

  • 权限问题

这里遇到两个权限问题:

1. 挂载权限问题

默认 python-cephfs 模块在连接 cephfs 挂载时是 mount 的根目录”/“。

而根目录只有 admin 用户才有权限进行挂载,所以这个地方除了 admin 用户外,没办法使用其它用户。但是,我们在使用 cephfs 时,为了安全,管理员是不会给我们 admin 用户使用的,所以这个地方肯定是接受不了的。为此,我们定制修改了 libcephfs2 和 python-cephfs 的源码,增加了 connect_with_path 方法,允许指定挂载的目录,这样我们只要在挂载时不使用根目录即可。

  1. 读写权限问题

在 cephfs_provisoner.py 的实现中,默认添加了对 cephfs namespace 的支持,因此在对 volume 授权时会添加对 namespace 相关的权限设置。因为,我们使用的 ceph 版本 luminous 没有对 namespace 进行支持,所以,在使用时产生了创建的 volume 挂载到 pod 内后没有读写权限 "input/output error" 的问题。 此时,你在 cephfs 端查看卷的读写权限时,你可以看到目录读写权限都是问号。于是我们修改了这部分逻辑,去掉了 namespace 相关的部分。

本文转载自公众号贝壳产品技术(ID:gh_9afeb423f390)。

原文链接:

https://mp.weixin.qq.com/s/fpWNBEC5RxrZACcu9zrq9Q

评论

发布