[toc]
PV、PVC概述
管理存储是管理计算的一个明显问题。PersistentVolume子系统为用户和管理员提供了一个API,用于抽象如何根据消费方式提供存储的详细信息。于是引入了两个新的API资源:PersistentVolume和PersistentVolumeClaim
PersistentVolume(PV)是集群中已由管理员配置的一段网络存储。 集群中的资源就像一个节点是一个集群资源。 PV是诸如卷之类的卷插件,但是具有独立于使用PV的任何单个pod的生命周期。 该API对象包含存储的实现细节,即NFS,iSCSI或云提供商特定的存储系统。
PersistentVolumeClaim(PVC)是用户存储的请求。 它类似于pod。Pod消耗节点资源,PVC消耗存储资源。 pod可以请求特定级别的资源(CPU和内存)。 权限要求可以请求特定的大小和访问模式。
虽然PersistentVolumeClaims允许用户使用抽象存储资源,但是常见的是,用户需要具有不同属性(如性能)的PersistentVolumes,用于不同的问题。 管理员需要能够提供多种不同于PersistentVolumes,而不仅仅是大小和访问模式,而不会使用户了解这些卷的实现细节。 对于这些需求,存在StorageClass资源。
StorageClass为集群提供了一种描述他们提供的存储的“类”的方法。 不同的类可能映射到服务质量级别,或备份策略,或者由群集管理员确定的任意策略。 Kubernetes本身对于什么类别代表是不言而喻的。 这个概念有时在其他存储系统中称为“配置文件”
POD动态供给
动态供给主要是能够自动帮你创建pv,需要多大的空间就创建多大的pv。k8s帮助创建pv,创建pvc就直接api调用存储类来寻找pv。
如果是存储静态供给的话,会需要我们手动去创建pv,如果没有足够的资源,找不到合适的pv,那么pod就会处于pending等待的状态。而动态供给主要的一个实现就是StorageClass存储对象,其实它就是声明你使用哪个存储,然后帮你去连接,再帮你去自动创建pv。
POD使用RBD做为持久数据卷
安装与配置
RBD支持ReadWriteOnce,ReadOnlyMany两种模式
1、配置rbd-provisioner
cat >external-storage-rbd-provisioner.yaml<<EOFapiVersion: v1kind: ServiceAccountmetadata:name: rbd-provisionernamespace: kube-system---kind: ClusterRoleapiVersion: rbac.authorization.k8s.io/v1metadata:name: rbd-provisionerrules:- apiGroups: [""]resources: ["persistentvolumes"]verbs: ["get", "list", "watch", "create", "delete"]- apiGroups: [""]resources: ["persistentvolumeclaims"]verbs: ["get", "list", "watch", "update"]- apiGroups: ["storage.k8s.io"]resources: ["storageclasses"]verbs: ["get", "list", "watch"]- apiGroups: [""]resources: ["events"]verbs: ["create", "update", "patch"]- apiGroups: [""]resources: ["endpoints"]verbs: ["get", "list", "watch", "create", "update", "patch"]- apiGroups: [""]resources: ["services"]resourceNames: ["kube-dns"]verbs: ["list", "get"]---kind: ClusterRoleBindingapiVersion: rbac.authorization.k8s.io/v1metadata:name: rbd-provisionersubjects:- kind: ServiceAccountname: rbd-provisionernamespace: kube-systemroleRef:kind: ClusterRolename: rbd-provisionerapiGroup: rbac.authorization.k8s.io---apiVersion: rbac.authorization.k8s.io/v1kind: Rolemetadata:name: rbd-provisionernamespace: kube-systemrules:- apiGroups: [""]resources: ["secrets"]verbs: ["get"]---apiVersion: rbac.authorization.k8s.io/v1kind: RoleBindingmetadata:name: rbd-provisionernamespace: kube-systemroleRef:apiGroup: rbac.authorization.k8s.iokind: Rolename: rbd-provisionersubjects:- kind: ServiceAccountname: rbd-provisionernamespace: kube-system---apiVersion: apps/v1kind: Deploymentmetadata:name: rbd-provisionernamespace: kube-systemspec:selector:matchLabels:app: rbd-provisionerreplicas: 1strategy:type: Recreatetemplate:metadata:labels:app: rbd-provisionerspec:containers:- name: rbd-provisionerimage: "quay.io/external_storage/rbd-provisioner:v2.0.0-k8s1.11"env:- name: PROVISIONER_NAMEvalue: ceph.com/rbdserviceAccount: rbd-provisionerEOFkubectl apply -f external-storage-rbd-provisioner.yaml
2、配置storageclass
1、创建pod时,kubelet需要使用rbd命令去检测和挂载pv对应的ceph image,所以要在所有的worker节点安装ceph客户端ceph-common。将ceph的ceph.client.admin.keyring和ceph.conf文件拷贝到master的/etc/ceph目录下yum -y install ceph-common2、创建 osd pool 在ceph的mon或者admin节点ceph osd pool create kube 128 128ceph osd pool ls3、创建k8s访问ceph的用户 在ceph的mon或者admin节点ceph auth get-or-create client.kube mon 'allow r' osd 'allow class-read object_prefix rbd_children, allow rwx pool=kube' -o ceph.client.kube.keyring4、查看key 在ceph的mon或者admin节点ceph auth get-key client.adminceph auth get-key client.kube5、创建 admin secretkubectl create secret generic ceph-secret --type="kubernetes.io/rbd" \--from-literal=key=AQCtovZdgFEhARAAoKhLtquAyM8ROvmBv55Jig== \--namespace=kube-system6、在 default 命名空间创建pvc用于访问ceph的 secretkubectl create secret generic ceph-user-secret --type="kubernetes.io/rbd" \--from-literal=key=AQAM9PxdEFi3AhAAzvvhuyk1AfN5twlY+4zNMA== \--namespace=default
3、配置StorageClass
cat >storageclass-ceph-rdb.yaml<<EOFkind: StorageClassapiVersion: storage.k8s.io/v1metadata:name: dynamic-ceph-rdbprovisioner: ceph.com/rbdparameters:monitors: 10.151.30.125:6789,10.151.30.126:6789,10.151.30.127:6789adminId: adminadminSecretName: ceph-secretadminSecretNamespace: kube-systempool: kubeuserId: kubeuserSecretName: ceph-user-secretfsType: ext4imageFormat: "2"imageFeatures: "layering"EOF
4、创建yaml
kubectl apply -f storageclass-ceph-rdb.yaml
5、查看sc
kubectl get storageclasses
测试使用
1、创建pvc测试
cat >ceph-rdb-pvc-test.yaml<<EOFkind: PersistentVolumeClaimapiVersion: v1metadata:name: ceph-rdb-claimspec:accessModes:- ReadWriteOncestorageClassName: dynamic-ceph-rdbresources:requests:storage: 2GiEOFkubectl apply -f ceph-rdb-pvc-test.yaml
2、查看
kubectl get pvckubectl get pv
3、创建 nginx pod 挂载测试
cat >nginx-pod.yaml<<EOFapiVersion: v1kind: Podmetadata:name: nginx-pod1labels:name: nginx-pod1spec:containers:- name: nginx-pod1image: nginx:alpineports:- name: webcontainerPort: 80volumeMounts:- name: ceph-rdbmountPath: /usr/share/nginx/htmlvolumes:- name: ceph-rdbpersistentVolumeClaim:claimName: ceph-rdb-claimEOFkubectl apply -f nginx-pod.yaml
4、查看
kubectl get pods -o wide
5、修改文件内容
kubectl exec -ti nginx-pod1 -- /bin/sh -c 'echo this is from Ceph RBD!!! > /usr/share/nginx/html/index.html'
6、访问测试
curl http://$podip
7、清理
kubectl delete -f nginx-pod.yamlkubectl delete -f ceph-rdb-pvc-test.yaml
POD使用CephFS做为持久数据卷
CephFS方式支持k8s的pv的3种访问模式ReadWriteOnce,ReadOnlyMany ,ReadWriteMany
Ceph端创建CephFS pool
1、如下操作在ceph的mon或者admin节点
CephFS需要使用两个Pool来分别存储数据和元数据
ceph osd pool create fs_data 128ceph osd pool create fs_metadata 128ceph osd lspools
2、创建一个CephFS
ceph fs new cephfs fs_metadata fs_data
3、查看
ceph fs ls
部署 cephfs-provisioner
1、使用社区提供的cephfs-provisioner
cat >external-storage-cephfs-provisioner.yaml<<EOFapiVersion: v1kind: ServiceAccountmetadata:name: cephfs-provisionernamespace: kube-system---kind: ClusterRoleapiVersion: rbac.authorization.k8s.io/v1metadata:name: cephfs-provisionerrules:- apiGroups: [""]resources: ["persistentvolumes"]verbs: ["get", "list", "watch", "create", "delete"]- apiGroups: [""]resources: ["persistentvolumeclaims"]verbs: ["get", "list", "watch", "update"]- apiGroups: ["storage.k8s.io"]resources: ["storageclasses"]verbs: ["get", "list", "watch"]- apiGroups: [""]resources: ["events"]verbs: ["create", "update", "patch"]- apiGroups: [""]resources: ["endpoints"]verbs: ["get", "list", "watch", "create", "update", "patch"]- apiGroups: [""]resources: ["secrets"]verbs: ["create", "get", "delete"]---kind: ClusterRoleBindingapiVersion: rbac.authorization.k8s.io/v1metadata:name: cephfs-provisionersubjects:- kind: ServiceAccountname: cephfs-provisionernamespace: kube-systemroleRef:kind: ClusterRolename: cephfs-provisionerapiGroup: rbac.authorization.k8s.io---apiVersion: rbac.authorization.k8s.io/v1kind: Rolemetadata:name: cephfs-provisionernamespace: kube-systemrules:- apiGroups: [""]resources: ["secrets"]verbs: ["create", "get", "delete"]---apiVersion: rbac.authorization.k8s.io/v1kind: RoleBindingmetadata:name: cephfs-provisionernamespace: kube-systemroleRef:apiGroup: rbac.authorization.k8s.iokind: Rolename: cephfs-provisionersubjects:- kind: ServiceAccountname: cephfs-provisionernamespace: kube-system---apiVersion: apps/v1kind: Deploymentmetadata:name: cephfs-provisionernamespace: kube-systemspec:selector:matchLabels:app: cephfs-provisionerreplicas: 1strategy:type: Recreatetemplate:metadata:labels:app: cephfs-provisionerspec:containers:- name: cephfs-provisionerimage: "quay.io/external_storage/cephfs-provisioner:latest"env:- name: PROVISIONER_NAMEvalue: ceph.com/cephfscommand:- "/usr/local/bin/cephfs-provisioner"args:- "-id=cephfs-provisioner-1"serviceAccount: cephfs-provisionerEOFkubectl apply -f external-storage-cephfs-provisioner.yaml
2、查看状态 等待running之后 再进行后续的操作
kubectl get pod -n kube-system
配置 storageclass
1、查看key 在ceph的mon或者admin节点
ceph auth get-key client.admin
2、创建 admin secret
kubectl create secret generic ceph-secret --type="kubernetes.io/rbd" \--from-literal=key=AQCtovZdgFEhARAAoKhLtquAyM8ROvmBv55Jig== \--namespace=kube-system
3、查看 secret
kubectl get secret ceph-secret -n kube-system -o yaml
4、配置 StorageClass
cat >storageclass-cephfs.yaml<<EOFkind: StorageClassapiVersion: storage.k8s.io/v1metadata:name: dynamic-cephfsprovisioner: ceph.com/cephfsparameters:monitors: 10.151.30.125:6789,10.151.30.126:6789,10.151.30.127:6789adminId: adminadminSecretName: ceph-secretadminSecretNamespace: "kube-system"claimRoot: /volumes/kubernetesEOF
5、创建
kubectl apply -f storageclass-cephfs.yaml
6、查看
kubectl get sc
测试使用
1、创建pvc测试
cat >cephfs-pvc-test.yaml<<EOFkind: PersistentVolumeClaimapiVersion: v1metadata:name: cephfs-claimspec:accessModes:- ReadWriteManystorageClassName: dynamic-cephfsresources:requests:storage: 2GiEOFkubectl apply -f cephfs-pvc-test.yaml
2、查看
kubectl get pvckubectl get pv
3、创建 nginx pod 挂载测试
cat >nginx-pod.yaml<<EOFapiVersion: v1kind: Podmetadata:name: nginx-pod2labels:name: nginx-pod2spec:containers:- name: nginx-pod2image: nginxports:- name: webcontainerPort: 80volumeMounts:- name: cephfsmountPath: /usr/share/nginx/htmlvolumes:- name: cephfspersistentVolumeClaim:claimName: cephfs-claimEOFkubectl apply -f nginx-pod.yaml
4、查看
kubectl get pods -o wide
5、修改文件内容
kubectl exec -ti nginx-pod2 -- /bin/sh -c 'echo This is from CephFS!!! > /usr/share/nginx/html/index.html'
6、访问pod测试
curl http://$podip
7、清理
kubectl delete -f nginx-pod.yamlkubectl delete -f cephfs-pvc-test.yaml
