volume概述

容器磁盘上的文件的生命周期是短暂的,这就使得在容器中运行重要应用时会出现一些问题。首先,当容器崩溃时,kubelet 会重启它,但是容器中的文件将丢失,容器以干净的状态 (镜像最初的状态)重新启动。其次,在Pod中同时运行多个容器时,这些容器之间通常需要共享文件。Kubernetes 中的Volume抽象就很好的解决了这些问题

Kubernetes中的卷有明确的寿命,与封装它的Pod相同。所f以,卷的生命比Pod中的所有容器都长,当这个容器重启时数据仍然得以保存。当然,当Pod不再存在时,卷也将不复存在。也许更重要的是,Kubernetes支持多种类型的卷,Pod 可以同时使用任意数量的卷

Kubernetes支持多种类型的卷

  • awsElasticBlockStore
  • azureDisk
  • azureFile
  • cephfs
  • csi
  • downwgrdAPI
  • emptyDir
  • fc
  • flocker
  • gcePersistentDisk
  • gitRepo
  • glusterfs
  • hostPath
  • iscsi
  • local
  • nfs
  • persistentVolumeClaim
  • projected
  • portworxVolume
  • quobyte
  • rbd
  • scaleI0
  • secret
  • storageos
  • vsphereVolume

Pod volume的使用方式
Pod 中的每个容器都必须独立指定每个卷的挂载位置,需要给Pod配置volume相关参数。

Pod的volume关键字段如下:

  • spec.volumes:提供怎样的数据卷
  • spec.containers.volumeMounts:挂载到容器的什么路径

    emptyDir

    当Pod被分配给节点时,首先创建emptyDir卷,并且只要该Pod在该节点上运行,该卷就会存在。正如卷的名字所述,它最初是空的。Pod中的容器可以读取和写入emptyDir 卷中的相同文件,尽管该卷可以挂载到每个容器中的相同或不同路径上。当出于任何原因从节点中删除Pod时,emptyDir中的数据将被永久删除。注意:一个容器崩溃了不会导致数据的丢失,因为容器的崩溃并不移除pod.

使用场景

  • 不同容器之间共享文件(例如日志采集等)
  • 暂存空间,例如用于基于磁盘的合并排序
  • 用作长时间计算崩溃恢复时的检查点
  1. 下面声明了一个名字叫cache-volume的volumes类型是emptyDir,把容器test-container中的/cache挂载在上面。em.yaml

    1. apiVersion: v1
    2. kind: Pod
    3. metadata:
    4. name: test-pd
    5. spec:
    6. containers:
    7. - image: daocloud.io/library/nginx
    8. name: test-container
    9. volumeMounts:
    10. - mountPath: /cache
    11. name: cache-volume
    12. - image: busybox
    13. name: test-busybox
    14. command: ["/bin/sh","-c","sleep 6000s"]
    15. volumeMounts:
    16. - mountPath: /test
    17. name: cache-volume
    18. volumes:
    19. - name: cache-volume
    20. emptyDir: {}
  2. 到容器中查看,是否/cache下是一个空目录。

    kubectl apply -f em.yaml
    # -c指定Pod中的容器
    kubectl exec test-pd -c test-container  -it -- /bin/sh
    # 在容器test-container的cache目录下
    cd cache
    date > index.html
    exit
    # 在容器test-busybox的test的目录下查看index.html文件
    kubectl exec test-pd -c test-busybox -it -- /bin/sh
    cd test
    exit
    

    hostPath

  3. 特点

  • 会将宿主机的目录或文件挂载到Pod中
  1. 使用场景
  • 运行需要访问 Docker 内部的容器;使用/var/lib/docker的hostPath
  • 在容器中运行 cAdvisor;使用/dev/cgroups的hostPath
  • 其他使用到宿主机文件的场景

这种方法非常灵活。只要存储服务能被挂载到node所在的节点,我们就可以用hostPath方案让Pod使用
本地临时存储 volume - 图1

  1. 除了所需的 path 属性之外,用户还可以为hostPath卷指定 type。 | 值 | 行为 | | —- | —- | | | 空字符串 (默认)用于向后兼容,这意味着在挂载 hostPath 卷之前不会执行任何检查。 | | DirectoryOrCreate | 如果在给定的路径上没有任何东西存在,那么将根据需要在那里创建一个空目录,权限设置为0755,与Kubelet 具有相同的组和所有权。 | | Directory | 给定的路径下必须存在目录 | | FileOrCreate | 如果在给定的路径上没有任何东西存在,那么会根据需要创建一个空文件,权限设置为0644,与Kubelet具有相同的组和所有权。 | | File | 给定的路径下必须存在文件 | | Socket | 给定的路径下必须存在UNIX套接字 | | CharDevice | 定的路径下必须存在字符设备 | | BlockDevice | 定的路径下必须存在块设备 |

注意事项

  • 由于每个节点上的文件都不同,具有相同配置的 pod 在不同节点上的行为可能会有所不同
  • 当 Kubernetes 按照计划添加资源感知调度时,将无法考虑hostPath使用的资源(hostpath资源不归k8s管)
  • 在底层主机上创建的文件或目录只能由 root 写入。您需要在特权容器中以 root 身份运行进程,或修改主机上的文件权限以便写入hostPath卷(没权限,去改)
apiVersion: v1 
kind: Pod 
metadata:
  name: test-pd 
spec:
  containers:
  - image: daocloud.io/library/nginx
    name: test-container 
    volumeMounts:
    - mountPath: /test-pd 
      name: test-volume 
  volumes:
  - name: test-volume 
    hostPath:
      # directory location on host 
      path: /data 
      # this field is optional 
      type: Directory

就是共享本机的目录。

实验:删除这个pod时,文件不会删除掉,还要保存到node上。

# 查看运行权限
ps aux | grep kubelete
# 创建文件夹 这里需要三个节点都创建文件夹哈 防止pod创建不成功
mkdir /data
kubectl apply -f hostpath.yaml
# 容器挂载目录下写入文件
kubectl exec test-pd -it -- /bin/sh
cd /test-pd
date > hello.txt
# 到对应节点下的/data下查看
cd /data