Kubernetes存储入门

目录

一:Volume 的概念

二:Volume 的类型

三:通过 emptyDir 共享数据

1:编写emptyDir的 Deployment 文件

2:部署该 Deployment

3:查看部署结果

5.登录pod中的第二个容器查看/mnt下的文件

6.删除此pod

四:使用 HostPath 挂载宿主机文件

1:编写 Deployment 文件,实现 HostPath 挂载

2.创建此pod

3.查看创建结果

4.测试挂载情况

5.删除

五:挂载NFS至容器

1.安装NFS

2.设置共享目录(nfs服务器)

3.开启nfs(nfs服务器)

4.编写deployment文件,挂载nfs

5.部署此pod

6.查看部署结果

7.登录容器查看挂载结果

六:PersistentVolume

1.PV回收策略

2:PV访问策略

3:Pv 的配置方式

4:基于 HostPath的PV

5:基于 NFS的 PV

七:PersistentVolumeclaim(pvc,持久卷声明)

1.PVC的创建

2:PVc 的使用


一:Volume 的概念

对于大多数的项目而言,数据文件的存储是非常常见的需求,比如存储用户上传的头像、文件以及数据库的数据。在 Kubernetes 中,由于应用的部署具有高度的可扩展性和编排能力(不像传统架构部署在固定的位置),因此把数据存放在容器中是非常不可取的,这样也无法保障数据的安全。
我们应该把有状态的应用变成无状态的应用,意思是指把数据从应用中剥离出来,把产生的数据文件或者缓存的信息都放在云端,比如常用的 NFS(生产环境中不建议使用,因为存在单点故障,推荐使用分布式的存储或者公有云的 NAS 服务)、ceph、GlusterFs、Minio 等。
在传统的架构中,如果要使用这些存储,需要提前在宿主机挂载,然后程序才能访问,在实际使用时。经常碰到新加节点忘记挂载存储导致的一系列问题。而 Kubernetes 在设计之初就考虑了这些问题,并抽象出 Volume 的概念用于解决数据存储的问题。

在容器中的磁盘文件是短暂的,当容器崩溃时,Kubect1 会重新启动容器,但是容器运行时产生的数据文件都会丢失,之后容器会以干净的状态启动。另外,当一个 Pod 运行多个容器时,各个容器可能需要共享一些文件,诸如此类的需求都可以使用 Volume 解决。

Docker 也有卷的概念,但是在 Docker 中,卷只是磁盘上或另一个容器中的目录,其生命周期不受管理。虽然 Docker 已经提供了卷驱动程序,但是功能非常有限,例如从 Docker1.7版本开始,每个容器只允许一个卷驱动程序,并且无法将一些特殊的参数传递给后端存储。

另一方面,Kubernetes 卷具有明确的生命周期,与使用他的 Pod 相同,因此在 Kubernetes 中的卷可以比 Pod 中运行的任何容器的生命周期都长,并且可以在容器重启或者销毁之后保留数据。Kubernetes支持多种类型的卷,并且 Pod 可以同时使用任意数量的卷。

从本质上讲,和虚拟机或者物理机一样,卷被挂载后,在容器中也只是一个目录,可能包含一些数据,Pod 中的容器也可以对其进行增删改査操作,使用方式和裸机挂载几乎没有区别。要使用卷也非常简单,和其他参数类似,Pod 只需要通过.spec.volumes 字段指定为 Pod 提供的卷,然后在容器中配置块,使用.spec.containers.volumeMounts字段指定卷的挂载目录即可。

二:Volume 的类型

在传统架构中,企业内可能有自己的存储平台,比如NFS、Ceph、Glusterfs、Minio 等。如果所在的环境在公有云,也可以使用公有云提供的 NAS、对象存储等。在 Kubernetes 中,Volume 也支持配置这些存储,用于挂载到 Pod 中实现数据的持久化。Kubernetes Volume 支持的卷的类型有很多。

以下为常见的卷:

  • CephFs
  • GlusterFs
  • ISCSI
  • Cinder
  • NFS
  • RBD
  • HostPath

当然也支持一些 Kubernetes 独有的类型:

ConfigMap:用于存储配置文件
Secret:用于存储敏感数据
EmptyDir:用于一个 Pod 内多个容器的数据共享
PersistentVolumeclaim:对PersistentVolume的申请

三:通过 emptyDir 共享数据

emptyDir 是一个特殊的 Volume 类型,与上述 Volume 不同的是,如果删除 Pod,EmptyDir 卷中的数据也将被删除,所以一般 emptyDir 用于 Pod 中不同容器共享数据,比如一个 Pod 存在两个容器A和容器 B,容器A需要使用容器B产生的数据,此时可以采用 emptyDir 共享数据,类似的使用如 Filebeat收集容器内程序产生的日志。
使用 emptyDir 卷时,直接指定 emptyDir 为{}即可

1:编写emptyDir的 Deployment 文件

[root@k8s-master ~]# cat nginx-empty.yaml 
apiVersion: apps/v1
kind: Deployment
metadata:
  labels:
    app: nginx
  name: nginx
  namespace: default
spec:
  replicas: 1
  selector:
    matchLabels:
      app: nginx
  template:
    metadata:
      labels:
        app: nginx
    spec:
      containers:
      - image: nginx:1.7.9
        imagePullPolicy: IfNotPresent
        name: nginx01
        volumeMounts:
        - mountPath: /opt
          name: share-volume
      - image: nginx:1.7.9
        imagePullPolicy: IfNotPresent
        name: nginx02
        command:
        - sh
        - -c
        - sleep 3600
        volumeMounts:
        - mountPath: /mnt
          name: share-volume
      volumes:
      - name: share-volume
        emptyDir: {}
          #medium: Memory

volumeMounts:

  • -mountPath:/mnt
  • name:share-volume##容器定义部分的卷挂载名称,此处的名称引用了 volumes 对应的名称

volumes :

  • -name:share-volume
     

此案例会将 nginx01 中/opt 中的数据,共享给 nginx02 中的/mnt 目录此部署文件创建一个 Deployment,采用 spec.volume 字段配置了一个名字为 share-volume、类型为 emptyDir 的 volume,同时里面包含两个容器 nginx81 和 nginx82,并将该 volume 挂载到了/opt 和/mnt 目录下,此时/opt 和/mnt 目录的数据就实现了共享。
默认情况下,emptyDir 支持节点上的任何介质,可以使 SSD、磁盘或是网络存储,具体取决于自身环境。可以将 emptyDir.medium 字段设置为 Memory,让 Kubernetes 使用 tmpfs(内存支持的文件系统),虽然 tmpfs 非常快,但是在节点重启时,数据同样会被清除,并且设置的大小会被记入 container 的内存限制中。

2:部署该 Deployment

[root@k8s-master ~]# kubectl  create -f nginx-empty.yaml 
deployment.apps/nginx created

3:查看部署结果

[root@k8s-master ~]# kubectl get pod
NAME                    READY   STATUS    RESTARTS   AGE
nginx-8f8dcfd8c-jwgtc   2/2     Running   0          14s

4.登录pod中的第一个容器,在opt下创建文件

[root@k8s-master ~]# kubectl exec -it nginx-8f8dcfd8c-jwgtc -c nginx01 -- bash
root@nginx-8f8dcfd8c-jwgtc:/# touch /opt/aaa
root@nginx-8f8dcfd8c-jwgtc:/# touch /opt/bbb
root@nginx-8f8dcfd8c-jwgtc:/# exit

5.登录pod中的第二个容器查看/mnt下的文件

[root@k8s-master ~]# kubectl exec -it nginx-8f8dcfd8c-jwgtc -c nginx02 -- bash
root@nginx-8f8dcfd8c-jwgtc:/# ls /mnt/
aaa  bbb

6.删除此pod

[root@k8s-master ~]# kubectl delete -f nginx-empty.yaml 
deployment.apps "nginx" deleted

四:使用 HostPath 挂载宿主机文件

HostPath 卷可以将节点上的文件或目录挂载到 Pod 上,用于实现 Pod 和宿主机之间的数据共享,常用的示例有挂载宿主机的时区至 Pod,或者将 Pod 的日志文件挂载到宿主机等。

1:编写 Deployment 文件,实现 HostPath 挂载

以下为使用 HostPath 卷的示例,实现将主机的/etc/localtime 文件挂载到 Pod 的/etc/localtime

[root@k8s-master ~]# cat nginx-hostPath.yaml 
apiVersion: apps/v1
kind: Deployment
metadata:
  labels:
    app: nginx
  name: nginx
  namespace: default
spec:
  replicas: 1
  selector:
    matchLabels:
      app: nginx
  template:
    metadata:
      labels:
        app: nginx
    spec:
      containers:
      - image: nginx:1.7.9
        imagePullPolicy: IfNotPresent
        name: nginx
        volumeMounts:
        - mountPath: /etc/localtime
          name: timezone-time


      volumes:
      - name: timezone-time
        hostPath:
          path: /etc/localtime
          type: File

2.创建此pod

[root@k8s-master ~]# kubectl create -f nginx-hostPath.yaml 
deployment.apps/nginx created

3.查看创建结果

[root@k8s-master ~]# kubectl get pod
NAME                     READY   STATUS    RESTARTS   AGE
nginx-59f95c99b5-c6h57   1/1     Running   0          5s

4.测试挂载情况

[root@k8s-master ~]# kubectl exec -it nginx-59f95c99b5-c6h57 -c nginx -- bash
root@nginx-59f95c99b5-c6h57:/# date
Wed Jul  9 10:25:48 CST 2025

5.删除

[root@k8s-master ~]# kubectl delete -f nginx-hostPath.yaml 
deployment.apps "nginx" deleted

五:挂载NFS至容器

1.安装NFS

所有节点都要安装

[root@k8s-master ~]# yum -y install nfs-utils

2.设置共享目录(nfs服务器)

[root@k8s-master ~]# mkdir /opt/wwwroot
[root@k8s-master ~]# echo "this is my test file" > /opt/wwwroot/index.html
[root@k8s-master ~]# cat /etc/exports
/opt/wwwroot 192.168.10.0/24(rw,sync,no_root_squash)

3.开启nfs(nfs服务器)

[root@k8s-master ~]# systemctl start nfs
[root@k8s-master ~]# systemctl start rpcbind

4.编写deployment文件,挂载nfs

[root@k8s-master ~]# cat nginx-nfsVolume.yaml 
apiVersion: apps/v1
kind: Deployment
metadata:
  labels:
    app: nginx
  name: nginx
  namespace: default
spec:
  replicas: 1
  selector:
    matchLabels:
      app: nginx
  template:
    metadata:
      labels:
        app: nginx
    spec:
      containers:
      - image: nginx:1.7.9
        imagePullPolicy: IfNotPresent
        name: nginx
        volumeMounts:
        - mountPath: /usr/share/nginx/html
          name: nfs-volume
      volumes:
      - name: nfs-volume
        nfs:
          server: 192.168.10.101
          path: /opt/wwwroot

5.部署此pod

[root@k8s-master ~]# kubectl create -f nginx-nfsVolume.yaml 
deployment.apps/nginx created

6.查看部署结果

[root@k8s-master ~]# kubectl get pod
NAME                     READY   STATUS    RESTARTS   AGE
nginx-7bf6df4679-4qlgt   1/1     Running   0          5s

7.登录容器查看挂载结果

[root@k8s-master ~]# kubectl get pod -o wide
NAME                     READY   STATUS    RESTARTS   AGE   IP              NODE         NOMINATED NODE   READINESS GATES
nginx-7bf6df4679-4qlgt   1/1     Running   0          76s   10.244.85.195   k8s-node01   <none>           <none>
[root@k8s-master ~]# curl 10.244.85.195

六:PersistentVolume

虽然 volume 已经可以接入大部分存储后端,但是实际使用时还有诸多的问题。比如:

  • 当某个数据卷不再被挂载使用时,里面的数据如何处理?
  • 如果想要实现只读挂载,要如何处理?
  • 如果想要只能有一个 Pod 挂载,要如何处理?

如上所述,对于很多复杂的需求,volume 可能难以实现,并且无法对存储的生命周期进行管理。另一个很大的问题是,在企业内使用 kubernetes 的不仅仅是 kubernetes 管理员,可能还有开发人员、测试人员以及初学 kubernetes 的技术人员,对于 kubernetes 的 volume 或者相关存储平台的配置参数并不了解,所以无法自行完成存储的配置。

为此,kubernetes 引入了两个新的 API 资源:PersistentVolume(持久卷,简称 PV)和PersistentVolumeclaim(持久卷声明,简称PVC)。
PV 是 kubernetes 管理员设置的存储,PVC 是对 PV 的请求,标识需要什么类型的 PV。他们同样是集群中的一类资源,但其生命周期比较独立,管理员可以单独对 PV 进行增删改査,不受 Pod 的影响,生命周期可能比挂载它的其他资源还要长。如果一个kubernetes集群的使用者并非只有kubernetes 管理员那么可以通过提前创建 PV,用以解决对存储概念不是很了解的技术人员对存储的需求。和单独配置 volume类似,PV 也可以使用 NFS、GFS、CEPH 等常见的存储后端,并且可以提供更为高级的配置,比如访问模式、空间大小以及回收策略等。目前 PV的提供方式有两种:静态或动态。静态 PV 由管理员提前创建,动态PV 无需提前创建。

1.PV回收策略

当用户使用完卷时,可以从 API 中删除 PVC对象,从而允许回收资源。回收策略会告诉 PV 如何处理改卷。目前回收策略可以设置为 Retain、Recycle和 Delete。静态 PV默认的为 Retain,动态 PV 默认为Delete.

  • Retain:保留,该策略允许手动回收资源,当删除 PVC 时,PV 仍然存在,PV 中的数据也存在。volume被视为已释放,管理员可以手动回收卷。
  • Recycle:回收,如果 volume 插件支持,Recycle 策略会对卷执行rm -rf 清理该 PV,卷中的数据已经没了,但卷还在,使其可用于下一个新的 PVC,但是本策略将会被弃用,目前只有 NFS 和 HostPath支持该策略。
  • Delete:删除,如果 volume 插件支持,删除 PVC 时会同时删除 PV,PV 中的数据自然也就没了。动态卷默认为 Delete,目前支持 Delete 的存储后端包括 AWS EBS、GCE PD、Azure Disk、openstackCinder 等。

2:PV访问策略

在实际使用 PV 时,可能针对不同的应用会有不同的访问策略,比如某类 Pod 可以读写,某类 Pod 只能读,或者需要配置是否可以被多个不同的 Pod 同时读写等,此时可以使用 PV的访问策略进行简单控制,目前支持的访问策略如下:

  • Readwrite0nce:单路可读可写,可以被单节点以读写模式挂载,命令行中可以被缩写橙 RWO。
  • ReadonlyMany:多路只读,可以被多节点以只读模式挂载,命令行中可以被缩写为 ROX。
  • ReadwriteMany:多路可读可写,可以被多个节点以读写模式挂载,命令行中可以被缩写为 RWX。
  • ReadwriteoncePod:单节点只读(1.22+),只能被一个 Pod 以读写的模式挂载,命令行中可以被
  • 缩写为 RWOP。

虽然 PV 在创建时可以指定不同的访问策略,但是也要后端的存储支持才行。比如一般情况下,大部分块存储是不支持 ReadwriteMany 的。
在企业内,可能存储很多不同类型的存储,比如 NFS、ceph、GlusterFs 等,针对不同类型的后端存储具有不同的配置方式,这也是对集群管理员的一种挑战,因为集群管理员需要对每种存储都要有所了解。

3:Pv 的配置方式

(1)静态配置

静态配置是手动创建 PV 并定义其属性,例如容量、访问模式、存储后端等。在这种情况下,Kubernetes管理员负责管理和配置 PV,然后应用程序可以使用这些PV。静态配置通常用于一些固定的存储后端,如NFS。

(2)动态配置

动态配置允许 Kubernetes 集群根据 PVC 的需求自动创建 PV,在这种情况下,管理员只需为存储后端配置 storageclass,然后应用程序就可以通过 PVC 请求存储。Kubernetes 将自动创建与 PVC 匹配的PV,并将其绑定到 PVC上。这种方法使得存储管理更加灵活和可扩展,允许管理员在集群中动态添加、删除、和管理存储资源

4:基于 HostPath的PV

可以创建一个基于 HostPath 的 PV,和配置 NFS 的 PV 类似,只需要配置 hostPath 字段即可,其它配置基本一致。

(1)在所有 node 节点创建主机目录

[root@k8s-master ~]# mkdir /mnt/data

(2)编辑hostpath的yam1 文件

[root@k8s-master ~]# cat hostpath-pv.yaml 
kind: PersistentVolume
apiVersion: v1
metadata:
  name: mypv-hostpath
  labels:
    type: local
spec:
  storageClassName: pv-hostpath
  capacity:
    storage: 10Gi
  accessModes:
    - ReadWriteOnce
  hostPath:
    path: "/mnt/data"

备注:

  • hostPath:宿主机的路径,使用 hostPath 类型需要固定 Pod 所在的节点,防止 Pod 漂移造成数据丢失。
  • storageclassName 是一个用于标识 Storageclass 对象名称的标签。当你创建或配置PersistentVolumeclaim(PVc)时,可以指定 storageclassName 来告诉 Kubernetes 你希望使用哪个 storageclass 来配置存储。

[root@k8s-master ~]# kubectl create -f hostpath-pv.yaml 
persistentvolume/mypv-hostpath created

[root@k8s-master ~]# kubectl get pv
NAME            CAPACITY   ACCESS MODES   RECLAIM POLICY   STATUS      CLAIM   STORAGECLASS   REASON   AGE
mypv-hostpath   10Gi       RWO            Retain           Available           pv-hostpath             5s
 

5:基于 NFS的 PV

(1)提前安装好 nfs 服务

可以使用上一个案例中安装好的 NFS。或重新安装一台,步骤如下:
提前安装好 nfs 服务,192.168.10.101 是 nfs 服务器,也可以是任意一台提供了 NFS 服务的主机。客户端需要在所有的 Kubernetes 节点安装

[root@k8s-master ~]# yum -y install nfs-utils
[root@k8s-master ~]# mkdir /opt/wwwroot
[root@k8s-master ~]# echo "this is my test file" > /opt/wwwroot/index.html
[root@k8s-master ~]# cat /etc/exports
/opt/wwwroot 192.168.10.0/24(rw,sync,no_root_squash)
[root@k8s-master ~]# systemctl start nfs
[root@k8s-master ~]# systemctl start rpcbind

(2)创建一个基于 NFS 的 PV

PV 目前没有 NameSpace 隔离,不需要指定命名空间,在任意命名空间下创建的PV 均可以在其他Namespace 使用

[root@k8s-master ~]# cat nfs-pv.yaml 
apiVersion: v1
kind: PersistentVolume
metadata:
  name: mypv-nfs
spec:
  capacity:
    storage: 5Gi
  volumeMode: Filesystem
  accessModes:
    - ReadWriteOnce
  persistentVolumeReclaimPolicy: Recycle
  storageClassName: pvc-nfs
  mountOptions:
    - hard
    - nfsvers=4.1
  nfs:
    path: /opt/wwwroot/
    server: 192.168.10.101

备注:

  • capacity:容量配置
  • volumeMode:卷的模式,目前支持 Filesystem(文件系统)和 Block(块),其中 Block 类型需要后端存储支持,默认为文件系统。
  • accessModes:该PV的访问模式
  • storageclassName:Pv的类,一个特定类型的PV只能绑定到特定类别的 PVCpersistentVolumeReclaimPolicy:回收策略
  • mountoption:非必要,新版本中已经弃用
  • nfs:NFS 服务配置,包括以下两个选项

path:NFS 上的共享目录
server:NFs的IP地址

创建PV

[root@k8s-master ~]# kubectl create -f nfs-pv.yaml 
persistentvolume/mypv-nfs created

查看PV创建结果

[root@k8s-master ~]# kubectl get pv
NAME            CAPACITY   ACCESS MODES   RECLAIM POLICY   STATUS      CLAIM   STORAGECLASS   REASON   AGE
mypv-hostpath   10Gi       RWO            Retain           Available           pv-hostpath             4m44s
mypv-nfs        5Gi        RWO            Recycle          Available           pvc-nfs                 7s

七:PersistentVolumeclaim(pvc,持久卷声明)

当 kubernetes 管理员提前创建好了 PV,我们又应该如何使用它呢?这里介绍 kubernetes 的另一个概念 PersistentVolumeclaim(简称PVC)。PVC 是其他技术人员在 kubernetes 上对存储的申请,他可以标明一个程序需要用到什么样的后端存储、多大的空间以及什么访问模式进行挂载。这一点和 Pod 的 Qos 配置类似,Pod 消耗节点资源,PVC 消耗 PV 资源,Pod 可以请求特定级别的资源(CPU 和内存),PVC可以请求特定的大小和访问模式的PV。例如申请一个大小为 5G且只能被一个 Pod 只读访问的存储,
在实际使用时,虽然用户通过 PVC获取存储支持,但是用户可能需要具有不同性质的 PV 来解决不同的问题,比如使用 SSD 硬盘来提高性能。所以集群管理员需要根据不同的存储后端来提供各种 PV,而不仅仅是大小和访问模式的区别,并且无须让用户了解这些卷的具体实现方式和存储类型,打扫了存储的解耦,降低了存储使用的复杂度。
接下来我们来看看如何让 PVC 和前面创建的 PV 绑定。PVC和 PV进行绑定的前提条件是一些参数必须匹配,比如 accessModes、storageclassName、volumeMode 都需要相同,并且 PVc 的 storage 需要小于等于 PV 的 storage 配置。

1.PVC的创建

(1)为hostpath类型的PV创建PVC

[root@k8s-master ~]# cat pvc-hostpath.yaml 
kind: PersistentVolumeClaim
apiVersion: v1
metadata:
  name: mypvc-hostpath
spec:
  storageClassName: pv-hostpath
  accessModes:
    - ReadWriteOnce
  resources:
    requests:
      storage: 3Gi

注意:
storageClassName:存储类名称需要和对应的 PV 中的名称一致,PV 和 PVC 进行绑定并非是名字相同,而是 storageclassName 相同且其他参数一致才可以进行绑定。

[root@k8s-master ~]# kubectl create -f pvc-hostpath.yaml 
persistentvolumeclaim/mypvc-hostpath created
[root@k8s-master ~]# kubectl get pvc
NAME             STATUS   VOLUME          CAPACITY   ACCESS MODES   STORAGECLASS   AGE
mypvc-hostpath   Bound    mypv-hostpath   10Gi       RWO            pv-hostpath    6s
 

(2)为NFS类型的PV创建PVC

[root@k8s-master ~]# cat pvc-nfs.yaml 
kind: PersistentVolumeClaim
apiVersion: v1
metadata:
  name: mypvc-nfs
spec:
  storageClassName: pvc-nfs
  accessModes:
    - ReadWriteOnce
  resources:
    requests:
      storage: 3Gi

注意:storageClassName:存储类名称需要和对应的PV中的名称一致

[root@k8s-master ~]# kubectl create -f pvc-nfs.yaml 
persistentvolumeclaim/mypvc-nfs created
[root@k8s-master ~]# kubectl get pvc
NAME             STATUS   VOLUME          CAPACITY   ACCESS MODES   STORAGECLASS   AGE
mypvc-hostpath   Bound    mypv-hostpath   10Gi       RWO            pv-hostpath    2m19s
mypvc-nfs        Bound    mypv-nfs        5Gi        RWO            pvc-nfs        7s

从上述两个简单的例子可以看出,PVC的定义和后端存储并没有关系。对于有存储需求的技术人员,直接定义 PVC 即可绑定一块 PV,之后就可以供 Pod 使用,而不用去关心具体的实现细节大大降低了存储的复杂度。接下来我们看一下 PVC 如何提供给 Pod 使用。

2:PVc 的使用

上述创建了 PV,并使用 PVC与其绑定,现在还差一步就能让程序使用这块存储,那就是将 PVC 挂载到 Pod。和之前的挂载方式类似,PVC的挂载也是通过 volumes 字段进行配置的,只不过之前需要根据不同的存储后端填写很多复杂的参数’而使用 PVC进行挂载时,只填写 PVC 的名字即可,不需要再关心任何的存储细节,这样即使不是 Kubemetes 管理员,不懂存储的其他技术人员想要使用存储,也可以非常简单地进行配置和使用。比如我们将之前创建的 hostPath 类型的 PVC 挂载到 Pod 中,可以看到只需要配置-个 PersistentVolumeclaim 类型的 volumes,claimName 配置为 PVC 的名称即可:

(1)创建pod,绑定hostpath的 PV

[root@k8s-master ~]# cat pvc-pv-pod-hostpath.yaml 
kind: Pod
apiVersion: v1
metadata:
  name: hostpath-pv-pod
spec:
  volumes:
    - name: task-pv-storage
      persistentVolumeClaim:
       claimName: mypvc-hostpath
  containers:
    - name: task-pv-container
      image: nginx:1.7.9
      ports:
        - containerPort: 80
          name: "http-server"
      volumeMounts:
        - mountPath: "/usr/share/nginx/html"
          name: task-pv-storage

[root@k8s-master ~]# kubectl create -f pvc-pv-pod-hostpath.yaml 
pod/hostpath-pv-pod created
[root@k8s-master ~]# kubectl get pod -o wide
NAME                     READY   STATUS    RESTARTS   AGE   IP              NODE         NOMINATED NODE   READINESS GATES
hostpath-pv-pod          1/1     Running   0          10s   10.244.58.195   k8s-node02   <none>           <none>
nginx-7bf6df4679-4qlgt   1/1     Running   0          43m   10.244.85.195   k8s-node01   <none>           <none>

[root@k8s-master ~]# cd /mnt/data/
[root@k8s-master data]# touch aaa.txt
[root@k8s-master ~]# kubectl exec -it hostpath-pv-pod -- bash
root@hostpath-pv-pod:/# ls /usr/share/nginx/html/
 

(2)创建pod,绑定NFS的PV

[root@k8s-master ~]# cat pvc-pv-pod-nfs.yaml 
kind: Pod
apiVersion: v1
metadata:
  name: pvc-nfs
spec:
  volumes:
    - name: pvc-nfs01
      persistentVolumeClaim:
       claimName: mypvc-nfs
  containers:
    - name: task-pv-container
      image: nginx:1.7.9
      ports:
        - containerPort: 80
          name: "http-server"
      volumeMounts:
        - mountPath: "/usr/share/nginx/html"
          name: pvc-nfs01

[root@k8s-master ~]# kubectl create -f pvc-pv-pod-nfs.yaml 
pod/pvc-nfs created
[root@k8s-master ~]# kubectl get pod
NAME                     READY   STATUS    RESTARTS   AGE
hostpath-pv-pod          1/1     Running   0          5m27s
nginx-7bf6df4679-4qlgt   1/1     Running   0          48m
pvc-nfs                  1/1     Running   0          7s

[root@k8s-master ~]# kubectl exec -it pvc-nfs -- bash
root@pvc-nfs:/# ls /usr/share/nginx/html/
index.html

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值