k8s安装StorageClass+NFS
StorageClass 是什么?
在了解StorageClass 之前先了解一下 卷
和 持久卷
的概念.
简单来说是 Kubernetes提供的一套可以自动创建PV的机制,而这个机制的核心在于:StorageClass这个API对象。
每个 StorageClass 都包含 provisioner
、parameters
和 reclaimPolicy
字段, 这些字段会在 StorageClass 需要动态分配 PersistentVolume 时会使用到。
StorageClass解决了什么?
在一个大规模的Kubernetes集群里,可能有成千上万个PVC,这就意味着运维人员必须实现创建出这个多个PV,此外,随着项目的需要,会有新的PVC不断被提交,那么运维人员就需要不断的添加新的,满足要求的PV,否则新的Pod就会因为PVC绑定不到PV而导致创建失败.而且通过 PVC 请求到一定的存储空间也很有可能不足以满足应用对于存储设备的各种需求
而且不同的应用程序对于存储性能的要求可能也不尽相同,比如读写速度、并发性能等,为了解决这一问题,Kubernetes 又为我们引入了一个新的资源对象:StorageClass,通过 StorageClass 的定义,管理员可以将存储资源定义为某种类型的资源,比如快速存储、慢速存储等,用户根据 StorageClass 的描述就可以非常直观的知道各种存储资源的具体特性了,这样就可以根据应用的特性去申请合适的存储资源了。
之前我们创建一个Pod申请一个持久化存储步骤:
- 创建PV,申请需要的空间。
- 创建PVC, 从PV申请需要的空间。
- 绑定到对应的Pod上。
如图:
现在步骤:
- 创建StorageClass。
- 创建PVC绑定
如图:
搭建StorageClass+NFS,大致有以下几个步骤:
- 搭建一个可用的NFS Server
- 创建Service Account.这是用来管控NFS provisioner在k8s集群中运行的权限。
- 创建StorageClass.负责建立PV并调用NFS provisioner进行预定的工作,并让PV与PVC建立管理。
- 创建NFS provisioner.有两个功能,一个是在NFS共享目录下创建挂载点(volume),另一个则是建了PV并将PV与NFS的挂载点建立关联
开始创建 StorageClass+NFS
创建StorageClass要做的的事情:
- 创建namespace,这里用storage;
- 创建rbac:因为StorageClass有对应的pod要运行,每个pod都有自己的身份即serviceaccount,而这个serviceaccount是和某个角色绑定的,所以要创建:serviceaccount、rule、rolebinding;
- 创建provisioner,即关联NFS的工作类,负责给PVC提供存储资源,这里用的是nfs-client-provisioner;
- 创建StorageClass,所有需要PVC通过该StorageClass即可获得存储空间;
NFS环境
- 创建NFS共享服务(已准备好了 NFS服务器环境,可以参考这个ubuntu环境安装和使用NFS)
系统版本 | ip地址 | 软件 | NFS挂载目录 |
---|---|---|---|
20.04.2 LTS(ubuntu) | 192.168.8.231 | NFS服务端 | /data/nfs |
- 使用以下文档配置account及相关权限
先创建命名空间
cat <
rbac.yaml: #唯一需要修改的地方只有namespace,根据实际情况定义
kubectl apply -f rbac.yaml
apiVersion: v1
kind: ServiceAccount
metadata:name: nfs-client-provisioner# replace with namespace where provisioner is deployednamespace: todocoder
---
kind: ClusterRole
apiVersion: rbac.authorization.k8s.io/v1
metadata:name: nfs-client-provisioner-runner
rules:- apiGroups: [""]resources: ["persistentvolumes"]verbs: ["get", "list", "watch", "create", "delete"]- apiGroups: [""]resources: ["persistentvolumeclaims"]verbs: ["get", "list", "watch", "update"]- apiGroups: ["storage.k8s.io"]resources: ["storageclasses"]verbs: ["get", "list", "watch"]- apiGroups: [""]resources: ["events"]verbs: ["create", "update", "patch"]
---
kind: ClusterRoleBinding
apiVersion: rbac.authorization.k8s.io/v1
metadata:name: managed-run-nfs-client-provisioner
subjects:- kind: ServiceAccountname: nfs-client-provisioner# replace with namespace where provisioner is deployednamespace: todocoder
roleRef:kind: ClusterRolename: nfs-client-provisioner-runnerapiGroup: rbac.authorization.k8s.io
---
kind: Role
apiVersion: rbac.authorization.k8s.io/v1
metadata:name: leader-locking-nfs-client-provisioner# replace with namespace where provisioner is deployednamespace: todocoder
rules:- apiGroups: [""]resources: ["endpoints"]verbs: ["get", "list", "watch", "create", "update", "patch"]
---
kind: RoleBinding
apiVersion: rbac.authorization.k8s.io/v1
metadata:name: leader-locking-nfs-client-provisionernamespace: todocoder
subjects:- kind: ServiceAccountname: nfs-client-provisioner# replace with namespace where provisioner is deployednamespace: todocoder
roleRef:kind: Rolename: leader-locking-nfs-client-provisionerapiGroup: rbac.authorization.k8s.io
- 创建NFS资源的StorageClass
nfs-StorageClass.yaml
kubectl apply -f nfs-StorageClass.yaml
apiVersion: storage.k8s.io/v1
kind: StorageClass
metadata:name: managed-nfs-storagenamespace: todocoder
provisioner: provisioner-nfs-storage #这里的名称要和provisioner配置文件中的环境变量PROVISIONER_NAME保持一致
parameters:archiveOnDelete: "false"
- 创建NFS provisioner
nfs-provisioner.yaml
kubectl apply -f nfs-provisioner.yaml
apiVersion: apps/v1
kind: Deployment
metadata:name: nfs-client-provisionerlabels:app: nfs-client-provisioner# replace with namespace where provisioner is deployednamespace: todocoder #与RBAC文件中的namespace保持一致
spec:replicas: 1selector:matchLabels:app: nfs-client-provisionerstrategy:type: Recreateselector:matchLabels:app: nfs-client-provisionertemplate:metadata:labels:app: nfs-client-provisionerspec:serviceAccountName: nfs-client-provisionercontainers:- name: nfs-client-provisionerimage: quay.io/external_storage/nfs-client-provisioner:latestvolumeMounts:- name: nfs-client-rootmountPath: /persistentvolumesenv:- name: PROVISIONER_NAMEvalue: provisioner-nfs-storage #provisioner名称,请确保该名称与 nfs-StorageClass.yaml文件中的provisioner名称保持一致- name: NFS_SERVERvalue: 192.168.8.231 #NFS Server IP地址- name: NFS_PATHvalue: /data/nfs #NFS挂载卷volumes:- name: nfs-client-rootnfs:server: 192.168.8.231 #NFS Server IP地址path: /data/nfs #NFS 挂载卷
pod中 使用StorageClass
- Pod+PVC
创建PVC test-claim.yaml
kubectl apply -f test-claim.yaml
kind: PersistentVolumeClaim
apiVersion: v1
metadata:name: test-claimnamespace: todocoder## annotations:## volume.beta.kubernetes.io/storage-class: "managed-nfs-storage" # 后期k8s不再支持这个注解,通过声明storageClassName的方式代替
spec:accessModes:- ReadWriteManystorageClassName: managed-nfs-storage #与nfs-StorageClass.yaml metadata.name保持一致resources:requests:storage: 5Mi
查看pvc 并确保PVC状态为Bound
root@dell:/# kubectl get pvc -n todocoder
NAME STATUS VOLUME CAPACITY ACCESS MODES STORAGECLASS AGE
test-claim Bound pvc-bd4ad9c4-bdfa-4fd6-9930-594edb8cd7b2 5Mi RWX managed-nfs-storage 11mroot@dell:/# kubectl get pv
NAME CAPACITY ACCESS MODES RECLAIM POLICY STATUS CLAIM STORAGECLASS REASON AGE
pvc-bd4ad9c4-bdfa-4fd6-9930-594edb8cd7b2 5Mi RWX Delete Bound todocoder/test-claim managed-nfs-storage 12m# 我们去nfs 目录下面,可以看到已经挂载成功
root@dell:/data/nfs# ls
todocoder-test-claim-pvc-bd4ad9c4-bdfa-4fd6-9930-594edb8cd7b2
#文件规则是按照${namespace}-${pvcName}-${pvName}创建的
创建测试pod,查看是否可以正常挂载
test-pod.yaml
kubectl apply -f test-pod.yaml
kind: Pod
apiVersion: v1
metadata:name: test-podnamespace: todocoder
spec:containers:- name: test-podimage: busybox:1.24command:- "/bin/sh"args:- "-c"- "touch /mnt/SUCCESS && exit 0 || exit 1" #创建一个SUCCESS文件后退出volumeMounts:- name: nfs-pvcmountPath: "/mnt"restartPolicy: "Never"volumes:- name: nfs-pvcpersistentVolumeClaim:claimName: test-claim #与PVC名称保持一致
查看文件是否创建
root@dell:/data/nfs/todocoder-test-claim-pvc-bd4ad9c4-bdfa-4fd6-9930-594edb8cd7b2# ls
SUCCESS
statefulset+volumeClaimTemplates自动创建PV
创建无头服务及statefulset
kubectl apply -f nginx-statefulset.yaml
apiVersion: v1
kind: Service
metadata:name: nginx-headlessnamespace: todocoderlabels:app: nginx
spec:ports:- port: 80name: webclusterIP: None #注意此处的值,None表示无头服务selector:app: nginx
---
apiVersion: apps/v1beta1
kind: StatefulSet
metadata:name: webnamespace: todocoder
spec:serviceName: "nginx"replicas: 2 #两个副本template:metadata:labels:app: nginxspec:containers:- name: nginximage: ikubernetes/myapp:v1ports:- containerPort: 80name: webvolumeMounts:- name: wwwmountPath: /usr/share/nginx/htmlvolumeClaimTemplates:- metadata:name: wwwannotations:volume.beta.kubernetes.io/storage-class: "managed-nfs-storage" #managed-nfs-storage为我们创建的storage-class名称spec:accessModes: [ "ReadWriteOnce" ]resources:requests:storage: 1Gi
查看pod及pvc
$: kubectl get pods -n todocoder$: kubectl get pvc -n todocoder
本文来自互联网用户投稿,文章观点仅代表作者本人,不代表本站立场,不承担相关法律责任。如若转载,请注明出处。 如若内容造成侵权/违法违规/事实不符,请点击【内容举报】进行投诉反馈!