У меня есть постоянный том типа NFS с исходным сервером, работающим локально. Этот сервер NFS использует постоянное утверждение тома, которое находится в GCP. Все работает нормально, однако я по какой-то причине не могу отслеживать PVC на Prometheus. Это просто не появляется.
Вопрос: Как я могу отслеживать использование таких дисков? Нужно ли мне устанавливать какие-то драйверы или настраивать пользовательский парсинг?
Вот запросы PromQL, которые я пробовал:
kubelet_volume_stats_capacity_bytes
kubelet_volume_stats_available_bytes
node_filesystem_size_bytes
Примечание. Я могу видеть здесь объем, но могу видеть только его емкость, а не использование.
kube_persistentvolume_capacity_bytes
Вот файл конфигурации для сервера NFS:
apiVersion: extensions/v1beta1
kind: Deployment
metadata:
name: nfs-server
spec:
replicas: 1
selector:
matchLabels:
role: nfs-server
template:
metadata:
labels:
role: nfs-server
spec:
containers:
- name: nfs-server
image: gcr.io/google_containers/volume-nfs:0.8
ports:
- name: nfs
containerPort: 2049
- name: mountd
containerPort: 20048
- name: rpcbind
containerPort: 111
securityContext:
privileged: true
volumeMounts:
- mountPath: /exports
name: nfs-pvc
volumes:
- name: nfs-pvc
gcePersistentDisk:
pdName: nfs-disk
fsType: ext4
Вот конфигурация PV:
Status: Bound
Claim: default/nfs-pvc
Reclaim Policy: Retain
Access Modes: RWX
VolumeMode: Filesystem
Capacity: 1000Gi
Node Affinity: <none>
Message:
Source:
Type: NFS (an NFS mount that lasts the lifetime of a pod)
Server: nfs-server.default.svc.cluster.local
Path: /
ReadOnly: false
Вот конфигурация PVC:
Name: nfs-pvc
Namespace: default
StorageClass:
Status: Bound
Volume: nfs-pv
Finalizers: [kubernetes.io/pvc-protection]
Capacity: 1000Gi
Access Modes: RWX
VolumeMode: Filesystem
Mounted By: ...
- Версия Kubernetes: 1.16.15-gke.500
- Версия Prometheus: 2.21.0
- Диаграмма Prometheus Helm: https://github.com/prometheus-community/helm-charts/tree/main/charts/prometheus