kubernetes中安装Prometheus监控

1、系统环境

节点名称 IP地址 K8S版本
master01 192.168.68.20 v1.20.15
master02 192.168.68.21 v1.20.15
node01 192.168.68.22 v1.20.15
node02 192.168.68.23 v1.20.15
建议将所有的prometheus yaml文件存在一块
mkdir /opt/prometheus -p && cd /opt/prometheus

2、搭建nfs

因为pod会运行在k8s的所有节点,所以我们需要用到nfs共享存储
1.首先要准备nfs的服务器,这里为了简单,直接是master节点做nfs服务器

  1. # 在nfs上安装nfs服务
  2. apt install nfs-kernel-server -y
  3. # 检查nfs-server是否已经启动:
  4. systemctl status nfs-server
  5. #启动nfs
  6. systemctl restart nfs-kernel-server.service
  7. #查看nfs支持的版本
  8. cat /proc/fs/nfsd/versions
  9. # 创建一个共享目录
  10. mkdir -p /data/prometheus
  11. # 将共享目录以读写权限暴露给192.168.68.0/24网段中的所有主机
  12. vim /etc/exports
  13. /data/prometheus 192.168.68.0/24(rw,no_root_squash,no_subtree_check)
  14. # 启动nfs服务
  15. exportfs -arv
  16. systemctl restart nfs-server
  17. # 使用showmount -e查看是否可以看到共享目录:
  18. showmount -e 192.168.68.24

2.接下来,要在的每个node节点上都安装下nfs,这样的目的是为了node节点可以驱动nfs设备

  1. # 在Ubuntu20.04中安装客户端:nfs-common
  2. apt install nfs-common -y
  3. # 创建一个目录
  4. mkdir -p /data/prometheus
  5. #在其它机器上测试挂载
  6. mount -t nfs 192.168.68.24:/data/prometheus /data/prometheus
  7. # 取消挂载
  8. umount /data/prometheus

3.创建命名空间

创建vim prometheus-namespace.yml

  1. apiVersion: v1
  2. kind: Namespace
  3. metadata:
  4. name: prometheus
  5. labels:
  6. name: prometheus

kubectl apply -f prometheus-namespace.yml

4、创建pv & pvc

vim prometheus-pv-pvc.yml

  1. apiVersion: v1
  2. kind: PersistentVolume
  3. metadata:
  4. name: prometheus-data
  5. spec:
  6. capacity:
  7. storage: 10Gi
  8. accessModes:
  9. - ReadWriteOnce
  10. persistentVolumeReclaimPolicy: Recycle
  11. nfs:
  12. server: 192.168.68.24
  13. path: /data/prometheus
  14. ---
  15. apiVersion: v1
  16. kind: PersistentVolumeClaim
  17. metadata:
  18. name: prometheus-data
  19. namespace: prometheus
  20. spec:
  21. accessModes:
  22. - ReadWriteOnce
  23. resources:
  24. requests:
  25. storage: 10Gi

这里通过一个简单的NFS作为存储后端创建一个pv & pvc
kubectl apply -f prometheus-pv-pvc.yml
查看pv,pvc
kubectl get pv -o wide
kubectl get pvc -n prometheus -o wide

这里稍微提示一下,我们创建的pv和pvc大小都是10g,只是测试存储为10g。线上可以修改为200或者更多,一般prometheus数据保留15-30天就可以,如果数据量过大建议使用TSBD分布式存储

5、创建RBAC

我们这里还需要创建rbac认证,因为prometheus需要访问k8s集群内部的资源

  1. apiVersion: v1
  2. kind: ServiceAccount
  3. metadata:
  4. name: prometheus
  5. namespace: prometheus
  6. ---
  7. apiVersion: rbac.authorization.k8s.io/v1
  8. kind: ClusterRole
  9. metadata:
  10. name: prometheus
  11. rules:
  12. - apiGroups:
  13. - ""
  14. resources:
  15. - nodes
  16. - nodes/metrics
  17. - services
  18. - endpoints
  19. - pods
  20. verbs:
  21. - get
  22. - list
  23. - watch
  24. - apiGroups:
  25. - ""
  26. resources:
  27. - configmaps
  28. verbs:
  29. - get
  30. - nonResourceURLs:
  31. - "/metrics"
  32. verbs:
  33. - get
  34. ---
  35. apiVersion: rbac.authorization.k8s.io/v1
  36. kind: ClusterRoleBinding
  37. metadata:
  38. name: prometheus
  39. roleRef:
  40. apiGroup: rbac.authorization.k8s.io
  41. kind: ClusterRole
  42. name: prometheus
  43. subjects:
  44. - kind: ServiceAccount
  45. name: prometheus
  46. namespace: prometheus
  1. cat >>prometheus-rbac.yaml <<EOF
  2. apiVersion: v1
  3. kind: ServiceAccount
  4. metadata:
  5. name: prometheus
  6. namespace: kube-system
  7. ---
  8. apiVersion: rbac.authorization.k8s.io/v1
  9. kind: ClusterRole
  10. metadata:
  11. name: prometheus
  12. rules:
  13. - apiGroups:
  14. - ""
  15. resources:
  16. - nodes
  17. - services
  18. - endpoints
  19. - pods
  20. - nodes/proxy
  21. verbs:
  22. - get
  23. - list
  24. - watch
  25. - apiGroups:
  26. - ""
  27. resources:
  28. - configmaps
  29. - nodes/metrics
  30. verbs:
  31. - get
  32. - nonResourceURLs:
  33. - /metrics
  34. verbs:
  35. - get
  36. ---
  37. apiVersion: rbac.authorization.k8s.io/v1
  38. kind: ClusterRoleBinding
  39. metadata:
  40. name: prometheus
  41. roleRef:
  42. apiGroup: rbac.authorization.k8s.io
  43. kind: ClusterRole
  44. name: prometheus
  45. subjects:
  46. - kind: ServiceAccount
  47. name: prometheus
  48. namespace: kube-system
  49. EOF

由于我们要获取的资源,在每一个namespace下面都有可能存在,所以我们这里使用的是ClusterRole的资源对象,nonResourceURLs是用来对非资源型metrics进行操作的权限声明

创建rbac文件:kubectl apply -f prometheus-rbac.yaml

6、创建deployment文件

  1. cat >>prometheus-deploy.yaml <<EOF
  2. apiVersion: apps/v1
  3. kind: Deployment
  4. metadata:
  5. name: prometheus
  6. namespace: kube-system
  7. labels:
  8. app: prometheus
  9. spec:
  10. template:
  11. metadata:
  12. labels:
  13. app: prometheus
  14. spec:
  15. serviceAccountName: prometheus
  16. containers:
  17. - image: prom/prometheus:v2.35.0
  18. name: prometheus
  19. command:
  20. - "/bin/prometheus"
  21. args:
  22. - "--config.file=/etc/prometheus/prometheus.yml"
  23. - "--storage.tsdb.path=/prometheus"
  24. - "--storage.tsdb.retention=30d"
  25. - "--web.enable-admin-api" # 控制对admin HTTP API的访问,其中包括删除时间序列等功能
  26. - "--web.enable-lifecycle" # 支持热更新,直接执行localhost:9090/-/reload立即生效
  27. ports:
  28. - containerPort: 9090
  29. protocol: TCP
  30. name: http
  31. volumeMounts:
  32. - mountPath: "/prometheus"
  33. subPath: prometheus
  34. name: data
  35. - mountPath: "/etc/prometheus"
  36. name: config-volume
  37. resources:
  38. requests:
  39. cpu: 100m
  40. memory: 512Mi
  41. limits:
  42. cpu: 100m
  43. memory: 512Mi
  44. securityContext:
  45. runAsUser: 0
  46. volumes:
  47. - name: data
  48. persistentVolumeClaim:
  49. claimName: prometheus
  50. - configMap:
  51. name: prometheus-config
  52. name: config-volume
  53. EOF

cat >>prometheus-deploy.yaml <apiVersion: apps/v1
kind: Deployment
metadata:
name: prometheus
namespace: prometheus
labels:
app: prometheus
spec:
template:
metadata:
labels:
app: prometheus
spec:
serviceAccountName: prometheus
containers:
- image: prom/prometheus:v2.35.0
name: prometheus
command:
- “/bin/prometheus”
args:
- “—config.file=/etc/prometheus/prometheus.yml”
- “—storage.tsdb.path=/prometheus”
- “—storage.tsdb.retention=30d”
- “—web.enable-admin-api” # 控制对admin HTTP API的访问,其中包括删除时间序列等功能
- “—web.enable-lifecycle” # 支持热更新,直接执行localhost:9090/-/reload立即生效
ports:
- containerPort: 9090
protocol: TCP
name: http
volumeMounts:
- mountPath: “/prometheus”
subPath: prometheus
name: data
- mountPath: “/etc/prometheus”
name: config-volume
resources:
requests:
cpu: 100m
memory: 512Mi
limits:
cpu: 100m
memory: 512Mi
securityContext:
runAsUser: 0
volumes:
- name: data
persistentVolumeClaim:
claimName: prometheus
- configMap:
name: prometheus-config
name: config-volume
EOF

这里稍微讲解一下配置参数

我们在启动程序的时候,除了指定prometheus.yaml(configmap)以外,还通过storage.tsdb.path指定了TSDB数据的存储路径、通过storage.tsdb.rentention设置了保留多长时间的数据,还有下面的web.enable-admin-api参数可以用来开启对admin api的访问权限,参数web.enable-lifecyle用来开启支持热更新,有了这个参数之后,prometheus.yaml(configmap)文件只要更新了,通过执行localhost:9090/-/reload就会立即生效

我们添加了一行securityContext,,其中runAsUser设置为0,这是因为prometheus运行过程中使用的用户是nobody,如果不配置可能会出现权限问题

创建deployment文件:kubectl apply -f prometheus-deploy.yaml

1
6、创建configmap

#生成配置文件

cat >> prometheus.configmap.yaml <apiVersion: v1
kind: ConfigMap
metadata:
name: prometheus-config
namespace: prometheus
data:
prometheus.yml: |
global:
scrape_interval: 15s
scrape_timeout: 15s
scrape_configs:
- job_name: ‘prometheus’
static_configs:
- targets: [‘localhost:9090’]
EOF

上面包含了3个模块global、rule_files和scrape_configs

其中global模块控制Prometheus Server的全局配置
scrape_interval:表示prometheus抓取指标数据的频率,默认是15s,我们可以覆盖这个值
evaluation_interval:用来控制评估规则的频率,prometheus使用规则产生新的时间序列数据或者产生警报
rule_files模块制定了规则所在的位置,prometheus可以根据这个配置加载规则,用于生产新的时间序列数据或者报警信息,当前我们没有配置任何规则,后期会添加
scrape_configs用于控制prometheus监控哪些资源。由于prometheus通过http的方式来暴露它本身的监控数据,prometheus也能够监控本身的健康情况。在默认的配置有一个单独的job,叫做prometheus,它采集prometheus服务本身的时间序列数据。这个job包含了一个单独的、静态配置的目标;监听localhost上的9090端口。
prometheus默认会通过目标的/metrics路径采集metrics。所以,默认的job通过URL:http://localhost:9090/metrics采集metrics。收集到时间序列包含prometheus服务本身的状态和性能。如果我们还有其他的资源需要监控,可以直接配置在该模块下即可
创建configmap文件: kubectl create -f prometheus.configmap.yaml
1
现在我们prometheus服务状态是已经正常了,但是我们在浏览器是无法访问prometheus的 webui服务。那么我们还需要创建一个service

7、创建service nodeport
cat >>prometeheus-svc.yaml <apiVersion: v1
kind: Service
metadata:
name: prometheus
namespace: kube-system
labels:
app: prometheus
spec:
selector:
app: prometheus
type: NodePort
ports:
- name: web
port: 9090
targetPort: http
EOF

为了方便测试,我这里使用的是NodePort,我们也可以创建一个Ingress对象使用域名访问

8、创建ingress
cat >>prometheus.ingress.yaml <apiVersion: extensions/v1beta1
kind: Ingress
metadata:
name: prometheus-ingress
namespace: kube-system
spec:
rules:
- host: www.prometheus.com
http:
paths:
- path: /
backend:
serviceName: prometheus
servicePort: 9090
EOF

修改hosts文件
windows系统在C:/windows/drivers/etc

9、测试

默认prometheus会监控自己

我们查看一下数据,是否收集到数据

比如我们这里就选择scrape_duration_seconds这个指标,然后点击Execute,如果这个时候没有查询到任何数据,我们可以切换到Graph这个 tab 下面重新选择下时间,选择到当前的时间点,重新执行,就可以看到类似于下面的图表数据了: