Prometheus中的报警组件。 1、获取数据通过Metrics接口。 2、TSDB用来存储监控数据。 3、Grafana展示监控大屏。 4、AlterManager用作监控报警的组件。
1、AlertManager的组成
- 1、AlterManager的报警路由
- 2、报警的模板
- 邮件报警的模板
- 3、报警的规则
2、AlertManager部署
```bash 1、压缩 [root@VM-0-16-centos ~]# wget https://ghproxy.com/https://github.com/prometheus/alertmanager/releases/download/v0.24.0/alertmanager-0.24.0.linux-amd64.tar.gz
2、解压 [root@VM-0-16-centos ~]# tar -xf alertmanager-0.24.0.linux-amd64.tar.gz -C /usr/local/
3、创建软连接 [root@VM-0-16-centos alertmanager]# ln -s /usr/local/alertmanager-0.24.0.linux-amd64 /usr/local/alertmanager
4、添加环境变量 [root@VM-0-16-centos alertmanager]# vim /etc/profile ALTERMANAGER_HOME=/usr/local/alertmanager PATH=$PATH:$ALTERMANAGER_HOME [root@VM-0-16-centos alertmanager]# source /etc/profile
5、测试启动 [root@VM-0-16-centos local]# /usr/local/alertmanager/alertmanager —config.file=”/usr/local/alertmanager/alertmanager.yml”
6、注册alertManager服务 [root@VM-0-16-centos local]# cat alertmanager.service [Unit] Description=AlertManager
[Service] ExecStart=/usr/local/alertmanager/alertmanager —config.file=/usr/local/alertmanager/alertmanager.yml Restart=on-failure
[Install] WantedBy=multi-user.target [root@VM-0-16-centos local]# systemctl daemon-reload [root@VM-0-16-centos local]# systemctl start alertmanager.service
<a name="aYqvJ"></a>
## 3、介绍AlertManager的配置文件
> 配置文档:[https://prometheus.io/docs/alerting/latest/configuration/#receiver](https://prometheus.io/docs/alerting/latest/configuration/#receiver)
<a name="SsAvR"></a>
### 3.1、全局配置
```bash
# global:全局配置,主要配置告警方式,如邮件、webhook等。
global:
resolve_timeout: 5m # 超时,默认5min,意思是说报警持续多长时间才发信息
smtp_smarthost: '' # 这里为 QQ 邮箱 SMTP 服务地址,官方地址为 smtp.qq.com 端口为 465 或 587,同时要设置开启 POP3/SMTP 服务。
smtp_from: ''
smtp_auth_username: ''
smtp_auth_password: '' # 这里为第三方登录 QQ 邮箱的授权码,非 QQ 账户登录密码,否则会报错,获取方式在 QQ 邮箱服务端设置开启 POP3/SMTP 服务时会提示。
smtp_require_tls: false # 是否使用 tls,根据环境不同,来选择开启和关闭。如果提示报错 email.loginAuth failed: 530 Must issue a STARTTLS command first,那么就需要设置为 true。着重说明一下,如果开启了 tls,提示报错 starttls failed: x509: certificate signed by unknown authority,需要在 email_configs 下配置 insecure_skip_verify: true 来跳过 tls 验证。
global:
resolve_timeout: 3s
smtp_smarthost: 'smtp.163.com:25'
smtp_from: 'chqit@163.com'
smtp_auth_username: 'chet@163.com'
smtp_auth_password: 'YKFPK'
smtp_require_tls: false
3.2、路由配置
用来设置报警的分发策略。
# route:用来设置报警的分发策略。Prometheus的告警先是到达alertmanager的根路由(route),alertmanager的根路由不能包含任何匹配项,因为根路由是所有告警的入口点。
# 另外,根路由需要配置一个接收器(receiver),用来处理那些没有匹配到任何子路由的告警(如果没有配置子路由,则全部由根路由发送告警),即缺省
# 接收器。告警进入到根route后开始遍历子route节点,如果匹配到,则将告警发送到该子route定义的receiver中,然后就停止匹配了。因为在route中
# continue默认为false,如果continue为true,则告警会继续进行后续子route匹配。如果当前告警仍匹配不到任何的子route,则该告警将从其上一级(
# 匹配)route或者根route发出(按最后匹配到的规则发出邮件)。查看你的告警路由树,https://www.prometheus.io/webtools/alerting/routing-tree-editor/,
# 将alertmanager.yml配置文件复制到对话框,然后点击"Draw Routing Tree"
route:
group_by: ['alertname'] # 用于分组聚合,对告警通知按标签(label)进行分组,将具有相同标签或相同告警名称(alertname)的告警通知聚合在一个组,然后作为一个通知发送。如果想完全禁用聚合,可以设置为group_by: [...]
group_wait: 30s # 当一个新的告警组被创建时,需要等待'group_wait'后才发送初始通知。这样可以确保在发送等待前能聚合更多具有相同标签的告警,最后合并为一个通知发送。
group_interval: 2m # 当第一次告警通知发出后,在新的评估周期内又收到了该分组最新的告警,则需等待'group_interval'时间后,开始发送为该组触发的新告警,可以简单理解为,group就相当于一个通道(channel)。
repeat_interval: 10m # 告警通知成功发送后,若问题一直未恢复,需再次重复发送的间隔。
receiver: 'email' # 配置告警消息接收者,与下面配置的对应。例如常用的 email、wechat、slack、webhook 等消息通知方式。
routes: # 子路由
- receiver: 'wechat'
match: # 通过标签去匹配这次告警是否符合这个路由节点;也可以使用 match_re 进行正则匹配
severity: Disaster # 标签severity为Disaster时满足条件,使用wechat警报
3.3、通知配置
receivers: # 配置报警信息接收者信息。
- name: 'email' # 警报接收者名称
email_configs:
- to: '{{ template "email.to"}}' # 接收警报的email(这里是引用模板文件中定义的变量)
html: '{{ template "email.to.html" .}}' # 发送邮件的内容(调用模板文件中的)
# headers: { Subject: " {{ .CommonLabels.instance }} {{ .CommonAnnotations.summary }}" } # 邮件标题,不设定使用默认的即可
send_resolved: true # 故障恢复后通知
receivers:
- name: 'email'
email_configs:
- to: '{{ template "email.to" . }}'
html: '{{ template "email.to.html" . }}'
send_resolved: true
3.4、抑制规则配置
inhibit_rules: # 抑制规则配置,当存在与另一组匹配的警报(源)时,抑制规则将禁用与一组匹配的警报(目标)。
- source_match:
severity: 'critical'
target_match:
severity: 'warning'
equal: ['alertname', 'dev', 'instance']
100% --- > 警告 | 严重警告 | error
CPU
60 % : 警告
80 % : 严重警告
100% : error
3.5、完整配置
global:
resolve_timeout: 3s
smtp_smarthost: 'smtp.163.com:465'
smtp_from: 'chenya@163.com'
smtp_auth_username: 'chegqit@163.com'
smtp_auth_password: 'YBCWWQHKFPK'
smtp_require_tls: false
route:
group_by: ['alertname', 'dev', 'instance']
group_wait: 30s
group_interval: 2m
repeat_interval: 3m
receiver: 'email'
receivers:
- name: 'web.hook'
webhook_configs:
- url: 'http://127.0.0.1:5001/'
- name: 'email'
email_configs:
- to: 'cheqit@163.com'
html: ''
send_resolved: true
inhibit_rules:
- source_match:
severity: 'critical'
target_match:
severity: 'warning'
equal: ['alertname', 'dev', 'instance']
4、报警模板
报警的时候,发送邮件的格式。
4.1、编写模板
[root@VM-0-16-centos alertmanager]# vim /usr/local/alertmanager/templates/*.tmpl
{{ define "email.from" }}chenyangqit@163.com{{ end }}
{{ define "email.to" }}chenyangqit@163.com{{ end }}
{{ define "email.to.html" }}
{{- if gt (len .Alerts.Firing) 0 -}}{{ range .Alerts }}
<h2>@告警通知</h2>
告警程序: prometheus_alert <br>
告警级别: {{ .Labels.severity }} 级 <br>
告警类型: {{ .Labels.alertname }} <br>
故障主机: {{ .Labels.instance }} <br>
告警主题: {{ .Annotations.summary }} <br>
告警详情: {{ .Annotations.description }} <br>
触发时间: {{ .StartsAt.Local.Format "2006-01-02 15:04:05" }} <br>
{{ end }}{{ end -}}
{{- if gt (len .Alerts.Resolved) 0 -}}{{ range .Alerts }}
<h2>@告警恢复</h2>
告警程序: prometheus_alert <br>
故障主机: {{ .Labels.instance }}<br>
故障主题: {{ .Annotations.summary }}<br>
告警详情: {{ .Annotations.description }}<br>
告警时间: {{ .StartsAt.Local.Format "2006-01-02 15:04:05" }}<br>
恢复时间: {{ .EndsAt.Local.Format "2006-01-02 15:04:05" }}<br>
{{ end }}{{ end -}}
{{- end }}
4.2、加入到配置文件之中
[root@VM-0-16-centos alertmanager]# vim alertmanager.yml
templates:
- /usr/local/alertmanager/templates/*.tmpl
5、报警的规则
告诉alertmanager,什么时候报警。
5.1、编写报警规则
groups:
- name: cpu
rules:
- record: node:cpu_usage:ratio #别的文件使用,直接使用这个
expr: ((100 - (avg by(instance,ip,hostname) (irate(node_cpu_seconds_total{mode="idle"}[5m])) * 100)))
- name: mem
rules:
- record: node:memory_usage:ratio
expr: (100 -(node_memory_MemTotal_bytes -node_memory_MemFree_bytes+node_memory_Buffers_bytes+node_memory_Cached_bytes ) / node_memory_MemTotal_bytes * 100 )
annotations:
description: "The node is Down more than 1 minute!"
summary: "The node is down"
alert: 告警规则的名称,在每一个group中,规则名称必须是唯一的。
expr: 基于PromQL表达式配置的规则条件,用于计算相关的时间序列指标是否满足规则。
for :评估等待时间,可选参数。当相关指标触发规则后,在for定义的时间区间内该规则会处于Pending状态,在达到该时间后规则状态变成Firing,并发送告警信息到Alertmanager。
labels: 自定义标签, 允许用户指定要添加到告警信息上的一组附加标签。
annotations: 用于指定一组附加信息,如用于描述告警的信息文字等,本示例中 summary用于描述主要信息,description用于描述详细的告警内容。
监控CPU使用率的报警规则
监控内存的报警规则
5.2、完整的报警规则配置
[root@VM-0-16-centos rules]# cat test.yaml
groups:
- name: CPU使用率
rules:
- expr: node_cpu_seconds_total{mode="user"} > 30
record: node:cpu_seconds:total
6、将报警规则和alertmanager加入到porometheus
6.1、修改prometheus的配置文件
[root@VM-0-16-centos prometheus]# vim prometheus.yml
# Alertmanager configuration
alerting:
alertmanagers:
- static_configs:
- targets:
- 192.168.0.16:9093
6.2、将报警规则加入prometheus
[root@VM-0-16-centos prometheus]# vim prometheus.yml
rule_files:
- "/usr/local/alertmanager/rules/*.yaml"
6.3、检查alertmanagerg和rules的配置文件是否正确
[root@VM-0-16-centos prometheus]# /usr/local/alertmanager/amtool check-config /usr/local/alertmanager/alertmanager.yml
Checking '/usr/local/alertmanager/alertmanager.yml' SUCCESS
Found:
- global config
- route
- 1 inhibit rules
- 1 receivers
- 1 templates
SUCCESS