我的编程空间,编程开发者的网络收藏夹
学习永远不晚

prometheus 配置文件详解

短信预约 -IT技能 免费直播动态提醒
省份

北京

  • 北京
  • 上海
  • 天津
  • 重庆
  • 河北
  • 山东
  • 辽宁
  • 黑龙江
  • 吉林
  • 甘肃
  • 青海
  • 河南
  • 江苏
  • 湖北
  • 湖南
  • 江西
  • 浙江
  • 广东
  • 云南
  • 福建
  • 海南
  • 山西
  • 四川
  • 陕西
  • 贵州
  • 安徽
  • 广西
  • 内蒙
  • 西藏
  • 新疆
  • 宁夏
  • 兵团
手机号立即预约

请填写图片验证码后获取短信验证码

看不清楚,换张图片

免费获取短信验证码

prometheus 配置文件详解

目录

prometheus 配置文件详解

简介

Prometheus配置方式有两种:

  • 命令行,用来配置不可变命令参数,主要是Prometheus运行参数,比如数据存储位置
  • 配置文件,用来配置Prometheus应用参数,比如数据采集,报警对接

不重启进程配置生效方式有两种:

配置文件格式是yaml格式,.yml或者.yaml 都是 yaml格式的文件, yaml格式的好处: 和json交互比较容易 python/go/java/php 有yaml格式库,方便语言之间解析,并且这种格式存储的信息量很大

配置文件

配置文件使用yml格式,配置文件中一级配置项如下,说明参考#备注内容

#全局配置 (如果有内部单独设定,会覆盖这个参数)global:#告警插件定义。这里会设定alertmanager这个报警插件。alerting:#告警规则。 按照设定参数进行扫描加载,用于自定义报警规则,其报警媒介和route路由由alertmanager插件实现。rule_files:#采集配置。配置数据源,包含分组job_name以及具体target。又分为静态配置和服务发现scrape_configs:#用于远程存储写配置remote_write:#用于远程读配置remote_read:

配置文件中通用字段值格式 : 布尔类型值为true和false : 协议方式包含http和https

原始配置文件内容

# my global configglobal:  scrape_interval:     15s # Set the scrape interval to every 15 seconds. Default is every 1 minute.  evaluation_interval: 15s # Evaluate rules every 15 seconds. The default is every 1 minute.  # scrape_timeout is set to the global default (10s). # Alertmanager configurationalerting:  alertmanagers:  - static_configs:    - targets:      # - alertmanager:9093 # Load rules once and periodically evaluate them according to the global 'evaluation_interval'.rule_files:  # - "first_rules.yml"  # - "second_rules.yml" # A scrape configuration containing exactly one endpoint to scrape:# Here it's Prometheus itself.scrape_configs:  # The job name is added as a label `job=` to any timeseries scraped from this config.  - job_name: 'prometheus'     # metrics_path defaults to '/metrics'    # scheme defaults to 'http'.     static_configs:    - targets: ['localhost:9090']

global字段

//scrape_interval//全局默认的数据拉取间隔[ scrape_interval:  | default = 1m ]//scrape_timeout//全局默认的单次数据拉取超时,当报context deadline exceeded错误时需要在特定的job下配置该字段。[ scrape_timeout:  | default = 10s ]//evaluation_interval//全局默认的规则(主要是报警规则)拉取间隔[ evaluation_interval:  | default = 1m ]//external_labels//该服务端在与其他系统对接所携带的标签[ :  ... ]

alerting 字段

该字段配置与Alertmanager进行对接的配置 样例:

alerting:  alert_relabel_configs: # 动态修改 alert 属性的规则配置。    - source_labels: [dc]       regex: (.+)\d+      target_label: dc1  alertmanagers:    - static_configs:        - targets: ['127.0.0.1:9093'] # 单实例配置        #- targets: ['172.31.10.167:19093','172.31.10.167:29093','172.31.10.167:39093'] # 集群配置    - job_name: 'Alertmanager'    # metrics_path defaults to '/metrics'    # scheme defaults to 'http'.    - static_configs:      - targets: ['localhost:19093']

上面的配置中的 alert_relabel_configs是指警报重新标记在发送到Alertmanager之前应用于警报。 它具有与目标重新标记相同的配置格式和操作,外部标签标记后应用警报重新标记,主要是针对集群配置。

这个设置的用途是确保具有不同外部label的HA对Prometheus服务端发送相同的警报信息。

Alertmanager 可以通过 static_configs 参数静态配置,也可以使用其中一种支持的服务发现机制动态发现,我们上面的配置是静态的单实例。

此外,relabel_configs 允许从发现的实体中选择 Alertmanager,并对使用的API路径提供高级修改,该路径通过 alerts_path 标签公开。

完成以上配置后,重启Prometheus服务,用以加载生效,也可以使用热加载功能,使其配置生效。然后通过浏览器,访问 http://192.168.1.220:19090/alerts 就可以看 inactive pending firing 三个状态,没有警报信息是因为我们还没有配置警报规则 rules。

这里定义和prometheus集成的alertmanager插件,用于监控报警。后续会单独进行alertmanger插件的配置、配置说明、报警媒介以及route路由规则记录。

alert_relabel_configs

此项配置和scrape_configs字段中relabel_configs配置一样,用于对需要报警的数据进行过滤后发向Alertmanager

说明 relabel-configs的配置允许你选择你想抓取的目标和这些目标的标签是什么。所以说如果你想要抓取这种类型的服务器而不是那种,可以使用relabel_configs

相比之下,metric_relabel_configs是发生在抓取之后,但在数据被插入存储系统之前使用。因此如果有些你想过滤的指标,或者来自抓取本身的指标(比如来自/metrics页面)你就可以使用metric_relabel_configs来处理。

alertmanagers

该项目主要用来配置不同的alertmanagers服务,以及Prometheus服务和他们的链接参数。alertmanagers服务可以静态配置也可以使用服务发现配置。Prometheus以pushing 的方式向alertmanager传递数据。

alertmanager 服务配置和target配置一样,可用字段如下

[ timeout:  | default = 10s ][ path_prefix:  | default = / ][ scheme:  | default = http ]basic_auth:  [ username:  ]  [ password:  ]  [ password_file:  ][ bearer_token:  ][ bearer_token_file: /path/to/bearer/token/file ]tls_config:  [  ][ proxy_url:  ]azure_sd_configs:  [ -  ... ]consul_sd_configs:  [ -  ... ]dns_sd_configs:  [ -  ... ]ec2_sd_configs:  [ -  ... ]file_sd_configs:  [ -  ... ]gce_sd_configs:  [ -  ... ]kubernetes_sd_configs:  [ -  ... ]marathon_sd_configs:  [ -  ... ]nerve_sd_configs:  [ -  ... ]serverset_sd_configs:  [ -  ... ]triton_sd_configs:  [ -  ... ]static_configs:  [ -  ... ]relabel_configs:  [ -  ... ]

rule_files

这个主要是用来设置告警规则,基于设定什么指标进行报警(类似触发器trigger)。这里设定好规则以后,prometheus会根据全局global设定的evaluation_interval参数进行扫描加载,规则改动后会自动加载。其报警媒介和route路由由alertmanager插件实现。 样例:

# Load rules once and periodically evaluate them according to the global 'evaluation_interval'.rule_files:  # - "first_rules.yml"  # - "second_rules.yml"

first_rules.yml"样例:

groups: - name: test-rules   rules:   - alert: InstanceDown # 告警名称     expr: up == 0 # 告警的判定条件,参考Prometheus高级查询来设定     for: 10s # 满足告警条件持续时间多久后,才会发送告警     labels: #标签项      severity: error     annotations: # 解析项,详细解释告警信息      summary: "{{$labels.instance}}: has been down"      description: "{{$labels.instance}}: job {{$labels.job}} has been down "

Prometheus 支持两种类型的 Rules ,可以对其进行配置,然后定期进行运算:recording rules 记录规则 与 alerting rules 警报规则,规则文件的计算频率与警报规则计算频率一致,都是通过全局配置中的 evaluation_interval 定义

规则分组rule_group

不论是recording rules还是alerting rules都要在组里面。

groups:    - name: example    #该组下的规则    rules:      [ -  ... ]
alerting rules

要在Prometheus中使用Rules规则,就必须创建一个包含必要规则语句的文件,并让Prometheus通过Prometheus配置中的rule_files字段加载该文件,前面我们已经讲过了。 其实语法都一样,除了 recording rules 中的收集的指标名称 record: 字段配置方式略有不同,其他都是一样的。

配置范例:

- alert: ServiceDown  expr: avg_over_time(up[5m]) * 100 < 50  annotations:      description: The service {{ $labels.job }} instance {{ $labels.instance }} is        not responding for more than 50% of the time for 5 minutes.      summary: The service {{ $labels.job }} is not responding- alert: RedisDown  expr: avg_over_time(redis_up[5m]) * 100 < 50  annotations:      description: The Redis service {{ $labels.job }} instance {{ $labels.instance        }} is not responding for more than 50% of the time for 5 minutes.      summary: The Redis service {{ $labels.job }} is not responding- alert: PostgresDown  expr: avg_over_time(pg_up[5m]) * 100 < 50  annotations:      description: The Postgres service {{ $labels.job }} instance {{ $labels.instance        }} is not responding for more than 50% of the time for 5 minutes.      summary: The Postgres service {{ $labels.job }} is not responding
定义Recording rules

recording rules 是提前设置好一个比较花费大量时间运算或经常运算的表达式,其结果保存成一组新的时间序列数据。当需要查询的时候直接会返回已经计算好的结果,这样会比直接查询快,同时也减轻了PromQl的计算压力,同时对可视化查询的时候也很有用,可视化展示每次只需要刷新重复查询相同的表达式即可。

在配置的时候,除却 record: 需要注意,其他的基本上是一样的,一个 groups 下可以包含多条规则 rules ,Recording 和 Rules 保存在 group 内,Group 中的规则以规则的配置时间间隔顺序运算,也就是全局中的 evaluation_interval 设置。

配置范例:

groups:- name: http_requests_total  rules:  - record: job:http_requests_total:rate10m    expr: sum by (job)(rate(http_requests_total[10m]))    lables:      team: operations  - record: job:http_requests_total:rate30m    expr: sum by (job)(rate(http_requests_total[30m]))    lables:      team: operations

上面的规则其实就是根据 record 规则中的定义,Prometheus 会在后台完成 expr 中定义的 PromQL 表达式周期性运算,以 job 为维度使用 sum 聚合运算符 计算 函数rate 对http_requests_total 指标区间 10m 内的增长率,并且将计算结果保存到新的时间序列 job:http_requests_total:rate10m 中, 同时还可以通过 labels 为样本数据添加额外的自定义标签,但是要注意的是这个 lables 一定存在当前表达式 Metrics 中。

使用模板

模板是在警报中使用时间序列标签和值展示的一种方法,可以用于警报规则中的注释(annotation)与标签(lable)。模板其实使用的go语言的标准模板语法,并公开一些包含时间序列标签和值的变量。这样查询的时候,更具有可读性,也可以执行其他PromQL查询 来向警报添加额外内容,ALertmanager Web UI中会根据标签值显示器警报信息。

{{ $lable.}} 可以获取当前警报实例中的指定标签值

{{ $value }} 变量可以获取当前PromQL表达式的计算样本值。

groups:- name: operations  rules:# monitor node memory usage  - alert: node-memory-usage    expr: (1 - (node_memory_MemAvailable_bytes{env="operations",job!='atlassian'} / (node_memory_MemTotal_bytes{env="operations"})))* 100 > 90    for: 1m    labels:      status: Warning      team: operations    annotations:      description: "Environment: {{ $labels.env }} Instance: {{ $labels.instance }} memory usage above {{ $value }} ! ! !"      summary:  "node os memory usage status"

调整好rules以后,我们可以使用 curl -XPOST http://localhost:9090/-/reload 或者 对Prometheus服务重启,让警报规则生效。

这个时候,我们可以把阈值调整为 50 来进行故障模拟操作,这时在去访问UI的时候,当持续1分钟满足警报条件,实际警报状态已转换为 Firing,可以在 Annotations中看到模板信息 summary 与 description 已经成功显示

规则检查
#打镜像后使用FROM golang:1.10RUN GOOS=linux GOARCH=amd64 CGO_ENABLED=0 go get -u github.com/prometheus/prometheus/cmd/promtoolFROM alpine:latest  COPY --from=0 /go/bin/promtool /binENTRYPOINT ["/bin/promtool"]  # 编译docker build -t promtool:0.1 .#使用docker run --rm -v /root/test/prom:/opt promtool:0.1 check rules /opt/rule.yml#返回Checking /opt/rule.yml  SUCCESS: 1 rules found

scrape_configs字段

拉取数据配置,在配置字段内可以配置拉取数据的对象(Targets),job以及实例

job_name

定义job名称,是一个拉取单元。每个job_name都会自动引入默认配置如

  • scrape_interval 依赖全局配置
  • scrape_timeout 依赖全局配置
  • metrics_path 默认为’/metrics’
  • scheme 默认为’http’
    这些也可以在单独的job中自定义
[ scrape_interval:  | default =  ][ scrape_timeout:  | default =  ][ metrics_path:  | default = /metrics ]
honor_labels

服务端拉取过来的数据也会存在标签,配置文件中也会有标签,这样就可能发生冲突。

true就是以抓取数据中的标签为准 false就会重新命名抓取数据中的标签为“exported”形式,然后添加配置文件中的标签

[ honor_labels:  | default = false ]
scheme

切换抓取数据所用的协议

[ scheme:  | default = http ]
params

定义可选的url参数

[ : [, ...] ]
抓取认证类

每次抓取数据请求的认证信息

basic_auth

password和password_file互斥只可以选择其一

basic_auth:  [ username:  ]  [ password:  ]  [ password_file:  ]
bearer_token

bearer_token和bearer_token_file互斥只可以选择其一

[ bearer_token:  ][ bearer_token_file: /path/to/bearer/token/file ]
tls_config

抓取ssl请求时证书配置

tls_config:  [ ca_file:  ]  [ cert_file:  ]  [ key_file:  ]  [ server_name:  ]  #禁用证书验证  [ insecure_skip_verify:  ]
proxy_url

通过代理去主取数据

[ proxy_url:  ]
服务发现类

Prometheus支持多种服务发现工具,详细配置这里不再展开

#sd就是service discovery的缩写azure_sd_configs: consul_sd_configs:dns_sd_configs:ec2_sd_configs:openstack_sd_configs:file_sd_configs:gce_sd_configs:kubernetes_sd_configs:marathon_sd_configs:nerve_sd_configs:serverset_sd_configs:triton_sd_configs:

更多参考官网:https://prometheus.io/docs/prometheus/latest/configuration/configuration/

static_configs

服务发现来获取抓取目标为动态配置,这个配置项目为静态配置,静态配置为典型的targets配置,在改配置字段可以直接添加标签

- targets:    [ - '' ]  labels:    [ :  ... ]

采集器所采集的数据都会带有label,当使用服务发现时,比如consul所携带的label如下:

__meta_consul_address: consul地址__meta_consul_dc: consul中服务所在的数据中心__meta_consul_metadata_: 服务的metadata__meta_consul_node: 服务所在consul节点的信息__meta_consul_service_address: 服务访问地址__meta_consul_service_id: 服务ID__meta_consul_service_port: 服务端口__meta_consul_service: 服务名称__meta_consul_tags: 服务包含的标签信息

这些lable是数据筛选与聚合计算的基础。

数据过滤类

抓取数据很繁杂,尤其是通过服务发现添加的target。所以过滤就显得尤为重要,我们知道抓取数据就是抓取target的一些列metrics,Prometheus过滤是通过对标签操作操现的,在字段relabel_configs和metric_relabel_configs里面配置,两者的配置都需要relabel_config字段。该字段需要配置项如下

[ source_labels: '['  [, ...] ']' ][ separator:  | default = ; ][ target_label:  ][ regex:  | default = (.*) ][ modulus:  ][ replacement:  | default = $1 ]#action除了默认动作还有keep、drop、hashmod、labelmap、labeldrop、labelkeep[ action:  | default = replace ]
target配置示例
relabel_configs:  - source_labels: [job]    regex:         (.*)some-[regex]    action:        drop  - source_labels: [__address__]    modulus:       8    target_label:  __tmp_hash    action:        hashmod

target中metric示例

- job_name: cadvisor  ...  metric_relabel_configs:  - source_labels: [id]    regex: '/system.slice/var-lib-docker-containers.*-shm.mount'    action: drop  - source_labels: [container_label_JenkinsId]    regex: '.+'    action: drop

使用示例 由以上可知当使用服务发现consul会带入标签__meta_consul_dc,现在为了表示方便需要将该标签变为dc
需要做如下配置,这里面action使用的replacement

scrape_configs:  - job_name: consul_sd    relabel_configs:    - source_labels:  ["__meta_consul_dc"]      regex: "(.*)"      replacement: $1      action: replace      target_label: "dc"#或者- source_labels:  ["__meta_consul_dc"]  target_label: "dc"

过滤采集target

relabel_configs:- source_labels: ["__meta_consul_tags"]  regex: ".*,development,.*"  action: keep
sample_limit

为了防止Prometheus服务过载,使用该字段限制经过relabel之后的数据采集数量,超过该数字拉取的数据就会被忽略

[ sample_limit:  | default = 0 ]

远程读写

Prometheus可以进行远程读/写数据。字段remote_read和remote_write

remote_read
#远程读取的urlurl: #通过标签来过滤读取的数据required_matchers:  [ :  ... ][ remote_timeout:  | default = 1m ]#当远端不是存储的时候激活该项[ read_recent:  | default = false ]basic_auth:  [ username:  ]  [ password:  ]  [ password_file:  ][ bearer_token:  ][ bearer_token_file: /path/to/bearer/token/file ]tls_config:  [  ][ proxy_url:  ]
remote_write
url: [ remote_timeout:  | default = 30s ]#写入数据时候进行标签过滤write_relabel_configs:  [ -  ... ]basic_auth:  [ username:  ]  [ password:  ]  [ password_file:  ][ bearer_token:  ][ bearer_token_file: /path/to/bearer/token/file ]tls_config:  [  ][ proxy_url:  ]#远端写细粒度配置,这里暂时仅仅列出官方注释queue_config:  # Number of samples to buffer per shard before we start dropping them.  [ capacity:  | default = 10000 ]  # Maximum number of shards, i.e. amount of concurrency.  [ max_shards:  | default = 1000 ]  # Maximum number of samples per send.  [ max_samples_per_send:  | default = 100]  # Maximum time a sample will wait in buffer.  [ batch_send_deadline:  | default = 5s ]  # Maximum number of times to retry a batch on recoverable errors.  [ max_retries:  | default = 3 ]  # Initial retry delay. Gets doubled for every retry.  [ min_backoff:  | default = 30ms ]  # Maximum retry delay.  [ max_backoff:  | default = 100ms ]

参考文档

Prometheus 配置详解

来源地址:https://blog.csdn.net/liwench/article/details/129849473

免责声明:

① 本站未注明“稿件来源”的信息均来自网络整理。其文字、图片和音视频稿件的所属权归原作者所有。本站收集整理出于非商业性的教育和科研之目的,并不意味着本站赞同其观点或证实其内容的真实性。仅作为临时的测试数据,供内部测试之用。本站并未授权任何人以任何方式主动获取本站任何信息。

② 本站未注明“稿件来源”的临时测试数据将在测试完成后最终做删除处理。有问题或投稿请发送至: 邮箱/279061341@qq.com QQ/279061341

prometheus 配置文件详解

下载Word文档到电脑,方便收藏和打印~

下载Word文档

猜你喜欢

怎么配置Prometheus文件列表

这篇文章主要介绍“怎么配置Prometheus文件列表”,在日常操作中,相信很多人在怎么配置Prometheus文件列表问题上存在疑惑,小编查阅了各式资料,整理出简单好用的操作方法,希望对大家解答”怎么配置Prometheus文件列表”的疑
2023-06-03

package.json文件配置详解

package.json 是npm init命令初始化后,在项目的根目录下自动生成的配置文件,它定义了这个项目的配置信息以及所需要的各种模块,npm install根据这个命令,自动下载所需的模块。package.json就是一个json文
2022-06-04

postgresql.conf配置文件详解

postgresql.conf文件是PostgreSQL数据库系统的主配置文件,它包含了数据库服务器的各种配置选项。下面是postgresql.conf文件的一些常见配置选项的详解:# CONNECTIONS AND AUTHENTICAT
2023-09-13

redis配置文件详解

位置find / -name redis.confunits单位# Redis configuration file example.## Note that in order to read the configuration file, Redis mus
redis配置文件详解
2022-01-15

prometheus配置文件的作用是什么

Prometheus配置文件是用来配置Prometheus监控系统的参数和规则的文件。通过配置文件,用户可以指定Prometheus服务器要监控的目标、抓取数据的频率、存储数据的时间范围、告警规则等。配置文件的作用是定义了Prometheu
prometheus配置文件的作用是什么
2024-03-12

Redis2.8配置文件中文详解

add by zhj : 没找到本文的原文。另外,redis配置文件中文翻译 也翻译的不错,可以与本文对照看。两篇文章都是以Redis2.8来介绍的 在Redis中直接启动redis-server服务时, 采用的是默认的配置文件。采用red
2022-06-04

Linux MySQL配置文件详解

MySQL是一个流行的开源关系型数据库管理系统,在Linux系统中,MySQL的配置文件通常位于/etc/mysql/my.cnf或/etc/my.cnf中。在配置文件中可以设置MySQL的各种参数,包括数据库路径、端口、缓冲区大小、日志文
Linux MySQL配置文件详解
2024-08-16

Maven配置文件pom.xml详解

什么是POM?POM是项目对象模型(Project Object Model)的简称,它是Maven项目中的文件,使用XML表示,名称叫做pom.xml。在Maven中,当谈到Project的时候,不仅仅是一堆包含代码的文件。一个Proje
2023-05-31

SpringBootMybatis配置文件形式详解

这篇文章主要介绍了SpringBootMybatis配置文件形式详解,本文给大家介绍的非常详细,对大家的学习或工作具有一定的参考借鉴价值,需要的朋友可以参考下
2023-03-23

SERV-U 的配置文件详解

SERV-U的目录文件结构与配置文件说明,想更深入的了解serv_u的朋友可以参考下。
2022-11-21

编程热搜

  • Python 学习之路 - Python
    一、安装Python34Windows在Python官网(https://www.python.org/downloads/)下载安装包并安装。Python的默认安装路径是:C:\Python34配置环境变量:【右键计算机】--》【属性】-
    Python 学习之路 - Python
  • chatgpt的中文全称是什么
    chatgpt的中文全称是生成型预训练变换模型。ChatGPT是什么ChatGPT是美国人工智能研究实验室OpenAI开发的一种全新聊天机器人模型,它能够通过学习和理解人类的语言来进行对话,还能根据聊天的上下文进行互动,并协助人类完成一系列
    chatgpt的中文全称是什么
  • C/C++中extern函数使用详解
  • C/C++可变参数的使用
    可变参数的使用方法远远不止以下几种,不过在C,C++中使用可变参数时要小心,在使用printf()等函数时传入的参数个数一定不能比前面的格式化字符串中的’%’符号个数少,否则会产生访问越界,运气不好的话还会导致程序崩溃
    C/C++可变参数的使用
  • css样式文件该放在哪里
  • php中数组下标必须是连续的吗
  • Python 3 教程
    Python 3 教程 Python 的 3.0 版本,常被称为 Python 3000,或简称 Py3k。相对于 Python 的早期版本,这是一个较大的升级。为了不带入过多的累赘,Python 3.0 在设计的时候没有考虑向下兼容。 Python
    Python 3 教程
  • Python pip包管理
    一、前言    在Python中, 安装第三方模块是通过 setuptools 这个工具完成的。 Python有两个封装了 setuptools的包管理工具: easy_install  和  pip , 目前官方推荐使用 pip。    
    Python pip包管理
  • ubuntu如何重新编译内核
  • 改善Java代码之慎用java动态编译

目录