在 TensorFlow.org 上查看 | 在 Google Colab 中运行 | 在 GitHub 上查看源代码 | 下载笔记本 |
概述
本教程将 CoreDNS 指标从 Prometheus 服务器加载到 tf.data.Dataset
中,然后使用 tf.keras
进行训练和推理。
CoreDNS 是一款专注于服务发现的 DNS 服务器,并作为 Kubernetes 集群的一部分得到广泛部署。因此,它通常由 devops 运维人员密切监控。
本教程是一个示例,devops 人员可以通过机器学习在运维中寻找自动化。
设置和使用
安装所需的 tensorflow-io 软件包,并重新启动运行时
import os
try:
%tensorflow_version 2.x
except Exception:
pass
TensorFlow 2.x selected.
pip install tensorflow-io
from datetime import datetime
import tensorflow as tf
import tensorflow_io as tfio
安装并设置 CoreDNS 和 Prometheus
出于演示目的,在本地使用端口 9053
的 CoreDNS 服务器接收 DNS 查询,并使用端口 9153
(默认)公开指标以供抓取。以下是 CoreDNS 的基本 Corefile 配置,可供 下载
.:9053 {
prometheus
whoami
}
有关安装的更多详细信息,请参阅 CoreDNS 的 文档。
curl -s -OL https://github.com/coredns/coredns/releases/download/v1.6.7/coredns_1.6.7_linux_amd64.tgz
tar -xzf coredns_1.6.7_linux_amd64.tgz
curl -s -OL https://raw.githubusercontent.com/tensorflow/io/master/docs/tutorials/prometheus/Corefile
cat Corefile
.:9053 { prometheus whoami }
# Run `./coredns` as a background process.
# IPython doesn't recognize `&` in inline bash cells.
get_ipython().system_raw('./coredns &')
下一步是设置 Prometheus 服务器,并使用 Prometheus 从上面 9153
端口公开的 CoreDNS 指标中抓取数据。用于配置的 prometheus.yml
文件也可供 下载
curl -s -OL https://github.com/prometheus/prometheus/releases/download/v2.15.2/prometheus-2.15.2.linux-amd64.tar.gz
tar -xzf prometheus-2.15.2.linux-amd64.tar.gz --strip-components=1
curl -s -OL https://raw.githubusercontent.com/tensorflow/io/master/docs/tutorials/prometheus/prometheus.yml
cat prometheus.yml
global: scrape_interval: 1s evaluation_interval: 1s alerting: alertmanagers: - static_configs: - targets: rule_files: scrape_configs: - job_name: 'prometheus' static_configs: - targets: ['localhost:9090'] - job_name: "coredns" static_configs: - targets: ['localhost:9153']
# Run `./prometheus` as a background process.
# IPython doesn't recognize `&` in inline bash cells.
get_ipython().system_raw('./prometheus &')
为了显示一些活动,可以使用 dig
命令针对已设置的 CoreDNS 服务器生成一些 DNS 查询
sudo apt-get install -y -qq dnsutils
dig @127.0.0.1 -p 9053 demo1.example.org
; <<>> DiG 9.11.3-1ubuntu1.11-Ubuntu <<>> @127.0.0.1 -p 9053 demo1.example.org ; (1 server found) ;; global options: +cmd ;; Got answer: ;; ->>HEADER<<- opcode: QUERY, status: NOERROR, id: 53868 ;; flags: qr aa rd; QUERY: 1, ANSWER: 0, AUTHORITY: 0, ADDITIONAL: 3 ;; WARNING: recursion requested but not available ;; OPT PSEUDOSECTION: ; EDNS: version: 0, flags:; udp: 4096 ; COOKIE: 855234f1adcb7a28 (echoed) ;; QUESTION SECTION: ;demo1.example.org. IN A ;; ADDITIONAL SECTION: demo1.example.org. 0 IN A 127.0.0.1 _udp.demo1.example.org. 0 IN SRV 0 0 45361 . ;; Query time: 0 msec ;; SERVER: 127.0.0.1#9053(127.0.0.1) ;; WHEN: Tue Mar 03 22:35:20 UTC 2020 ;; MSG SIZE rcvd: 132
dig @127.0.0.1 -p 9053 demo2.example.org
; <<>> DiG 9.11.3-1ubuntu1.11-Ubuntu <<>> @127.0.0.1 -p 9053 demo2.example.org ; (1 server found) ;; global options: +cmd ;; Got answer: ;; ->>HEADER<<- opcode: QUERY, status: NOERROR, id: 53163 ;; flags: qr aa rd; QUERY: 1, ANSWER: 0, AUTHORITY: 0, ADDITIONAL: 3 ;; WARNING: recursion requested but not available ;; OPT PSEUDOSECTION: ; EDNS: version: 0, flags:; udp: 4096 ; COOKIE: f18b2ba23e13446d (echoed) ;; QUESTION SECTION: ;demo2.example.org. IN A ;; ADDITIONAL SECTION: demo2.example.org. 0 IN A 127.0.0.1 _udp.demo2.example.org. 0 IN SRV 0 0 42194 . ;; Query time: 0 msec ;; SERVER: 127.0.0.1#9053(127.0.0.1) ;; WHEN: Tue Mar 03 22:35:21 UTC 2020 ;; MSG SIZE rcvd: 132
现在,CoreDNS 服务器的指标由 Prometheus 服务器抓取,并准备供 TensorFlow 使用。
为 CoreDNS 指标创建数据集并在 TensorFlow 中使用它
为可从 PostgreSQL 服务器获得的 CoreDNS 指标创建数据集,可以使用 tfio.experimental.IODataset.from_prometheus
来完成。至少需要两个参数。将 query
传递给 Prometheus 服务器以选择指标,length
是要加载到数据集中的时间段。
你可以从 "coredns_dns_request_count_total"
和 "5"
(秒)开始,以创建以下数据集。由于本教程前面发送了两个 DNS 查询,因此预计时间序列末尾 "coredns_dns_request_count_total"
的指标将为 "2.0"
dataset = tfio.experimental.IODataset.from_prometheus(
"coredns_dns_request_count_total", 5, endpoint="http://localhost:9090")
print("Dataset Spec:\n{}\n".format(dataset.element_spec))
print("CoreDNS Time Series:")
for (time, value) in dataset:
# time is milli second, convert to data time:
time = datetime.fromtimestamp(time // 1000)
print("{}: {}".format(time, value['coredns']['localhost:9153']['coredns_dns_request_count_total']))
Dataset Spec: (TensorSpec(shape=(), dtype=tf.int64, name=None), {'coredns': {'localhost:9153': {'coredns_dns_request_count_total': TensorSpec(shape=(), dtype=tf.float64, name=None)} } }) CoreDNS Time Series: 2020-03-03 22:35:17: 2.0 2020-03-03 22:35:18: 2.0 2020-03-03 22:35:19: 2.0 2020-03-03 22:35:20: 2.0 2020-03-03 22:35:21: 2.0
进一步了解数据集的规范
(
TensorSpec(shape=(), dtype=tf.int64, name=None),
{
'coredns': {
'localhost:9153': {
'coredns_dns_request_count_total': TensorSpec(shape=(), dtype=tf.float64, name=None)
}
}
}
)
显然,数据集包含一个 (time, values)
元组,其中 values
字段是一个扩展到
"job_name": {
"instance_name": {
"metric_name": value,
},
}
在上面的示例中,'coredns'
是作业名称,'localhost:9153'
是实例名称,'coredns_dns_request_count_total'
是指标名称。请注意,根据所使用的 Prometheus 查询,可能返回多个作业/实例/指标。这也是在 Dataset 结构中使用 Python 字典的原因。
以另一个查询 "go_memstats_gc_sys_bytes"
为例。由于 CoreDNS 和 Prometheus 均是用 Golang 编写的,"go_memstats_gc_sys_bytes"
指标可用于 "coredns"
作业和 "prometheus"
作业
dataset = tfio.experimental.IODataset.from_prometheus(
"go_memstats_gc_sys_bytes", 5, endpoint="http://localhost:9090")
print("Time Series CoreDNS/Prometheus Comparision:")
for (time, value) in dataset:
# time is milli second, convert to data time:
time = datetime.fromtimestamp(time // 1000)
print("{}: {}/{}".format(
time,
value['coredns']['localhost:9153']['go_memstats_gc_sys_bytes'],
value['prometheus']['localhost:9090']['go_memstats_gc_sys_bytes']))
Time Series CoreDNS/Prometheus Comparision: 2020-03-03 22:35:17: 2385920.0/2775040.0 2020-03-03 22:35:18: 2385920.0/2775040.0 2020-03-03 22:35:19: 2385920.0/2775040.0 2020-03-03 22:35:20: 2385920.0/2775040.0 2020-03-03 22:35:21: 2385920.0/2775040.0
创建的 Dataset
已准备好直接传递给 tf.keras
,用于训练或推理目的。
将 Dataset 用于模型训练
创建了指标 Dataset 后,可以将 Dataset 直接传递给 tf.keras
,用于模型训练或推理。
出于演示目的,本教程将只使用一个非常简单的 LSTM 模型,其输入为 1 个特征和 2 个步骤
n_steps, n_features = 2, 1
simple_lstm_model = tf.keras.models.Sequential([
tf.keras.layers.LSTM(8, input_shape=(n_steps, n_features)),
tf.keras.layers.Dense(1)
])
simple_lstm_model.compile(optimizer='adam', loss='mae')
要使用的数据集是 CoreDNS 的 'go_memstats_sys_bytes' 的值,有 10 个样本。但是,由于形成了 window=n_steps
和 shift=1
的滑动窗口,因此需要额外的样本(对于任何两个连续元素,第一个被视为 x
,第二个被视为 y
用于训练)。总共是 10 + n_steps - 1 + 1 = 12
秒。
数据值也按比例缩放到 [0, 1]
。
n_samples = 10
dataset = tfio.experimental.IODataset.from_prometheus(
"go_memstats_sys_bytes", n_samples + n_steps - 1 + 1, endpoint="http://localhost:9090")
# take go_memstats_gc_sys_bytes from coredns job
dataset = dataset.map(lambda _, v: v['coredns']['localhost:9153']['go_memstats_sys_bytes'])
# find the max value and scale the value to [0, 1]
v_max = dataset.reduce(tf.constant(0.0, tf.float64), tf.math.maximum)
dataset = dataset.map(lambda v: (v / v_max))
# expand the dimension by 1 to fit n_features=1
dataset = dataset.map(lambda v: tf.expand_dims(v, -1))
# take a sliding window
dataset = dataset.window(n_steps, shift=1, drop_remainder=True)
dataset = dataset.flat_map(lambda d: d.batch(n_steps))
# the first value is x and the next value is y, only take 10 samples
x = dataset.take(n_samples)
y = dataset.skip(1).take(n_samples)
dataset = tf.data.Dataset.zip((x, y))
# pass the final dataset to model.fit for training
simple_lstm_model.fit(dataset.batch(1).repeat(10), epochs=5, steps_per_epoch=10)
Train for 10 steps Epoch 1/5 10/10 [==============================] - 2s 150ms/step - loss: 0.8484 Epoch 2/5 10/10 [==============================] - 0s 10ms/step - loss: 0.7808 Epoch 3/5 10/10 [==============================] - 0s 10ms/step - loss: 0.7102 Epoch 4/5 10/10 [==============================] - 0s 11ms/step - loss: 0.6359 Epoch 5/5 10/10 [==============================] - 0s 11ms/step - loss: 0.5572 <tensorflow.python.keras.callbacks.History at 0x7f1758f3da90>
上面训练的模型在现实中并不是很有用,因为本教程中设置的 CoreDNS 服务器没有任何工作负载。但是,这是一个工作管道,可用于从真正的生产服务器加载指标。然后可以改进模型以解决 DevOps 自动化的实际问题。