时间:2021-05-22
先上网卡数据采集脚本,这个基本上是最大的坑,因为一些数据的类型不正确会导致no datapoint的错误,真是令人抓狂,注意其中几个key的值必须是int或者float类型,如果你不慎写成了string,那就麻烦了,其他的tag是string类型。
另外数据采集时间间隔一般就是10秒,这是潜规则,大家都懂。
有图有真相
#! /usr/bin/env python#-*- coding:utf-8 -*- import osimport arrowimport timefrom time import sleepfrom influxdb import InfluxDBClient client = InfluxDBClient('localhost', 8086, 'root', '', 'telegraf') while True: if int(time.time())%10 == 0: cmd = 'cat /proc/net/dev|grep "ens4"' rawline = os.popen(cmd).read().strip() rxbytes = int(rawline.split()[1]) txbytes = int(rawline.split()[9]) rxpks = int(rawline.split()[2]) txpks = int(rawline.split()[10]) now = str(arrow.now()).split('.')[0] + 'Z' print time.time(), rxbytes,txbytes,rxpks,txpks json_body = [ { "measurement": "network", "tags": { "host": "gc-u16", "nio": "ens4" }, #"time": now, "fields": { "rxbytes": rxbytes, "txbytes": txbytes, "rxpks": rxpks, "txpks": txpks } } ] client.write_points(json_body) sleep(1)运行脚本,查看influxdb数据,至于后台+独立线程这些东西就见仁见智了
然后配置图形,这个就简单了,只要你数据没写错,基本上grafana都能采集到,这里忽略配置数据源创建dashboard和表格等乱七八糟的,直接上配置的sql图形,大致就是这样吧
总结
以上就是这篇文章的全部内容了,希望本文的内容对大家的学习或者工作具有一定的参考学习价值,谢谢大家对的支持。如果你想了解更多相关内容请查看下面相关链接
声明:本页内容来源网络,仅供用户参考;我单位不保证亦不表示资料全面及准确无误,也不保证亦不表示这些资料为最新信息,如因任何原因,本网内容或者用户因倚赖本网内容造成任何损失或损害,我单位将不会负任何法律责任。如涉及版权问题,请提交至online#300.cn邮箱联系删除。
本文实例讲述了scrapy自定义pipeline类实现将采集数据保存到mongodb的方法。分享给大家供大家参考。具体如下:#StandardPythonlib
optimization总结minimize默认为true,效果就是压缩js代码。minimizer可以自定义UglifyJsPlugin和一些配置,默认的压缩
微信官方文档对自定义tabBar的阐述较为潦草,在开发自定义tabBar过程中我踩了很多坑,因此在此处做个总结。我使用VantWeapp作为UI组件库,下面以此
自定义数据集在训练深度学习模型之前,样本集的制作非常重要。在pytorch中,提供了一些接口和类,方便我们定义自己的数据集合,下面完整的试验自定义样本集的整个流
本文实例讲述了Python自定义scrapy中间模块避免重复采集的方法。分享给大家供大家参考。具体如下:fromscrapyimportlogfromscrap