时间:2021-05-02
前言
在之前的文章里,笔者详细的阐述了Prometheus时序数据库在内存和磁盘中的存储结构。有了前面的铺垫,笔者就可以在本篇文章阐述下数据的插入过程。
监控数据的插入
在这里,笔者并不会去讨论Promtheus向各个Endpoint抓取数据的过程。而是仅仅围绕着数据是如何插入Prometheus的过程做下阐述。对应方法:
func(a*headAppender)Add(lsetlabels.Labels,tint64,vfloat64)(uint64,error){
......
//如果lset对应的series没有,则建一个。同时把新建的series放入倒排Posting映射里面
s,created:=a.head.getOrCreate(lset.Hash(),lset)
ifcreated{//如果新创建了一个,则将新建的也放到a.series里面
a.series=append(a.series,record.RefSeries{
Ref:s.ref,
Labels:lset,
})
}
returns.ref,a.AddFast(s.ref,t,v)
}
我们就以下面的add函数调用为例:
app.Add(labels.FromStrings("foo","bar"),0,0)
首先是getOrCreate,顾名思义,不存在则创建一个。创建的过程包含了seriesHashMap/Postings(倒排索引)/LabelIndex的维护。如下图所示:
然后是AddFast方法
func(a*headAppender)AddFast(refuint64,tint64,vfloat64)error{
//拿出对应的memSeries
s:=a.head.series.getByID(ref)
......
//设置为等待提交状态
s.pendingCommit=true
......
//为了事务概念,放入temp存储,等待真正commit时候再写入memSeries
a.samples=append(a.samples,record.RefSample{Ref:ref,T:t,V:v,})
//
}
Prometheus在add数据点的时候并没有直接add到memSeries(也就是query所用到的结构体里),而是加入到一个临时的samples切片里面。同时还将这个数据点对应的memSeries同步增加到另一个sampleSeries里面。
事务可见性
为什么要这么做呢?就是为了实现commit语义,只有commit过后数据才可见(能被查询到)。否则,无法见到这些数据。而commit的动作主要就是WAL(Write Ahead Log)以及将headerAppender.samples数据写到其对应的memSeries中。这样,查询就可见这些数据了,如下图所示:
WAL
由于Prometheus最近的数据是保存在内存里面的,未防止服务器宕机丢失数据。其在commit之前先写了日志WAL。等服务重启的时候,再从WAL日志里面获取信息并重放。
为了性能,Prometheus了另一个goroutine去做文件的sync操作,所以并不能保证WAL不丢。进而也不能保证监控数据完全不丢。这点也是监控业务的特性决定的。
写入代码为:
commit()
|=>
func(a*headAppender)log()error{
......
//往WAL写入对应的series信息
iflen(a.series)>0{
rec=enc.Series(a.series,buf)
buf=rec[:0]
iferr:=a.head.wal.Log(rec);err!=nil{
returnerrors.Wrap(err,"logseries")
}
}
......
//往WAL写入真正的samples
iflen(a.samples)>0{
rec=enc.Samples(a.samples,buf)
buf=rec[:0]
iferr:=a.head.wal.Log(rec);err!=nil{
returnerrors.Wrap(err,"logsamples")
}
}
}
对应的WAL日志格式为:
Series records
┌────────────────────────────────────────────┐
│type=1<1b>│
├────────────────────────────────────────────┤
│┌─────────┬──────────────────────────────┐│
││id<8b>│n=len(labels)<uvarint>││
│├─────────┴────────────┬─────────────────┤│
││len(str_1)<uvarint>│str_1<bytes>││
│├──────────────────────┴─────────────────┤│
││...││
│├───────────────────────┬────────────────┤│
││len(str_2n)<uvarint>│str_2n<bytes>││
│└───────────────────────┴────────────────┘│
│...│
└────────────────────────────────────────────┘
Sample records
┌──────────────────────────────────────────────────────────────────┐
│type=2<1b>│
├──────────────────────────────────────────────────────────────────┤
│┌────────────────────┬───────────────────────────┐│
││id<8b>│timestamp<8b>││
│└────────────────────┴───────────────────────────┘│
│┌────────────────────┬───────────────────────────┬─────────────┐│
││id_delta<uvarint>│timestamp_delta<uvarint>│value<8b>││
│└────────────────────┴───────────────────────────┴─────────────┘│
│...│
└──────────────────────────────────────────────────────────────────┘
见Prometheus WAL.md
落盘存储
之前描述的所有数据都是写到内存里面。最终落地是通过compator routine将每两个小时的数据打包到一个Blocks里面。
具体可见笔者之前的博客《Prometheus时序数据库-磁盘中的存储结构》
总结
在这篇文章里,笔者详细描述了Prometheus数据的插入过程。在下一篇文章里面,笔者会继续
阐述Prometheus数据的查询过程。
原文地址:https://mp.weixin.qq.com/s/NqZqB0fcmowcAh2zLaCVvw
声明:本页内容来源网络,仅供用户参考;我单位不保证亦不表示资料全面及准确无误,也不保证亦不表示这些资料为最新信息,如因任何原因,本网内容或者用户因倚赖本网内容造成任何损失或损害,我单位将不会负任何法律责任。如涉及版权问题,请提交至online#300.cn邮箱联系删除。
influxDB简介influxDB是一个分布式时间序列数据库。cAdvisor仅仅显示实时信息,但是不存储监视数据。因此,我们需要提供时序数据库用于存储cAd
一、ClickHouse简介1、基础简介Yandex开源的数据分析的数据库,名字叫做ClickHouse,适合流式或批次入库的时序数据。ClickHouse不应
hello大家好,前不久公司里有个需求,把时序数据库中的日志下载到本地.大家都知道.数据库里的数据都是存在数据库里的(废话).想把他下载到客户的本地.有的同学第
项目(nodejs)中需要一次性插入多笔数据到数据库,数据库是mysql的,由于循环插入的性能太差,就像使用批量插入的方法提高数据的插入性能。批量插入的数据库的
可空类型用途主要是从数据库读取数据有可能为空,而不是插入使用,插入数据都要进行验证,如果要插入数据库的null,则使用DBNull.value判断取出的数据是否