时间:2021-05-22
如下所示:
"""提取文档数超过10000的数据按照某个字段的值具有唯一性进行升序,按照@timestamp进行降序,第一次查询,先将10000条数据取出,取出最后一个时间戳,在第二次查询中,设定@timestamp小于将第一次得到的最后一个时间戳,同时设定某个字段的值具有唯一性进行升序,按照@timestamp进行降序,"""from elasticsearch import Elasticsearchimport oswrite_path = "E:\\公司\\案例数据采集\\olt告警案例分析\\10000_data.txt"es = Elasticsearch(hosts="", timeout=1500)write_file = open(write_path, "a+")def _first_query(): index_ = "gather-010" _source = ["TWICE_BOOK_TIME", "@timestamp"] try: rs = es.search(index=index_, body={ "size": 10000, "query": { "match_all": {} }, "sort": [ { "@timestamp": { "order": "desc" } }, { "TASK_RECEIVE_ID.keyword": { "order": "asc" } } ], "_source": _source }) return rs except: raise Exception("{0} search error".format(index_))def _get_first_data(first_rs): i = 0 if first_rs: for hit in first_rs['hits']['hits']: IptvAccount = hit['_source']['TWICE_BOOK_TIME'] timestamp = hit['_source']['@timestamp'] if IptvAccount is None: IptvAccount = "" write_file.write(IptvAccount + "," + timestamp + "\n") i += 1 if i == 10000: return timestampdef _second_query(timestamp): index_ = "gather-010" _source = ["TWICE_BOOK_TIME", "@timestamp"] try: rs = es.search(index=index_, body={ "size": 10000, "query": { "bool": { "filter": { "range": { "@timestamp": { "lt": timestamp } } } } }, "sort": [ { "@timestamp": { "order": "desc" } }, { "TASK_RECEIVE_ID.keyword": { "order": "asc" } } ], "_source": _source }) return rs except: raise Exception("{0} search error".format(index_))if __name__ == "__main__": first_rs = _first_query() first_timestamp = _get_first_data(first_rs) print(first_timestamp) while True: second_rs = _second_query(first_timestamp) first_timestamp = _get_first_data(second_rs) if first_timestamp is None: break print(first_timestamp)以上这篇python批量从es取数据的方法(文档数超过10000)就是小编分享给大家的全部内容了,希望能给大家一个参考,也希望大家多多支持。
声明:本页内容来源网络,仅供用户参考;我单位不保证亦不表示资料全面及准确无误,也不保证亦不表示这些资料为最新信息,如因任何原因,本网内容或者用户因倚赖本网内容造成任何损失或损害,我单位将不会负任何法律责任。如涉及版权问题,请提交至online#300.cn邮箱联系删除。
使用ES做搜索引擎拉取数据的时候,如果数据量太大,通过传统的from+size的方式并不能获取所有的数据(默认最大记录数10000),因为随着页数的增加,会消耗
用重定向方法从文件中读入或写入数据1.问题描述 先产生10000个随机数,每十个一行,放入文件中。(用重定向方法)用重定向方法,从文件中读入10000个数字,
ES在之前的博客已有介绍,提供很多接口,本文介绍如何使用python批量导入。ES官网上有较多说明文档,仔细研究并结合搜索引擎应该不难使用。先给代码#codin
爱投数创ADirects广告平抄台长期积累了多方数据,有效人群标签已超过10000+,此次与GEO合作验证的数据纬度涵盖了标签中基本属性、消费能力、兴趣偏好、营
爱投数创ADirects广告平台长期积累了多方数据,有效人群标签已超过10000+,此次与GEO合作回验证的数据纬答度涵盖了标签中基本属性、消费能力、兴趣偏好、