时间:2021-05-22
Python导数据的时候,需要在一个大表上读取很大的结果集。
如果用传统的方法,Python的内存会爆掉,传统的读取方式默认在内存里缓存下所有行然后再处理,内存容易溢出
解决的方法:
1)使用SSCursor(流式游标),避免客户端占用大量内存。(这个cursor实际上没有缓存下来任何数据,它不会读取所有所有到内存中,它的做法是从储存块中读取记录,并且一条一条返回给你。)
2)使用迭代器而不用fetchall,即省内存又能很快拿到数据。
import MySQLdb.cursorsconn = MySQLdb.connect(host='ip地址', user='用户名', passwd='密码', db='数据库名', port=3306, charset='utf8', cursorclass = MySQLdb.cursors.SSCursor)cur = conn.cursor()cur.execute("SELECT * FROM bigtable");row = cur.fetchone()while row is not None: do something row = cur.fetchone()cur.close()conn.close()需要注意的是,
1、因为SSCursor是没有缓存的游标,结果集只要没取完,这个conn是不能再处理别的sql,包括另外生成一个cursor也不行的。
如果需要干别的,请另外再生成一个连接对象。
2、 每次读取后处理数据要快,不能超过60s,否则mysql将会断开这次连接,也可以修改 SET NET_WRITE_TIMEOUT = xx 来增加超时间隔。
以上这篇解决python读取几千万行的大表内存问题就是小编分享给大家的全部内容了,希望能给大家一个参考,也希望大家多多支持。
声明:本页内容来源网络,仅供用户参考;我单位不保证亦不表示资料全面及准确无误,也不保证亦不表示这些资料为最新信息,如因任何原因,本网内容或者用户因倚赖本网内容造成任何损失或损害,我单位将不会负任何法律责任。如涉及版权问题,请提交至online#300.cn邮箱联系删除。
我在使用python读取几十万行的文件中的数据,并构造字典,列表等数据结构时,再访问字典,列表时,一般都会出现内存不够的问题,然后只能循环读取几百行或者一定数量
前言我们数据库有几千万条数据,这些数据需要展示,我们不可能直接从数据库把数据全部读取出来.因为这样会给内存造成巨大的压力,很容易就会内存溢出,所以我们希望一点一
我们知道商业操作系统或者开源的Linux操作系统多的千万行甚至亿行代码,规模之大,让人无法想象。微软Windows开发团队多达几千人,而Linux内核参与的开发
项目中经常会用到自增id,比如uid,最简单的方法就是用直接用数据库提供的AUTO_INCREMENT,但是如果用户量非常大,几千万,几亿然后需要分表存储的时候
今天,探讨一个有趣的话题:MySQL单表数据达到多少时才需要考虑分库分表?有人说2000万行,也有人说500万行。那么,你觉得这个数值多少才合适呢?曾经在中国互