时间:2021-05-23
1、前言
因为负责基础服务,经常需要处理一些数据,但是大多时候采用awk以及java程序即可,但是这次突然有百万级数据需要处理,通过awk无法进行匹配,然后我又采用java来处理,文件一分为8同时开启8个线程并发处理,但是依然处理很慢,处理时长起码在1天+所以无法忍受这样的处理速度就采用python来处理,结果速度有了质的提升,大约处理时间为1个小时多一点,这个时间可以接受,后续可能继续采用大数据思想来处理,相关的会在后续继续更新。
2、安装python
第一步首先下载python软件,在官网可以根据自己情况合理下载,大家也可以通过进行下载其余就是下一步搞定,然后在开始里面找到python的exe,点击开然后输入1+1就可以看出是否安装成功了.如下图
3、IEDA编辑器如何使用python
首先我们在idea中打开设置然后点击plugins,在里面有个输入框中输入python,根据提示找到如下的这个(idea版本不同可能影响python版本)
然后开始创建idea工程
file->New->Project->python然后出现如下图情况(其他的下一步然后就会创建工程了)
4、开发前知识准备
文件的读取,python读取文件非常的简单,我现在直接贴代码提供给大家
def readData(fileName): result = "" count=0 with open(fileName, 'r') as f: for line in f.readlines(): result += line count += 1 print count return result"""写入文件"""def writeData(fileName, data): with open(fileName, 'a+')as f: f.write(data)其中def是函数的定义,如果我们写定义一个函数直接前面加上def,返回值可以获取后直接用return即可
python我们直接采用with open('文件路径',模式) as f的方式来打开文件
模式:
r 只读 文件不存在则出错 r+ 支持读写 文件不存在则出错,写入时,会覆盖源文件 w 只写 如果文件不存在则创建文件,会覆盖源文件,如果写入内容少则保留为覆盖的内容 w+ 支持读写 同上 a 只写 如果文件不存在则创建文件,会采用追加模式 a+ 读写 同上 b 二进制读写
跨文件引用:
同一个层级python是采用import直接导入文件名的方式,看下一个代码
import IoUtilsfileName1 = 'D:\\works\\pythons\\files\\userids.txt'userIds = IoUtils.readData(fileName1).split('\n')fileName2 = 'D:\\works\\pythons\\files\\records.txt'records = IoUtils.readData(fileName2).strip()recordsArr = records.split('\n')count=0;for data in recordsArr: count+=1 if data.split('\t')[2] in userIds: IoUtils.writeData('D:\\works\\pythons\\files\\20180604.txt', data + '\n') print count其他说明:
其中split和java程序的split一样,strip是去掉空格换行符等,循环(for in)模式,判断某个元素是否在数组中存在则直接使用 元素 in 数组
5、总结
如果你有数据量级别在百分的时候我建议优先可以想到python处理真的特别方便,而且很简单学习成本也很低,但是却很实用,其实awk在数据处理中也发挥很大的作用,大家可以私下学习,如果有时间我会分享一些,关于数据我这里就不提供了大家可以按照我上述代码跑就可以,更细节的我推荐看廖雪峰的python教程。
好了,以上就是这篇文章的全部内容了,希望本文的内容对大家的学习或者工作具有一定的参考学习价值,如果有疑问大家可以留言交流,谢谢大家对的支持。
声明:本页内容来源网络,仅供用户参考;我单位不保证亦不表示资料全面及准确无误,也不保证亦不表示这些资料为最新信息,如因任何原因,本网内容或者用户因倚赖本网内容造成任何损失或损害,我单位将不会负任何法律责任。如涉及版权问题,请提交至online#300.cn邮箱联系删除。
有时候需要制造一些测试的数据,以mysql官方给的测试库为基础,插入十万,百万或者千万条数据。利用一些函数和存储过程来完成。官方给的测试库地址:https://
对于数百万条数据量的CSV文件,文件大小可能达到数百M,如果简单读取的话很可能出现超时或者卡死的现象。为了成功将CSV文件里的数据导入数据库,分批处理是非常必要
想往某个表中插入几百万条数据做下测试,原先的想法,直接写个循环10W次随便插入点数据试试吧,好吧,我真的很天真....DROPPROCEDUREIFEXISTS
PHP如何对CSV大文件进行读取并导入数据库?对于数百万条数据量的CSV文件,文件大小可能达到数百M,如果简单读取的话很可能出现超时或者卡死的现象。为了成功将C
python如何处理“&#”开头加数字的html字符,比如:风水这类数据。用python抓取数据时,有时会遇到想要数据是以“&#”开