时间:2021-05-22
今天主要记录一下pandas去重复行以及如何分类汇总。以下面的数据帧作为一个例子:
import pandas as pddata=pd.DataFrame({'产品':['A','A','A','A'],'数量':[50,50,30,30]})pandas判断dataframe是否含有重复行数据用:df.duplicated()
第一次出现的数据为False.重复的数据行就被记录为True。
去掉重复行数据使用data.drop_duplicates().
可以看到索引乱了,我们使用data.reset_index(),里面的参数drop=True,表明要舍掉原来的索引,不然的话原来的索引会保留下来。
分类汇总主要使用groupby(表明汇总的条件列)以及agg(要汇总的字段/列以及汇总的方式:求和还是最大最小值或者计数)。完整代码如下图
# -*- coding: utf-8 -*-"""Created on Fri Jul 20 09:08:10 2018@author: FanXiaoLei"""import pandas as pddata=pd.DataFrame({'产品':['A','A','A','A'],'数量':[50,50,30,30]})if data.duplicated: dataA=data.drop_duplicates().reset_index(drop=True)print(dataA)dataB=dataA.groupby(by='产品').agg({'数量':sum})print('数据汇总结果:')print(dataB)结果展示如下图:
以上就是本文的全部内容,希望对大家的学习有所帮助,也希望大家多多支持。
声明:本页内容来源网络,仅供用户参考;我单位不保证亦不表示资料全面及准确无误,也不保证亦不表示这些资料为最新信息,如因任何原因,本网内容或者用户因倚赖本网内容造成任何损失或损害,我单位将不会负任何法律责任。如涉及版权问题,请提交至online#300.cn邮箱联系删除。
python中的pandas模块中对重复数据去重步骤:1)利用DataFrame中的duplicated方法返回一个布尔型的Series,显示各行是否有重复行,
本文主要介绍了pandas统计重复值次数的方法实现,分享给大家,具体如下:frompandasimportDataFramedf=DataFrame({'key
分类汇总是对单一的要求进行汇总,而嵌套分类汇总需要两次分类汇总,比单一的分类汇总更为复杂及难处理。多重分类汇总是对多个对象进行分类汇总。 分类汇总是指对所有资
使用python删除excel表格重复行。#导入pandas包并重命名为pdimportpandasaspd#读取Excel中Sheet1中的数据data=pd
vs2005针对datatable已经有封装好的去重复方法:复制代码代码如下://去掉重复行DataViewdv=table.DefaultView;table