pandas中的数据去重处理的实现方法

时间:2021-05-22

数据去重可以使用duplicated()和drop_duplicates()两个方法。

DataFrame.duplicated(subset = None,keep =‘first' )返回boolean Series表示重复行

参数:
subset:列标签或标签序列,可选
仅考虑用于标识重复项的某些列,默认情况下使用所有列
keep:{‘first',‘last',False},默认'first'

  • first:标记重复,True除了第一次出现。
  • last:标记重复,True除了最后一次出现。
  • 错误:将所有重复项标记为True。
import numpy as npimport pandas as pdfrom pandas import Series, DataFramedf = pd.read_csv('./demo_duplicate.csv')print(df)print(df['Seqno'].unique()) # [0. 1.]# 使用duplicated 查看 重复值# 参数 keep 可以标记重复值 {'first','last',False}print(df['Seqno'].duplicated())'''0 False1 True2 True3 True4 FalseName: Seqno, dtype: bool'''# 删除 series 重复数据print(df['Seqno'].drop_duplicates())'''0 0.04 1.0Name: Seqno, dtype: float64'''# 删除 dataframe 重复数据print(df.drop_duplicates(['Seqno'])) # 按照 Seqno 来 去重''' Price Seqno Symbol time0 1623.0 0.0 APPL 14734119624 1649.0 1.0 APPL 1473411963'''# drop_dujplicates() 第二个参数 keep 包含的值 有: first、last、Falseprint(df.drop_duplicates(['Seqno'], keep='last')) # 保存最后一个''' Price Seqno Symbol time3 1623.0 0.0 APPL 14734119634 1649.0 1.0 APPL 1473411963'''

pandas 去除重复行

DataFrame.drop_duplicates(subset = None,keep ='first',inplace = False )

subset:指定列,默认情况下使用所有列

keep:{'first','last',False},默认'first'

first:删除重复项保留第一次出现的。last:删除重复项保留最后一次出现的。false:删除所有重复项。

inplace:布尔值,默认为False 是否删除重复项或返回副本

栗子:

到此这篇关于pandas中的数据去重处理的实现方法的文章就介绍到这了,更多相关Pandas 数据去重内容请搜索以前的文章或继续浏览下面的相关文章希望大家以后多多支持!

声明:本页内容来源网络,仅供用户参考;我单位不保证亦不表示资料全面及准确无误,也不保证亦不表示这些资料为最新信息,如因任何原因,本网内容或者用户因倚赖本网内容造成任何损失或损害,我单位将不会负任何法律责任。如涉及版权问题,请提交至online#300.cn邮箱联系删除。

相关文章