时间:2021-05-22
学习《Python3爬虫、数据清洗与可视化实战》时自己的一些实践。
DataFrame分组操作
注意分组后得到的就是Series对象了,而不再是DataFrame对象。
import pandas as pd# 还是读取这份文件df = pd.read_csv("E:/Data/practice/taobao_data.csv", delimiter=',', encoding='utf-8', header=0)# 计算'成交量'按'位置'分组的平均值grouped1 = df['成交量'].groupby(df['位置']).mean()# print(grouped1)# 计算'成交量'先按'位置'再按'卖家'分组后的平均值grouped2 = df['成交量'].groupby([df['位置'], df['卖家']]).mean()# print(grouped2)# 计算先按'位置'再按'卖家'分组后的所有指标(如果可以计算平均值)的平均值grouped3 = df.groupby([df['位置'], df['卖家']]).mean()# print(grouped3)DataFrame数据分割和合并
这里其实可以操作得很复杂,这里是一些比较基本的用法。
import pandas as pd# 还是读取这份文件df = pd.read_csv("E:/Data/practice/taobao_data.csv", delimiter=',', encoding='utf-8', header=0)# 计算销售额df['销售额'] = df['价格'] * df['成交量']# (1)前面学了ix,loc,iloc,这里是直接用[]运算做分割df1 = df[30:40][['位置', '卖家']]# print(df1) # 从30号行到39号行df2 = df[80:90][['卖家', '销售额']]# (2)内联接操作(相当于JOIN,INNER JOIN)df3 = pd.merge(df1, df2) # 不指定列名,默认选择列名相同的'卖家'列# print(df3)df4 = pd.merge(df1, df2, on='卖家') # 指定按照'卖家'相同做联接# print(df4)# (3)全外联接操作(相当于FULL JOIN),没有值的补NaNdf5 = pd.merge(df1, df2, how='outer')# print(df5)# (4)左外联接操作(相当于LEFT JOIN),即左边的都要,'销售额'没有就NaNdf6 = pd.merge(df1, df2, how='left')# print(df6)# (5)右外联接操作(相当于RIGHT JOIN),即右边的都要,'位置'没有就NaNdf7 = pd.merge(df1, df2, how='right')# print(df7)# (6)按索引相同做联接df_a = df[:10][['位置', '卖家']]df_b = df[3:13][['价格', '成交量']]df_c_1 = pd.merge(df_a, df_b, left_index=True, right_index=True) # 内联接# print(df_c_1) # 只有从3到9的df_c_2 = df_a.join(df_b) # 左外联接# print(df_c_2) # 从0到10df_c_3 = df_b.join(df_a) # "右"外联接(其实还是左外联接,就是b在左边a在右边)# print(df_c_3) # 从3到12# (7)轴向堆叠操作(上下堆叠时就相当于UNION ALL,默认不去重)df8 = df[2:5][['价格']] # 注意这里只取一个列也要用[[]]df9 = df[3:8][['销售额', '宝贝']]df10 = df[6:11][['卖家', '位置']]# (7.1)默认axis=0即上下堆叠,上下堆叠时,堆叠顺序和传进concat的顺序一致,最终列=所有列数去重,缺失的补NaN# 关于axis=0需要设置sort属性的问题,还没查到有讲这个的,这个问题先留着...df11 = pd.concat([df10, df9, df8], sort=False)# print(df11)# (7.2)设置axis=1即左右堆叠,左右堆叠不允许索引重复,相同索引的将被合并到一行# 左右堆叠中,堆叠顺序仅仅影响列的出现顺序# 这很好理解,毕竟不是从上到下"摞"在一起的,而是从左到右"卡"在一起的df12 = pd.concat([df10, df9, df8], axis=1)df13 = pd.concat([df8, df9, df10], axis=1)# print(df12)# print(df13)以上就是本文的全部内容,希望对大家的学习有所帮助,也希望大家多多支持。
声明:本页内容来源网络,仅供用户参考;我单位不保证亦不表示资料全面及准确无误,也不保证亦不表示这些资料为最新信息,如因任何原因,本网内容或者用户因倚赖本网内容造成任何损失或损害,我单位将不会负任何法律责任。如涉及版权问题,请提交至online#300.cn邮箱联系删除。
pandas转数组np.array(pandas)数组转pandaspandas.DataFrame(numpy)pandas连接,只是左右接上,不合并值df=
今天业务上碰到用pandas处理一个大文件的内存不够问题,需要做concat合并多个文件,每个文件数据在1.4亿行左右。当时第一反应是把dataframe分割成
一、pandas分组1、分组运算过程:split->apply->combine拆分:进行分组的根据应用:每个分组运行的计算规则合并:把每个分组的计算结果合并起
pandas.read_csv参数整理读取CSV(逗号分割)文件到DataFrame也支持文件的部分导入和选择迭代更多帮助参见:http://pandas.py
在Pandas中求差集没有专门的函数。处理办法就是将两个DataFrame追加合并,然后去重。divident.append(hasThisYearDivide