时间:2021-05-23
数据代表了各个城市店铺的装修和配置费用,要统计出装修和配置项的总费用并进行加和计算;
补充:pandas 中dataframe 中的模糊匹配 与pyspark dataframe 中的模糊匹配
匹配一个很简单,批量匹配如下
df_obj[df_obj['title'].str.contains(r'.*?n.*')] #使用正则表达式进行模糊匹配,*匹配0或无限次,?匹配0或1次pyspark dataframe 中模糊匹配有两种方式
注意点:
1.rlike 后面进行批量匹配用引号包裹即可
2.rlike 中要匹配特殊字符的话,不需要转义
3.rlike '\\\\bapple\\\\b' 虽然也可以匹配但是匹配数量不全,具体原因不明,欢迎讨论。
In [5]: df.filter("name rlike '%'").show()+---+------+-----+|age|height| name|+---+------+-----+| 4| 140|A%l%i|| 6| 180| i%ce|+---+------+-----+如果要批量匹配的话,就需要在后面继续添加uri like '%blabla%',就有点繁琐了。
对了这里需要提到原生sql 的批量匹配,regexp 就很方便了,跟rlike 有点相似
mysql> select count(*) from url_parse where uri regexp 'android.ugc.live|com.tencent.tmgp.sgame';+----------+| count(*) |+----------+| 9768 |+----------+1 row in set (0.52 sec)于是这里就可以将sql中regexp 应用到spark sql 中
In [9]: spark.sql('select * from t where name regexp "%l|t|_"').show()+---+------+------+|age|height| name|+---+------+------+| 1| 150|Al_ice|| 4| 140| A%l%i|+---+------+------+以上为个人经验,希望能给大家一个参考,也希望大家多多支持。如有错误或未考虑完全的地方,望不吝赐教。
声明:本页内容来源网络,仅供用户参考;我单位不保证亦不表示资料全面及准确无误,也不保证亦不表示这些资料为最新信息,如因任何原因,本网内容或者用户因倚赖本网内容造成任何损失或损害,我单位将不会负任何法律责任。如涉及版权问题,请提交至online#300.cn邮箱联系删除。
使用python中的pandas,xlrd,openpyxl库完成合并excel中指定sheet的操作#-*-coding:UTF-8-*-importxlrd
python读取Excel表格文件,例如获取这个文件的数据python读取Excel表格文件,需要如下步骤:1、安装Excel读取数据的库-----xlrd直接
使用python删除excel表格重复行。#导入pandas包并重命名为pdimportpandasaspd#读取Excel中Sheet1中的数据data=pd
本文实例为大家分享了java读取cvs文件并导入数据库的具体代码,供大家参考,具体内容如下首先获取文件夹下面的所有类型相同的excel,可以用模糊匹配conta
写在前面QQ群里偶然看到群友问这个问题,pandas读取大文件时怎么才能获取进度?我第一反应是:除非pandas的read_excel等函数提供了回调函