时间:2021-05-25
1.对一个大文件比如我的文件为
-rw-r--r-- 1 ubuntu ubuntu 9.1G Mar 1 17:53 2018-12-awk-uniq.txt
2.使用split命令切割成10个小文件
split -b 1000m 2018-12-awk-uniq.txt -b 按照字节切割 , 支持单位m和k
3.使用10个php进程读取文件 , 插入redis的有序集合结构中 , 重复的是插不进去的 ,因此可以起到去重的作用
<?php $file=$argv[1];//守护进程umask(0); //把文件掩码清0if (pcntl_fork() != 0){ //是父进程,父进程退出 exit();} posix_setsid();//设置新会话组长,脱离终端if (pcntl_fork() != 0){ //是第一子进程,结束第一子进程 exit();} $start=memory_get_usage(); $redis=new Redis();$redis->connect('127.0.0.1', 6379); $handle = fopen("./{$file}", 'rb');while (feof($handle)===false) { $line=fgets($handle); $email=str_replace("\n","",$line); $redis->zAdd('emails', 1, $email);}4. redis中查看获取的数据
zcard emails 获取元素个数
取一定范围的元素 , 比如从100000开始 到 100100结束
zrange emails 100000 100100 WITHSCORES
以上所述是小编给大家介绍的PHP多个进程配合redis的有序集合实现大文件去重详解整合,希望对大家有所帮助,如果大家有任何疑问请给我留言,小编会及时回复大家的。在此也非常感谢大家对网站的支持!
声明:本页内容来源网络,仅供用户参考;我单位不保证亦不表示资料全面及准确无误,也不保证亦不表示这些资料为最新信息,如因任何原因,本网内容或者用户因倚赖本网内容造成任何损失或损害,我单位将不会负任何法律责任。如涉及版权问题,请提交至online#300.cn邮箱联系删除。
pythonredis连接有序集合去重的代码如下所述:#-*-coding:utf-8-*-importredisfromconstantimportredis
php实现断点续传,就需要把大文件分割成多个小文件,然后单个上传。传完后在合并。│merge.php–合并文件脚本│merge.zip–合并后文件│socket
本文实例讲述了php使用redis的有序集合zset实现延迟队列。分享给大家供大家参考,具体如下:延迟队列就是个带延迟功能的消息队列,相对于普通队列,它可以在指
Redis支持五种数据类型:string(字符串),hash(哈希),list(列表),set(集合)及zset(sortedset:有序集合)。Redis列表
Redis支持五种数据类型:string(字符串),hash(哈希),list(列表),set(集合)及zset(sortedset:有序集合)。String(