时间:2021-05-22
抢票是并发执行
多个进程可以访问同一个文件
多个进程共享同一文件,我们可以把文件当数据库,用多个进程模拟多个人执行抢票任务
db.txt
{"count": 1}并发运行,效率高,但竞争写同一文件,数据写入错乱,只有一张票,都卖成功给了10个人
总结:程序出现数据写入错乱
大家都查到票为1,都购票成功
<路人1>用户 查看剩余票数为 [1]<路人2>用户 查看剩余票数为 [1]<路人3>用户 查看剩余票数为 [1]<路人4>用户 查看剩余票数为 [1]<路人5>用户 查看剩余票数为 [1]<路人6>用户 查看剩余票数为 [1]<路人7>用户 查看剩余票数为 [1]<路人8>用户 查看剩余票数为 [1]<路人9>用户 查看剩余票数为 [1]<路人10>用户 查看剩余票数为 [1]<路人1> 购票成功剩余票数为 [0]<路人2> 购票成功剩余票数为 [0]<路人3> 购票成功剩余票数为 [0]<路人4> 购票成功剩余票数为 [0]<路人5> 购票成功剩余票数为 [0]<路人6> 购票成功剩余票数为 [0]<路人7> 购票成功剩余票数为 [0]<路人8> 购票成功剩余票数为 [0]<路人9> 购票成功剩余票数为 [0]<路人10> 购票成功剩余票数为 [0]总结程序出现数据写入错乱加锁处理:购票行为由并发变成了串行,牺牲了运行效率,但保证了数据安全
购票功能不应该并发执行,查票应该是并发执行的
查票准不准确不重要,有可能这张票就被别人买走
一个人写完以后,让另外一个人基于上一个人写的结果,再做购票操作
#把文件db.txt的内容重置为:{"count":1}from multiprocessing import Processfrom multiprocessing import Lockimport timeimport jsonclass Foo(object): def search(self, name): with open("db.txt", "r") as f_read: dic = json.load(f_read) time.sleep(1) # 模拟读数据的网络延迟 print("<%s>用户 查看剩余票数为 [%s]" % (name, dic["count"])) def get(self, name): with open("db.txt", "r") as f_read: dic = json.load(f_read) if dic["count"] > 0: dic["count"] -= 1 time.sleep(1) # 模拟写数据的网络延迟 with open("db.txt", "w") as f_write: json.dump(dic, f_write) print("<%s> 购票成功" % name) print("剩余票数为 [%s]" % dic["count"]) else: print("没票了,抢光了") def task(self, name, mutex): self.search(name) mutex.acquire() self.get(name) mutex.release()if __name__ == "__main__": mutex = Lock() obj = Foo() for i in range(1,11): # 模拟并发10个客户端抢票 p = Process(target=obj.task, args=("路人%s" % i, mutex)) p.start()执行结果
<路人2>用户 查看剩余票数为 [1]<路人3>用户 查看剩余票数为 [1]<路人1>用户 查看剩余票数为 [1]<路人4>用户 查看剩余票数为 [1]<路人5>用户 查看剩余票数为 [1]<路人7>用户 查看剩余票数为 [1]<路人6>用户 查看剩余票数为 [1]<路人8>用户 查看剩余票数为 [1]<路人9>用户 查看剩余票数为 [1]<路人10>用户 查看剩余票数为 [1]<路人2> 购票成功剩余票数为 [0]没票了,抢光了没票了,抢光了没票了,抢光了没票了,抢光了没票了,抢光了没票了,抢光了没票了,抢光了没票了,抢光了没票了,抢光了with lock
相当于lock.acquire(),执行完自代码块自动执行lock.release()
from multiprocessing import Processfrom multiprocessing import Lockimport timeimport jsonclass Foo(object): def search(self, name): with open("db.txt", "r") as f_read: dic = json.load(f_read) time.sleep(1) # 模拟读数据的网络延迟 print("<%s>用户 查看剩余票数为 [%s]" % (name, dic["count"])) def get(self, name): with open("db.txt", "r") as f_read: dic = json.load(f_read) if dic["count"] > 0: dic["count"] -= 1 time.sleep(1) # 模拟写数据的网络延迟 with open("db.txt", "w") as f_write: json.dump(dic, f_write) print("<%s> 购票成功" % name) print("剩余票数为 [%s]" % dic["count"]) else: print("没票了,抢光了") def task(self, name, mutex): self.search(name) with mutex: # 相当于lock.acquire(),执行完自代码块自动执行lock.release() self.get(name)if __name__ == "__main__": mutex = Lock() obj = Foo() for i in range(1,11): # 模拟并发10个客户端抢票 p = Process(target=obj.task, args=("路人%s" % i, mutex)) p.start()以上就是本文的全部内容,希望对大家的学习有所帮助,也希望大家多多支持。
声明:本页内容来源网络,仅供用户参考;我单位不保证亦不表示资料全面及准确无误,也不保证亦不表示这些资料为最新信息,如因任何原因,本网内容或者用户因倚赖本网内容造成任何损失或损害,我单位将不会负任何法律责任。如涉及版权问题,请提交至online#300.cn邮箱联系删除。
我们都知道并发(不是并行)编程目前有四种方式,多进程,多线程,异步,和协程。多进程编程在python中有类似C的os.fork,当然还有更高层封装的multip
本文实例讲述了php多进程并发编程防止出现僵尸进程的方法。分享给大家供大家参考,具体如下:对于用PHP进行多进程并发编程,不可避免要遇到僵尸进程的问题。僵尸进程
1、python多进程编程背景python中的多进程最大的好处就是充分利用多核cpu的资源,不像python中的多线程,受制于GIL的限制,从而只能进行cpu分
进程互斥锁多进程同时抢购余票#并发运行,效率高,但竞争写同一文件,数据写入错乱#data.json文件内容为{"ticket_num":1}importjson
多线程适合于多io操作多进程适合于耗cpu(计算)的操作#多进程编程#耗cpu的操作,用多进程编程,对于io操作来说,使用多线程编程importtimefrom