时间:2021-05-22
最近一直跟着廖大在学Python,关于分布式进程的小例子挺有趣的,这里做个记录。
分布式进程
Python的multiprocessing模块不但支持多进程,其中managers子模块还支持把多进程分布到多台机器上。一个服务进程可以作为调度者,将任务分布到其他多个进程中,依靠网络通信。由于managers模块封装很好,不必了解网络通信的细节,就可以很容易地编写分布式多进程程序。
master服务端原理:通过managers模块把Queue通过网络暴露出去,其他机器的进程就可以访问Queue了
服务进程负责启动Queue,把Queue注册到网络上,然后往Queue里面写入任务,代码如下:
运行截图如下:
在分布式多进程环境下,添加任务到Queue不可以直接对原始的task_queue进行操作,那样就绕过了QueueManager的封装,必须通过manager.get_task_queue()获得的Queue接口添加。
任务进程,代码如下:
#task_worker.py#coding=utf-8#多进程分布式例子#非服务端:workerimport time,sys,queuefrom multiprocessing.managers import BaseManager#创建类似的QueueManagerclass QueueManager(BaseManager): pass#由于这个QueueManager只从网络上获取Queue,所以注册时只提供名字即可QueueManager.register('get_task_queue')QueueManager.register('get_result_queue')#连接到服务器,也就是运行task_master.py的机器server_addr = '127.0.0.1'print('connect to server %s...'% server_addr)#端口和验证码注意要保持完全一致m = QueueManager(address=(server_addr,5000),authkey=b'abc')#从网络连接m.connect()#获取Queue的对象task = m.get_task_queue()result = m.get_result_queue()#从task队列获取任务,并把结果写入result队列for i in range(10): try: n = task.get(timeout=1) print('run task %d * %d...'% (n,n)) r = '%d * %d = %d' % (n,n,n*n) time.sleep(1) result.put(r) except queue.Empty: print('task queue is empty')#处理结果print('worker exit')运行截图如下:
以上就是本文的全部内容,希望对大家的学习有所帮助,也希望大家多多支持。
声明:本页内容来源网络,仅供用户参考;我单位不保证亦不表示资料全面及准确无误,也不保证亦不表示这些资料为最新信息,如因任何原因,本网内容或者用户因倚赖本网内容造成任何损失或损害,我单位将不会负任何法律责任。如涉及版权问题,请提交至online#300.cn邮箱联系删除。
小惊大怪你是不是在用Python3或者在windows系统上编程?最重要的是你对进程和线程不是很清楚?那么恭喜你,在python分布式进程中,会
本文实例讲述了Python实现的多进程和多线程功能。分享给大家供大家参考,具体如下:听了朋友说起,他们目前开发的测试框架,用python实现的分布式系统。虽然p
所有演示均基于Django2.0celery是一个基于python开发的简单、灵活且可靠的分布式任务队列框架,支持使用任务队列的方式在分布式的机器/进程/线程上
分布式锁一般有三种实现方式:1、数据库乐观锁;2、基于Redis的分布式锁;3、基于ZooKeeper的分布式锁。本文将介绍第二种方式,基于Redis实现分布式
上一篇文章中说到,注册进程关联的原子具有全局作用域,这里的全局指的是当前Erlang虚拟机,在分布式中,便是当前分布式节点.因此,在一个节点中注册进程关联的原子