Python如何快速实现分布式任务
深入读了读python的官方文档,发觉Python自带的multiprocessing模块有很多预制的接口可以方便的实现多个主机之间的通讯,进而实现典型的生产者-消费者模式的分布式任务架构。
之前,为了在Python中实现生产者-消费者模式,往往就会选择一个额外的队列系统,比如rabbitMQ之类。此外,你有可能还要设计一套任务对象的序列化方式以便塞入队列。如果没有队列的支持,那不排除有些同学不得不从socket服务器做起,直接跟TCP/IP打起交道来。
其实multiprocessing.managers中有个BaseManager就为开发者提供了这样一个快速接口。
我们假定的场景是1个生产者(producer.py)+8个消费者(worker.py)的系统,还有一个中央节点负责协调(server.py)实现如下:
server.py
frommultiprocessing.managersimportBaseManager importQueue queue=Queue.Queue()#初始化一个Q,用于消息传递 classQueueManager(BaseManager): pass QueueManager.register('get_queue',callable=lambda:queue)#在系统中发布get_queue这个业务 if__name__=='__main__': m=QueueManager(address=('10.239.85.193',50000),authkey='abr') #监听所有10.239.85.193的50000口 s=m.get_server() s.serve_forever()
worker.py
frommultiprocessing.managersimportBaseManager frommultiprocessingimportPool classQueueManager(BaseManager): pass QueueManager.register('get_queue') deffeb(i):#经典的'山羊增殖' ifi<2:return1 ifi<5:returnfeb(i-1)+feb(i-2) returnfeb(i-1)+feb(i-2)-feb(i-5) defworker(i): m=QueueManager(address=('10.239.85.193',50000),authkey='abr') #连接server m.connect() whileTrue: queue=m.get_queue() #获取Q c=queue.get() printfeb(c) if__name__=='__main__': p=Pool(8)#分进程启动8个worker p.map(worker,range(8)) producer.py frommultiprocessing.managersimportBaseManager classQueueManager(BaseManager): pass QueueManager.register('get_queue') if__name__=='__main__': m=QueueManager(address=('10.239.85.193',50000),authkey='abr') m.connect() i=0 whileTrue: queue=m.get_queue() queue.put(48) i+=1
系统会直接将Queue()对象中的数据直接封装后通过TCP50000端口在主机之间传递。不过需要注意的是,由于authkey的缘故,各个节点要求python的版本一致。
以上就是本文的全部内容,希望对大家的学习有所帮助,也希望大家多多支持毛票票。