python高级技术(进程二)
一 进程对象及其他方法
'''
一台计算机上面运行着很多进程,那么计算机是如何区分并管理这些进程服务端的呢?
计算机会给每一个运行的进程分配一个PID号
如何查看
windows电脑
进入cmd输入tasklist即可查看
tasklist|findstr PID查看具体的进程
linux电脑
进入终端之后输入ps aux
ps aux|grep PID查看具体的进程
'''
from multiprocessing import Process, current_process import time import os def task(): print('{} is running'.format(current_process().pid)) print('{} is running'.format(os.getpid())) print('{} 是子进程的主进程号'.format(os.getppid())) time.sleep(5) if __name__ == '__main__': p = Process(target=task) p.start() # p.terminate() # 杀死当前进程 # 是告诉操作系统帮你去杀死当前进程 但是需要一定的时间 而代码的运行速度极快,加上time.sleep,打印结果为True # time.sleep(0.001) print(p.is_alive()) # 判断当前进程是否存活 ''' 一般情况下我们会默认将 存储布尔值的变量名 和返回的结果是布尔值的方法名 都起成以is_开头 ''' print('主', current_process().pid) print('主进程的父进程号', os.getpid()) ''' rue 主 6308 主进程的父进程号 6308 16144 is running 16144 is running 6308 是子进程的主进程号 '''
current_process().pid和os.getpid()都是获取当前进程的进程号,
os.getppid()获取当前进程的父进程
p.terminate() 杀死当前进程
p.is_alive()判断当前进程是否存活
二 僵尸进程与孤儿进程(了解)
1、僵尸进程
死了但是没有死透
当你开设了子进程之后,该进程死后不会立刻释放占用的进程号
因为我要让父进程能够查看到它开设的子进程的一些基本信息 占用的pid号 运行时间
所有的进程都会步入僵尸进程
父进程不死并且在无限制的创建子进程并且子进程也不结束
回收子进程占用的pid号
父进程等待子进程运行结束
父进程调用join方法
2、孤儿进程
子进程存活,父进程意味死亡
操作系统会开设一个“儿童福利院”专门管理孤儿进程回收相关资源
三 守护进程
会随着主进程的结束而结束。
主进程创建守护进程
其一:守护进程会在主进程代码执行结束后就终止
其二:守护进程内无法再开启子进程,否则抛出异常:AssertionError: daemonic processes are not allowed to have children
注意:进程之间是互相独立的,主进程代码运行结束,守护进程随即终止
from multiprocessing import Process import time def task(name): print('{}正在活着'.format(name)) time.sleep(3) print('{}正在死亡'.format(name)) if __name__ == '__main__': p = Process(target=task, args=('xiaobao',)) p.daemon = True # 将进程p设置成守护进程 这一句一定要放在start方法上面才有效否则会直接报错 p.start() print('haha') ''' haha '''
四 互斥锁
多个进程操作同一份数据的时候,会出现数据错乱的问题
针对上述问题,解决方式就是加锁处理
将并发变成串行,牺牲效率但是保证了数据的安全
from multiprocessing import Process, Lock import json import time import random # 查票 def search(i): # 文件操作读取票数 with open('data', 'r', encoding='utf-8') as f: dic = json.load(f) # 操作文件用load,具体对象数据用loads print('用户名{}查询余票{}'.format(i, dic.get('ticket_num'))) # 字典取值不要用[]的形式,如果没有,会报错,推荐使用get,写代码尽量避免报错。 # 买票 1.先查 2.再买 def buy(i): # 先查票 with open('data', 'r', encoding='utf-8') as f: dic = json.load(f) # 模拟网络延迟 time.sleep(random.randint(1, 3)) # 判断当前是否有票 if dic.get('ticket_num') > 0: # 修改数据库 买票 dic['ticket_num'] -= 1 # 写入数据库 with open('data', 'w', encoding='utf-8') as f: json.dump(dic, f) print('用户{}买票成功'.format(i)) else: print('用户{}买票失败'.format(i)) # 整合上面两个函数 def run(i, mutex): search(i) # 给买票环节加锁处理 # 抢锁 mutex.acquire() buy(i) # 释放锁 mutex.release() if __name__ == '__main__': # 在主进程中生成一把锁 让所有的子进程抢 谁先抢到谁先买票 mutex = Lock() for i in range(1, 11): p = Process(target=run, args=(i, mutex)) p.start()
模拟抢票,一个用户对应一个进程,余票剩余1张,不加锁的情况下,因是并发,10个用户
显示都够买成功了1张,实际情况只能有1个用户购买成功,所以加锁,10个用户抢锁
,锁先抢到,谁先运行,让并发效果变成了串行效果,牺牲了效率,保证了数据安全
'''
扩展 行锁 表锁
注意:
1、锁不要轻易的使用,容易造成死锁现象(我们写代码一般不会用到,都是内部封装好的)
2、锁只在处理数据的部分来保证数据安全(只在争抢数据的环节加锁处理即可)
'''
五 进程间通信
队列:先进先出(扶手电梯)
堆栈:先进后出(箱子里叠衣服)
管道:subprocess
stdin stdout stderr
队列:管道+锁
from multiprocessing import Queue # 创建一个队列 q = Queue(5) # 括号内可以传数字 表示生成的队列最大可以同时存放的数据量 q.put(111) q.put(222) q.put(333) print(q.full()) # 判断当前队列是否满了 print(q.empty()) # 判断当前队列是否空了 q.put(444) q.put(555) # q.put(666) # 当队列数据放满了之后 如果还有数据要放程序会阻塞 直到有位置让出来 ''' 存取数据 存是为了更好的取 千方百计的存、简单快捷的取 ''' # 去队列中取数据 v1 = q.get() v2 = q.get() v3 = q.get() v4 = q.get() v5 = q.get() # v6 = q.get() # 队列中如果已经没有数据的话 get方法会原地阻塞 try: v6 = q.get(timeout=3) print(v6) except Exception as e: print('已经被取完了') print(v1) ''' q.full() q.empty() q.get_nowait() 在多进程的情况下是不精准 '''
put 当队列数据放满了之后 如果还有数据要放程序会阻塞 直到有位置让出来
get 队列中如果已经没有数据的话 get方法会原地阻塞
IPC机制
from multiprocessing import Process, Queue ''' 研究思路 1、主进程跟子进程借助于队列通信 2、子进程跟子进程借助于队列通信 ''' def producer(q): q.put('zd') print('hello llx') def consumer(q): print(q.get()) if __name__ == '__main__': q = Queue() p = Process(target=producer, args=(q,)) p1 = Process(target=consumer, args=(q,)) p.start() p1.start() ''' hello llx zd '''
六 生产者消费者模型
生产者:生产/制造东西的
消费者:消费/处理东西的
该模型除了上述两个之外还需要一个媒介
生产者和消费者之间不是直接做交互的,而是借助于媒介做交互
生产者+消费队列+消费者
生产者消费者模式是通过一个容器来解决生产者和消费者的强耦合问题。
生产者和消费者彼此之间不直接通讯,而通过阻塞队列来进行通讯,
所以生产者生产完数据之后不用等待消费者处理,直接扔给阻塞队列,
消费者不找生产者要数据,而是直接从阻塞队列里取,阻塞队列就相当于一个缓冲区,
平衡了生产者和消费者的处理能力。
from multiprocessing import Process, Queue import time import random def producer(name, food, q): for i in range(10): data = '{}生产了{}{}'.format(name, i, food) # 模拟延迟 time.sleep(random.randint(1, 3)) print(data) # 将数据放入队列中 q.put(data) def consumer(name, q): # 消费者胃口很大 光盘行动 while True: food = q.get() if food is None: break time.sleep(random.randint(1, 3)) print('{}吃了{}'.format(name, food)) if __name__ == '__main__': q = Queue() p1 = Process(target=producer, args=('大厨lq', '包子', q)) p2 = Process(target=producer, args=('大厨zd', '油条', q)) c1 = Process(target=consumer, args=('吃货xiao', q)) c2 = Process(target=consumer, args=('吃货xiaoxiaobao', q)) p1.start() p2.start() c1.start() c2.start() p1.join() p2.join() # 等待生产者生产完毕之后 往队列中添加特定的结束符号 q.put(None) # 肯定在所有生产者生产的数据的末尾,有几个消费者,就要有几个put(None) q.put(None) # 主进程与子进程的通信
解决生产者生产完毕后,有几个消费者就需要向几个消费者添加几个put(None)的结束标志的问题,
使用JoinableQueue模块
from multiprocessing import Process, JoinableQueue import time import random def producer(name, food, q): for i in range(10): data = '{}生产了{}{}'.format(name, i, food) # 模拟延迟 time.sleep(random.randint(1, 3)) print(data) # 将数据放入队列中 q.put(data) def consumer(name, q): # 消费者胃口很大 光盘行动 while True: food = q.get() time.sleep(random.randint(1, 3)) print('{}吃了{}'.format(name, food)) q.task_done() # 告诉队列你已经从里面取出了一个数据并且处理完毕了 if __name__ == '__main__': q = JoinableQueue() p1 = Process(target=producer, args=('大厨lq', '包子', q)) p2 = Process(target=producer, args=('大厨zd', '油条', q)) c1 = Process(target=consumer, args=('吃货xiao', q)) c2 = Process(target=consumer, args=('吃货cyz', q)) p1.start() p2.start() # 将消费者设置成守护进程 c1.daemon = True c2.daemon = True c1.start() c2.start() p1.join() p2.join() q.join() # 等待队列中所有的数据被取完再执行往下执行代码 ''' JoinableQueue 每当你往队列中存入数据的时候 内部会有一个计数器+1 每当你调用task_done的时候 计数器-1 q.join() 当计数器为0的时候 才往后运行 #主进程等--->p1,p2等---->c1,c2 #p1,p2结束了,证明c1,c2肯定全都收完了p1,p2发到队列的数据 #因而c1,c2也没有存在的价值了,不需要继续阻塞在进程中影响主进程了。应该随着主进程的结束而结束,所以设置成守护进程就可以了。 '''
热门相关:超武穿梭 重生之至尊千金 横行霸道 特工重生:快穿全能女神 修仙界最后的单纯