【Python成长之路】python并发学习:多进程与多线程的用法及场景介绍
刚开始学习Python 并发查询或者并发读写时,看到大神们说,多线程是python的鸡肋,要学就学多进程。好吧,我连多线程怎么写都不知道呢。
因此,就写了以下的示例代码。代码目的是将test.txt文件中的内容,以并发的方式(多线程/多进程)进行写入新文件中,以此来验证两种并发方式的效率。
示例代码
# coding=utf-8 # @Auther : "鹏哥贼优秀" # @Date : 2019/8/10 # @Software : PyCharm from multiprocessing import Pool import time import threading # 多进程的写数据方法 def writedata(content): with open("new1.txt", "a") as f: f.writelines(content) # 定义自己的多线程继承类 class myThread(threading.Thread): # 声明myThread是多线程的继承类 def __init__(self, content): threading.Thread.__init__(self) self.content = content # 多线程运行的内容 def run(self): threadingLock = threading.Lock() threadingLock.acquire() self.my_writedata(self.content) threadingLock.release() # 多线程的写数据方法 def my_writedata(self, content): with open("new2.txt", "a") as f: f.writelines(content) if __name__ == "__main__": # 创建一个test.txt,用于数据读取后的写入 with open("test.txt","w")as f_w: for i in range(1000): f_w.write(str(i)+"\n") # 多进程读写 print("开始计时(多进程写入)") t0 = time.time() with open("test.txt", "r", encoding="utf-8")as f: content = f.readlines() pool = Pool(processes=4) pool.map_async(writedata(content), range(len(content))) pool.close() pool.join() t1 = time.time() print("完成时间为:{0}".format(t1 - t0)) # 多线程读写 print("开始计时(多线程写入)") t2 = time.time() with open("test.txt", "r", encoding="utf-8")as f: content = f.readlines() threads = [] threadnum = 4 eline = len(content) // threadnum for i in range(threadnum): threadtemp = myThread(content[i * eline:(i + 1) * eline]) threadtemp.start() threads.append(threadtemp) for i in threads: i.join() t3 = time.time() print("完成时间为:{0}".format(t3 - t2))
效果
(第一个是多进程,我开始的时候打错字了。)
知识点
1、多进程 代码流程:
(1)创建进程池,并明确进程数。这里我用的是4个进程,是因为我本地PC机的CPU核是4个。查询方法:
multiprocessing.cpu_count() 即可知道核数了
(2)将具体要执行的方法加入到进程池的异常(map_async)处理中。当然也可以用map方法。其中,map_async方法里需要 2个参数,一个是具体要执行的函数,一个是表示循环执行的次数,类型是个list。示例代码中,因为每次wirtedata是只写了content的一行,因此一共要写len(content)次
(3)最后就是进程池后的关闭,并且在子进程关闭后,主程序才继续往下执行。join()方法无论 是对多线程不是多进程,用途是一样的。
从代码实现上,个人觉得多进程流程简单明了,并且各进程之间写数据是顺序的,不会像多线程因为GIL的随机问题导致进程顺序混乱的问题。但是唯一的问题是,写时间是有点长。
2、多线程代码流程:
本文采用的是继承threading类的方法,即需要重构run方法。个人觉得这种方式,层次更加清晰,而且能根据自己的目的灵活重构run方法。下面重点介绍这种方法。
(1)定义一个继承threading类的对象,然后重构run方法。其中run方法,需要考虑到锁的问题。为什么要考虑锁呢?因为存在多个线程同时写文件的情况,如果不加锁,就会出现多个线程同时写相同一条数据的情况,导致出现脏数据。
run方法的重构也很简单,先加锁,再加入自己想要的函数,最后解锁。
(2)mythread类的编写,我还是很快就学会了,但问题是如何将test.txt让多线程写入。
一开始,我是这么写的:
for i in range(threadnum): threadtemp = myThread(content) threadtemp.start() threads.append(threadtemp)
发现每个线程都重复将test.txt里的内容都写了一次,也是相当于重复写了4次。这里就是和多进程用法不同的地方了。
说明
多进程,由于不共享资源,因此每个进程都能读取到不同的content内容;多线程,线程之间相互共享,如果要它实现并发的功能,必须给每个线程指定要写的内容。因此最后示例代码中我就通过 content[i * eline:(i + 1) * eline]给每个线程指定了不同的写入内容。
(3)在主函数中,需要把各线程进行start,最后就是等各子线程结束后,主线程再往下执行。
从最后代码行上来看,个人觉得多线程其实是麻烦点的。另外,还有个麻烦的地方是:多线程在调用时是随机调用的,什么意思?就是thread1结束后,第二个运行的是thread9,而不是thread2。那么问题来了,既然大神建议我们用多进程,而且多进程写起来简单,那是不是所有场景都使用多进程呢?
3、多线程和多进程的使用场景:
多线程使用场景:IO操作密集的场景,比如爬虫,web访问等,需要频繁从网络、硬盘、内存等读写数据。这种情况 下,因为单线程下的IO操作会有IO等待,造成不必要的时间浪费,因此采用多线程就能在线程A等待时,开启线程B的操作。
多进程使用场景:CPU计算密集的场景,比如科学计算、循环处理等。这些场景因为计算工作量大,可能会出现单线程超时释放GIL,从而 引发其他多个线程的抢夺,反而效果不好。
那为什么大神们说最好用多进程呢?应该是为了充分利用多核CPU,不然我们的PC机都要买多核CPU呢?
再回到本示例代码,从结果上来看,是多线程的效率更快些,也说明硬盘读写的场景更建议用多线程;但是多线程的结果,即new2.txt里是乱序的,哎。不过我觉得应该有办法解决的,但本人下次再学习。
参考
http://www.uml.org.cn/python/201901221.asp 如果还不理解,建议先看这篇文章,我也是看了这篇文章后就懂了怎么写多进程。
http://www.uml.org.cn/python/201901221.asp
https://blog.csdn.net/qq610850653/article/details/79455323
作者:华为云特约供稿开发者 鹏哥贼优秀
- 点赞
- 收藏
- 关注作者
评论(0)