Python 在程序并行化方面多少有些声名狼藉。撇开技术上的问题,例如线程的实现和 GIL,我觉得错误的教学指导才是主要问题。常见的经典 Python 多线程、多进程教程多显得偏"重"。而且往往隔靴搔痒,没有深入探讨日常工作中最有用的内容。
创新互联"三网合一"的企业建站思路。企业可建设拥有电脑版、微信版、手机版的企业网站。实现跨屏营销,产品发布一步更新,电脑网络+移动网络一网打尽,满足企业的营销需求!创新互联具备承接各种类型的成都网站设计、成都网站制作、外贸网站建设项目的能力。经过十载的努力的开拓,为不同行业的企事业单位提供了优质的服务,并获得了客户的一致好评。传统的例子
简单搜索下"Python 多线程教程",不难发现几乎所有的教程都给出涉及类和队列的例子:
import os
import PIL
from multiprocessing import Pool
from PIL import Image
SIZE = (
75,
75)
SAVE_DIRECTORY = thumbs
def get_image_paths(folder):
return (
os.
path.join(folder, f)
for f
in
os.listdir(folder)
if jpeg
in f)
def create_thumbnail(filename):
im = Image.
open(filename)
im.thumbnail(SIZE, Image.ANTIALIAS)
base, fname =
os.
path.split(filename)
save_path =
os.
path.join(base, SAVE_DIRECTORY, fname)
im.save(save_path)
if __name__ == __main__ :
folder =
os.
path.abspath(
11_18_2013_R000_IQM_Big_Sur_Mon__e10d1958e7b766c3e840 )
os.mkdir(
os.
path.join(folder, SAVE_DIRECTORY))
images = get_image_paths(folder)
pool = Pool()
pool.map(creat_thumbnail, images)
pool.
close()
pool.join()
哈,看起来有些像 Java 不是吗?
我并不是说使用生产者/消费者模型处理多线程/多进程任务是错误的(事实上,这一模型自有其用武之地)。只是,处理日常脚本任务时我们可以使用更有效率的模型。
but...问题在于…
首先,你需要一个样板类;
其次,你需要一个队列来传递对象;
而且,你还需要在通道两端都构建相应的方法来协助其工作(如果需想要进行双向通信或是保存结果还需要再引入一个队列)。
worker 越多,问题越多
按照这一思路,你现在需要一个 worker 线程的线程池。下面是一篇 IBM 经典教程中的例子——在进行网页检索时通过多线程进行加速。
#Example2.py
A more realistic thread pool example
import time
import threading
import Queue
import urllib2
class Consumer(threading.Thread):
def __init__(
self, queue):
threading.Thread.__init__(
self)
self._queue = queue
def run(
self):
while True:
content =
self._queue.get()
if isinstance(content,
str) and content == quit :
break
response = urllib2.urlopen(content)
print Bye byes!
def Producer():
urls = [
http:
//www.python.org , http://www.yahoo.com
http://www.scala.org , http://www.google.com
# etc..
]
queue = Queue.Queue()
worker_threads = build_worker_pool(queue, 4)
start_time = time.time()
# Add the urls to process
for url in urls:
queue.put(url)
# Add the poison pillv
for worker in worker_threads:
queue.put( quit )
for worker in worker_threads:
worker.join()
print Done! Time taken: {} .format(time.time() - start_time)
def build_worker_pool(queue, size):
workers = []
for _ in range(size):
worker = Consumer(queue)
worker.start()
workers.append(worker)
return workers
if __name__ == __main__ :
Producer()
这段代码能正确的运行,但仔细看看我们需要做些什么:构造不同的方法、追踪一系列的线程,还有为了解决恼人的死锁问题,我们需要进行一系列的 join 操作。这还只是开始……
至此我们回顾了经典的多线程教程,多少有些空洞不是吗?样板化而且易出错,这样事倍功半的风格显然不那么适合日常使用,好在我们还有更好的方法。
试试 map?
map 这一小巧精致的函数是简捷实现 Python 程序并行化的关键。map 源于 Lisp 这类函数式编程语言。它可以通过一个序列实现两个函数之间的映射。
urls = [ http://www.yahoo.com , http://www.reddit.com ]
results = map(urllib2.urlopen, urls)
上面的这两行代码将 urls 这一序列中的每个元素作为参数传递到 urlopen 方法中,并将所有结果保存到 results 这一列表中。其结果大致相当于:
results = []
for url in urls:
results.append(urllib2.urlopen(url))
map 函数一手包办了序列操作、参数传递和结果保存等一系列的操作。
为什么这很重要呢?这是因为借助正确的库,map 可以轻松实现并行化操作。