使用Ray輕松進行Python分布式計算
即使是具有多個CPU核心的單處理器計算機(處理器具有一個或多個核心,計算機具有一個或多個處理器),也會給人一種能夠同時運行多個任務(wù)的錯覺。當我們擁有多個處理器時,就可以真正以并行的方式執(zhí)行計算。
一、并行計算與分布式計算的區(qū)別
并行計算在現(xiàn)代計算中非常有用,幾乎是必需的,目的是實現(xiàn)最大性能。開發(fā)者將運行時間較長的計算任務(wù)分成較小的塊,并將其分配給不同的處理器。這種策略使開發(fā)者能夠在相同的時間內(nèi)進行更多的計算。對于構(gòu)建基于GUI的應(yīng)用程序,總是需要對系統(tǒng)進行并行設(shè)計,以便一個線程可以保持可用狀態(tài)以更新GUI并響應(yīng)用戶輸入。
并行計算和分布式計算的區(qū)別在于,對于并行計算,多個處理器位于同一主板上。分布式計算則使用多臺計算機同時解決問題?,F(xiàn)代分布式系統(tǒng)能夠在網(wǎng)絡(luò)(局域網(wǎng)/廣域網(wǎng))上進行通信。分布式計算的優(yōu)點在于其價格和可擴展性。如果開發(fā)者需要更多的計算能力,那么可以很輕松地添加更多的計算機。
從根本上講,并行計算和分布式計算的架構(gòu)非常相似。主要區(qū)別在于分布式計算使用的是分布式內(nèi)存空間,而不是共享內(nèi)存空間。它具有能夠為開發(fā)者的應(yīng)用程序提供統(tǒng)一邏輯(而不是物理)內(nèi)存空間的軟件層,可以幫助開發(fā)者將為并行計算編寫的代碼應(yīng)用于分布式計算。
在本文中將介紹如何使用開源Python庫Ray來幫助開發(fā)者進行并行和分布式計算,Ray將Pythonic函數(shù)和類轉(zhuǎn)換為分布式設(shè)置中的任務(wù)和角色。本文將只介紹函數(shù)的示例,但是類的概念非常相似。
二、使用pip安裝Ray
這將安裝支持儀表板+集群啟動器的Ray。
pip install 'ray[default]'
如果只想進行最小化安裝:
pip install -U ray
三、使用Ray進行并行計算任務(wù)
接下來執(zhí)行一個示例,該示例使用concurrent.futures,并將其與使用ray執(zhí)行相同任務(wù)的運行進行比較。
import time
import concurrent.futures
Stime = time.perf_counter()
tasks = []
sleepTimes = [0.1, 0.2, 0.1, 0.5, 0.7, 0.9, 0.5,
0.4, 1.5, 1.3, 1.0, 0.3, 0.7, 0.6, 0.3, 0.8]
print(f"Total time of sleep: {sum(sleepTimes)} for {len(sleepTimes)} tasks")
def my_awesome_function(sleepTime=0.1):
time.sleep(sleepTime)
return f"Sleep time {sleepTime}"
all_results = []
with concurrent.futures.ProcessPoolExecutor() as executor:
tasks = [executor.submit(my_awesome_function, sleep)
for sleep in sleepTimes]
for ff in concurrent.futures.as_completed(tasks):
all_results.append(ff.result())
print(f"Finished in {time.perf_counter()-Stime:.2f}")
這將返回:
$ python test_ray.py
Total time of sleep: 9.9 for 16 tasks
Finished in 1.65
這項工作在順序執(zhí)行時需要9.9秒完成。由于本文執(zhí)行的是并行執(zhí)行,因此在示例中只用了1.65秒就完成了這項工作。請注意,這個時間可能因為不同的計算機而有所不同。
現(xiàn)在使用Ray來完成同樣的工作。本文首先使用ray.init()初始化Ray。然后,裝飾器ray.remote將Python函數(shù)轉(zhuǎn)換為可以異步遠程執(zhí)行的函數(shù)。它會立即返回N個可以并行執(zhí)行的函數(shù)副本。
import time
import ray
import concurrent.futures
Stime = time.perf_counter()
tasks = []
sleepTimes = [0.1, 0.2, 0.1, 0.5, 0.7, 0.9, 0.5,
0.4, 1.5, 1.3, 1.0, 0.3, 0.7, 0.6, 0.3, 0.8]
print(f"Total time of sleep: {sum(sleepTimes)} for {len(sleepTimes)} tasks")
# 初始化Ray。
ray.init()
@ray.remote #convert to a function that can be executed remotely and asynchronously
def my_awesome_function(sleepTime=0.1):
time.sleep(sleepTime)
return f"Sleep time {sleepTime}"
tasks = []
for sleep in sleepTimes:
tasks.append(my_awesome_function.remote(sleep))
all_results = ray.get(tasks)
print(f"Finished in {time.perf_counter()-Stime:.2f}")
這將返回:
Total time of sleep: 9.9 for 16 tasks
Finished in 3.18
由于存在一些開銷,會有一些延遲,但對于大型計算來說,這種延遲可以忽略不計。
四、大規(guī)模計算的聚合值
Ray可以輕松地用于聚合多個值,這對于構(gòu)建需要跨多臺機器進行計算的大型應(yīng)用程序非常重要。對于大規(guī)模計算,Ray可以將聚合的運行時間從線性改為對數(shù)。
接下來看一個示例:
import time
import ray
import numpy as np
Stime = time.perf_counter()
@ray.remote
def create_matrix(size):
return np.random.normal(size=size)
@ray.remote
def multiply_matrices(x, y):
return np.dot(x, y)
@ray.remote
def sum_matrices(x, y):
return np.add(x, y)
m1 = create_matrix.remote([1000, 1000])
m2 = create_matrix.remote([1000, 1000])
m3 = create_matrix.remote([1000, 1000])
m4 = create_matrix.remote([1000, 1000])
m12 = multiply_matrices.remote(m1, m2)
m34 = multiply_matrices.remote(m3, m4)
a12_34 = sum_matrices.remote(m12, m34)
## 結(jié)果
MM = ray.get(a12_34)
print(f"Finished in {time.perf_counter()-Stime:.2f}")
在上面的示例中,本文首先創(chuàng)建了四個矩陣,將它們分為兩組,對每組中的矩陣進行乘法運算,然后對每組的乘法結(jié)果進行求和。在這里,乘法運算是并行進行的,然后將結(jié)果聚合以獲得求和結(jié)果。
參考資料
- 【安裝Ray】:https://docs.ray.io/en/latest/ray-overview/installation.html
- Pierfederici, F. (2016). 《Distributed Computing with Python》. Journal of Physics A: Mathematical and Theoretical (Vol. 44, Issue 8). Packt Publishing Ltd.