→ ccwang002: 你實際上丟給 Pool.map(func, listarg1, listarg2) 04/28 12:56
→ ccwang002: listargx = [x1, x2, ...] Pool 會並行執行 x1 和 x2 04/28 12:57
→ ccwang002: 但你只給了一組 input 所以實際上就是沒加速 04/28 12:57
→ ccwang002: 等於 pool.map(concatMessage, [obj_grab], [content]) 04/28 16:13
→ ntuleo: 所以一組就不行嗎? 那有其它方式可以加速for loop嗎? 04/28 20:22
→ CaptainH: 對平行化完全沒有概念的話, 還是不要用比較好 04/28 20:28
→ ccwang002: pool.map(cM, [obj1, obj2, ...], [c1, c2, ...]) 04/28 21:41
→ ccwang002: 這樣就會有平行的效果,multiprocess 的對象是很明確的 04/28 21:41
→ ccwang002: 可以加速 for loop,就要針對 for loop 裡面的邏輯設計 04/28 21:42
推 LiloHuang: Python Concurrency From the Ground Up - PyCon 2015 04/28 22:39
推 LiloHuang: 基本上 Python 的 multiprocessing 是以 tasks 為單位 04/29 00:22
→ LiloHuang: 你必須要自己先把工作轉化成一堆 task 再來進行平行 04/29 00:22
→ LiloHuang: 畢竟這不像 OpenMP 加個 #pragma omp parallel 就會動 04/29 00:23
→ LiloHuang: 就像 ccwang002 提到的,你的 task 目前只有一個... 04/29 00:24
推 LiloHuang: 你可以嘗試著把第一層迴圈展開,換成用 map 的寫法就好 04/29 00:26
→ LiloHuang: 處理的 func 裡面不要去存取共享變數,讓每個 process 04/29 00:32
→ LiloHuang: 都能夠獨立的跑完它的結果,之後再把結果進行 reduce 04/29 00:33