作者justdemon (人生的轉捩點)
看板C_and_CPP
標題[問題] MPI Non-blocking Communication
時間Sun Nov 22 16:17:44 2009
最近使用MPI_Isend的時候發現
雖然他的確是nonblocking 執行完MPI_Isend之後會繼續執行之後的程式
但是他並不會平行的運作
我如果傳輸花5秒 運算花5秒
總時間就是10秒 並不會因為使用Nonblocking Send而變成5秒
在單純傳輸時 CPU使用率只有30%~40% 理論上如果使用nonblocking send
應該可以壓榨出來剩下的70% 可是結果卻和blocking send一樣
省不了任何時間
上網搜尋關於MPI的資訊 卻也沒看到有人有跟我類似的結果
不過倒是搜尋到MPI有分為 single thread 和 multiple thread 不同的模式
可以使用 MPI_Init_thread 來啟用 multiple thread 有四個層級
不過不管我怎麼試 甚至使用buffered mode 都還是沒辦法讓它邊運算邊傳輸
最後我使出大決 寫個Pthread的程式 強迫開兩個thread分別運算和傳輸
結果卻是讓人失望 在一台雙核心的平台上 開nodes=2:ppn=2讓兩台電腦對傳
跑這樣的程式 卻會造成其中某幾個跑得快 某幾個跑得慢的結果
在MPI_Barrier之後 最慢的那個所花的時間 竟然很湊巧跟原來的時間一樣
意思是說 還是一點都沒省到時間
不知道板上有沒有板友曾經測試過MPI_Isend 並且成功的讓他同時運算與傳輸呢?
--
※ 發信站: 批踢踢實業坊(ptt.cc)
◆ From: 140.112.101.114
※ 編輯: justdemon 來自: 140.112.101.114 (11/22 16:18)
→ tinlans:你的目的是 process 間協同工作所以要吃到 100% CPU 幾乎 11/22 23:50
→ tinlans:都會是有困難的,但是想完全榨出這種平行程式的效能,盡量 11/22 23:51
→ tinlans:別用什麼 barrier,然後 MPI_Irecv 盡量提前送,這樣其它 11/22 23:52
→ tinlans:process 有送東西來之前還能做一些事情,多少會賺一些。 11/22 23:55
→ tinlans:簡單說如果你先發 Irecv 再去忙一陣子,其它 process 用 11/23 00:04
→ tinlans:Isend 送資料時,等送 Irecv 的 process 忙完後去 test 時 11/23 00:05
→ tinlans:資料可能就已經 ready 了。 11/23 00:05
→ tinlans:這樣資料傳輸跟運算就會同時進行。 11/23 00:07