推 xiemark : 用兩張2070就好了,主機板換成一般的 08/13 11:19
我們已經買4張了,想說先把他串起來,而且以後買新顯卡也可以慢慢汰換舊的
推 Raquzza0526 : 你的散熱器呢? 08/13 11:21
店家只有給我們組4個風扇耶,需要另外買散熱器?
※ 編輯: baby810321 (59.124.167.226 臺灣), 08/13/2020 11:28:28
推 jasn4560 : 應該不會燒起來,但是會自動關機 08/13 11:28
是因為POWER不夠還是散熱太差嗎?
※ 編輯: baby810321 (59.124.167.226 臺灣), 08/13/2020 11:29:34
推 xiemark : 不要用1050 1060 2060 2070這樣並用,會有問題 08/13 11:29
會有相容性的問題嗎?
→ commandoEX : 就算能上4張卡,你的卡也會因為吸不到風而效能超低 08/13 11:30
為什麼會吸不到風? 是因為裡面散熱功能不夠??
→ commandoEX : 買礦機板說不定會好一點? 08/13 11:31
礦機板可以這樣差我們目前的4張卡嗎?
※ 編輯: baby810321 (59.124.167.226 臺灣), 08/13/2020 11:35:00
推 sma1033 : 礦機版會因為pcie頻寬受限而效能不彰 08/13 11:34
這樣說起來是否就一定要買那種專業的訓練主機,看大家的意見
,家用主機似乎也不太適合
→ commandoEX : ATX/E-ATX就7個PCI-E槽,你要擺4卡一定是1 3 5 7 08/13 11:38
→ commandoEX : 你列的卡都是雙槽起跳,卡跟卡中間空隙很小風很難 08/13 11:39
→ commandoEX : 進去當然就過熱降頻 08/13 11:40
喔喔喔喔喔,了解,謝謝前輩的解說!!! 照樣是否只能考慮專業的訓練主機
(那種價格都會比較高...)
※ 編輯: baby810321 (59.124.167.226 臺灣), 08/13/2020 11:44:53
推 kidd232 : 兩張顯卡配AMD YES香香雞比較划算 08/13 11:42
我們目前是4個電腦個一張顯卡,可以獨自訓練,但老闆想說要提升訓練速度
,所以想把大家顯卡集合起來作平行運算,如果兩張顯卡
,訓練時間可能就是對半,期待是再更有感一些~
※ 編輯: baby810321 (59.124.167.226 臺灣), 08/13/2020 11:50:10
推 sma1033 : 振華1300W那顆我們實驗室有買,一年多風扇就有異音 08/13 11:58
→ sma1033 : 我是覺得能夠加預算的話看要不要買海牌的比較安心 08/13 11:58
感謝給予建議~ 請問你們實驗室也是組訓練主機嗎
※ 編輯: baby810321 (59.124.167.226 臺灣), 08/13/2020 12:02:18
推 sma1033 : 是呀,也是一機多卡然後日以繼夜操這樣 08/13 12:03
同學,方便私信你,了解一下詳情嗎,想知道你們lab怎麼組的
※ 編輯: baby810321 (59.124.167.226 臺灣), 08/13/2020 12:08:41
推 xiemark : 你如果用四張不同顯卡,計算瓶頸會在那張最慢的卡上 08/13 12:27
→ xiemark : CUDA數不同,GPU RAM也不同。可能比你現在還慢 08/13 12:28
最佳方案就是兩張2070,如果以現有資源來看,要顧慮降頻的問題
,手上資源最好利用就是2070搭配1070對嗎
推 nightop : 多卡顯卡挑鼓風扇的比較省空間 怕降頻就擺在冷氣房 08/13 12:29
→ nightop : 別關冷氣 08/13 12:29
ok,這我們有在考慮,風扇部分我會參考看一下~
→ xiemark : 用兩張2070配合i7甚至是i5就夠了 08/13 12:30
推 roger5455858: 樓上正解, 詳請可以參考我之前組的文章 08/13 12:31
好,感謝大大介我參考,我查一下
→ xiemark : Training速度要快,可以跑Tensorcore FP16 08/13 12:32
這新名詞我比較不認識,也馬上來看一下
→ roger5455858: 補:樓上x大正解, 會有計算瓶頸 08/13 12:33
推 jameschiou : 可以通過設計batch size克服瓶頸 但是很麻煩 建議 08/13 12:38
→ jameschiou : 賣掉舊的 再補一張2070 這樣也不用x299 08/13 12:38
ok,感覺很多前輩都是這樣建議,而且這樣就比較沒有散熱問題?
※ 編輯: baby810321 (59.124.167.226 臺灣), 08/13/2020 12:48:56
推 sma1033 : 多人用的機器卡當然是越多越好,而且一般都會先卡 08/13 12:51
→ sma1033 : 記憶體容量,你程式不一定99%吃滿GPU但是會先OOM 08/13 12:52
但很多人說這樣散熱會有問題? 你們實驗室也是4張卡一起跑嗎
推 fu1vu03 : FP16也要看狀況啦 不是任何模型都能用到 08/13 13:16
推 sma1033 : 很多時候第一步要reproduce別人的實驗結果就會卡關 08/13 13:18
→ sma1033 : 目前做DL研究的open source code使用FP16比例並不高 08/13 13:18
對,我們主要都是參考別人的模型來改,所以我查了一下
,可能預設FP16不太行
推 maplefoxs : 你 CPU花那麼多結果顯卡就這樣XD應該以顯卡優先 08/13 13:23
原本想說要把4張顯卡串起來,所以才用到X299,但看來很多前輩都不推
推 pha123661 : 你這樣四張會只剩下4張1060的效能吧 散熱不好 X299 08/13 13:26
→ pha123661 : 還貴死 拿去賣掉換兩張2070就好了 08/13 13:26
→ Aquarius126 : 1060 1070可以先賣掉 換張2070來組 08/13 13:28
以上好像比較是目前的共識,但S大有提到記憶體的問題
,我們也有遇到這樣的問題,可能GPU跑不到頂
,但GPU的記憶體加起來要多也很重要,有前輩有合適的建議嗎?
※ 編輯: baby810321 (59.124.167.226 臺灣), 08/13/2020 13:50:39
→ Aquarius126 : 還有一個方案是租AWS來跑,local先驗證,再丟雲端來 08/13 14:04
→ Aquarius126 : 完整的training 08/13 14:04
這方法真的很吸引人,而且可以一直用最新的運算效能,我們也有評估過
,但是我們訓練的DATA包含很多客戶的機密資料
,所以後來還是覺得自己組一台訓練主機
※ 編輯: baby810321 (59.124.167.226 臺灣), 08/13/2020 15:00:16
推 sma1033 : AWS長時間用下來很貴喔,除非你們公司有特別談方案 08/13 15:19
→ sma1033 : 不然一般人用AWS跑絕對比你自己養機器還不划算 08/13 15:20
推 sma1033 : AWS比較適合短期忽然有需求,東西跑完就砍掉的人 08/13 15:22
我們應該是不考慮AWS無誤
另外我想請教各位前輩,如果不用X299的板子,有推薦可以插雙卡的板子嗎?
因為我們找了一下,除了X299的板子,好像沒有其他支援兩個x16插槽的板子
如果是x8或x4,GPU效能是變1/2或1/4這樣??
※ 編輯: baby810321 (59.124.167.226 臺灣), 08/13/2020 16:54:09
→ pha123661 : 跑x8的話除非你上到2080Ti不然是幾乎沒有折損的 頂 08/13 19:27
→ pha123661 : 多1~2% 並不是變成1/2 08/13 19:27
喔喔喔喔喔 原來是這樣,我想說爬文一堆雙卡機都是用Z490
,但他只能提供兩個x8,感謝提醒~
推 jacky18008 : 其實四張卡比起串起來算,倒不如分頭測試不同參數 08/13 21:20
→ jacky18008 : 比較實在,你總是要調參的。 08/13 21:20
→ jacky18008 : 接 nvlink之類的一起跑同一支程式會像上面大大說的 08/13 21:21
→ jacky18008 : 一樣有瓶頸,國外也有人做過實驗了 08/13 21:21
為了不占用個人的研發資源,所以才會想組專門的訓練主機
,但是研發人員應該還是會配有自己的顯卡,感謝你的經驗分享
,希望各個前輩也都可以多分享自己的訓練經驗XD
※ 編輯: baby810321 (59.124.167.226 臺灣), 08/14/2020 09:02:10
→ amy79968 : ram改拿16g*4跑四通道吧 08/14 21:34