看板 PC_Shopping 關於我們 聯絡資訊
小弟kaggle新手 拿不到競賽金牌的廢物 看到前幾天3080/3090玩遊戲有些災情 我對硬體不是很了解 請問如果用3090長時間跑DL的話(1天以上) 會發生崩潰情況嗎? 需要降頻跑嗎?還是沒差? 另外 如果目前打算1張3090 以後最多用2張跑的話 有需要鼓風扇嗎 還是3風扇卡就可以? 2張3090的話 大概要幾瓦? 1300W夠嗎 在考慮電源要不要先買大點 -- ※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 114.42.223.113 (臺灣) ※ 文章網址: https://www.ptt.cc/bbs/PC_Shopping/M.1601614415.A.9EF.html ※ 編輯: cs410567cs (114.42.223.113 臺灣), 10/02/2020 12:55:52
william456 : 雙卡700w 10/02 12:56
william456 : https://youtu.be/y4fb_R5Ogw0 10/02 12:56
謝謝
scott771128 : 三風扇卡應該可以搭配PCIE的擴充線,不過機殼要夠大 10/02 13:05
所以以後要雙卡 一張要直立?
tomlin121283: 什麼樣的模型需要用到3090 好奇XD 10/02 13:12
efficientnet(b5-b7) 圖片不壓縮太多 很容易ram不夠
tomlin121283: 該不會是dlss吧 10/02 13:13
※ 編輯: cs410567cs (114.42.223.113 臺灣), 10/02/2020 13:27:32
Memorykiller: 現在Tensorflow 跟 Pytorch 對CUDA11支援度還有點小 10/02 13:24
Memorykiller: 問題 我用3080+pytorch跑出來的效能跟2080ti差不多@ 10/02 13:24
Memorykiller: @ 10/02 13:24
我覺得效能到是其次 ram不夠有些模型不能試 ※ 編輯: cs410567cs (114.42.223.113 臺灣), 10/02/2020 13:29:38
asd21714 : RTX 6000或8000(? 10/02 13:56
DRnebula : 相關程式驅動還沒跟上 目前不推 買了有點後悔= = 10/02 14:02
andylee303 : 現在多數模型都還不支援cuda11跟cudnn8吧 10/02 14:12
andylee303 : 感覺可以再等等 10/02 14:12
tetani : 用1080ti跑才是最好的選擇 10/02 14:12
目前手邊沒適合的GPU 所以應該還是會上3090 ※ 編輯: cs410567cs (114.42.223.113 臺灣), 10/02/2020 14:34:34
HeterCompute: 2808ti有tc完勝1080ti 10/02 14:43
jeff40108 : 有這個錢不如再等等吧 10/02 15:11
jeff40108 : 老黃擺明了3090不讓你當運算卡 10/02 15:11
所以3090當運算卡問題在哪? 上代不是一堆人用2080ti x4嗎 ※ 編輯: cs410567cs (114.42.223.113 臺灣), 10/02/2020 15:15:52
shihkai : $錢的問題阿 3090是給有8K需求的 10/02 15:31
tetani : 2080ti買一張 1080ti都能買2張了 效能還勝過 10/02 16:02
jeff40108 : 驅動被鎖了啊,還不如等3080 20G 10/02 16:13
jeff40108 : 同樣價格可以買兩張 10/02 16:14
sachialanlus: 3080 20G 預測1000$ 10/02 16:53
sachialanlus: 老黃就是討厭你拿遊戲卡來跑運算 10/02 16:54
s06i06 : Linux 驅動沒更新 應該沒被鎖 10/02 17:33
stosto : 泰坦啊 10/02 17:44
上代泰坦比不過這代3090吧 ※ 編輯: cs410567cs (114.42.223.113 臺灣), 10/02/2020 18:47:51
ReverieKai : CUDA和cnDNN版本要注意一下 10/02 18:48
Bujo : 更新cudatoolkit 11 pytorch 可以跑 10/03 12:22
scott771128 : 3090算Fp16的核心跟Titan比較少,影響到的是 10/03 13:12
scott771128 : mix precision跟單純跑FP16運算的部分 10/03 13:12
scott771128 : 但是目前一些文章實測還是比Titan RTX快,但是就算 10/03 13:13
scott771128 : FP16的提升不如預期的多,24G VRAM就是有它的價值在 10/03 13:13
scott771128 : 之前PCIE擴充可參考這篇 10/03 13:15
scott771128 : https://tinyurl.com/yyokbt4n 10/03 13:19
iWRZ : 顯卡VRAM價值比FP16高太多 10/03 22:13
iWRZ : 買不到3090或要跑很多模型只能用NCCL跑了 10/03 22:14
FreedomTrail: 好奇問一下若剛入門兼想打電動選3080,萬一vram 不 10/06 13:37
FreedomTrail: 夠用,分割dataset還試的下去嗎?想用時間換金錢@@ 10/06 13:37