→ william456 : 雙卡700w 10/02 12:56
推 scott771128 : 三風扇卡應該可以搭配PCIE的擴充線,不過機殼要夠大 10/02 13:05
所以以後要雙卡 一張要直立?
推 tomlin121283: 什麼樣的模型需要用到3090 好奇XD 10/02 13:12
efficientnet(b5-b7)
圖片不壓縮太多
很容易ram不夠
→ tomlin121283: 該不會是dlss吧 10/02 13:13
※ 編輯: cs410567cs (114.42.223.113 臺灣), 10/02/2020 13:27:32
推 Memorykiller: 現在Tensorflow 跟 Pytorch 對CUDA11支援度還有點小 10/02 13:24
→ Memorykiller: 問題 我用3080+pytorch跑出來的效能跟2080ti差不多@ 10/02 13:24
→ Memorykiller: @ 10/02 13:24
我覺得效能到是其次
ram不夠有些模型不能試
※ 編輯: cs410567cs (114.42.223.113 臺灣), 10/02/2020 13:29:38
推 asd21714 : RTX 6000或8000(? 10/02 13:56
推 DRnebula : 相關程式驅動還沒跟上 目前不推 買了有點後悔= = 10/02 14:02
推 andylee303 : 現在多數模型都還不支援cuda11跟cudnn8吧 10/02 14:12
→ andylee303 : 感覺可以再等等 10/02 14:12
推 tetani : 用1080ti跑才是最好的選擇 10/02 14:12
目前手邊沒適合的GPU
所以應該還是會上3090
※ 編輯: cs410567cs (114.42.223.113 臺灣), 10/02/2020 14:34:34
推 HeterCompute: 2808ti有tc完勝1080ti 10/02 14:43
推 jeff40108 : 有這個錢不如再等等吧 10/02 15:11
→ jeff40108 : 老黃擺明了3090不讓你當運算卡 10/02 15:11
所以3090當運算卡問題在哪?
上代不是一堆人用2080ti x4嗎
※ 編輯: cs410567cs (114.42.223.113 臺灣), 10/02/2020 15:15:52
→ shihkai : $錢的問題阿 3090是給有8K需求的 10/02 15:31
推 tetani : 2080ti買一張 1080ti都能買2張了 效能還勝過 10/02 16:02
推 jeff40108 : 驅動被鎖了啊,還不如等3080 20G 10/02 16:13
→ jeff40108 : 同樣價格可以買兩張 10/02 16:14
→ sachialanlus: 3080 20G 預測1000$ 10/02 16:53
→ sachialanlus: 老黃就是討厭你拿遊戲卡來跑運算 10/02 16:54
推 s06i06 : Linux 驅動沒更新 應該沒被鎖 10/02 17:33
→ stosto : 泰坦啊 10/02 17:44
上代泰坦比不過這代3090吧
※ 編輯: cs410567cs (114.42.223.113 臺灣), 10/02/2020 18:47:51
推 ReverieKai : CUDA和cnDNN版本要注意一下 10/02 18:48
推 Bujo : 更新cudatoolkit 11 pytorch 可以跑 10/03 12:22
推 scott771128 : 3090算Fp16的核心跟Titan比較少,影響到的是 10/03 13:12
→ scott771128 : mix precision跟單純跑FP16運算的部分 10/03 13:12
→ scott771128 : 但是目前一些文章實測還是比Titan RTX快,但是就算 10/03 13:13
→ scott771128 : FP16的提升不如預期的多,24G VRAM就是有它的價值在 10/03 13:13
推 scott771128 : 之前PCIE擴充可參考這篇 10/03 13:15
推 iWRZ : 顯卡VRAM價值比FP16高太多 10/03 22:13
→ iWRZ : 買不到3090或要跑很多模型只能用NCCL跑了 10/03 22:14
推 FreedomTrail: 好奇問一下若剛入門兼想打電動選3080,萬一vram 不 10/06 13:37
→ FreedomTrail: 夠用,分割dataset還試的下去嗎?想用時間換金錢@@ 10/06 13:37