看板 PC_Shopping 關於我們 聯絡資訊
乳題 最近想組個機器跑些DL的project 因為是自己玩玩的性質,所以都找些二手零件壓成本 用的是四代平台4790S + 8G 1866 x4,電供650w 最重要的顯卡預算大概是15k上下 目前最符合條件的感覺就3070 不過以前在學校跑DL的經驗,有兩顆gpu跑平行會快很多 所以想乾脆用兩隻1660S來組,記憶體還可以上到12G 但是就沒有Tensor core可以玩了qq,也不確定這樣組的效能是否可以追上3070 還請版友給個建議 -- ※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 118.167.108.197 (臺灣) ※ 文章網址: https://www.ptt.cc/bbs/PC_Shopping/M.1606011372.A.74B.html
darkdixen : 3070 11/22 10:18
os653 : DL GPU記憶體可以相加?還是說你想同時跑兩個model? 11/22 10:20
同一個model,但開data parallel可以在兩張卡用不同資料同時跑inference 主要是batch size可以大兩倍
tsitned : 3080 or3090 11/22 10:22
tsitned : 除非你就跑垃圾 11/22 10:22
※ 編輯: yoyololicon (118.167.108.197 臺灣), 11/22/2020 10:26:37
yoyololicon : 3080以上就爆預算惹... 11/22 10:27
jasn4560 : 預算不高 感覺可以去撿2080ti 11/22 10:29
jasn4560 : 大Vram效能跟3070應該差沒多少 11/22 10:29
gameguy : 二手貨,兩張1070 11/22 10:34
scott771128 : 我的印象開data parellel is不等於你有雙倍VRAM可以 11/22 10:35
scott771128 : 用,除非你的卡支援NVlink 11/22 10:35
scott771128 : 像是RTX Titan、Tesla還有RXX000系列的圖像卡 11/22 10:37
yoyololicon : 沒吧 我自己看pytorch的doc 都沒說需要nvlink 11/22 10:42
yoyololicon : data paralle不需要gpu之間的傳輸 11/22 10:43
yoyololicon : 以前實驗室就是兩顆1080ti同時跑超快 11/22 10:43
yoyololicon : 1070x2可以 但怕power不夠qq 11/22 10:46
tsitned : 有自己的意見很好啊 你去買一買再上來分享 11/22 10:48
tsitned : 建議借一張3080比較 11/22 10:49
sma1033 : 當然是買兩張1070Ti,怕power稱不住可以降一點PL 11/22 12:24
sma1033 : 做實驗只有一張卡你training時就沒辦法試其他東西 11/22 12:27
sma1033 : 只有一張卡非常難用 11/22 12:27
學長你怎麼在這XDDDD ※ 編輯: yoyololicon (118.167.108.197 臺灣), 11/22/2020 12:31:46
sma1033 : 我資深電蝦潛水鄉民耶 11/22 12:33
ericinttu : 認親給個推 11/22 13:27
sachialanlus: 比起算力 你可能要注意的是vram 11/22 21:42
sachialanlus: 這幾年model越來越大 vram太小的話 可能就只能跑bas 11/22 21:42
sachialanlus: e或minimum的 11/22 21:42
suitup : 推學長良心建議 11/23 06:05
suitup : 本來都想推3080 10g了 單卡vram大就是王道 11/23 06:05
walter59478 : 跟你一樣的配置跟需求,看看amd之後能不能支援,不 11/23 12:13
walter59478 : 然那個vram真香 11/23 12:13