推 darkdixen : 3070 11/22 10:18
→ os653 : DL GPU記憶體可以相加?還是說你想同時跑兩個model? 11/22 10:20
同一個model,但開data parallel可以在兩張卡用不同資料同時跑inference
主要是batch size可以大兩倍
→ tsitned : 3080 or3090 11/22 10:22
→ tsitned : 除非你就跑垃圾 11/22 10:22
※ 編輯: yoyololicon (118.167.108.197 臺灣), 11/22/2020 10:26:37
→ yoyololicon : 3080以上就爆預算惹... 11/22 10:27
→ jasn4560 : 預算不高 感覺可以去撿2080ti 11/22 10:29
→ jasn4560 : 大Vram效能跟3070應該差沒多少 11/22 10:29
→ gameguy : 二手貨,兩張1070 11/22 10:34
推 scott771128 : 我的印象開data parellel is不等於你有雙倍VRAM可以 11/22 10:35
→ scott771128 : 用,除非你的卡支援NVlink 11/22 10:35
→ scott771128 : 像是RTX Titan、Tesla還有RXX000系列的圖像卡 11/22 10:37
→ yoyololicon : 沒吧 我自己看pytorch的doc 都沒說需要nvlink 11/22 10:42
→ yoyololicon : data paralle不需要gpu之間的傳輸 11/22 10:43
→ yoyololicon : 以前實驗室就是兩顆1080ti同時跑超快 11/22 10:43
→ yoyololicon : 1070x2可以 但怕power不夠qq 11/22 10:46
→ tsitned : 有自己的意見很好啊 你去買一買再上來分享 11/22 10:48
→ tsitned : 建議借一張3080比較 11/22 10:49
推 sma1033 : 當然是買兩張1070Ti,怕power稱不住可以降一點PL 11/22 12:24
推 sma1033 : 做實驗只有一張卡你training時就沒辦法試其他東西 11/22 12:27
→ sma1033 : 只有一張卡非常難用 11/22 12:27
學長你怎麼在這XDDDD
※ 編輯: yoyololicon (118.167.108.197 臺灣), 11/22/2020 12:31:46
推 sma1033 : 我資深電蝦潛水鄉民耶 11/22 12:33
推 ericinttu : 認親給個推 11/22 13:27
推 sachialanlus: 比起算力 你可能要注意的是vram 11/22 21:42
→ sachialanlus: 這幾年model越來越大 vram太小的話 可能就只能跑bas 11/22 21:42
→ sachialanlus: e或minimum的 11/22 21:42
→ suitup : 推學長良心建議 11/23 06:05
→ suitup : 本來都想推3080 10g了 單卡vram大就是王道 11/23 06:05
推 walter59478 : 跟你一樣的配置跟需求,看看amd之後能不能支援,不 11/23 12:13
→ walter59478 : 然那個vram真香 11/23 12:13