推 xiemark : cuda計算是攤開來算,所以顯卡記憶體一定要夠。至少 08/14 14:39
推 kaj1983 : 爬文,記得之前有板友整理過注意事項與選購要點 08/14 14:39
→ xiemark : 8G。建議還是2070以上的卡比較好。 08/14 14:40
→ ybite : 這個預算我覺得至少GPU要凹到2080以上了吧 08/14 14:42
畢竟不是深度學習專用,小弟菜逼巴也不敢要求太多
→ xiemark : 日本pfn公司v100 GPU 1024個平行處理。 08/14 14:45
→ lulululula : 感謝各位的回答 08/14 14:50
→ lulululula : 剛剛爬文又發現RTX系列有所謂tensor core這有需要列 08/14 14:50
→ lulululula : 入考慮嗎? 08/14 14:50
※ 編輯: lulululula (140.114.58.167 臺灣), 08/14/2019 14:51:49
推 jackie0825 : 該上17k的2080了 08/14 14:53
推 xiemark : 如果是用tensorflow 是有較快,而且rtx支持fp16 08/14 14:55
推 tint : 至少拿到2070或2060 Super 有8GB VRAM 08/14 14:59
推 xiemark : 如果你用fp16呼叫cudnn,就會使用tensor core來算 08/14 15:07
推 a478934 : 有些廠商還拿得到1080ti 那張可以考慮 08/14 15:11
推 goldflower : 有錢就v100 沒啥好選ㄉ 08/14 15:33
推 ray90910 : 為啥會做一個教授跟學生都不太懂的項目? 08/14 15:47
推 xiemark : 推v100,hbm記憶體頻寬太快了 08/14 16:11
→ haswell425 : -deep-learning/ 08/14 16:19
推 fu1vu03 : 菜逼巴問個,tensor core是需要自己寫入所需的運作 08/14 16:26
→ fu1vu03 : 方式才會使用到 08/14 16:26
→ fu1vu03 : 還是程式能夠自動抓到核心利用tensor core去跑? 08/14 16:26
推 stosto : 2080最便宜的 08/14 16:55
推 xiemark : dtype用fp16,呼叫cudnn就會用到tensor core 08/14 16:57
推 xiemark : 使用tensor core時理論上conv速度兩倍,vram用一半 08/14 17:04
推 exeex : 2070 *2 or 2080ti 08/14 17:12
噓 dino2895 : 2070*2的你要幫我拆資料ㄇ?? 08/14 20:42
推 Murasaki0110: 現在哪個framework不支援分散式 菜逼八 08/14 22:10
推 ReverieKai : 不敢要求太多 至少2070吧 08/15 00:30
推 badyy : 反正不是自己出錢 出啥意見??? 別出問題要你多做就 08/15 01:18
→ badyy : 做就好XD 08/15 01:18
推 shhs1000246 : 之前買新的機器 10萬不到可以配到兩張2070了 08/15 09:03
→ shhs1000246 : 拆什麼資料 有點不太懂噓的點 要兩張卡都吃有很難嗎 08/15 09:05
推 zjin1126 : Tesla v100 08/15 23:16