→ gigayaya : 有沒有考慮2070? 沒用過但感覺tensor core很猛 12/13 17:58
我覺得可以ㄟ,比1080Ti更值得我考慮?!感謝gigayaya提供的連結
※ 編輯: virginbear (114.27.40.73), 12/13/2018 19:34:50
原文多數內容恕刪,講到2070我就一定要路過一下....
千萬不要在這時候入手2070 -> 如果你想要拿來玩Deep Learning
我就是苦主之一 一路從 16.04 -> 18.04
中間各種try and error, 包含把16.04的kernel玩壞還難以搞定的狀況
基本上RTX系列因為硬體太新, 很多cuda支援性的問題
不是說裝不成, 是非常複雜會弄到想哭
--
搞了一個多月終於在昨天把tensorflow build起來沒有再出現奇怪的錯誤
(雖然通常立了這個flag代表我很快就要繼續除錯了...)
不過除非你想當個先驅者,
帶領著眾人殺出一個stable版本真正支援RTX series的
不然不要輕易嘗試, 目前支援度很差, 用RTX系列以外的顯卡穩跑比較實在
有興趣可以google tensorflow cuda10 第一篇文
目前在github上滿滿的先驅者, 當然最後都有build成功啦! 我也是其中之一
不過我必須說這過程非常痛苦 如果你只是想要好好地玩DL
不是浪費一大堆時間在 build from source 我相當不推薦你買RTX系列的顯卡
因為網路上的教學文包含那篇github寫的通通都沒法一次到位
--
當然如果你要拿來打電動我就沒意見了
僅針對目前RTX系列各種DL的支援性做評論
目前是沒有穩定版本的DL相關 支援RTX系列的
windows跟linux都沒有
以上資訊供你參考!
當然, 歡迎一起加入除錯的行列XDDDDDDDDDDDD
--
※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 49.217.68.39
※ 文章網址: https://www.ptt.cc/bbs/PC_Shopping/M.1544705947.A.E65.html
推 virginbear : 感謝分享,目前沒有打算當除蟲大隊的一員,我還是 12/13 21:05
→ virginbear : 乖乖拿GTX好了 XD 12/13 21:06
推 michellehot : 嗯嗯 初學還是不要花太多時間在環境建置上 趕快把 12/13 21:14
→ michellehot : 基本架構搞定 跟自己的研究接軌才是真的 12/13 21:14
推 jk21234 : 搭配半年內上市的硬體大部分都是在開路的...1070的 12/13 22:10
→ jk21234 : 時候也是 12/13 22:10
→ friedpig : 不過RTX有個重點是NVlink可以把VRAM合併 雖然2070也 12/13 22:29
→ friedpig : 沒得用NVlink 12/13 22:29
推 potatososo : 先行者 致敬 12/13 22:34
推 kaltu : RTX的NVlink並沒有合併VRAM的功能 12/13 23:37
→ kaltu : jcyln 12/13 23:37
→ friedpig : 仔細看清楚內文 我認為是Driver問題比較大 12/14 01:06
→ friedpig : Windows下P2P比較奇怪 但還是能用V-Ray那種自己高度 12/14 01:07
→ friedpig : 控管的方式去合併成虛擬的 Linus下就正常很多 12/14 01:08
→ friedpig : 讓他去讀另一張卡的VRAM速度是OK的 12/14 01:10
→ friedpig : 只是軟體目前應該沒包得很好 可能會比較辛苦一點 12/14 01:11
推 kaltu : 你的「合併」指的是可以存取另一張卡VRAM裡面的資料 12/14 03:55
→ kaltu : 留言第一篇就是我的「合併」的意思 12/14 03:55
→ kaltu : 真的變成11+11=22然後train需要22GB的model 12/14 03:55
→ kaltu : Kinghorn直接回他沒測這個,他依然是用平分batch的 12/14 03:55
→ kaltu : 方式在使用多張GPU 12/14 03:55
→ friedpig : 你自己看清楚 UMA是有支援的 基本上整體而言就是 12/14 12:46
→ friedpig : Driver跟軟體到底有沒有配合好而已 目前的階段要 12/14 12:46
→ friedpig : 到無腦什麼都不改直接22G model可以塞進去可能沒辦 12/14 12:47
→ friedpig : 法而已 12/14 12:47
→ friedpig : 我當然能理解最理想就像Vray那樣幫你把底層的髒東西 12/14 12:50
→ friedpig : 處理好好 接上去就直接看起來像22G 12/14 12:51
→ friedpig : 不過目前Driver或框架可能還沒做到這麼理想 但軟體 12/14 12:51
→ friedpig : 的東西都有機會慢慢改 硬體跑不到才是沒救 12/14 12:51
→ friedpig : 你想要的合併基本上就是UMA+P2P 先把22G同一定址 12/14 12:56
→ friedpig : 再來用P2P的速度才不會被拖累太誇張 但目前看起來 12/14 12:56
→ friedpig : 可能沒有人把她包的好好的 到底該Driver來做還框架 12/14 12:57
→ friedpig : 做就有得討論了 基本上之前Volta太貴 硬體有的人不 12/14 12:58
→ friedpig : 多 可能比較少人去針對這個處理 但這次下放到消費級 12/14 12:58
→ friedpig : 我認為軟體完善是遲早的 12/14 12:58
推 exeex : 396 driver+cuda 9.0+ubuntu 18.04穩 12/14 13:47
→ exeex : 用新driver 4xx可能反而會有問題 12/14 13:48
→ exeex : 等4xx+cuda 10+ubuntu18.04穩了再說 12/14 13:49
→ exeex : 2080 2070應該只能用新driver 12/14 13:50
→ r51303 : 對啊! 396會無法辨識2070 2080 12/14 15:00