看板 PC_Shopping 關於我們 聯絡資訊
gigayaya : 有沒有考慮2070? 沒用過但感覺tensor core很猛 12/13 17:58
gigayaya : https://goo.gl/dE8G9q 12/13 18:02
我覺得可以ㄟ,比1080Ti更值得我考慮?!感謝gigayaya提供的連結 ※ 編輯: virginbear (114.27.40.73), 12/13/2018 19:34:50 原文多數內容恕刪,講到2070我就一定要路過一下.... 千萬不要在這時候入手2070 -> 如果你想要拿來玩Deep Learning 我就是苦主之一 一路從 16.04 -> 18.04 中間各種try and error, 包含把16.04的kernel玩壞還難以搞定的狀況 基本上RTX系列因為硬體太新, 很多cuda支援性的問題 不是說裝不成, 是非常複雜會弄到想哭 -- 搞了一個多月終於在昨天把tensorflow build起來沒有再出現奇怪的錯誤 (雖然通常立了這個flag代表我很快就要繼續除錯了...) 不過除非你想當個先驅者, 帶領著眾人殺出一個stable版本真正支援RTX series的 不然不要輕易嘗試, 目前支援度很差, 用RTX系列以外的顯卡穩跑比較實在 有興趣可以google tensorflow cuda10 第一篇文 目前在github上滿滿的先驅者, 當然最後都有build成功啦! 我也是其中之一 不過我必須說這過程非常痛苦 如果你只是想要好好地玩DL 不是浪費一大堆時間在 build from source 我相當不推薦你買RTX系列的顯卡 因為網路上的教學文包含那篇github寫的通通都沒法一次到位 -- 當然如果你要拿來打電動我就沒意見了 僅針對目前RTX系列各種DL的支援性做評論 目前是沒有穩定版本的DL相關 支援RTX系列的 windows跟linux都沒有 以上資訊供你參考! 當然, 歡迎一起加入除錯的行列XDDDDDDDDDDDD -- ※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 49.217.68.39 ※ 文章網址: https://www.ptt.cc/bbs/PC_Shopping/M.1544705947.A.E65.html
virginbear : 感謝分享,目前沒有打算當除蟲大隊的一員,我還是 12/13 21:05
virginbear : 乖乖拿GTX好了 XD 12/13 21:06
michellehot : 嗯嗯 初學還是不要花太多時間在環境建置上 趕快把 12/13 21:14
michellehot : 基本架構搞定 跟自己的研究接軌才是真的 12/13 21:14
jk21234 : 搭配半年內上市的硬體大部分都是在開路的...1070的 12/13 22:10
jk21234 : 時候也是 12/13 22:10
friedpig : 不過RTX有個重點是NVlink可以把VRAM合併 雖然2070也 12/13 22:29
friedpig : 沒得用NVlink 12/13 22:29
potatososo : 先行者 致敬 12/13 22:34
kaltu : RTX的NVlink並沒有合併VRAM的功能 12/13 23:37
kaltu : jcyln 12/13 23:37
kaltu : 縮一下:https://goo.gl/cVJu1g 12/13 23:38
friedpig : 仔細看清楚內文 我認為是Driver問題比較大 12/14 01:06
friedpig : Windows下P2P比較奇怪 但還是能用V-Ray那種自己高度 12/14 01:07
friedpig : 控管的方式去合併成虛擬的 Linus下就正常很多 12/14 01:08
friedpig : https://bit.ly/2RYoQju 重點還是高頻寬帶來的效益 12/14 01:09
friedpig : 讓他去讀另一張卡的VRAM速度是OK的 12/14 01:10
friedpig : 只是軟體目前應該沒包得很好 可能會比較辛苦一點 12/14 01:11
friedpig : V-Ray做法可以參考這篇 https://bit.ly/2ElAam5 12/14 01:14
kaltu : 你的「合併」指的是可以存取另一張卡VRAM裡面的資料 12/14 03:55
kaltu : http://i.imgur.com/00TbjzO.jpg 12/14 03:55
kaltu : 留言第一篇就是我的「合併」的意思 12/14 03:55
kaltu : 真的變成11+11=22然後train需要22GB的model 12/14 03:55
kaltu : Kinghorn直接回他沒測這個,他依然是用平分batch的 12/14 03:55
kaltu : 方式在使用多張GPU 12/14 03:55
friedpig : 你自己看清楚 UMA是有支援的 基本上整體而言就是 12/14 12:46
friedpig : Driver跟軟體到底有沒有配合好而已 目前的階段要 12/14 12:46
friedpig : 到無腦什麼都不改直接22G model可以塞進去可能沒辦 12/14 12:47
friedpig : 法而已 12/14 12:47
friedpig : 我當然能理解最理想就像Vray那樣幫你把底層的髒東西 12/14 12:50
friedpig : 處理好好 接上去就直接看起來像22G 12/14 12:51
friedpig : 不過目前Driver或框架可能還沒做到這麼理想 但軟體 12/14 12:51
friedpig : 的東西都有機會慢慢改 硬體跑不到才是沒救 12/14 12:51
friedpig : 你想要的合併基本上就是UMA+P2P 先把22G同一定址 12/14 12:56
friedpig : 再來用P2P的速度才不會被拖累太誇張 但目前看起來 12/14 12:56
friedpig : 可能沒有人把她包的好好的 到底該Driver來做還框架 12/14 12:57
friedpig : 做就有得討論了 基本上之前Volta太貴 硬體有的人不 12/14 12:58
friedpig : 多 可能比較少人去針對這個處理 但這次下放到消費級 12/14 12:58
friedpig : 我認為軟體完善是遲早的 12/14 12:58
exeex : 396 driver+cuda 9.0+ubuntu 18.04穩 12/14 13:47
exeex : 用新driver 4xx可能反而會有問題 12/14 13:48
exeex : 等4xx+cuda 10+ubuntu18.04穩了再說 12/14 13:49
exeex : 2080 2070應該只能用新driver 12/14 13:50
r51303 : 對啊! 396會無法辨識2070 2080 12/14 15:00