推 wertyorz: 4070一票 11/08 11:51
推 harry886901: 其實我也想同問打算自建LLAMA模型 11/08 13:30
→ harry886901: 12G肯定是不夠用 16G 4060ti對我而言是不是最佳解 11/08 13:30
→ gainsborough: 其實我有在想花3萬買m2 mac mini 24g,只是一來我 11/08 14:26
→ gainsborough: 沒用iphone不需要蘋果生態圈,二來遊戲就gg了,最 11/08 14:26
→ gainsborough: 後我只會照別人分享的依樣畫葫蘆簡單操作,到mac大 11/08 14:26
→ gainsborough: 概就跟a卡一樣很多時候需要自己有能力去處理,所以 11/08 14:26
→ gainsborough: 還是選價格很臭的40系n卡方案,樓上的大大如果有能 11/08 14:26
→ gainsborough: 力要玩lama可以看看蘋果那邊的相關訊息,國外蠻多 11/08 14:26
→ gainsborough: 人用m2 mac在跑 11/08 14:26
→ promaster: N卡vram先決 結案 11/08 22:41
推 tsubasawolfy: MSI那篇後面有放水給3080。upscale那邊是用R-ESRG 11/10 06:51
→ tsubasawolfy: AN 4x+不是用latent。因為latent一用下去3080的vr 11/10 06:51
→ tsubasawolfy: am就炸了。sd1.5用latent可以增加豐富度,但是SDX 11/10 06:51
→ tsubasawolfy: L就要看用的model。c網上那些前幾名的用起來2048( 11/10 06:51
→ tsubasawolfy: upscale 2)以上就會產出怪東西。 11/10 06:51
推 huckebein12: 摻在一起等4070Super 11/10 14:21
推 orze04: 有VRAM沒算力 11/12 23:09
→ gainsborough: 我最後選了4070,感謝眾人的意見 11/13 04:05
推 pxhome: 4070 12GB找張哥魔改24GB , 魔改後只能算圖無法遊戲, 必 11/19 16:11
→ pxhome: 須用BIOS鎖12GB才能遊戲。 11/19 16:11
→ pxhome: 算圖要20GB以上才比較能撐, 16GB VS 12GB只能再多撐3秒鍾 11/19 16:12
→ pxhome: , 完全沒有cp 11/19 16:12
推 a78787878789: 4090 12/27 21:01
推 weiping18: 其實要算到XL都需要四十多GB記憶體。得借用主記憶體 02/26 17:55