精華區beta C_Chat 關於我們 聯絡資訊
conqueror507: 我也是遇到Torch is not able to use GPU 10/05 15:53
會有這個訊息是因為 launch.py 中有一段程式碼在檢查是否有 gpu 可用,當沒有 gpu 可用時,就會跳這個訊息出來,同時也會提示要去修改命令列傳入的參數,才能略過這 段檢查,也就是 webui-user.sh 檔案中的這一行 export COMMANDLINE_ARGS="" 把提示的參數填入成對的雙引號中,像是這樣 export COMMANDLINE_ARGS="--skip-torch-cuda-test" 嘗試了用 token 下載 huggingface 的檔案,速度超級快,上百 M 在跑,因此就改用 這方法下載模型參數了,畢竟 colab 的 GPU 時間可是很寶貴的,不能浪費在下載檔案 上,申請 huggingface 的帳號再取得 access token 用不了多少時間 同時還研究了原始碼,發現 --ckpt-dir 的參數優先級比較高,因此下載回來的模型參 數檔案 ckpt 也不需要設定軟連結或是移動到預設的資料夾了,只需要把 --ckpt-dir 的參數加進 COMMANDLINE_ARGS 中,就能下載一堆模型參數檔回來,到時再從 web 介面 的 Settings 分頁的 Stable Diffussion 下拉選單中設定要使用哪個 ckpt 檔就好 ckpt 檔一多,還多一個融合兩個 ckpt 檔的玩法,在 web 介面的 Checkpoint Merge 分頁可以設定,只是目前我下載的兩個 ckpt 檔,一個是瘦身過的,不知道能不能正常 融合 目前有用 GPU 的話,COMMANDLINE_ARGS 長這樣 COMMANDLINE_ARGS="--share --skip-torch-cuda-test --ckpt-dir /content" /content 是 colab 預設的資料夾位置 使用 CPU 的話,則要改成 COMMANDLINE_ARGS= "--share --precision full --no-half --skip-torch-cuda-test --ckpt-dir /content" 不過 colab 上都是用指令改了,所以實際內容還會有一點差異,上面換行只是為了顯示 方便 不想花錢試玩的就用 colab 玩玩吧,google 帳號越多,每天能玩的時間就越多 -- 「看在上帝的份上,我們不能當著孩子的面槍殺他的父親!」 「那我們就連孩子一起幹掉!」 「第一槍打中的是那個天真的孩子,第二槍是抱著孩子的母親。第三槍 停頓了三秒,當難以致信的父親擦拭著臉上愛子的腦漿從震驚中醒轉 過來,慢慢的轉頭看向停車的地方,分辨出是誰在攻擊他後,第三顆 子彈才將他的腦殼打飛。」 ─摘自〈狼群〉 -- ※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 218.173.26.142 (臺灣) ※ 文章網址: https://www.ptt.cc/bbs/C_Chat/M.1664983872.A.1ED.html
t77133562003: 毫無門檻......... 10/05 23:36
tym7482: 嗯嗯跟我想的差不多 10/05 23:38
orze04: colab 有現成的腳本可以用 10/05 23:42
orze04: 本地機器我是這樣設定 10/05 23:53
orze04: https://i.imgur.com/WnOWtU7.png 10/05 23:53
orze04: https://i.imgur.com/CzjA6hV.png 這張才對 10/05 23:58
art1: merge 失敗了,看來還要繼續研究程式碼看為何會這樣... 10/05 23:59
art1: 看來是記憶體不夠,就會導致行程被砍掉 10/06 01:59
hitlerx: 毫無門檻..... 10/06 04:58
TaiwanXDman: 你這內文跟標題完全不符啊XDD 10/06 05:41
art1: 用 colab 玩的門檻很低了吧 XDD 10/07 21:09