推 conqueror507: 我也是遇到Torch is not able to use GPU 10/05 15:53
會有這個訊息是因為 launch.py 中有一段程式碼在檢查是否有 gpu 可用,當沒有 gpu
可用時,就會跳這個訊息出來,同時也會提示要去修改命令列傳入的參數,才能略過這
段檢查,也就是 webui-user.sh 檔案中的這一行 export COMMANDLINE_ARGS=""
把提示的參數填入成對的雙引號中,像是這樣
export COMMANDLINE_ARGS="--skip-torch-cuda-test"
嘗試了用 token 下載 huggingface 的檔案,速度超級快,上百 M 在跑,因此就改用
這方法下載模型參數了,畢竟 colab 的 GPU 時間可是很寶貴的,不能浪費在下載檔案
上,申請 huggingface 的帳號再取得 access token 用不了多少時間
同時還研究了原始碼,發現 --ckpt-dir 的參數優先級比較高,因此下載回來的模型參
數檔案 ckpt 也不需要設定軟連結或是移動到預設的資料夾了,只需要把 --ckpt-dir
的參數加進 COMMANDLINE_ARGS 中,就能下載一堆模型參數檔回來,到時再從 web 介面
的 Settings 分頁的 Stable Diffussion 下拉選單中設定要使用哪個 ckpt 檔就好
ckpt 檔一多,還多一個融合兩個 ckpt 檔的玩法,在 web 介面的 Checkpoint Merge
分頁可以設定,只是目前我下載的兩個 ckpt 檔,一個是瘦身過的,不知道能不能正常
融合
目前有用 GPU 的話,COMMANDLINE_ARGS 長這樣
COMMANDLINE_ARGS="--share --skip-torch-cuda-test --ckpt-dir /content"
/content 是 colab 預設的資料夾位置
使用 CPU 的話,則要改成
COMMANDLINE_ARGS=
"--share --precision full --no-half --skip-torch-cuda-test --ckpt-dir /content"
不過 colab 上都是用指令改了,所以實際內容還會有一點差異,上面換行只是為了顯示
方便
不想花錢試玩的就用 colab 玩玩吧,google 帳號越多,每天能玩的時間就越多
--
「看在上帝的份上,我們不能當著孩子的面槍殺他的父親!」
「那我們就連孩子一起幹掉!」
「第一槍打中的是那個天真的孩子,第二槍是抱著孩子的母親。第三槍
停頓了三秒,當難以致信的父親擦拭著臉上愛子的腦漿從震驚中醒轉
過來,慢慢的轉頭看向停車的地方,分辨出是誰在攻擊他後,第三顆
子彈才將他的腦殼打飛。」 ─摘自〈狼群〉
--
※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 218.173.26.142 (臺灣)
※ 文章網址: https://www.ptt.cc/bbs/C_Chat/M.1664983872.A.1ED.html
推 t77133562003: 毫無門檻......... 10/05 23:36
→ tym7482: 嗯嗯跟我想的差不多 10/05 23:38
推 orze04: colab 有現成的腳本可以用 10/05 23:42
推 orze04: 本地機器我是這樣設定 10/05 23:53
→ art1: merge 失敗了,看來還要繼續研究程式碼看為何會這樣... 10/05 23:59
→ art1: 看來是記憶體不夠,就會導致行程被砍掉 10/06 01:59
→ hitlerx: 毫無門檻..... 10/06 04:58
推 TaiwanXDman: 你這內文跟標題完全不符啊XDD 10/06 05:41
→ art1: 用 colab 玩的門檻很低了吧 XDD 10/07 21:09