推 DaOppaiLoli: cmd 查的通常會是最高支援的版本 04/13 07:30
→ fragmentwing: 原來是這樣 我一直以為是我裝到哪個就是哪個 因為之 04/13 14:10
→ fragmentwing: 前看人家教學時都是要看cuda版本左邊的那個數字去找 04/13 14:10
→ fragmentwing: 相容性 原來根本可以跳過這步XD 04/13 14:10
推 DaOppaiLoli: 一個機器也可以多個 CUDA 共存,理論上 driver 支援 04/13 15:15
→ DaOppaiLoli: 的版本要大於實際安裝函式庫的版本,然後要大於應用 04/13 15:15
→ DaOppaiLoli: 程式的版本 04/13 15:15
→ DaOppaiLoli: 像你就是 driver 支援到 11.8,函式庫裝 11.6,然後 04/13 15:16
→ DaOppaiLoli: torch 是 11.3 04/13 15:16
→ DaOppaiLoli: 雖然還是建議都裝一樣的比較好 04/13 15:16
→ fragmentwing: 原來是剛好裝得有相容性 04/13 17:08
→ fragmentwing: 多個cuda共存是指同一張gpu嗎?這樣torch運行時會怎 04/13 17:08
→ fragmentwing: 麼選擇使用的cuda啊? 04/13 17:08
推 DaOppaiLoli: 在同一台機器,無論單張或多張卡,都可以有多個不同 04/15 09:01
→ DaOppaiLoli: 版本的 CUDA 函式庫共存,例如 Docker 或 Conda 就 04/15 09:01
→ DaOppaiLoli: 能做到這種多版本 CUDA 的管理,像這張圖裡 nvcc 告 04/15 09:01
→ DaOppaiLoli: 訴我們 CUDA 是 11.8 版,但 nvidia-smi 顯示的是 1 04/15 09:01
→ DaOppaiLoli: 2.2 版 04/15 09:01
→ DaOppaiLoli: 至於 PyTorch 是如何判斷版本我是不太確定,但他可 04/15 09:01
→ DaOppaiLoli: 能會根據 nvcc 或 nvml 之類的來判斷,其他有些函式 04/15 09:01
→ DaOppaiLoli: 庫則可能會看 CUDA_HOME 環境變數來判斷 04/15 09:01
→ RumiManiac: nvidia-smi 查到的是 CUDA driver 版本,而 nvcc 查到 05/06 13:15
→ RumiManiac: 的是 CUDA compiler 版本,真正的 CUDA runtime lib 05/06 13:16
→ RumiManiac: 是根據不同安裝方式對應不同的路徑 e.g. /usr/local/ 05/06 13:16