推 gino0717: ollama要設定安裝路徑竟然是打指令的 他那個gui做好看的 01/28 12:31
其實 Ollama 那個指令也就是一行文,然後就可以開始了。
只是CLI的界面對一般人來說實在不太討喜XD
推 guogu: ollama沒有gui吧 就是純文字 只是載入有點麻煩... 01/28 12:37
我記得應該搭配 openai-gui 使用?
推 kaj1983: 又鬼轉綿芽 01/28 12:38
※ 編輯: arrenwu (98.45.195.96 美國), 01/28/2025 12:39:19
推 guogu: lmstudio能用A卡加速嗎? GPT4ALL可以 01/28 12:40
→ guogu: 但只有官方處理過的模型可以 但後來它都沒更新新的模型 01/28 12:40
→ guogu: ollama目前只支援6800以上 可是我用的是6600XT阿 01/28 12:41
推 h0103661: ollama是工具不是模型 01/28 12:42
推 purplvampire: Ollama有chrome外掛 01/28 12:42
推 guogu: 然後不要期待本地模型的效果 應該說一般家用電腦能跑的 01/28 12:46
→ jacky40383: 網頁版還是適合大眾使用 電腦小白不會用就是不會用 01/28 12:47
→ guogu: 像是7B 14B這種等級 基本上都蠻蠢的 除了限制少 01/28 12:47
→ guogu: 完全被線上的吊起來打 除非有特殊需求不然用線上的就好 01/28 12:48
→ guogu: 要免錢 不用登入的可以去鴨鴨走玩 01/28 12:50
→ guogu: 我有色情相關內容要翻譯都是去找鴨鴨走 01/28 12:50
推 btfghai: 也是找鴨鴨+1 01/28 12:54
推 asdfg0612: 7B 14B這種就相關行業會玩的在特定情境下好用 01/28 13:08
推 htps0763: Ollama 是用來讀取模型的吧,本地小模型目前好像沒什麼 01/28 13:13
→ htps0763: 能讓人驚艷的應用吧,除了拿來跑翻譯跟聊天之類的 01/28 13:13
推 guogu: 嗯 像是聊天AI那種基本都是7B 8B左右 01/28 13:22
→ spfy: 現在AMD的AI MAX 也搞統一記憶體了 最大可以吃到96G 已經可 01/28 14:05
→ spfy: 以跑70B了 #相信AMD 01/28 14:05
推 guogu: 老黃不是要推一個AI盒子 #相信老黃 01/28 14:10
→ spfy: Project Digits要3000美金起 MAX395+128G的ROG Z13 2025 01/28 14:12
→ spfy: 也才不到台幣8萬 對預算比較拮据的人還是有差 01/28 14:13
推 guogu: 自問自答 lmstudio應該是可以用A卡加速 01/28 14:47
→ guogu: 跑7B模型大概是27token/sec 01/28 14:48
→ qxpbyd: local模型都不怎麼樣 除非自架R1 不然還是線上的好用 01/28 15:48
→ qxpbyd: 純GUI我是用Cherry Studio 01/28 15:49
推 guogu: 自架要到線上等級大概有難度 看B站討論 01/28 18:17
→ guogu: 線上版本是698B 這等級少說也要個300GB的記憶體吧 01/28 18:19