看板 C_Chat 關於我們 聯絡資訊
yt看到以後花了我兩個小時在摸 完全不會寫程式也不用高昂配備就可以給地端用 https://www.youtube.com/watch?v=Td_jdwRHofo
要注意 1.問問題cpu會飆車 2.可以用於工作 我餵他吃法律 他吃得算開心 這東西可以吃地端資料就可以用於工作 但還沒想到能幹嘛... ================= FROM deepseek-r1:7b PARAMETER temperature 0.5 SYSTEM """ 記事本輸入敘述對話需要參考的內容(地端無法讀網路 只能地端) 然後去除.txt即可 可以做角色扮演也可以回答指定法條 ====的上方是EW內容 """ ================= 指令 cd C:\Users\user\Desktop\1 檔案路徑 ollama create EW -f ./EW EW是檔案名稱,要先將EW打好 ollama run EW https://i.imgur.com/yhUnMGF.jpeg https://i.imgur.com/R4K0eRS.jpeg 還沒讀地端資料時 回答跟大便一樣..不過當初chatgpt也是從亂回開始 https://i.imgur.com/SqL7HCW.jpeg 讀地端資料後就像個人了 https://i.imgur.com/w2wHmkM.jpeg ※ 引述《protoss97 (wei)》之銘言: : ※ 引述《subsonic (索尼克)》之銘言: : 試著讓deepseek寫一小章 : ### **第一章:黑船之繭(1890)** : 森鷗外的手錶停在凌晨三時十七分。 -- https://www.youtube.com/watch?v=sEQf5lcnj_o Unravel - Tokyo Ghoul OP [Piano]
-- ※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 36.227.249.251 (臺灣) ※ 文章網址: https://www.ptt.cc/bbs/C_Chat/M.1738478349.A.F6C.html
kuninaka: 地端是啥 02/02 14:40
greg7575: 抓到了,中共同路人 02/02 14:41
guogu: 其實用lmstudio更簡單 不用打任何指令 02/02 14:41
可是我用lm studio很慢 不知道為甚麼...可能是他更吃資源
kuninaka: 接地氣的意思嗎 02/02 14:41
guogu: 然後聽說7B審查會比較多一點 可是8B的中文又比較差一點 02/02 14:43
RandyOrlando: 怎麼一堆人都是拿去玩養自己的AI老婆XD 02/02 14:46
※ 編輯: howtotell (36.227.249.251 臺灣), 02/02/2025 14:48:11
oo231469785: 工作上叫本地機房也是說地端啊 支語警察是不是沒工作 02/02 14:47
oo231469785: 過 點點點 02/02 14:47
※ 編輯: howtotell (36.227.249.251 臺灣), 02/02/2025 14:52:39
ericrobin: 用gpu跑32b 4Q基本沒問題 用cpu滿恐怖的 02/02 14:50
ericrobin: *Q4 02/02 14:50
guogu: 你的電腦配備呢? 我用起來是lmstudio快非常多 02/02 14:51
guogu: 因為它有vulkan加速 A卡也能用 02/02 14:52
我是老機器 GA401 16gb ram rtx 2060 ※ 編輯: howtotell (36.227.249.251 臺灣), 02/02/2025 14:53:56
guogu: 如果不用gpu體感是跟用ollama差不多 實際不知道 02/02 14:52
guogu: 因為ollama也沒顯示每秒幾個token 02/02 14:53
※ 編輯: howtotell (36.227.249.251 臺灣), 02/02/2025 14:55:12
guogu: 2060 6GB的話應該勉強塞得下去才對 02/02 15:05
guogu: https://i.meee.com.tw/QGvxqdy.png 02/02 15:05
guogu: 不過可能太緊繃 所以你用lmstudio VRAM不夠 所以沒GPU加速 02/02 15:06
guogu: 用ollama它有幫你塞進去有用到GPU加速所以就快很多 02/02 15:07
howtotell: 感謝大大 我找找看能不能硬塞.. 02/02 15:07
joejoe2: 有promt可以繞過審查吧 02/02 15:12
arrenwu: 會大吃CPU的話 速度還真的會慢到一個難受 02/02 15:12
guogu: temperature設0.5會不會有點低阿? 02/02 15:12
guogu: https://i.meee.com.tw/TgkuvBF.png deepseek建議 02/02 15:13
kuninaka: 這一定要用GPU跑的 02/02 15:14
guogu: 寫作設到1.5呢 雖然1.5感覺很怪 一般不是0~1嗎? 02/02 15:14
howtotell: 我目前用0.5的對話其實就滿長的,1.5他可能需要更多資 02/02 15:20
howtotell: 源我不知道能不能負擔 02/02 15:20
howtotell: 其實我要的也只是簡單的問與答,但是0.5他現在就打幾百 02/02 15:20
howtotell: 字了 02/02 15:20
guogu: 理論上temperature是不影響回應長度的 02/02 15:26
Ning01: 溫度影響的不是長度,而是發散性或創意性 02/02 15:26
guogu: 他是讓模型更有機會去選擇機率比較低的結果 02/02 15:26
guogu: 設高一點理論上會比較有"創意" 02/02 15:27