作者driftcreator (貓爹)
看板AC_In
標題Re: [洽特] RisuAI的簡易上手指南
時間Sun Jan 12 18:53:18 2025
2. Q&A知識集 (泛用於當前多數AI對話平台)
更新於2025/02/04
Q1: 面對AI失憶問題該如何解決
技術層面上有兩項不同的情況,都會導致使用者感受到"AI失憶"
1. AI無法讀取超過上下文的內容
a. 除非上下文太小、聊兩句就塞爆,不然RisuAI新的Hypamemory V3可以緩解該問題
b. 將重要、必須被AI長期記住的關鍵事項,手動寫進作者備註欄位或編輯Lorebook
2. AI模型的性能不足
角色忽然忘記自己上個回應裡在幹什麼,或是短時間的敘事出現矛盾,則屬於該狀況
a. 重新生成。看新的生成能不能抓到你要的東西,瑕疵比較少的手動修改得過且過
b. 透過OOC指令或是Cot選項去強迫模型劃重點。但重點劃錯的話會適得其反
(目前市面上的Cot系模型就是這樣設計的,讓小模型先劃重點再輸出)
c. 換模型。如Gemini Pro的性能比Gemini flash強,或直上其他兩家旗艦型號
d. 全程使用英文對話。AI模型對於英文的理解與劃重點能力,比其他語言高上一截
Q2: 不喜歡目前使用模型的回應風格
1. 改preset。不同的prompts可以對敘事風格有相當程度的影響
2. 改模型的參數。可有限的調整創造力跟改善跳針頻率
3. 換模型。模型決定了寫作或應對中文的上限到哪
4. Fine-tune適合的模型
Q3: 輸出tokens給AI模型時的結構
大多數AI平台的輸出tokens結構長這樣
|----------------------上下文上限-----------------------|
[卡片+preset+作者備註+lorebooks+記憶] + [近---------剩餘的對話紀錄---------遠]
前半段除了作者備註外都是固定值。再怎麼資源吃緊,理想上最少要讓AI抓到近期5組對話
剩下溢出的對話以RisuAI Hypa V3來說,預設是占上下文20%空間、每四段對話總結一次
結構有掌控好的話,其實會發現使用者感受到的不適,多半還是源於AI模型的性能不足
Q4: 需要縮減tokens耗量的情境
1. 全程使用英文對話
英文是tokens耗量最低、AI理解力最強的語言。以下是套中文皮去使用的技巧
a. 比起使用RisuAI內建翻譯,使用網頁版+沉浸式翻譯套件會比較好對照,抓翻譯bug
b. 直接輸入英文,或透過LLM將中文轉換成英文。(4.preset + mod 裡有相關功能)
c. 若卡片有附加狀態欄,則可直接把狀態結構修改成中文,可避免外掛翻譯後變形
2. 縮減相關tokens的參數使用
a. 縮上下文空間,控制單次輸出的tokens上限
b. 砍掉AI模型已知、不需要特別撰寫的卡片敘述或lorebook。(常識、知名角色等)
c. 縮卡片敘述。單角色的純V2卡只要懂得精煉格式,大小可以控制在0.5~1k
d. 如果卡片帶數據追蹤語法,但條件式寫的太臭太長,改寫或砍掉
e. 縮preset,只保留必要功能
f. 降輸出、手動縮減AI的回應長度。AI短輸出習慣養成後,可以增加對話記憶組數
g. Regex變換不吃AI算力,所以回應附圖功能跟裝飾欄吃掉的tokens其實不多
--
※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 184.65.128.80 (加拿大)
※ 文章網址: https://www.ptt.cc/bbs/AC_In/M.1736679206.A.F19.html
推 uohZemllac: 推 01/12 19:54
推 pythonbetter: 推 01/12 23:02
推 clovewind: 好強==話說失憶的問題有沒有方法解決,已經勾supa了 01/12 23:13
→ cha122977: 沒想到會在這版看到AI機器人 這隻是會聊色嗎 01/13 01:51
推 cm745633: 太棒了!謝謝分享 01/13 04:35
推 clovewind: 了解,那作者備註有上限嗎? 01/13 10:48
推 chirex: 有神緊拜 01/13 11:19
推 clovewind: 感覺玩久了會像戀活一樣自己跳下去做mod 01/13 21:19
→ clovewind: 玩了一下1206 確實沒其他語言 但一直跳error code500 01/13 21:20
推 kuadrien: 推,感謝分享! 01/14 20:29
本文更新於2025/02/04
※ 編輯: driftcreator (184.65.128.80 加拿大), 02/04/2025 19:48:00