看板 AC_In 關於我們 聯絡資訊
2. Q&A知識集 (泛用於當前多數AI對話平台) 更新於2025/02/04 Q1: 面對AI失憶問題該如何解決 技術層面上有兩項不同的情況,都會導致使用者感受到"AI失憶" 1. AI無法讀取超過上下文的內容 a. 除非上下文太小、聊兩句就塞爆,不然RisuAI新的Hypamemory V3可以緩解該問題 b. 將重要、必須被AI長期記住的關鍵事項,手動寫進作者備註欄位或編輯Lorebook 2. AI模型的性能不足 角色忽然忘記自己上個回應裡在幹什麼,或是短時間的敘事出現矛盾,則屬於該狀況 a. 重新生成。看新的生成能不能抓到你要的東西,瑕疵比較少的手動修改得過且過 b. 透過OOC指令或是Cot選項去強迫模型劃重點。但重點劃錯的話會適得其反 (目前市面上的Cot系模型就是這樣設計的,讓小模型先劃重點再輸出) c. 換模型。如Gemini Pro的性能比Gemini flash強,或直上其他兩家旗艦型號 d. 全程使用英文對話。AI模型對於英文的理解與劃重點能力,比其他語言高上一截 Q2: 不喜歡目前使用模型的回應風格 1. 改preset。不同的prompts可以對敘事風格有相當程度的影響 2. 改模型的參數。可有限的調整創造力跟改善跳針頻率 3. 換模型。模型決定了寫作或應對中文的上限到哪 4. Fine-tune適合的模型 Q3: 輸出tokens給AI模型時的結構 大多數AI平台的輸出tokens結構長這樣 |----------------------上下文上限-----------------------| [卡片+preset+作者備註+lorebooks+記憶] + [近---------剩餘的對話紀錄---------遠] 前半段除了作者備註外都是固定值。再怎麼資源吃緊,理想上最少要讓AI抓到近期5組對話 剩下溢出的對話以RisuAI Hypa V3來說,預設是占上下文20%空間、每四段對話總結一次 結構有掌控好的話,其實會發現使用者感受到的不適,多半還是源於AI模型的性能不足 Q4: 需要縮減tokens耗量的情境 1. 全程使用英文對話 英文是tokens耗量最低、AI理解力最強的語言。以下是套中文皮去使用的技巧 a. 比起使用RisuAI內建翻譯,使用網頁版+沉浸式翻譯套件會比較好對照,抓翻譯bug b. 直接輸入英文,或透過LLM將中文轉換成英文。(4.preset + mod 裡有相關功能) c. 若卡片有附加狀態欄,則可直接把狀態結構修改成中文,可避免外掛翻譯後變形 2. 縮減相關tokens的參數使用 a. 縮上下文空間,控制單次輸出的tokens上限 b. 砍掉AI模型已知、不需要特別撰寫的卡片敘述或lorebook。(常識、知名角色等) c. 縮卡片敘述。單角色的純V2卡只要懂得精煉格式,大小可以控制在0.5~1k d. 如果卡片帶數據追蹤語法,但條件式寫的太臭太長,改寫或砍掉 e. 縮preset,只保留必要功能 f. 降輸出、手動縮減AI的回應長度。AI短輸出習慣養成後,可以增加對話記憶組數 g. Regex變換不吃AI算力,所以回應附圖功能跟裝飾欄吃掉的tokens其實不多 -- ※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 184.65.128.80 (加拿大) ※ 文章網址: https://www.ptt.cc/bbs/AC_In/M.1736679206.A.F19.html
uohZemllac: 推 01/12 19:54
pythonbetter: 推 01/12 23:02
clovewind: 好強==話說失憶的問題有沒有方法解決,已經勾supa了 01/12 23:13
cha122977: 沒想到會在這版看到AI機器人 這隻是會聊色嗎 01/13 01:51
cm745633: 太棒了!謝謝分享 01/13 04:35
clovewind: 了解,那作者備註有上限嗎? 01/13 10:48
chirex: 有神緊拜 01/13 11:19
clovewind: 感覺玩久了會像戀活一樣自己跳下去做mod 01/13 21:19
clovewind: 玩了一下1206 確實沒其他語言 但一直跳error code500 01/13 21:20
kuadrien: 推,感謝分享! 01/14 20:29
本文更新於2025/02/04 ※ 編輯: driftcreator (184.65.128.80 加拿大), 02/04/2025 19:48:00