看板 AC_In 關於我們 聯絡資訊
RisuAI Agent v1 & Preset v8 https://reurl.cc/1kraE9 RisuAI Agent v1外掛 https://reurl.cc/9bgQ6v Preset v8外掛版 (需與外掛合併使用) https://reurl.cc/8b1O6b Preset v8傳統版 (沒有以下效果。短回合或測卡適用) 仿AI Agent架構,不需要手動彙整/HypaV3;長輪數回應tokens耗量更低 .先行呼叫LLM萃取對話資源,降低主要模型回應負擔,讓回應品質更好 .卡片結構重組 & Lorebook向量搜尋:增加tokens的使用效率 .不會改變卡片內容:開新的對話便重置設定;快取資料庫跟對話資源與卡片分離 從模組將資料移到外掛的好處 .現在可以對模型同時發出請求,送出訊息後視窗也不會疑似凍結了 .資料現在寫在Lorebook > 聊天裡面,使用者可以查看與編輯 .使用者現在如果對預設設定不滿意的話,可以自己編輯萃取方式 一般使用者使用說明 .載入外掛後,填進你要使用的主要、輔助、嵌入模型(獨立的,沒跟preset設定連動) .如果不是跑Lorebook很厚一本、20k以上的重型卡,沒必要啟用向量搜尋功能 .套用Preset v8外掛版,或是參照以下方式修改你的preset .無法無痛接軌遊玩舊記錄。必須要先彙整、重置對話 .如果向量搜尋有開的話,第一回合會跑很久,因為系統要建立向量資料庫 .第一回合,系統會把不是始終啟用的Lorebook丟給模型分類,比較吃tokens 此外掛也能跟其他preset一起使用 1. 將preset結構中的角色敘述、Lorebook、全域備註、Supa/HypaMemory欄位都刪除 2. 把聊天點選進階,將範圍開始調整至-6到-10之間 (警告標語紅字不用理他) 3. 啟用外掛,開始聊天 一些合法的免費API資源 LLM .NVIDIA有提供上下文10k多一點的中國模型 .Ollama進軍線上服務,有提供Gemini 3 Flash跟上下文較高的中國模型 .OpenRouter免費模型。無課一天50次,帳戶中10鎂以上單日請求2,000次 .Google AI studio有部分模型的少量額度 嵌入模型 .Google AI studio是免費的 .Voyage插卡之後有大量的額度可使用 ---積陰德--- 台泥:4ndhatyu -- ※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 70.71.102.250 (加拿大) ※ 文章網址: https://www.ptt.cc/bbs/AC_In/M.1772045884.A.CD2.html
zseineo: 推 02/26 09:11
zseineo: 問 OpenRouter的免費模型是買過10鎂還是要餘額>10鎂? 02/26 09:26
zseineo: 雖然50次感覺也夠我用w 02/26 09:26
Fizban: 直接用就可以,我從來沒存過錢 02/26 09:47
Fizban: D大的Preset可用於GLM5 02/26 09:47
Fizban: 但跟小惡魔一樣無法破限Kimi K2.5 02/26 09:47
Fizban: 外掛版只能用於同一串對話且僅限新對話? 02/26 09:47
Fizban: 因為我現在在玩跨作品連動 02/26 09:47
Fizban: 例如主角從芙莉蓮的卡穿越到Re zero 02/26 09:47
Fizban: 如果外掛版紀錄無法共用我還是乖乖手動整理好了 02/26 09:47
Fizban: 是說外掛版自動彙總會用到輔助模型? 02/26 09:47
zseineo: 先行呼叫LLM我猜就是讓輔助模型做吧 02/26 10:04
driftcreator: 餘額>10鎂 02/26 10:12
driftcreator: 外掛裡面的模型設定跟preset設定是分開的,增加彈性 02/26 10:13
driftcreator: 跨卡聊天要手動彙整好前情提要,丟進卡片lorebook裡 02/26 10:14
driftcreator: 然後再套用外掛 02/26 10:14
kimwang: 推 02/26 10:56
h0103661: K2.5太麻煩了,甚至有反越獄,你可以試試reddit專板的k 02/26 11:59
h0103661: 2.5專用preset看看。 02/26 11:59
外掛更新至v1.2版本 ※ 編輯: driftcreator (70.71.102.250 加拿大), 02/26/2026 12:01:18
uohZemllac: 推 02/26 16:02
zseineo: 發現3.1pro也會身體比嘴巴誠實 還是這是小惡魔的關係 02/26 16:13
kimwang: 沒印象看過 或者是因為一直報數據分散了我的注意力(? 02/26 16:24
zseineo: 比較少 3.0的時候超常重複這句w 02/26 19:35
JIN3708078: 研究一下,目前還是使用小惡魔,看小惡魔要怎麼改才 02/26 20:48
JIN3708078: 能兼容 02/26 20:48