看板 C_Chat 關於我們 聯絡資訊
※ 引述《NDSL (NDou112)》之銘言: : 魯宅如我只想問 : Deepseek可以接諸如傻酒館之類的東西 : 然後跑眾多肥宅寄與厚望的那個嗎? : 不管是API或本地部署都好 : 不過本地部署偶的ram只有8G 跑不動 : 有沒有懂哥試過講解一下 拜託 很急 看一些評論 deepseek有一點較特殊的是在於 特意篩選主題後減少資料量來讓較低硬體也能較快運算 也就是當判斷現在聊的主題是偏向那種類型時 則選擇較小資料庫來做運算,讓較低階硬體能即時輸出堪用的結果 不過輸出結果可能也會受選擇的類型而有所影響 另外還有運算量的差異 一些細節部分可能也會有思考不足的情況 但以目前硬體程度跟其他AI發展出來的理論模型基礎 雖然硬體較差資料也較小 但看來大部分一般應用可能還可以接受 也就是deepseek可能比較偏向以現有技術拿來做較一般應用方面的處理 而其他更重資本的AI開發 可能更偏向基礎研究以及需要更精細要求的應用 所以拿來當聊天室玩小說設定接龍應該是可以吧 我倒是想要可以本機用一般中價位電腦就能翻得比較順的軟體 拿來看沒中文代理的ACG作品 XD -- ※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 36.232.4.167 (臺灣) ※ 文章網址: https://www.ptt.cc/bbs/C_Chat/M.1738125136.A.8C8.html
madness48596: 可以試試看SakuraLLM 專門ACG 日翻中的本地模型 01/29 14:27
kaisudo0520: SakuraLLM本機架設的建議要求是顯卡要24g vram,我 01/29 14:40
kaisudo0520: 用12g顯卡翻譯還是卡卡的qq 01/29 14:40
RandyOrlando: 目前看來就是要打破只有高階晶片才能跑AI的說法吧 01/29 14:51