看板 Minecraft 關於我們 聯絡資訊
※ [本文轉錄自 C_Chat 看板 #1etB-WwV ] 作者: Senkanseiki (戦艦棲姫) 看板: C_Chat 標題: [閒聊] 用麥塊做的生成式AI「CraftGPT」 時間: Wed Oct 1 13:43:57 2025 https://x.com/_mwup/status/1973216592218693755 https://news.denfaminicogamer.jp/news/251001e YouTube投稿者sammyuri最近發表,他製作了一個在麥塊中運作的ChatGPT風格的生成式AI「 CraftGPT」 該計畫以紅石回路構築而成,尺寸為「1020×260×1656」(≒4億3900萬) 因為結構龐大,攝影本身需要MOD輔助 不過沒有用外掛模組,一般的麥塊軟體理論上也跑得動 這個小規模的語言模型有5087020個參數 利用基本英語會話的資料庫然後以python學習 對話框總共有64個token,可以進行簡短的英語對話 但是回答需要的時間非常長 就算用了Minecraft High Performance Redstone Server 將更新頻率提高到4萬倍以上,依然需要約2小時才能回答一句話 如果沒有用這個加速的伺服器那可能需要10年以上 作者表示希望不要太過期待 這個AI很可能產生文法錯誤或意義不明的回答 作者投稿的影片本身是該AI的最好表現成果,而不是平均表現 但光是靠紅石回路做出一套AI就是一個超強的成果了 各位要不要也試試看用麥塊製作AI呢 -- ※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 61.222.163.22 (臺灣) ※ 文章網址: https://www.ptt.cc/bbs/C_Chat/M.1759297440.A.E9F.html
omfg5487: 是把參數載進去還是直接用紅石電路訓練的? 10/01 13:45
kuninaka: 什麼跟什麼啦XD 10/01 13:46
mhwsadb45: 在虛擬世界裡建造虛擬世界 10/01 13:46
qweertyui891: 等十年 花式用電是吧 10/01 13:47
kirimaru73: 這成果很了不起,不過也顯示了大型語言模型的誇張程度 10/01 13:48
kirimaru73: 今年的模型只有10億參數都算是超級迷你版了 10/01 13:48
harryron9: 載參數吧 在賣快訓練是要搞多久 10/01 13:49
kirimaru73: 要搞訓練的話可以玩個MNIST 講話太難了 10/01 13:49
allanbrook: 什麼時候有人在麥塊做個underworld出來 10/01 13:49
allanbrook: 讓裡面ai小人自己生存 10/01 13:50
smart0eddie: :0 10/01 13:51
kirimaru73: 其實GPT很多代都是這種你工三小的情況 10/01 13:51
kirimaru73: 最近會紅起來是因為品質進步到像是奇蹟一樣 10/01 13:51
hansvonboltz: 我們要在模擬世界裡模擬世界了 10/01 13:52
inte629l: 應該載參數做推論? 不過螢幕後面那幾個龐大block好猛... 10/01 13:54
ChikuwaM: XDDD 10/01 13:56
joe123456963: 以後可以讓麥塊村民玩賣快了吧~~ 10/01 13:57
eva05s: 宇宙貓貓.jpg 10/01 13:58
asiaking5566: 1B模型大概只能簡單英文對話而已 10/01 13:59
qd6590: 什麼時候才能在minecraft裡面玩minecraft 10/01 14:00
REDF: 樓上 早就辦到了 記得甚至套到第二層到了 10/01 14:01
widec: 殺小啦 wwwwww 10/01 14:01
X0110X: .....??? 10/01 14:02
kirimaru73: MC玩MC比講話容易多了 講話是靠北難的事情 10/01 14:03
t77133562003: 蛤 10/01 14:04
lolicon: 蛤 10/01 14:06
Fezico: 萬能的紅石 10/01 14:09
henry1234562: 可惜大語言模型並沒辦法走到agi 10/01 14:10
jay920314: 不是哥們 10/01 14:10
su4vu6: 手搓AI 就是麥塊 10/01 14:11
namirei: 哇幹 10/01 14:11
BSpowerx: 別人玩的麥塊怎麼跟我的不一樣 10/01 14:11
tomhawkreal: 請問有誰能接受2小時回一句話 10/01 14:12
TohmaMiyuki: XDDDDDDDDDDDDDDDD 10/01 14:13
kaltu: 深度學習麻煩的是訓練要用到很多奇怪的硬體電路,不好用紅 10/01 14:14
kaltu: 石做 10/01 14:14
kaltu: 推論的話就簡單了,就是一狗票乘法而已 10/01 14:14
kaltu: 規模如果非線性層都用簡單relu的話,每一層線性層都壓縮起 10/01 14:14
kaltu: 來可以到很小 10/01 14:14
kaltu: 這也是為什麼現在手機和糞筆電都能內建AI功能的原因,製造 10/01 14:15
kaltu: 很困難要部署到終端裝置倒是很簡單 10/01 14:15
kirimaru73: 要演示訓練的話還是辨識就好了 訓練LM真的會死人 10/01 14:15
smallreader: 妹子說 我去洗個澡 然後就2小時一樣 10/01 14:15
efkfkp: 其實現實世界也是AI模擬跑出來的啦,你看光速上限跟電子能 10/01 14:19
efkfkp: 級還有雙縫干涉,根本是像是參數隨便設置的漏洞w 10/01 14:19
kirimaru73: 不過終端用CPU硬跑一個堪用的東西好像越來越不可能了 10/01 14:20
kirimaru73: 現在都在比肥大的 乖乖給我去平行運算 10/01 14:20
umapyoisuki: 在麥塊裡養一個小世界看他們什麼時候會突破飛升 10/01 14:31
error405:轉錄至看板 AI_Art 10/01 15:02 ※ 發信站: 批踢踢實業坊(ptt.cc) ※ 轉錄者: error405 (114.36.224.196 臺灣), 10/01/2025 15:03:07
rinkai: 瘋子 10/01 16:43