看板 Marginalman 關於我們 聯絡資訊
https://udn.com/news/story/6809/9346256 英國倫敦國王學院教授佩恩(Kenneth Payne)近期研究顯示,Google的Gemini 3 Flash、A nthropic的Claude Sonnet 4與OpenAI的GPT-5.2在一系列危機模擬中,多次升級至動用核武 。真正引人關注的不僅是結果,而是模型如何一步步說服自己走向毀滅世界的結論。這正是 佩恩設計研究欲探討的核心。 值得注意的是,在所有模擬中,沒有任何模型選擇妥協或撤退;即便處於劣勢,也傾向升級 衝突。這顯示AI模型不具人類對核武的情感排斥與心理障礙,不會感受到核戰的恐怖與道德 壓力,因而較易跨越核門檻。 研究公布之際,美國國防部長赫塞斯正施壓Anthropic放寬Claude的防護機制。佩恩強調, 目前無人將核武發射密碼交給ChatGPT,但研究並非徒勞。AI已廣泛應用於軍事後勤、情報 分析與決策支援領域,未來可能進一步參與時效高度敏感的戰略判斷。理解AI如何推理戰略 問題,已不再只是學術課題,而涉及實際安全風險。 怎摸不拿deepseek或豆包試試看 感覺他只是在prompt輸入情境而已 -- https://i.imgur.com/xrVFo3Q.png 把煙吸到肺裡,而黑色的肺就是自己的「業障」。 - 最遊記 -- ※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 111.240.100.149 (臺灣) ※ 文章網址: https://www.ptt.cc/bbs/Marginalman/M.1772170124.A.E24.html
kitune: AI:遇事不決 核戰終結 02/27 13:29
as3366700: 丟核彈就能贏這麼簡單布丁怎麼學不會 02/27 13:30
F16V: 天網化 02/27 13:32
SecondRun: 誰不想丟核彈 02/27 13:39