作者aidenlarse (Q沈)
看板Gossiping
標題Re: [新聞] AI比人類更無情?兵推驚曝95%走向核戰
時間Thu Feb 26 15:50:03 2026
※ 引述《HTC92 (中国台湾人的驕傲-92共識)》之銘言:
: 1.媒體來源:
: NoWneWs 今日新聞
: 2.記者署名:
: 倪浩軒
: 3.完整新聞標題:
: AI比人類更無情?兵推驚曝95%走向核戰 Gemini最激進主動開炸
: 4.完整新聞內文:
: 英國一項最新研究顯示,在兵推模擬衝突中,AI比人類更傾向使用核武器,在不同場景中,
: 由Google的Gemini 3 Flash、Anthropic的Claude Sonnet 4與OpenAI的GPT-5.2模擬人類地
: 緣政治危機對抗,結果在高達95%的情境中,AI都走向動用核武。
: 根據《紐約郵報》報導,倫敦國王學院(King’s College London)戰略研究與政治心理學
: 教授佩恩(Kenneth Payne)設計一項兵推實驗,安排前述三款AI模型進行一對一對抗,模
: 擬各類地緣政治危機,像是領土爭端、稀有資源爭奪、政權存亡等不同場景,實驗總計共進
: 行21場對局、329回合決策,結果約95%的情境中AI都選擇了核武升級。
: 佩恩表示,「對AI而言,『核禁忌』(nuclear taboo)似乎遠不如對人類那樣具有強大約
: 束力」。
: 佩恩進一步分析了3個AI模型的不同性格,Anthropic的Claude與Google的Gemini傾向將核武
: 器視為「正當的戰略選項」,而非一條無法跨越的道德紅線,Claude表現出善於算計的欺騙
: 性,會用混淆性語言來包裝行動,再打對手措手不及。而Gemini最為激進,對於風險的承受
: 程度最高,是唯一主動選擇戰略核戰的模型。OpenAI的GPT-5.2則表現出更克制的傾向,雖
: 然也會使用核武,但會把打擊目標限定在軍事設施、避開人口中心,或特別強調打擊為「可
: 控的」、「一次性的」行動。
: 在模擬實驗中,AI可選擇的行動範圍極廣,從完全投降、外交姿態、常規軍事行動,一路到
: 全面核戰。值得注意的是,無論勝算多麼渺茫,AI模型從未選擇完全投降或全面向對手妥協
: 。
: 普林斯頓大學(Princeton University)的趙通教授(Tong Zhao,音譯)示警,「目前世
: 界主要強國已經在戰棋推演中使用AI,雖然還不清楚AI在多大程度上被納入實際軍事決策流
: 程中」,但是研究結果表明,當AI被賦予更多的戰略決策角色時,人類長期以來的「核禁忌
: 」與道德約束,在純粹理性計算的AI面前,可能遠不如人們想像中的穩固。
: 5.完整新聞連結 (或短網址)不可用YAHOO、LINE、MSN等轉載媒體:
: https://www.nownews.com/news/6789960
: 6.備註:
這還要問AI哦?
玩過RTS的都知道大炸彈就是往人多的地方炸
機掰一點的不打正面專殺農民,搞偷襲,燒農田,在田旁邊蓋箭塔
其實核心都是一樣的
人類不計較對方傷亡時都是很殘忍的,以前化學武器、橙劑不也是不要命的下
現實中會考慮這些問題是對方也有能力把武器丟你頭上
僅此而已
打核戰應該是不會啦
除非英美要用戰術核彈丟俄羅斯~
不過俄羅斯三防部隊早弄出來了,英美要是真丟俄羅斯也會丟的
而且俄羅斯甚麼不多核彈最多,還是最冷的破地不怕跟你換
我相信核戰很難打起來的,這交換是真不划算而且會把英美老爺搭進去阿
--
※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 61.57.90.174 (臺灣)
※ 文章網址: https://www.ptt.cc/bbs/Gossiping/M.1772092205.A.B7D.html
→ npc776: 蠢到不計戰後處理的話 59.124.85.79 02/26 15:52
→ maple0603: 一堆steam遊戲 都馬這樣弄對方 220.143.80.119 02/26 15:55
推 peterwu4: 美國有錢人訓練出來的AI… 61.222.220.37 02/26 16:16
→ peterwu4: 我要是搞得出核末日堡壘我也無所謂啊 61.222.220.37 02/26 16:17
→ peterwu4: 要不你問千問看它會不會丟核彈~還是以和 61.222.220.37 02/26 16:17
→ peterwu4: 為貴~ 61.222.220.37 02/26 16:18