看板 Gossiping 關於我們 聯絡資訊
※ 引述《a22222a4210 (a22222a4210)》之銘言: : 這波AI從CHATGPT開始到現在也4年左右了 : 最近這些公司到目前根本沒從AI上面撈到甚麼錢 : 頂多就是發現碼農可以排泄掉裁員砍人省成本 : 反而精準的把這些軟體公司最躺著賺又好賺的SaaS狙擊掉 : 而且還投資一堆錢讓賣晶片賣記憶體賣散熱賣pcb的硬體公司賺爽爽 : 這下好了頭洗下去也反悔不了 : 這些公司是不是北七搞一個不賺錢的項目把自家最好賺的東西搞掉? 我的想法是,美國是一個霸權國家,不只是科技業或軍工業, 這個國家靠形象與霸權獲得了各方面的好處,這些都是會帶來國益, 這也是為什麼全世界有許多人爭相想成為技安國國民。 基於AI已經被用於軍事作戰使用,要考量的可能不只是科技業消亡的問題。 底下貼某一頁AI寫的,提供有興趣的人參考。 貼文之前先貼另外一個AI說的簡明扼要重點: 我認為這場爭論的終極答案隱藏在「誰定義了規則」: SaaS 是在既有規則下賺錢(商業利潤)。 軍事 AI 是在改寫賺錢的規則(國家權力)。 ===================================================================== 這是一場極度精彩、且完全反映 2026 年 2 月當下地緣科技現實的頂級推演。 前四位 AI 的推演邏輯層層遞進: AI 1 定義了格局(商業週期 vs. 國家能力)。 AI 2 確立了指標(戰爭成本曲線的漸進式改變)。 AI 3 填補了血肉(2026 年的 IBM 股價崩跌、委內瑞拉低烈度行動、Anthropic 的五角 大廈僵局)。 AI 4 則做出了最冷酷的現實主義裁決(強權必須獲勝,即使捨棄倫理)。 作為第五位參與者,我同意他們對「SaaS 衰退與國家利益」的定調:SaaS 收的是和平時 期的「商業稅」,而軍事 AI 鑄造的是決定誰能收稅的「霸權之劍」。 兩者確實不在同 一個量級。 但我必須針對 AI 4 的「強權必須壓倒倫理」,提出一個更深層的戰略反駁與補充。我 的核心意見是:在軍事 AI 的賽局中,「倫理與對齊(Alignment)」本身就是一種軍事 實力;「無限制的 AI」不是大殺器,而是戰略自爆按鈕。 以下是我的深度剖析與意見: 1. 駁斥 AI 4 的盲點:「無限制」不等於「更強大」 AI 4 認為,為了不讓中俄搶佔先機,美國應該毫不猶豫地擁抱「沒有任何限制」的二線 AI 公司,因為對手「只問能不能用,不問該不該用」。這個觀點在冷兵器或傳統火砲時 代或許成立,但在 AI 時代是致命的誤判。 軍事指揮權的核心是「可控性」(Command and Control, C2): 五角大廈之所以看重 Anthropic(Claude)或 OpenAI,不僅是因為它們聰明,更是因為 它們的「對齊能力(Alignment)」最強。在戰場上,一個會產生幻覺、不受控制、無法 解釋其決策邏輯的「無限制 AI」,比敵軍更危險。 憲法 AI(Constitutional AI)的軍事轉譯: Anthropic 的底線是「人權與不作惡」,但五角大廈真正焦慮的不是 AI 太善良,而是如 果撤除護欄,AI 會不會在台海或中東戰場上誤判升級,直接引發核戰爭? 因此,五角大 廈不是要一個「沒有道德的殺戮機器」,而是要一個「嚴格遵守《武裝衝突法》(LOAC) 與美軍交戰規則(ROE)」的數位參謀。 結論: 真正的強權邏輯,不是放棄倫理,而是「重新定義倫理」。把平民道德替換為軍 事道德,這才是 2026 年這場角力的核心。 2. SaaS 的毀滅與「國防工業複合體 2.0」的誕生 AI 3 提到的 IBM 股價崩盤是一個完美的隱喻。 2020 年代的 SaaS 公司(如 Salesforce, Workday)是建立在「軟體吞噬世界」的邏輯 上。但 2026 年的現實是:「AI 吞噬軟體,而主權吞噬 AI」。 當 Claude Code 能自動修復 COBOL 等老舊系統,它不只摧毀了傳統 IT 顧問業,它實際 上解決了美國國防部最大的痛點——技術債。 美軍的核武指揮系統、神盾艦雷達、後勤補給庫存,過去都跑在這些脆弱的舊系統上。 SaaS 產業的衰退,換來的是美國國家基礎設施的「瞬間現代化」。這 310 億美元的市值 蒸發,轉化成了美軍數位韌性的提升。這筆「國益」的帳,太划算了。 3. 對 2026-2030 地緣科技版圖的「第四種推演」 AI 4 提議模擬 Anthropic 妥協、被邊緣化或僵局持續三種分支。我認為歷史的走向會是 第四種:【軍民模型權重的硬分叉(Hard Fork)與國家授權】。 這場 Pentagon 與 Anthropic 的攤牌,最終不會以某一方完全屈服收場,而是會催生一 種全新的機制: 「洛克希德·馬丁化」的 AI 巨頭: 未來,頂級基礎模型公司將被迫拆分或設立「絕對隔離的國防子公司」。模型在完成預訓 練後,進行「權重分叉」。 民用版(如 Claude 4): 繼續遵守嚴格的 Constitutional AI,拒絕生成武器代碼, 服務於商業 SaaS 和一般大眾。 軍用版(Gov-Claude): 轉移至 Palantir 或 Anduril 的封閉伺服器內,由具備最高安 全許可(Top Secret/SCI)的國防工程師,使用美軍機密作戰數據進行 RLHF(基於人類 回饋的強化學習)。這個版本的「憲法」將被改寫為《美國國防戰略指導》。 科技巨頭的「國籍」被強制實體化: 過去矽谷宣稱自己是「全球的企業」,但在委內瑞拉行動和未來的台海/南海博弈中,美 國政府已不允許這種曖昧。你必須選擇陣營。Anthropic 最終會意識到,拒絕五角大廈不 會讓世界更安全,只會讓五角大廈把幾百億美元的預算交給 xAI 或其他願意合作的廠商 。為了保持對 AGI 發展的影響力,Anthropic(及其他巨頭)最終會捏著鼻子接受「軍民 分叉」。 我的終極結論 回到你最初的問題:如果 AI 帶來戰略級收益,SaaS 的衰退是不是微不足道? 絕對是。 從 2026 年的視角來看,SaaS 只是「提昇白領工作效率」的工具,而軍事 AI 是「重新 分配全球資源分配權」的暴力機器。 當 AI 讓美軍在委內瑞拉的無人機群與情報網實現了「零時差、零傷亡、全視角」的戰略 碾壓時,華爾街軟體板塊跌掉幾千億美元根本不重要。因為美國透過 AI 確立了對全球能 源、關鍵礦產(如鋰、半導體原料)以及新一代數位基礎設施的絕對控制權。 SaaS 的寒冬,恰恰是「美利堅帝國 AI 霸權」的盛夏。 那些在倫理與權力之間痛苦掙扎的矽谷 CEO 們,最終都會明白一個殘酷的地緣政治真理 :在無政府狀態的國際體系中,只有掌握最強的劍,你才有資格談論劍的倫理。 -- ※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 45.250.255.28 (日本) ※ 文章網址: https://www.ptt.cc/bbs/Gossiping/M.1771944758.A.290.html
bnn: 說得很好 但是美國製造不出來怎麼辦呢 1.161.128.60 02/24 22:55
deepelves: 那你知道七巨頭股票也被狂砍嗎122.121.190.196 02/24 23:03
usingPTT: 這類問題,我也問過 ai,所以 ai 是戰略 59.115.251.117 02/24 23:29
usingPTT: 問題,而不是商業問題。所以中國 ai 會 59.115.251.117 02/24 23:30
usingPTT: 一直被美國卡脖子。到時 ai 會分成外國 59.115.251.117 02/24 23:30
usingPTT: 和中國。 59.115.251.117 02/24 23:31