作者LoveSports (我要當一個渣攻)
看板Gossiping
標題Re: [問卦] Claude是得罪了誰?
時間Tue Mar 3 21:56:41 2026
※ 引述《Supasizeit (Shitpost King)》之銘言:
: Anthropic 拒絕在使用條款中
: 開放戰爭部大規模監控以及自動化武器
: 遭到戰爭部解約
: 並且全面禁止聯邦政府官員與供應鏈廠商使用
: 隔沒幾天
: OpenAI 火速簽訂政府契約
OpenAI發表的與戰爭部的條款 2/28發布 3/2修改
但是兩個版本都有漏洞
以下是Gemini 3.1 Pro把本串上一篇Claude Opus 4.6寫的改寫成給一般人的好讀版
深入探討 OpenAI 與五角大廈合約(初步評估)
在檢視 OpenAI 與五角大廈合約中的技術與法律用語時,會發現幾個
「灰色地帶」。讓我
們來剖析這些明文規定的保護措施在實務上可能有哪些不足之處,我們將主要聚焦於兩大
隱憂:
自主武器與大規模監控。
1. 通往「近乎自主」武器之路
合約核心文本指出:在法律、法規或國防部政策要求人類控制的情況下,AI 不會「獨立
指揮(
independently direct)」自主武器。
這句話包含了三個重大的漏洞:
「獨立指揮」到底是什麼意思? 合約禁止 AI 擔任唯一的指揮官,但
並沒有阻止 AI 完
成 99% 的工作。AI 可以持續掃描戰場、識別威脅、進行威脅排序、計算完美的打擊時機
,並向人類提出完整的攻擊計畫。如果人類只是點擊「批准」,在法律上 AI 並沒有「獨
立指揮」任何事情,但在
實務上,人類已經從決策者淪為單純的橡皮圖章。
註:
這不是科幻小說。美國海軍的方陣近迫武器系統(Phalanx CIWS)已經可以在全自動
模式下運作,不需要人類批准每一次射擊。
「在政策要求人類控制的情況下」的但書。 合約基本上是在說:「如果五角大廈的規定
要求必須有人類介入,我們就不會繞過人類控制。」然而,五角大廈的政策(例如美國國
防部指令 3000.09)
並沒有明文禁止所有自主武器;它只是建立了一套批准流程。一旦系
統獲得批准,就可以進行部署。
「雲端與邊緣」的辯護。 OpenAI 主張,因為他們的 AI 運行在雲端,所以
無法真正在戰
場上扣下扳機(這需要直接在無人機或武器上進行「邊緣」部署)。雖然這在技術上有些
道理(軍事通訊有時並不可靠),但這並不是一道堅不可摧的防線。
如果五角大廈從
OpenAI 的雲端擷取目標分析與打擊建議,並將這些數據輸入他們自己部署在邊緣的武器
系統中,OpenAI 就可以聲稱他們沒有在邊緣(終端)部署。軍方只是完成了最後一步。
2. 通往大規模監控之路
合約指出:AI 系統不得用於對美國民眾的私人資訊進行「無限制的監控(
unconstrained monitoring)」。
「無限制」的危險性。 藉由禁止「無限制的」監控,合約暗中允許了在現有法律框架限
制下的監控行為。
《外國情報監視法》(FISA) 第 702 條的漏洞。 第 702 條允許情報機構在沒有搜索票的
情況下監控外國目標。然而,如果 AI 正在分析一個外國恐怖分子網絡,它不可避免地會
撈取到與這些目標互動的美國人的通訊內容(這被稱為「附帶蒐集」)。AI 可以處理數
百萬個數據點,建立社交圖譜和行為模型。
在法律上,這並非「無限制」,因為主要目標
是外國人,但實際結果卻是處理了大量的美國公民數據。
「大規模國內監控」與「無限制監控」的對比。 Anthropic(另一家AI公司)明確拒絕參
與「大規模國內監控」——這是一條非常清晰的界線。而
OpenAI 選擇了更狹隘的措辭,
基本上是在說:「只要現行情報法律允許,我們就允許監控。」
那非美國人呢? 合約特別保護了「美國民眾(U.S. persons)」。這就留下了一個後門
:
AI 可能被用於在國土外對外國人群進行大規模監控、臉部辨識或通訊追蹤,而不會違
反這項協議。
3. 誰來定義規則?
合約最大的問題在於關鍵術語的模糊性。
到底什麼才構成「獨立指揮」?
「伴隨附帶數據的針對性蒐集」與「無限制監控」之間的界線在哪裡?
這些定義都沒有明確說明。在現實中,很可能將由五角大廈的律師(而非 OpenAI 的安全
研究員)來解釋這些規則。
雖然 OpenAI 的工程師會參與其中,但他們否決軍事行動的權
限受到極大的限制。
(發文者註:AI另外說明因為參與的工程師必須簽保密約,終身受間諜法約束不得告密。)
4. 總結
雖然軍事法律系統有監督機制,公眾輿論也能對公然越權發揮嚇阻作用,但
真正的危險在
於「任務潛變(mission creep,指任務範圍逐漸擴大失控)」。每一個微小的例外或擴
張性的解釋,都會將邊界稍微向外推移,最終導致最初設定的「紅線」變得毫無意義。
================================================================
OpenAI 更新版合約分析(2026 年 3 月 2 日)
在公眾壓力下,OpenAI 與五角大廈發布了合約的更新版本。讓我們來分析這些新增內容
及其在實務上的意義。
1. 關於「有意」監控的新條款
更新內容: AI 系統不得被「
有意(intentionally)」用於對美國民眾和國民進行國內
監控。
陷阱在於:「有意」。 表面上,禁止「國內監控」聽起來比原本禁止「無限制監控」強
硬得多。然而,加上「有意」這個詞,在法律層面上徹底改變了這條規則的運作方式。
漏洞所在: 要打破這條規則,必須證明軍方「打算」監控美國人。如果 AI 正在追蹤一
個外國販毒集團,並「意外」處理了數千名與該網絡互動的美國人的數據,這並不違規,
因為其主要意圖是進行外國監控。
結論: 由於要求提供意圖證明,這種看似「更強硬」的措辭,實際上提供的保護,反而
比一條簡單明瞭的嚴格規定(如「該系統不得以導致美國人被監控的方式使用」)還要薄
弱。
2. 關於購買商業數據的新條款
更新內容: 國防部理解此限制禁止
蓄意(deliberate)追蹤……包括透過採購或使用藉
由商業途徑取得的個人或可識別資訊。
背景脈絡: 這是對近期新聞報導的直接回應。
報導指出軍方希望使用 AI 來分析從商業
數據經紀商購買的定位和金融數據——這是一種極具爭議、用來規避搜索票限制的做法。
漏洞依然存在: 就像第一條款一樣,這項規定被「蓄意」這個詞削弱了。它只禁止「為
了蓄意追蹤美國人」而購買數據。
如果軍方購買了一個包含數百萬人的資料庫來尋找外國
威脅,而美國人剛好在這個資料庫中,那麼只要美國人不是主要目標,使用 AI 來分析這
些數據可能仍然是受到允許的。
3. 禁用於「類似 NSA 的機構」
更新內容: 我們的服務不會被國家安全局(NSA)等戰爭部/國防部情報機構(
Department of War intelligence agencies)使用。向這些機構提供任何服務都需要簽
訂新的協議。
公關與現實的落差: 禁用於 NSA 是一個絕佳的公關策略,因為大眾強烈地將其與監控畫
上等號。然而,「類似 NSA」這種法律措辭非常模糊。這究竟是禁止所有國防情報機構使
用,還是只禁止那些與 NSA 從事特定相同類型工作的機構?
情報共享: 軍方會在各部門之間共享情報。如果作戰部隊使用 OpenAI 的工具,並基於
NSA 收集的情報來制定任務計畫,那麼在技術上,NSA 算是「使用」了這項服務嗎?
並非永久禁令: 該條款特別註明,這些機構只需要「新協議」,這就為未來的合約敞開
了大門。
4. 新成立的工作小組
更新內容: 成立一個由 AI 實驗室、雲端供應商和國防官員組成的工作小組,以共同討
論政策。
缺失的聲音: 雖然建立對話是件好事,但
該小組目前缺乏公民自由組織、獨立監督機構
或國會的代表。它儼然是一個工業與軍方的「同溫層(echo chamber)」。
Anthropic 的回歸之路? OpenAI 的聲明暗示,這個小組可能會為其他實驗室與五角大廈
的合作建立一條「路徑」,這意味著這可能是讓最初拒絕合作的 Anthropic 重新回歸的
一種方式。
更新的整體評估
這次的合約更新堪稱危機處理的「大師級範例」。每一句新加入的條文都直接回應了過去
一週公眾的具體抱怨。
然而,從法律的角度來看,每一項新的保護措施都伴隨著一個限制性的詞彙(如「有意」
或「蓄意」),這
為軍方留下了足夠的轉圜餘地,讓他們能夠繼續進行廣泛的數據分析行
動。
最能說明問題的是:關於自主武器的條款完全沒有修改。 在一個旨在平息公眾恐懼的緊
急更新中,決定對武器規則保持原狀,這本身就已經說明了一切。
: 條款中明定禁用於大規模監控以及自動化武器
: 接下來Claude就大規模掛點
: 已經連續三四天出問題了
: 他是不是得罪了誰
可憐的Claude
--
※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 146.70.31.58 (日本)
※ 文章網址: https://www.ptt.cc/bbs/Gossiping/M.1772546204.A.CEB.html
※ 編輯: LoveSports (146.70.31.58 日本), 03/03/2026 21:57:25
噓 Carloslin: 在國家安全前面都要低頭150.116.189.158 03/03 22:01
噓 iceyeman: 結論就是: 婆 還是要去當兵 ^_^ 36.226.149.81 03/03 22:05
https://i.imgur.com/qfXolCB.png
截圖為證 都是討論正經事喔 清清白白沒有什麼公婆^^
可憐的Claude QQ
好啦開玩笑 簡單說一下結論 其實可憐的是人類
委內瑞拉作戰跟以美對伊朗的攻擊 如果有做很接近自主攻擊的行為
倒楣的會是人類
1. 出錯誰負責 2. 當責任可以推給程式碼 發動戰爭會變得更輕易
※ 編輯: LoveSports (45.250.255.8 日本), 03/03/2026 22:10:52
→ Gallardo: 中國也用科技監控人民 藍白無視中 36.234.198.167 03/03 22:11
不分哪一國 這些都是大問題
不是只有被攻打的國家或被監控的特定的人或國家倒楣而已
※ 編輯: LoveSports (45.250.255.8 日本), 03/03/2026 22:13:23
提醒一下 如果有人想貼這些內容去跟AI討論沒關係
但是要小心觸發安全警戒喔 這裡面很多關鍵字踩線
※ 編輯: LoveSports (45.250.255.8 日本), 03/03/2026 22:39:02