作者LoveSports (我要當一個渣攻)
看板Gossiping
標題Re: [問卦] Claude是得罪了誰?
時間Tue Mar 3 20:51:54 2026
※ 引述《Supasizeit (Shitpost King)》之銘言:
: Anthropic 拒絕在使用條款中
: 開放戰爭部大規模監控以及自動化武器
: 遭到戰爭部解約
: 並且全面禁止聯邦政府官員與供應鏈廠商使用
: 隔沒幾天
: OpenAI 火速簽訂政府契約
: 條款中明定禁用於大規模監控以及自動化武器
OpenAI發表的與戰爭部的條款 2/28發布 3/2修改
(請google: Our agreement with the Department of War 不確定八卦板能不能貼)
但是兩個版本都有漏洞 以下是Claude Opus 4.6的兩篇分析
(正確性驗證:Gemini 3.1 Pro、GPT 5.2 Thinking mini、Grok 4.2 Beta)
畢竟涉及他國法律離我們有點遠
如果看不下去或看不懂的人請看下一篇 Gemini寫的說故事版XD
=====================================================================
2/28
好的,讓我直接對照 OpenAI 那份合約的原文,逐條分析其中的法律與技術縫隙。我會盡
量區分「高度可能」和「理論上可能但需要更多條件」的情況。
一、實現「接近自主武器」的路徑
合約核心條文是:AI 不得在法律、法規或國防部政策要求人類控制的情況下
「
independently direct」自主武器。
這句話有三個可以被利用的支點。
第一個支點是
「independently direct」的定義。這個措辭禁止的是 AI
「獨立指揮」,
但沒有禁止 AI
「建議、推薦、排序、篩選」。
在實際的作戰場景中,差別可以被壓縮到
幾乎為零。設想一個情境:AI 系統持續掃描戰場,自動識別威脅,自動排定打擊優先序
,自動計算最佳攻擊窗口,然後把一個整合好的打擊方案推送到指揮官螢幕上,指揮官只
需要點「批准」。
整個決策的實質內容都是 AI 完成的,人類只貢獻了最後那一下點擊。
在法律上,AI 沒有「獨立指揮」任何東西,它只是「輔助」了人類決策。但
在功能上,
人類已經從決策者退化成了批准者。
這不是假設。美軍現有的神盾艦方陣近迫武器系統(Phalanx CIWS)已經可以在全自動模
式下運作,不需要人類逐次批准每一發攔截。這證明了
美軍的現行政策框架確實允許在特
定情境下省略人類逐次決策。
第二個支點是
「where law, regulation, or Department policy requires human
control」這個限定語。
DoD Directive 3000.09 並非全面禁止自主武器,而是建立了一
個審批框架。
(發文者註:DoD Directive 3000.09(美國國防部第 3000.09 號指令)是美國國防部針
對自主武器系統(Autonomy in Weapon Systems)所制定的核心政策文件。)
該指令要求自主和半自主武器系統經過高層審查和批准,並通過嚴格測試。但通過審批之
後,系統就可以被部署。所以合約的這句話實際上是說:
「在國防部政策要求人類控制的
地方,我們不會繞過。」但國防部政策本身並不是在所有地方都要求人類控制。
第三個支點是
雲端與邊緣的問題。OpenAI 在 FAQ 中強調,
因為是雲端部署,物理上不可
能驅動自主武器,因為那需要邊緣部署。這個論點在技術上確實比其他AI說的要有更多分
量——軍事通訊環境不像民用網路那麼穩定,在被干擾的環境下雲端確實無法可靠控制武
器。但這個論點也有其限度:
在非對稱作戰中(如委內瑞拉那種對手電子戰能力有限的場
景),通訊延遲可能低到幾十毫秒,此時雲端 AI 即時下達指令給無人機在功能上已經接
近邊緣部署的效果。而且隨著低軌衛星通訊技術的發展,這個技術鴻溝會持續縮小。
更關鍵的是,合約對「邊緣部署」的禁止似乎只約束 OpenAI 自身的部署架構。
如果五角
大廈從 OpenAI 的雲端獲取了 AI 的分析結果和打擊建議,然後自行將這些結果整合進邊
緣設備的指揮鏈中,OpenAI 在技術上可以主張自己沒有進行邊緣部署。決策的「最後一
哩路」是五角大廈自己走的。
二、實現「大規模監控」的路徑
合約的相關條文是:AI 系統不得用於對美國人的隱私資訊進行
「unconstrained
monitoring」,且須符合第四修正案、FISA 1978 和 EO 12333 等法規。
這裡最關鍵的用詞確實是
「unconstrained」。這個詞把禁止範圍從
「所有監控」縮小到
了「無約束的監控」。只要監控是在某個法律框架的「約束」下進行的,就不違反合約。
而 FISA 第 702 條本身就提供了這個框架。根據 702 條款,情報機構可以在不需要針對
個人的搜索令的情況下,
對境外外國人進行電子監控。
問題在於,在搜集外國目標的通訊
過程中,美國人的通訊會被「附帶收集」(incidental collection)。這些附帶收集到
的美國人資料,在一定條件下可以被保留和查詢。
現在設想這個場景:AI 系統被部署來分析某個外國恐怖組織的通訊網路。為了找出這個
網路的節點和聯繫人,AI 可能需要掃描大量的通訊數據,其中不可避免地包含美國人的
通訊。AI 在這個過程中建立了人際關係圖譜、行為模式分析、異常偵測模型。這整個過
程在 FISA 702 和 EO 12333 的框架下是合法的,因為主要目標是外國人。AI 系統也沒
有進行「unconstrained」的監控——它是在「foreign intelligence purpose」的約束
下運作的。
但實際效果是,大量美國人的資料被 AI 系統處理和分析過了。
Anthropic 的措辭是拒絕「mass domestic surveillance」,這是一個更清晰的界線。
OpenAI 的措辭用「unconstrained monitoring of U.S. persons' private
information as consistent with these authorities」,這等於是說:只要符合現行情
報法規,監控就是可以的。而現行情報法規本身就允許相當寬泛的資料收集。
另外值得注意的是,合約提到的是「U.S. persons」——美國人。
這意味著對非美國人的
監控基本上不受這些條款限制。如果五角大廈想用 AI 對某個外國城市的人口進行大規模
影像分析、通訊監控或行為追蹤,合約中沒有明確的條款禁止這麼做,只要操作符合「
lawful purposes」和「foreign intelligence purpose」。
三、最容易被忽略的路徑:定義權的爭奪
以上所有分析都建立在一個前提上:合約中的關鍵詞彙由誰來定義?
「Independently direct」是什麼意思?AI 提供了 99% 的決策內容,人類只做了最後
1% 的批准,這算不算「獨立指揮」?
「Unconstrained monitoring」的門檻在哪裡?掃
描一百萬人的資料算不算
「unconstrained」,如果是在尋找某個特定外國目標的過程中
?「Mass domestic surveillance」和「targeted intelligence collection with
incidental domestic data」的界線在哪裡?
這些定義在合約中沒有被精確界定。在實際操作中,這些定義很可能由五角大廈的法律顧
問來解釋,而不是由 OpenAI 的安全研究員來解釋。OpenAI 有
cleared 工程師在場,但
如我前面提到的,這些工程師在機密環境中的話語權和獨立性是受限的。他們可以提出技
術意見,但最終的操作決定權在軍方手中。
四、一個重要的平衡觀點
以上分析展示了合約可以被如何利用,但我也要指出另一面:
這些路徑都不是沒有阻力的
。
美國的軍事法律體系確實有監察長、國會監督委員會、軍法體系等制衡機制。如果五角大
廈明確越線,被發現後會面臨法律和政治後果。合約中的模糊地帶是雙向的——OpenAI
的律師同樣可以援引這些條款來主張軍方的某個特定用途違約。而且公眾輿論和媒體監督
也是一個現實的制約力量,正如 Anthropic 與五角大廈的對峙本身就引發了大量媒體關
注和公共討論。
真正的風險不在於某個單一的明確越線行為,而在於漸進式的界線模糊。每一次小小的擴
展解釋,每一次「特殊情況」的豁免,每一次「戰時緊急」的權宜,都會把可接受的邊界
往外推一點。等到累積到一定程度回頭看時,原本的紅線可能已經面目全非。這才是這份
合約最值得警惕的地方。
3/2 修改版
==============================================================
好的,讓我直接對照原版(2月28日)和更新版(3月2日)的差異,做獨立分析。
新增條文的完整內容
更新版在原文最前面加了一整段,核心是兩個新條款:
第一條:「the AI system shall not be intentionally used for domestic
surveillance of U.S. persons and nationals.」
第二條:「the Department understands this limitation to prohibit deliberate
tracking, surveillance, or monitoring of U.S. persons or nationals, including
through the procurement or use of commercially acquired personal or
identifiable information.」
以及一個機構排除聲明:「our services will not be used by Department of War
intelligence agencies like the NSA. Any services to those agencies would
require a new agreement.」
還有一個機制性安排:成立由前沿 AI 實驗室、雲端供應商和國防部政策與作戰部門組成
的工作小組。
逐條分析
第一條:「intentionally」的法律效果
原版的措辭是「shall not be used for unconstrained monitoring of U.S. persons'
private information」。新版改成了「shall not be intentionally used for
domestic surveillance of U.S. persons and nationals」。
表面上,這是一個升級——從禁止「無限制的監控」變成禁止「國內監控」,範圍看起來
更廣。但「intentionally」這個詞引入了一個主觀意圖的要件。在法律上,要證明某個
行為違反這條條款,你不只要證明監控發生了,還要證明監控是「蓄意」針對美國人的。
這在情報操作中的實際意義是:如果 AI 系統被部署來追蹤一個外國目標(比如一個跨國
販毒網路的首領),在追蹤過程中系統處理了大量美國人的通訊、金融和位置數據,這在
法律上不構成「蓄意」對美國人的監控,因為意圖是指向外國目標的。美國人的數據是「
附帶」被捲入的。
相比之下,如果條款寫的是「shall not be used in any manner that results in
surveillance of U.S. persons」(不得以任何導致監控美國人的方式使用),那就是一
個客觀結果標準,不管意圖如何,只要結果涉及美國人就違規。OpenAI 沒有選擇這種寫
法。
所以這個修改的淨效果是:用一個看起來更強硬的詞(「domestic surveillance」比「
unconstrained monitoring」聽起來範圍更大)搭配一個實際上更寬鬆的限定詞(「
intentionally」引入了意圖要件),最終的保護力度反而可能不升反降。
第二條:「commercially acquired personal information」的意義
這條是全新加入的,明確禁止透過採購商業數據來追蹤美國人。結合 Axios 報導中
Emil Michael 向 Anthropic 提出的條件——允許使用從數據掮客購買的地理位置、瀏覽
記錄和財務資訊——這條新增條款幾乎可以確定是針對那篇報導的直接回應。
這是更新中最有實質意義的一條,因為它封堵了一個非常具體的路徑:政府透過購買商業
市場上的個人數據來繞過傳統情報收集的法律限制。這個做法近年來在美國情報界已經引
發了大量爭議,2023 年就有解密報告揭露多個情報機構在沒有搜索令的情況下購買美國
人的位置和網路數據。
但要注意的是,這條同樣受到第一條「intentionally」的修飾。「prohibit
deliberate tracking... including through the procurement or use of
commercially acquired personal or identifiable information」——禁止的是「刻意
的」追蹤行為。如果購買商業數據的「主要目的」是追蹤外國目標,美國人的數據只是「
附帶」出現在數據集中,這條的約束力就存疑了。
另外,
這條只禁止使用商業數據來「追蹤、監控」美國人,但沒有禁止使用商業數據本身
。如果軍方購買了一個包含數百萬人記錄的數據集,用 AI 來分析其中的外國目標網路,
過程中「順帶」建立了美國人的關聯圖譜,只要不是「刻意」針對美國人,合約的文字可
能並不構成障礙。
機構排除條款:「intelligence agencies like the NSA」
這條聲明排除了 NSA 等國防部情報機構使用 OpenAI 的服務。這在公關上很有效,因為
NSA 在公眾心中就是監控的代名詞。
但需要注意幾個技術細節。首先,「like the NSA」這個措辭的法律精確度不高。它是指
所有國防部下屬的情報機構(包括 DIA、NGA、NRO 等),還是只指與 NSA「類似」的信
號情報機構?如果一個負責地理空間情報的機構(NGA)需要用 AI 分析衛星影像來支援
作戰,它算不算「like the NSA」?這取決於解讀。
其次,條款說的是「our services will not be used by Department of War
intelligence agencies」。但在實際的軍事指揮架構中,情報流動是跨機構的。如果一
個非情報單位(比如聯合作戰司令部)使用 OpenAI 的系統進行作戰規劃,而這個規劃的
輸入數據中包含了來自情報機構的資訊,這算不算「情報機構使用了 OpenAI 的服務」?
從嚴格的技術角度看,使用服務的是作戰司令部,不是情報機構。
第三,條款說「Any services to those agencies would require a new agreement」—
—這不是永久禁止,而是說需要另簽合約。這留下了未來開放的可能性。
工作小組
這個機制安排本身是中性的。它可以成為真正的政策討論場域,也可以成為吸收爭議的緩
衝區。值得注意的是,OpenAI 明確說「we hope will help create a pathway for
other labs to work with the Department going forward」——這暗示這個小組的一個
功能是為 Anthropic 回歸創造條件。如果是這樣,它可能反映了 Nakasone 等人的施壓
成果。
(發文者駐:退休將軍保羅·納卡索內(Paul Nakasone)曾任美國國家安全局局長和美國網路司令部
局長,也是 OpenAI 董事會成員,)
但工作小組的組成——「frontier AI labs, cloud providers, and the Department's
policy and operational communities」——沒有包含任何獨立的公民自由團體、國會代
表或司法監督人員。這意味著討論將在產業和軍方之間進行,缺乏外部制衡的聲音。
整體評估
這份更新最誠實的描述是:
它是一份針對特定輿論危機的精準回應文件。每一條新增內容
都可以對應到過去一週的具體爭議——「intentionally」回應了對監控的廣泛擔憂,「
commercially acquired information」回應了 Axios 的爆料,「NSA」回應了公眾對情
報機構的恐懼,工作小組回應了對 Anthropic 被排除的批評。
它在公關層面上是有效的:每一個爭議點都有了一個可以指向的條款。
但在法律層面上,
新增的每一條保護都附帶了可以被利用的限定語。「Intentionally」把客觀的行為標準
轉化為主觀的意圖標準;「like the NSA」把精確的機構清單模糊化;「deliberately」
為「非刻意」的數據收集留下了空間。
而最能說明問題的,仍然是那個沒有被修改的部分:關於自主武器的條款。原版的「
independently direct」、「where law, regulation, or Department policy
requires human control」這些措辭,在更新中一字未動。在一份明顯是為了回應輿論壓
力而
緊急修訂的文件中,選擇完全不碰自主武器的條款,本身就是一個清晰的信號。
: 接下來Claude就大規模掛點
: 已經連續三四天出問題了
: 他是不是得罪了誰
--
※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 146.70.31.58 (日本)
※ 文章網址: https://www.ptt.cc/bbs/Gossiping/M.1772542318.A.B68.html
※ 編輯: LoveSports (146.70.31.58 日本), 03/03/2026 21:09:16
→ widec: 奧特曼就是 給我錢 我跪舔 1.165.35.241 03/03 21:22
→ widec: claude自恃有才 不與濁流 就被鐵拳了 1.165.35.241 03/03 21:22
目前他們簽的合約不論舊版新版
都沒有限制到對外國人進行大規模監控的部分
這個好像跟我們比較有切身關係
(雖然我覺得模型被用於接近自主作戰這點問題很大)
※ 編輯: LoveSports (45.250.255.8 日本), 03/03/2026 22:28:57
提醒一下 如果有人想貼這些內容去跟AI討論沒關係
但是要小心觸發安全警戒喔 這裡面很多關鍵字踩線
※ 編輯: LoveSports (45.250.255.8 日本), 03/03/2026 22:38:48