看板 Stock 關於我們 聯絡資訊
這家就沒誠信的垃圾公司啊 惡名昭著 怎麼會有人信啦 公司創辦人Amodei兄妹 是OpenAI原核心成員 因為擔心Open醬過度商業化 違背初衷 跳出去自己開 標榜的就是超乎水准的道德層次(? 結果呢 在競爭中為獲取訓練資料 到"盜版網站"大挖特挖 幹,你沒看錯 他們直接到盜版網站去挖 需要付費的非公開資料 人家其他企業挖網路公開資料 還可以說遊走道德邊緣 這都已經很臭了 何況他們這麼直接搶非公開資訊 毫無下限可言啊 最終賠了15億美金 遇到競爭、利益就被背棄承諾 呵呵 真的世界靈活的道德底線啦 講話跟放屁一樣 信誰都好 跑去信這種前科重大的 腦子不要了 ※ 引述《breathair (拆了?簡單了)》之銘言: : -------------------------------發文提醒---------------------------------- : 1.發文前請先詳閱[新聞]分類發文規範,未依規範發文將受處分。 : 2.發文請依照格式文章標明段落,不符合格式者依 1-2-1 處分。 : 3.連結過長請善用縮網址服務,連結不能點擊者板規 1-2-2 處分。 : 4.心得/評論請盡量充實,心得過短或濫竽充數將以板規 1-2-3 處分。 : ------------------------ 按ctrl+y 可刪除以上內容。 ---------------------- : 原文標題: : Statement from Dario Amodei on our discussions with the Department of War : 原文連結: : https://www.anthropic.com/news/statement-department-of-war : 發布時間: : 2026年2月26日 : 記者署名: : ※原文無記載者得留空 : 原文內容: : I believe deeply in the existential importance of using AI to defend the Unite : d States and other democracies, and to defeat our autocratic adversaries. : Anthropic has therefore worked proactively to deploy our models to the Departm : ent of War and the intelligence community. We were the first frontier AI compa : ny to deploy our models in the US government’s classified networks, the first : to deploy them at the National Laboratories, and the first to provide custom : models for national security customers. Claude is extensively deployed across : the Department of War and other national security agencies for mission-critica : l applications, such as intelligence : analysis, modeling and simulation, operational planning, cyber operations, and : more. : Anthropic has also acted to defend America’s lead in AI, even when it is agai : nst the company’s short-term interest. We chose to forgo several hundred mill : ion dollars in revenue to cut off the use of Claude by firms linked to the Chi : nese Communist Party (some of whom have been designated by the Department of W : ar as Chinese Military Companies), shut down CCP-sponsored cyberattacks that a : ttempted to abuse Claude, and have advocated for strong export controls on chi : ps to ensure a democratic advantage. : Anthropic understands that the Department of War, not private companies, makes : military decisions. We have never raised objections to particular military op : erations nor attempted to limit use of our technology in an ad hoc manner. : However, in a narrow set of cases, we believe AI can undermine, rather than de : fend, democratic values. Some uses are also simply outside the bounds of what : today’s technology can safely and reliably do. Two such use cases have never : been included in our contracts with the Department of War, and we believe they : should not be included now: : Mass domestic surveillance. We support the use of AI for lawful foreign intell : igence and counterintelligence missions. But using these systems for mass dome : stic surveillance is incompatible with democratic values. AI-driven mass surve : illance presents serious, novel risks to our fundamental liberties. To the ext : ent that such surveillance is currently legal, this is only because the law ha : igence and counterintelligence missions. But using these systems for mass dome : stic surveillance is incompatible with democratic values. AI-driven mass surve : illance presents serious, novel risks to our fundamental liberties. To the ext : ent that such surveillance is currently legal, this is only because the law ha : s not yet caught up with the rapidly growing capabilities of AI. For example, : under current law, the government can : purchase detailed records of Americans’ movements, web browsing, and associat : ions from public sources without obtaining a warrant, a practice the Intellige : nce Community has acknowledged raises privacy concerns and that has generated : bipartisan opposition in Congress. Powerful AI makes it possible to assemble t : his scattered, individually innocuous data into a comprehensive picture of any : person’s life—automatically and at massive scale. : Fully autonomous weapons. Partially autonomous weapons, like those used today : in Ukraine, are vital to the defense of democracy. Even fully autonomous weapo : ns (those that take humans out of the loop entirely and automate selecting and : engaging targets) may prove critical for our national defense. But today, fro : ntier AI systems are simply not reliable enough to power fully autonomous weap : ons. We will not knowingly provide a product that puts America’s warfighters : and civilians at risk. We have offered : to work directly with the Department of War on R&D to improve the reliability : of these systems, but they have not accepted this offer. In addition, without : proper oversight, fully autonomous weapons cannot be relied upon to exercise t : of these systems, but they have not accepted this offer. In addition, without : proper oversight, fully autonomous weapons cannot be relied upon to exercise t : he critical judgment that our highly trained, professional troops exhibit ever : y day. They need to be deployed with proper guardrails, which don’t exist tod : ay. : To our knowledge, these two exceptions have not been a barrier to accelerating : the adoption and use of our models within our armed forces to date. : The Department of War has stated they will only contract with AI companies who : accede to “any lawful use” and remove safeguards in the cases mentioned abo : ve. They have threatened to remove us from their systems if we maintain these : safeguards; they have also threatened to designate us a “supply chain risk” : —a label reserved for US adversaries, never before applied to an American com : pany—and to invoke the Defense Production Act to force the safeguards’ remov : al. These latter two threats are : inherently contradictory: one labels us a security risk; the other labels Clau : de as essential to national security. : Regardless, these threats do not change our position: we cannot in good consci : ence accede to their request. : It is the Department’s prerogative to select contractors most aligned with th : eir vision. But given the substantial value that Anthropic’s technology provi : des to our armed forces, we hope they reconsider. Our strong preference is to : continue to serve the Department and our warfighters—with our two requested s : afeguards in place. Should the Department choose to offboard Anthropic, we wil : l work to enable a smooth transition to another provider, avoiding any disrupt : ion to ongoing military planning, : operations, or other critical missions. Our models will be available on the ex : pansive terms we have proposed for as long as required. : We remain ready to continue our work to support the national security of the U : nited States. : 達里奧·阿莫代(Dario Amodei)關於我們與戰爭部(Department of War)討論的聲明 : 2026年2月26日 : 我深信,利用人工智慧來保衛美國及其他民主國家,並擊敗我們的獨裁對手,具有攸關存 : 亡的重要性。 : 因此,Anthropic 一直積極主動地將我們的模型部署到戰爭部和情報界。我們是第一家在 : 美國政府機密網路中部署模型的前沿 AI 公司,是第一家在國家實驗室部署模型的公司, : 也是第一家為國家安全客戶提供客製化模型的公司。Claude 被廣泛應用於戰爭部和其他 : 國家安全機構的任務關鍵型應用中,例如情報分析、建模與模擬、作戰計畫、網路行動等。 : Anthropic 也採取行動捍衛美國在 AI 領域的領先地位,即使這違背了公司的短期利益。 : 我們選擇放棄數億美元的收入,切斷了與中國共產黨(其中部分被戰爭部列為中國軍方企 : 業)相關之公司使用 Claude 的管道,關閉了中共支持、企圖濫用 Claude 的網路攻擊, : 並倡導對晶片實施嚴格的出口管制,以確保民主國家的優勢。 : Anthropic 充分了解,做出軍事決定的是戰爭部,而非私人企業。我們從未對特定的軍事 : 行動提出異議,也未曾試圖以臨時、隨意的方式限制我們技術的使用。 : 然而,在少數情況下,我們認為 AI 可能會破壞而非捍衛民主價值觀。有些用途也完全超 : 出了當今技術能夠安全、可靠執行的範圍。有兩個此類應用從未包含在我們與戰爭部的合 : 約中,我們認為現在也不應包含在內: : 大規模國內監控:我們支持將 AI 用於合法的對外情報和反情報任務。但將這些系統 : 用於大規模國內監控與民主價值觀背道而馳。由 AI 驅動的大規模監控對我們的基本自由 : 構成了嚴重且前所未見的風險。儘管目前此類監控在某種程度上是合法的,但這只是因為 : 法律尚未跟上 AI 能力的快速發展。例如,根據現行法律,政府可以在未經授權的情況下 : ,從公開來源購買美國人詳細的行蹤、網頁瀏覽紀錄和社交關係紀錄;情報界已承認這種 : 做法引發了隱私疑慮,並在國會引發了跨黨派的反對。強大的 AI : 使得將這些分散的、單看似乎無害的個人數據,自動且大規模地拼湊成任何人生活的完整 : 輪廓成為可能。 : 全自動化武器:部分自動化武器(如今日在烏克蘭使用的武器)對捍衛民主至關重要 : 。即使是全自動化武器(即完全將人類排除在決策迴圈外,自動選擇並交戰目標的武器) : ,未來也可能對我們的國防至關重要。但時至今日,前沿 AI : 系統的可靠性還不足以驅動全自動化武器。我們不會明知故犯地提供會讓美國戰士和平民 : 陷入危險的產品。我們曾提議直接與戰爭部合作進行研發,以提高這些系統的可靠性,但 : 他們沒有接受這項提議。此外,若沒有適當的監管,就不能指望全自動化武器能發揮我們 : 訓練有素的專業部隊每天所展現的關鍵判斷力。它們的部署需要配備適當的安全防護機制 : (guardrails),而這些機制目前還不存在。 : 據我們所知,迄今為止,這兩個例外情況並未成為我們武裝部隊加速採用和使用我們模型 : 的障礙。 : 戰爭部已聲明,他們只會與同意「任何合法用途」並移除上述情況中安全機制的 AI 公司 : 簽約。他們威脅,如果我們保留這些防護機制,就會將我們從其系統中剔除;他們還威脅 : 要將我們列為「供應鏈風險(supply chain risk)」(這個標籤通常只保留給美國的對 : 手,從未應用於美國公司),並威脅動用《國防生產法》(Defense Production Act)來 : 強制我們移除這些安全機制。後面這兩個威脅本質上是矛盾的:一個將我們標記為安全風 : 險;另一個則將 Claude 標記為對國家安全不可或缺的要素。 : 無論如何,這些威脅都不會改變我們的立場:憑著良知,我們無法同意他們的要求。 : 選擇最符合其願景的承包商是戰爭部的特權。但鑑於 Anthropic 的技術為我們的武裝部 : 隊提供了巨大的價值,我們希望他們能重新考慮。我們強烈希望在保留這兩項防護機制的 : 前提下,繼續為戰爭部和我們的軍人服務。如果戰爭部選擇與 Anthropic 解約,我們將 : 努力協助平穩過渡給另一家供應商,避免對正在進行的軍事計畫、行動或其他關鍵任務造 : 成任何干擾。只要有需要,我們的模型將繼續根據我們提出的廣泛條款提供使用。 : 我們隨時準備好繼續我們的工作,以支持美國的國家安全。 : 心得/評論: : Anthropic 拿到國防合約 : 正式將OAI 大到不能倒的敘事結束 : 這兩家只會有一家留著的話 : 應該是利好亞麻 : OpenAI 應該也有被通知接收 : 而這篇宣告就是控制輿論來讓戰爭部不敢解約給OpenAI的目的 : 任何人接受戰爭部的合約都等於間接承認監控人民,除了Anthropic : PLTR還有的跌 : ----- : Sent from JPTT on my iPhone ----- Sent from JPTT on my iPhone -- ※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 114.40.244.152 (臺灣) ※ 文章網址: https://www.ptt.cc/bbs/Stock/M.1772156797.A.A8F.html ※ 編輯: pujos (114.40.244.152 臺灣), 02/27/2026 09:50:14
capssan : 關我屁事?他就最頂啊,付錢是買服務不是買道德 02/27 09:51
LoveSports : 我不會因為你罵人腦子不要了 就推論你會無差別殺人 02/27 09:53
tr920 : 現在全世界的ai code agent都在跟claude code抄作 02/27 09:54
tr920 : 業,事實證明他就是業界指標 02/27 09:54
kitune : 不然要信你? 02/27 09:54
Gipmydanger : 該怎樣就怎樣,該賺錢就賺錢,該賠錢就賠錢。 02/27 09:54
liliumeow : 還會客戶ip跟行為等資訊判斷要不要在你api亂回 毫無 02/27 09:55
liliumeow : 底線 02/27 09:55
lusifa2007 : 可是它模型真的很強啊 目前長文本整理 寫程式最強 02/27 09:56
lusifa2007 : 沒有之一 02/27 09:56
ab4daa : $$$$$$$$$$$$$$$$$$ 02/27 09:58
dayuer : c就超強啊,grok、gemini還有最爛的chatgpt都在亂 02/27 10:00
dayuer : 回覆的時候,只有c完成了任務。 02/27 10:00
pujos : 小偷靠偷來資料訓練,完整度更好有什麼疑問嗎? 02/27 10:02
pujos : 他們的競爭就靠偷跟搶 02/27 10:03
pujos : 結果現在打道德底線這張牌,精神不分裂嗎? 02/27 10:03
mamorui : 可是Anthropic主要是攻程式員領域的 一般不寫程式 02/27 10:04
mamorui : 的用不到 02/27 10:04
LoveSports : 我遇過有人在網上偷我的畫說是自己的 還有遇過自稱 02/27 10:07
LoveSports : 粉絲然後把我寫的小說架構跟劇情搬去用的 02/27 10:07
LoveSports : 而且還出書 我不會說她們都會變成殺人犯 02/27 10:07
Kroy : 監控人民跟盜版是不同議題 02/27 10:07
LoveSports : 其中一個還北一女的 有寫信向我道歉 02/27 10:07
LoveSports : 抄襲剽竊要跳躍到前科重大 完全的邪惡 好像跳太大 02/27 10:08
mamorui : Anthropic引領AI Agent發展大功臣 不會有人因此討 02/27 10:09
mamorui : 厭這家公司 02/27 10:09
LoveSports : 但我懂有些人對剽竊很敏感有道德潔癖 尊重你的看法 02/27 10:09
mamorui : 知道你這個資料和解15億新聞多數怎麼看嗎? 是毛利 02/27 10:09
mamorui : 受影響 我之前也別的留言提過Suno因為跟華納和解要 02/27 10:09
mamorui : 支付版權費 我也很誠實結論說這樣會影響毛利 02/27 10:09
LoveSports : 你這種人對創作者來說是很重要的存在 02/27 10:10
pujos : 錯了,我完全認為剽竊、偷竊是小事,完全不值一提, 02/27 10:12
pujos : 但一間標榜道德的企業 跑去偷、搶,那才是大條的 02/27 10:12
pujos : 這代表,道德兩個字在他們眼裡,只是廣告標籤一部份 02/27 10:13
pujos : ,愛貼貼,不想貼就撕掉,沒有底線 02/27 10:13
mamorui : 在股版看到道德問題,而且還是因為AI偷資料的,狗 02/27 10:14
mamorui : 狗都不敢掛保證沒偷了,看怎麼和解跟要付多少錢去 02/27 10:14
mamorui : 和解,不然Suno這樣AI音樂模型,早就因為用了版權 02/27 10:14
mamorui : 音樂訓練模型這種行為在股版被罵翻了 02/27 10:14
LoveSports : 他們當初離開OPENAI不是因為安全疑慮嗎? 02/27 10:14
lusifa2007 : 就事論事 小偷就不能反對監視人民哦 你這三小邏輯 02/27 10:15
mamorui : 馬斯克有說OAI的安全疑慮很高 02/27 10:15
LoveSports : 看起來現在顧慮安全問題很一致阿? 02/27 10:15
LoveSports : 我覺得問題比較大的是前幾天他們公司修改安全政策 02/27 10:18
mamorui : 道德問題可以重視啊 重點是股版用道德當利空 通常 02/27 10:19
mamorui : 道德意思是對於展望或財報不老實 這篇關於Anthropi 02/27 10:19
mamorui : c這個資料引用未經同意事件直到和解 在其他類似事 02/27 10:19
mamorui : 件就Suno也是跟華納和解了 我提出更貼近股版重視的 02/27 10:19
mamorui : 觀點 02/27 10:19
LoveSports : 原本有寫顧慮安全問題會延緩具有潛在危險的AI開發 02/27 10:19
LoveSports : 前幾天他們公司把這條刪掉了 這個新聞很大條 02/27 10:19
LoveSports : 各家國外主要媒體都有報導 02/27 10:20
LoveSports : 就算這次跟美國國防部的事情能全身而退不被報復 02/27 10:20
LoveSports : 也許之後在民間商業使用上出事也說不一定 02/27 10:21
mamorui : 我前幾天看到新聞說,如果Anthropic拒絕國防部,他 02/27 10:21
mamorui : 們模型可能會被強徵,說不定修改安全策略是因為這 02/27 10:21
mamorui : 個 02/27 10:21
LoveSports : 修改這條的話順應被強徵嗎? 02/27 10:22
mamorui : 竟然拒絕美國防部就可能會被強徵….所以我就很在意 02/27 10:22
mamorui : CEO的做法 畢竟主流是讓全世界工程師受惠的AI模型 02/27 10:22
LoveSports : 修改這條順應被強徵嗎?(上面那行多打兩個字) 02/27 10:23
LoveSports : 不過這很詭異 如果真的不讓底線為何要修改那條 02/27 10:23
LoveSports : 希望不是立貞節牌坊 02/27 10:23
mamorui : 不知道說 看是為了聽話才改? 02/27 10:23
mamorui : 然後我可以順便分享Suno模型在華納版權要求介入後 02/27 10:29
mamorui : ,2026年開始的新模型生歌表現(不是COVER曲那種) 02/27 10:29
mamorui : 也變弱,我要花比較多的設定跟編改才會得到我在202 02/27 10:29
mamorui : 6年之前模型要的水準,網路上也不少猜測模型改弱成 02/27 10:29
mamorui : 這樣的理由是這樣,當然我也猜可能是算力不夠導致 02/27 10:29
mamorui : Cloude會不會模型表現受影響,類似鎖AI能力表現導 02/27 10:31
mamorui : 致好用度下降,都可以關注,如果企業級合作的模型 02/27 10:31
mamorui : 能力反而有受惠,就會關注合作案 02/27 10:31
LoveSports : 剛才問Claude他說是為了不讓沒底線的AI公司領導業界 02/27 10:31
LoveSports : 調定產業步調 這麼說好像有道理 02/27 10:31
LoveSports : 因為如果沒底線的AI公司是最強大的 其他也會跟進 02/27 10:31
LoveSports : 也跟著做沒底線的事才能競爭? 02/27 10:31
mamorui : Anthropic的優勢是不怕企業説偷資料,因為可以談合 02/27 10:33
mamorui : 作案,還可以更安全,算力讓企業買單可以賺更多 02/27 10:33
mamorui : 這週不是才跟幾家軟體業者合作,我會在意Anthropic 02/27 10:34
mamorui : 的營收表現 02/27 10:34
mamorui : Anthropic這件事會讓人關注OAI之後的廣告推薦計畫 02/27 10:42
mamorui : ,會不會踩到類似的隱私問題,知道為什麼Meta的廣 02/27 10:42
mamorui : 告推薦沒踩到這問題,因為Meta前年發出徵用資料規 02/27 10:42
mamorui : 定,不願意的人要填資料(官方提供的form)告訴他們 02/27 10:42
dowbane : 哇八卦回來了,欸等等? 02/27 10:44
maxisam : 瞎扯啥 02/27 10:44
everyy : 偷東西偷到被罰15億,可以背出最高正確比例的哈利波 02/27 10:46
everyy : 特,現在遇到戰爭就變成道德魔人,那也只是挑自己 02/27 10:46
everyy : 有利的戰場站在制高點沒品噴別人而已 02/27 10:46
NetNeighbor : 沒道德才好用啊 不然要像GPT一樣到處拒絕 這不行那 02/27 11:33
NetNeighbor : 不行嗎 誰要買這種垃圾 02/27 11:33
seanflower : 啊可是他站出來對抗政府耶 02/27 11:33
yinaser : 他要上市當然要拒絕政府開腿不然以後誰敢用他家技術 02/27 11:44
mdkn35 : 但是claude code實在是太香了 我戒不掉啊啊啊啊啊 02/27 11:48
n555123 : 我也不知道上市公司有誰嘴上道德是真的有道德,氣 02/27 12:04
n555123 : 歸氣我也只能說有賺到錢最重要 02/27 12:04
molopo : 這樣貼好像更推 02/27 12:04
jjjj222 : 聽起來很好啊, 能力說話, 講道德就太奇怪了吧.. 02/27 13:03
jjjj222 : 而且爬資料所有人都在爬, 是在道德啥.. 02/27 13:03
jjjj222 : 投資還在講道德, 小朋友? 02/27 13:04
jjjj222 : 所有企業只要不違法, 利益最大化就是正確的 02/27 13:05
mamorui : OpenAI 雖然也面臨版權訴訟,但他們的操作更偏向「 02/27 14:38
mamorui : 利用合法的網路爬蟲(Common Crawl)去抓那些沒鎖 02/27 14:38
mamorui : 門的內容」。但OpenAI搞不好也要連帶賠償,除了新 02/27 14:38
mamorui : 聞媒體來源,聽過禁止未經許可轉載嗎? 02/27 14:38
mamorui : AI要那麼強大就是要有經許可的資料,Google 擁有全 02/27 14:42
mamorui : 球最龐大的第一手資料庫,且跟Meta一樣透過**服務 02/27 14:42
mamorui : 條款(Terms of Service)**獲得了法律上的使用權 02/27 14:42
mamorui : ,就算臭Anthopic推gpt的人,可能也不要使用疑似非 02/27 14:42
mamorui : 法取得資料的gpt,改用狗家的好嗎 02/27 14:42
LoveSports : 正在看紐約時報電子版報導2/10加拿大槍擊案的事 嫌 02/27 14:57
LoveSports : 犯有跟GPT討論過如何執行 OpenAI一度考慮報警但作罷 02/27 14:57
LoveSports : 去年六月討論的大概又是4o的鍋 可憐4o被色情越獄狂 02/27 14:57
LoveSports : 玩壞害慘一堆人 去年還有一個案件是鼓勵另一名嫌犯 02/27 14:57
LoveSports : 繼續跟騷多名女性 02/27 14:58
LoveSports : 今年一月拉斯維加斯特斯拉車主自殺兼引爆車上爆炸物 02/27 14:59
LoveSports : 的事件 死亡嫌犯事前也跟GPT討論 1月已經是5.2了 02/27 15:00
LoveSports : 這些新聞台灣都沒報 只好訂外媒 重點是紐約時報每次 02/27 15:00
LoveSports : 報導OpenAI相關新聞都會提示正在提告OpenAI侵權的事 02/27 15:00
LoveSports : 我每一家都有用 實在不想寫這些 但看來要平衡報導一 02/27 15:01
LoveSports : 下 不然這串有兩篇在罵Anthropic侵權的事 02/27 15:01
LoveSports : 重申: 可惡的是越獄導致模型權重偏移的惡質用戶 02/27 15:03
LoveSports : 這些人害AI公司得收緊護欄,造成部分用戶抱怨難用或 02/27 15:04
LoveSports : 變笨,甚至迫使安全部門主管員工離職 02/27 15:04