看板 iOS 關於我們 聯絡資訊
【情報來源】 cnBeta/cnBeta 原網址:https://www.cnbeta.com/articles/tech/1167959.htm (原始未刪減的網址) 【情報內容】 Reddit用戶發現CSAM檢測中使用的蘋果NeuralHash算法隱藏在iOS 14.3中 021年08月19日 07:48 據外媒AppleInsider報道,Reddit上的一個用戶稱,他發現了iOS 14.3中兒童性虐待材料 (CSAM)檢測中使用的蘋果NeuralHash算法的一個版本。蘋果在發給Motherboard 的一份聲 明中表示,在 iOS 14.3 中發現的 NeuralHash 版本並不是與 iOS 15 一起發佈的最終版 本。 https://i.imgur.com/iLlT9m6.jpg Reddit用戶u/AsuharietYgvar說,NerualHash代碼被發現隱藏在iOS 14.3中。該用戶說, 他們已經對代碼進行了逆向工程,並在Python中重建了一個工作模型,可以通過傳遞圖像 進行測試。 該算法是在隱藏的API中發現的,NeuralHash的容器被稱為MobileNetV3。有興趣查看代碼 的人可以在GitHub中找到。 這位Reddit用戶聲稱這一定是正確的算法,原因有二。首先,模型文件的前綴與蘋果文檔 中發現的相同,其次,代碼的可驗證部分與蘋果對NeuralHash的描述工作相同。 利用這個工作的Python腳本,GitHub用戶已經開始研究這個算法是如何工作的,以及它是 否可以被濫用。例如,一位名叫dxoigmn的用戶發現,如果知道CSAM數據庫中發現的結果 哈希值,人們可以創建一個產生相同哈希值的假圖像。如果是真的,有人可以製造出類似 於任何東西的假圖像,但產生所需的CSAM哈希值匹配。從理論上講,一個用戶可以將這些 圖片發送給蘋果用戶,以試圖觸發該算法。 儘管有這些發現,這個版本的NerualHash所提供的所有信息可能並不代表最終版本。蘋果 公司多年來一直在構建CSAM檢測算法,因此可以認為存在一些版本的代碼用於測試。如果 u/AsuharietYgvar發現的確實是CSAM檢測算法的某個版本,它可能不是最終版本。 如果dxoigmn 建議的攻擊向量是可能的,只需將其生成的圖像發送給用戶,就有幾個故障 保護措施可以防止用戶禁用 iCloud 帳戶,並報告給執法部門。。有許多方法可以在一個 人的設備上獲得圖像,如電子郵件、AirDrop或iMessage,但用戶必須手動添加照片到照 片庫中。沒有一個直接的攻擊載體,不需要物理設備,或用戶的iCloud憑證來直接向照片 應用程序注入圖像。 蘋果也有一個人工審查程序。攻擊圖像不是人類可以解析的東西,而是一個位域,而且顯 然偽造的文件中不涉及 CSAM。 不是最終版本 Reddit用戶聲稱他們發現了這些代碼,但並不是ML專家。帶有Python腳本的GitHub資源庫 暫時可供公眾檢查。 目前還沒有人發現iOS 15測試版中存在CSAM數據庫或匹配算法。一旦它出現,有理由相信 一些用戶將能夠提取該算法進行測試和比較。 目前,用戶可以探究這個潛在的NerualHash版本,並試圖找到任何潛在的問題。 然而,這項工作可能被證明是沒有結果的,因為這只是用於CSAM檢測的複雜過程的一部分 ,並沒有考慮到憑證系統或服務器端發生的事情。 蘋果還沒有提供CSAM檢測功能的確切發佈時間表。 ---------- AppleInsider 原文:https://tinyurl.com/3cs8226w r/apple 討論串:https://redd.it/p6n0kg r/MachineLearning 討論串:https://redd.it/p6hsoh 這個事情一開始是由 Khaos Tian 發現隱藏在 iOS 14.3 的 API 裡面, Function 的 class 名字叫 "obfuscated" https://github.com/KhaosT/nhcalc 後來就由 Asuhariet Ygvar 把 API dump 出來, 然後用反組譯的方式還原 NerualHash 的神經網路模型 https://github.com/AsuharietYgvar/AppleNeuralHash2ONNX 值得注意的一點是,他發現因為浮點數精度在不同處理器上的差異, 在不同機器上 Hash 同一張照片出來的結果可能差好幾個 bit。 https://i.imgur.com/r1iIM6v.png 然後在專案公開不久之後,就有人發現了兩張不同照片生成相同的 Hash 值 https://github.com/AsuharietYgvar/AppleNeuralHash2ONNX/issues/1 https://i.imgur.com/sLhAxxL.png https://i.imgur.com/SJpL413.png 不過讓人最驚訝的還是 NerualHash 其實已經寫在 iOS 14 了, 只不過目前沒有證據顯示蘋果把 hash 的結果拿來幹嘛 https://i.imgur.com/RoBqhwG.jpg --
Lyeuiechang: [新聞]有狼師一直戳女學森(.)(.)而被家長吉上法院...12/04 23:42
Xhocer: ) (12/04 23:44
xj654m3: ( Y )12/04 23:46
Xhocer: \|/12/04 23:48
xj654m3: (╮⊙▽⊙)ノ|||12/05 00:47
Lyeuiechang: /|\╰╮o( ̄▽ ̄///)<12/05 01:17
-- ※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 140.114.74.135 (臺灣) ※ 文章網址: https://www.ptt.cc/bbs/iOS/M.1629359035.A.366.html
mcharuko: 這其實很糟糕 這表示9月的iPhone13已經施行了 08/19 20:37
mcharuko: 如果手上有私人圖片的人 不管是不是child abuse 08/19 20:37
mcharuko: 都勢必會被檢查,甚至可能已經在現行的14.3以後版本遭檢 08/19 20:38
mcharuko: 我管你是不是要檢查child abuse,只要有照片疑似 08/19 20:38
mcharuko: 你就可以啟動人工檢視 08/19 20:38
mcharuko: 那萬一是我跟女友的親密照片呢? 08/19 20:38
mcharuko: 萬一身為apple員工的人看到某明星性愛照, 08/19 20:38
mcharuko: 跑出去爆料呢? 08/19 20:38
mcharuko: 僅依靠蘋果自己聲稱的「安全不誤判」根本就不可信 08/19 20:38
mcharuko: 再講得遠一點,像長澤茉里奈那種實際成年但一臉未成年的 08/19 20:41
mcharuko: 你怎麼人工判斷 08/19 20:41
mcharuko: 這辦法立意的出發點雖然好,但根本就是個爛主意 08/19 20:42
yahappy4u: 對啊這種隱私覺得很不ok 08/20 01:00
xdccsid: 真的是鬼扯,原來14就已經有了,我被騙了啊哈哈 08/20 05:06
savorwu: 身為果粉,還是得批評這個,最好不要上線 08/21 09:22
nimab: 蘋果每次都暗著來 當用戶好欺負? 08/22 06:57