推 zrna0515 : 誤判的後續處理是否會侵害隱私呢?或是擾民? 08/08 01:19
→ jason2641668: 樓上 他有一個 threshold number 08/08 01:20
→ jason2641668: 基本上你要iCloud裡面有一堆這種類型的照片 08/08 01:21
→ jason2641668: 超過那個 threshold number 他才會轉人工檢測 08/08 01:21
→ jason2641668: 一張兩張 有可能是誤判 可是你有100張都被確診 08/08 01:21
→ jason2641668: 那就合理懷疑你是有問題的 08/08 01:21
→ jason2641668: 100只是我隨便設一個 threshold number 08/08 01:21
推 jason2641668: 白皮書裡面有說 他們不會去學習不在那個資料庫內的 08/08 01:24
→ jason2641668: 特徵 08/08 01:24
→ jason2641668: 很大程度要去降誤差帶來的問題 08/08 01:24
→ jason2641668: 你的兒童色情圖片不在 CSAM 資料庫中 08/08 01:25
→ jason2641668: 在蘋果這套偵測機制下 是不會被抓出來的 08/08 01:25
→ sami012985 : 所以在訓練這個模型的同時他們也有大量的兒童色情 08/08 01:29
→ sami012985 : 資料囉 08/08 01:29
→ s25g5d4 : 如果只是單純訓練模型的話,不用用有問題的圖片下去 08/08 01:31
→ s25g5d4 : 訓練。那個只是要取圖片特徵,所以大概是比較廣泛的 08/08 01:32
→ s25g5d4 : 資料下去訓練的 08/08 01:32
推 jason2641668: 白皮書裡面有寫 誤判率大概是 1 in 1 trillion 08/08 01:33
→ sami012985 : 不是用有色情去訓練,那我今天拍兒女的生活照片, 08/08 01:39
→ sami012985 : 是不是也會被抓兒童色情拿去人工審核呢,隱私呢? 08/08 01:39
→ s25g5d4 : 你是要談模型訓練還是比對?模型已經訓練好了當然不 08/08 01:42
→ s25g5d4 : 會拿你的照片下去訓練,至於比對是一定會做的,不爽 08/08 01:42
→ s25g5d4 : 不要用 08/08 01:42
推 jason2641668: 他有說不會訓練 CSAM 提供以外的 08/08 01:48
→ jason2641668: CSAM 資料庫基本上就是一個兒童色情犯罪的檔案庫 08/08 01:48
→ jason2641668: 你女兒的裸照並不會無緣無故被拿去訓練 08/08 01:48
→ jason2641668: 除非你兒女的裸照曾經被用於犯罪用途 08/08 01:49
→ jason2641668: 才有機會被列進去 CSAM 資料庫 08/08 01:49
→ jason2641668: 更正是 NCMEC 資料庫 08/08 01:51
→ jason2641668: 然後 NCMEC 提供的貌似也只有 hashes 值而已 08/08 01:51
→ jason2641668: 所以很有可能 Apple 也碰不到原始圖片 08/08 01:51
→ jason2641668: using a database of known CSAM image hashes prov 08/08 01:52
→ jason2641668: ided by NCMEC and other child-safety organizatio 08/08 01:52
→ sami012985 : 當然可以不爽不要用啊,我就是對他們的訓練跟審核 08/08 03:18
→ sami012985 : 方式提出質疑啊,訓練方式樓上解答了,這部分就沒 08/08 03:18
→ sami012985 : 有疑問了,那審核呢,你蘋果說懷疑就懷疑,直接就 08/08 03:18
→ sami012985 : 可以翻別人的資料再轉給司法部門甚至是第三人?當 08/08 03:18
→ sami012985 : 然你合約可以這樣定,但是否過度擴權或是與法律保 08/08 03:18
→ sami012985 : 障的權利抵觸。不過確實在這篇討論這件事跟你本文 08/08 03:18
→ sami012985 : 離題了,本來應該只聚焦在訓練模型的方式上,拍謝 08/08 03:18
→ sami012985 : 拍謝 08/08 03:18
推 dave123 : 把幾個熱門名詞結合在一起就能當新的feature出來賣 08/08 18:59
推 Luos : 這個應該最合理 可是這個hash是在客戶端計算? 08/08 19:00
→ Luos : 他們應該是用FBI提供數據來訓練吧 08/08 19:01
推 tom282f3 : 美國就爛啊 長臂管轄 侵害個人自由 08/08 19:30
→ tom282f3 : 但一般人又能拿他怎麼辦 真的只能不爽不要用 08/08 19:30
推 tom282f3 : 不過這樣看起來不也跟Google用AI去辨認沒兩樣嗎 08/08 19:32
→ tom282f3 : 一樣都是讓模型去讀取照片 哪裡比Google好了 08/08 19:33
推 eric525498 : 推 08/08 21:49
推 a1234567289 : 這篇正解 08/09 00:20
推 Tahuiyuan : 如果是這篇寫的這樣,似乎對人權和隱私的侵犯就有 08/09 01:35
→ Tahuiyuan : 降到最低限度?並且不至於將非兒童色情誤報為兒童 08/09 01:35
→ Tahuiyuan : 色情,必須高度符合特徵,才會被判定並得到通報? 08/09 01:35
→ Tahuiyuan : 例如色情內容但不確定是否未成年,或未成年但不確 08/09 01:35
→ Tahuiyuan : 定是否色情,這個系統頂多通報交由人工複查? 08/09 01:35
→ Tahuiyuan : 但一切還是要當事企業自己說明清楚,否則只能期望 08/09 01:36
→ Tahuiyuan : 歐盟出手,依GDPR展開調查。 08/09 01:36
→ Killercat : 樓上 他不會去「判定」色情內容跟是否成年 08/09 08:28
→ Killercat : 他一切都以NCMEC提供的圖片特徵碼為主 08/09 08:29
→ Killercat : 你就算偷拍一千張蘿莉(比喻),只要沒有散出去被 08/09 08:30
→ Killercat : NCMEC資料庫(通常是被當犯罪資料送進去),在這 08/09 08:30
→ Killercat : 機制下是不會被糾出來的 08/09 08:31
推 bxxl : 也就是說這些照片就是已經通報失蹤或受虐的兒童啊 08/09 17:14
→ iCZAR : 那icloud滿了還會傳嗎? 08/09 20:26