→ PopeVic: 第一次發長文,排版有點混亂,敬請見諒QQ 08/08 23:43
推 IMISSA: 推一個 08/09 00:17
推 ZnOnZ: 先推推再看 08/09 00:17
推 tomap41017: 推 08/09 00:21
推 jaytt: 推 08/09 00:24
推 azbx1271: 推 08/09 00:25
→ Two4: Reddit 有在討論蘋果這做法確實是掃瞄 iPhone 本機的圖片 08/09 00:50
→ Two4: ,這跟蘋果是不是真的「看過」是兩個問題。有看法認為今天 08/09 00:50
→ Two4: 你蘋果可以因為美國法案而監控使用者手機內的內容,那蘋果 08/09 00:50
→ Two4: 以往強調的 Privacy 將成為笑話。加上蘋果說會依不同國家 08/09 00:50
→ Two4: 的法律規定來調整做法,那在中國會發生什麼事情? 08/09 00:50
推 zxc654033: 專業推 08/09 01:02
→ georgeyan2: 專業推,不過覺得兒童色情監管已經整個歪掉了 08/09 01:03
→ georgeyan2: 本來是立意良善,現在是扣個帽子就直接吃光你人權 08/09 01:04
推 ishuen: 跟台灣有關係嗎? 08/09 01:28
→ ishuen: 也是覺得為了極少數犯罪者監控全使用者不妥 08/09 01:29
推 Subscript9: 專業推,我覺得這個技術好神奇喔, 08/09 01:40
→ Subscript9: 經過後製的圖片Hash值還能跟原本的相同 08/09 01:40
→ Subscript9: 而且完全不經手AI,無法想像 08/09 01:40
推 Lin725: 推 專業 08/09 02:08
噓 YanYain: 純噓蘋果自己號稱最保障客戶隱私卻自打臉 08/09 02:32
推 yotama12005: 專業推,不過變態犯罪根本不會因為有審查就能減少 08/09 02:41
推 tinyrain: 推 08/09 02:56
推 gonna01: 還在噓蘋果保護隱私的只能說偉哉 08/09 02:58
推 YanYain: 樓上這麼不介意建議以後你家門都不要關,攘別人有事沒事 08/09 03:26
→ YanYain: 都進去檢查不用搜索令 08/09 03:26
推 LonyIce: 我有疑問,你雖然說是用已知資料去做特徵值比對,但這樣 08/09 04:45
→ LonyIce: 已知資料裡面還不是一樣要有兒童色情圖片才行嗎?沒有一 08/09 04:45
→ LonyIce: 開始的兒童色情圖片,要怎麼繼續抓出後續的資料?結果不 08/09 04:45
→ LonyIce: 是跟原本一樣,只是換個說法。 08/09 04:45
對你說的沒錯,資料庫裡面當然有兒童色情圖片,不然就無法做比對XD。但我想強調的是
,資料庫的圖片並不是用來訓練影像辨識模型,因為有些人會誤以為蘋果是拿兒童照片訓
練出一個分類模型,但實際上資料庫的作用並非如此。另外你提到要如何抓出後續的資料
,這其實就是這個機制的盲點之一,如果該照片是尚未被列入資料庫的「第一手照片」,
那麼這個機制就無法偵測到它,這點只能等NCMEC或其他組織找出更多兒童受害的資訊,
並將它列入資料庫中。
→ LonyIce: 二來是,你說用特徵值比對,但google搜尋除非有一樣的圖 08/09 04:45
→ LonyIce: 片,基本上搜尋的圖片常常出入很大,而大家的照片又不可 08/09 04:45
→ LonyIce: 能一樣,你說這樣失誤率會很低,我抱持的疑問? 08/09 04:45
我用以圖搜圖這個詞主要是想強調用已知的圖片去比對的概念,並不是說它的效果像是
以圖搜圖一樣會吐一個出入很大的搜尋結果。所以就像你說的,除非圖片真的近乎相同,
要比對成功的機會很低。
→ LonyIce: 同上,如果失誤的時候,一樣還不是要人工審核,這樣不就 08/09 04:45
→ LonyIce: 一樣侵犯了隱私? 08/09 04:45
的確目前似乎還沒有看到蘋果說明人工審核的詳細運作方式,這是需要注意的點。
→ LonyIce: 基本上,不管再怎樣強調沒有主動去瀏覽,但監控跟有能力 08/09 04:45
→ LonyIce: 去調閱,還是侵犯他人隱私啦。以Google那種失誤率來看這 08/09 04:45
→ LonyIce: 技術,我覺得應該沒有家長願意自己小孩的照片有可能被調 08/09 04:45
→ LonyIce: 閱吧? 08/09 04:45
推 whatzup1124: 好奇討論一下,我有個想法是使用GAN來產生兒色圖的特 08/09 05:10
→ whatzup1124: 徵值,然後再用此來跟客戶hash值進行比對,這樣有搞 08/09 05:10
→ whatzup1124: 頭嗎? 08/09 05:10
推 RaiGend0519: 意思是我要上傳iCloud還得消耗我機器的算力 08/09 05:14
推 neomaster: 本機是指消費者的手機,而不是icloud? 08/09 05:59
→ neomaster: 如果是,這合法? 08/09 05:59
沒錯本機是指消費者的手機,運算與加密的確是消耗手機的資源,但有沒有合法這就有
請美國的消費者去跟蘋果打集體訴訟了XDD
推 domlzchen: 推 08/09 06:40
推 yahappy4u: 推 防治兒童性侵害應該可以用其他方法,不需要這樣侵害 08/09 07:21
→ yahappy4u: 隱私吧 08/09 07:21
推 pm2001: 其實就只是特徵比對在使用者手機跟在遠端系統做的差別 08/09 07:41
→ zxzx8059: 特徵值來源ㄏㄏ 08/09 07:54
推 xdccsid: 那假設我身為父親,有些場景需要拍幼年子女的脫衣照給醫 08/09 08:08
→ xdccsid: 師查看,這樣被蘋果看到到底? 08/09 08:08
→ xdccsid: 如果因此需要人工審核,拿我小孩裸照還不被看光,不知道 08/09 08:09
→ xdccsid: 是誰侵犯誰… 08/09 08:09
推 IMISSA: 一堆人的質疑原PO Q1~Q5不就回答了.... 08/09 08:13
推 LonyIce: 好笑的點就是在Q2阿,只敢說理論上。但如果照原po說的 08/09 08:17
→ LonyIce: 跟以圖搜圖是類似原理,但以圖搜圖本身就錯誤百出,會不 08/09 08:17
→ LonyIce: 會誤判?準確度多高? 08/09 08:18
只說理論上是因為這種用到神經網路的東西不可能做到百分之百,肯定會有誤判的時候,
至於準確率到底是多少,就文件來看帳號被誤判的機率是一兆分之一,要不要相信
蘋果的統計就自由心證了XD。另外如同我上方的回覆,以圖搜圖只是一個概念,並不是說
它的效果跟以圖搜圖一樣。
→ LonyIce: Q5又表示被判定是非法圖片後,就可以人工審核 08/09 08:19
→ LonyIce: 立意是好的,但這不足以也不能當成侵犯隱私的理由。 08/09 08:20
沒錯,人工審核的部份需要蘋果做更多的說明。
→ Two4: 我認真覺得自己手機內的東西不該被掃瞄審查,蘋果這樣做確 08/09 08:27
→ Two4: 實會影響以後我要不要繼續買蘋果產品的意願。等著看戲。 08/09 08:27
推 berserkman: 所以蘋果會消耗手機電力進行照片分析運算,並且上傳 08/09 08:56
→ berserkman: iCloud,那如果照片只放在手機端不存iCloud, 是否就 08/09 08:56
→ berserkman: 不會上傳(仍然會消耗手機運算能力及電力?)? 08/09 08:56
只有上傳到icloud的照片才會被分析是確定的,但會不會計算沒上傳的圖片這點待釐清。
推 pSeRiC: 專業推 08/09 09:58
→ nooin: 人工審核需要法源依據,蘋果不是執法單位會有爭議.. 08/09 10:32
嚴格來說蘋果並沒有執法,只有將被抓到的帳號回報給 NCMEC 跟有關單位。
→ nooin: 另外最大的問題卻是就是資料庫的內容誰決定.. 08/09 10:33
推 hTCone5566: 問題應該是在於資料庫吧 08/09 11:10
→ hTCone5566: 如果放了政府想找的其他資料 08/09 11:10
→ hTCone5566: 蘋果不就成為幫忙政府監控的幫兇了? 08/09 11:10
→ hTCone5566: 誰能確保資料庫內容的真的只有兒童色情? 08/09 11:10
沒錯,最大的問題就是資料庫的內容,蘋果在 FAQ 裡面提到他們不會答應政府的要求
加入其他無關的照片,但看看中國的雲上貴州www 相不相信蘋果就看個人了XD
→ radiodept: 「閾值」O 「閥值」X 08/09 11:15
中文太差,你沒說我根本不知道這兩個字的差別XDD
推 BlueSat: 我是不希望手機被這種事情額外消耗資源去比對 08/09 11:32
推 baby0816: 專業分享給推 08/09 11:57
推 l11k755013: google做=》廣告公司收集資料,沒有隱私。apple做喔 08/09 12:07
→ l11k755013: =》利益良善保護未成年,沒有隱私侵害問題。我覺得這 08/09 12:07
→ l11k755013: 個雙標很可以 08/09 12:07
→ l11k755013: 喔,對了。我不是針對這篇,這篇說明的很詳細,是篇 08/09 12:11
→ l11k755013: 好文。只是同樣的文套google身上,嘛也就那樣。 08/09 12:11
推 homelife: 那些照片蘋果能解密都是蘋果自己說的,這就是問題 08/09 12:49
→ homelife: 用什麼演算法加密並不是重點 08/09 12:49
→ homelife: 另外目前的資料是說如果有照片被認定Matched並且被傳回 08/09 12:50
→ homelife: 蘋果,使用者並不會知道。這絕對跟強調隱私的廣告反著走 08/09 12:50
→ homelife: 最理想的加密方式一直都是"只有我自己有鑰匙" 08/09 12:52
→ homelife: Apple過去幾年強打隱私、避免其他公司獲取使用者資料, 08/09 12:52
→ homelife: 但是自己的服務就是不實作端對端加密,蘋果自己一直都 08/09 12:53
→ homelife: 在持有使用者資料,只是話講得比較好聽而已。 08/09 12:53
→ homelife: 現在開始終於有動作了,如果沒經過你同意直接就開始了 08/09 12:54
→ homelife: 審查你照片的動作,那未來這能推展到什麼程度? 08/09 12:54
→ homelife: FB for iOS連我在哪都不知道了,現在你大蘋果直接看我 08/09 12:55
→ homelife: 照片,也不問我是否同意,以後是否要審查我訊息? 08/09 12:55
推 yantingtw: 推資訊 08/09 13:21
噓 InInDer4Ni: 講這麼多就是侵犯隱私來掃你的照片 誰知道哪天會不會 08/09 13:29
→ InInDer4Ni: 偷用 08/09 13:29
推 FirstClass: 所以我實際自己去偷拍未成年少女上廁所的話,只要我 08/09 14:01
→ FirstClass: 不分享到網路上,也不會被偵測到了? 08/09 14:01
你說的就是這個機制的盲點,但我想你要擔心的不是蘋果,而是台灣的警察XDD
推 Subscript9: 我說明一下,NCMEC那邊有一個資料庫, 08/09 14:10
→ Subscript9: 搜集了當前已知的非法照片, 08/09 14:10
→ Subscript9: 蘋果利用這個資料庫對每張照片生成HASH值, 08/09 14:10
→ Subscript9: 再去比對您手機裡面的照片,是否有HASH值符合的照片 08/09 14:10
→ Subscript9: , 08/09 14:10
→ Subscript9: 換言之不在那個資料庫裡的照片, 08/09 14:10
→ Subscript9: 也就是您所述為了醫療所個人拍攝的照片, 08/09 14:10
→ Subscript9: 並不會被偵測到。 08/09 14:10
→ Medic: 是不是說 即便沒有同步 也已經在本機檢查是否 match 而同步 08/09 15:08
→ Medic: 就直接上傳這份結果了? 08/09 15:08
※ 編輯: PopeVic (114.38.90.138 臺灣), 08/09/2021 16:22:12
推 eon4: 今天掃描兒童色情 明天掃描你有沒有偷說黨的壞話 08/09 15:34
推 Murasaki0110: 只能掃DB裡的有什麼用? 抓散播的人而已 08/09 15:44
推 andy5656: 基本上也是AI影像辨識 現在訓練模型也都會用self-super 08/09 15:48
→ andy5656: vised 只是apple沒有把資料庫的data 拿來fine-tune而已 08/09 15:48
推 LonyIce: S 大說的還是不足以解釋誤判的情況,只是重複敘述了一次 08/09 16:01
→ LonyIce: 內容而已。而且拿那個舉例也很怪,最生活化的應該是,我 08/09 16:01
→ LonyIce: 拍我家小孩沒穿衣服亂跑、洗澡的照片,跟資料庫裡罪犯拍 08/09 16:01
→ LonyIce: 別人小孩類似情境的照片,那些數值可以判定這些?更別說 08/09 16:01
→ LonyIce: 其他誤判成完全不相干東西的情況了,一直說數值會判定, 08/09 16:01
→ LonyIce: 避開誤判的情況有什麼用?更別談撇開這些,根本的隱私權 08/09 16:01
→ LonyIce: 問題,不管你有什麼理由,沒有人有理由被監控。 08/09 16:01
推 wind50321: 監控全用戶就是已經預設 你有可能是犯罪者了吧 08/09 16:06
推 lylu: 問題應該還是在要如何說服使用者誤判的情況 另外也很好奇這 08/09 16:13
→ lylu: 個方法如果我是把多張圖片合成一張圖的話還有辦法辨認到嗎 08/09 16:13
推 pooty: 反正蘋果會掃描你所有的相片,結案 08/09 17:29
→ Two4: 蘋果負責一點就做個開關讓使用者自己決定願不願意接受偵測 08/09 17:46
→ Two4: , 少打一次蘋果自己的臉。 08/09 17:46
推 nimab: 你的文很專業 但加密方式安不安全從來不是重點 08/09 18:58
→ lavign: 它還是讀取了原始圖片內容 08/09 18:58
推 nimab: 你能保證蘋果除了加密之外沒對你的資料做其他事嗎? 08/09 18:59
推 nimab: 蘋果從來不會公開他對使用者的資料做什麼 但其他在iOS上的 08/09 19:01
→ nimab: 公司卻都得公開透明 這才是最恐怖的 08/09 19:01
推 nimab: 其他公司有沒有侵犯用戶隱私蘋果說了算 但蘋果自己是裁判卻 08/09 19:07
→ nimab: 能審查用戶隱私資料 還不跟你說詳情 08/09 19:07
推 Ivudaisuki: 推好文 08/09 19:16
→ Ivudaisuki: 但真的搞不懂為什麼蘋果要因為少數人侵犯所有人的隱私 08/09 19:16
→ Ivudaisuki: 08/09 19:16
→ Ivudaisuki: 而且單純比對資料庫的圖片 08/09 19:16
→ Ivudaisuki: 根本無法遏止偷拍未成年少女吧 08/09 19:16
→ Ivudaisuki: 自己拍自己存 不散播就進不了資料庫 也就不會被抓 08/09 19:16
→ Ivudaisuki: 這的搞不懂蘋果到底在幹嘛 08/09 19:16
→ Ivudaisuki: 蘋果這個一搞 等於自己毀掉iCloud強調的安全跟隱私 08/09 19:16
→ Ivudaisuki: 不僅讓人質疑開了這個先例是否會是潘朵拉的盒子 08/09 19:16
→ Ivudaisuki: 況且根據目前大家的討論 08/09 19:16
→ Ivudaisuki: 這個政策造成的質疑跟擔憂明顯超過正面效益 08/09 19:16
→ Ivudaisuki: 一方面在發表會強調自己多重視隱私 08/09 19:16
→ Ivudaisuki: 另一方面卻又幹著侵犯隱私的事 08/09 19:16
→ Ivudaisuki: 坦白講這的蠻失望的(但我也譴責兒童色情) 08/09 19:16
→ Ivudaisuki: 也會考慮要不要繼續使用iCloud備份照片了 08/09 19:17
→ Ivudaisuki: 另外我之前有看到文章說只會適用在美國地區 08/09 19:17
→ Ivudaisuki: 不知道是全球都適用還是只有美國? 08/09 19:17
→ Two4: 目前這是因應美國法律才有這個計畫,僅適用於美國 iPhone 08/09 19:23
→ Two4: 使用者。但蘋果說會因應不同國家的規定來施行,所以大家 08/09 19:23
→ Two4: 可以想想碰到中國會發生什麼事。 08/09 19:23
推 ho83leo: 推,合理。 08/09 19:31
→ MonkeyCL: 謝謝蘋果幫我檢查照片 08/09 20:01
→ hoos891405: iCloud 存照片本來就很爛了,現在更不想存了 08/09 21:33
推 cities516: 推整理 看來這系統對於偷拍犯還是沒屁用啊 08/09 21:41
→ cities516: 而且看起來很容易成為政府的審查工具沒錯 08/09 21:41
推 jtrus0520: 媽媽拍自己兒子小時候露JJ看來也危險了 08/09 21:52
推 sunsptt: 你的意思是蘋果有一個塞滿兒童色情的資料庫可以拿來比對 08/09 21:56
→ sunsptt: 嗎 08/09 21:56
→ hoos891405: 你自己拍的照片沒在資料庫裡面不會有事 08/09 22:44
→ hoos891405: 但蘋果有個h圖資料庫這件事情還是很好笑 08/09 22:44
→ hoos891405: 蘋果這樣搞超級腦殘,而且很容易繞過..人家不要使用 08/09 22:47
→ hoos891405: iCloud 或ios就好了,而且如果用mega分享照片,直接 08/09 22:47
→ hoos891405: 用app看你也不能怎麼樣。但蘋果這要搞就是賠掉商譽, 08/09 22:47
→ hoos891405: 搞不好這功能還會讓ios背景更噴電 08/09 22:47
→ hoos891405: 還不如學日本那樣強制拍照要有很大聲的快門音還比較 08/09 22:50
→ hoos891405: 實用一點點 08/09 22:50
推 makairin: 這個不是沒不沒事的問題,大部份都不是被法院認定的嫌 08/09 22:54
→ makairin: 疑犯,沒有理由把儲存在線上空間的資料給人看,誰決定 08/09 22:54
→ makairin: 資料庫特徵碼就不算隱私的一部份。這種搜索是有罪推論 08/09 22:54
→ makairin: 的,使用者必須開放自己空間的特徵碼證明自己「無罪」 08/09 22:54
推 ryuter: 台灣應該馬上會跟進了. 08/10 01:02
推 e04bank: 中國:Interesting 08/10 10:53
噓 Doard: 閾值啦 幹 08/10 12:47
推 berserkman: 中國:樂觀其成,感謝蘋果 08/10 20:52
噓 sixf0ld: 美國政府使用兒童色情的名義擴權早已行之有年 08/10 21:26
→ sixf0ld: 現在是比對已建檔的兒童色情影音 08/10 21:26
→ sixf0ld: 但在技術跟程序上,有什麼能阻止/避免政府or蘋果拿其他 08/10 21:26
→ sixf0ld: 任意項目的影音來做比對,以得知用戶有沒有持有任意圖片 08/10 21:26
→ sixf0ld: ? 08/10 21:26
→ sixf0ld: eg:中國政府比對找出持有64坦克人照片的用戶 08/10 21:26
→ sixf0ld: 先打預防針 我堅決反對兒童色情 08/10 21:26
→ sixf0ld: 另外,github上已經有人實作了可以產生相同neural hash 08/10 21:28
→ sixf0ld: 的方式 雖然不知道蘋果的實際implementation,但顯然誤 08/10 21:28
→ sixf0ld: 判絕對是會發生 08/10 21:28
推 sixf0ld: 補推 08/10 21:33
推 sixf0ld: 補補 08/10 21:39
推 fattit: 這年頭你總是要把資料交給某家公司的 除非你什麼都自己架 08/10 22:20
→ fattit: 差別只在你交給誰了 google也對gmail, google pay的交易內 08/10 22:21
→ fattit: 容掃描阿 美其名都立意良善 真的要絕對隱私 請自己做手機 08/10 22:21
推 hanhsiangmax: 推推~~~是既然唷~ 08/11 00:33
推 george12345: 看起來不是拿圖片binary去hash 是經過一些簡單的NN 08/11 06:27
→ george12345: 得到feature去跟資料庫裡的比對,這些feature 對人 08/11 06:27
→ george12345: 來說就是一堆數字而已沒什麼意義,所以應該不能算看 08/11 06:27
→ george12345: 過,而當feature跟資料庫裡的非常相似時才會上傳照 08/11 06:27
→ george12345: 片得到原始圖檔 以上只是猜想 08/11 06:27
→ makairin: 能被拿來做比對就不能算無意義的數字,用戶空間內任何 08/12 17:08
→ makairin: 一段數據包含客戶刪除檔案的碎片都應屬於個人資產 08/12 17:08
推 Waterpig: 不管你轉了幾層 你先假設所有使用者是罪犯 利用使用者 08/12 18:13
→ Waterpig: 本身的資源去做運算怎麼想都有問題 更別說會有誤判需 08/12 18:13
→ Waterpig: 要人工介入部分 憑什麼我沒犯法的照片因為你的誤判就 08/12 18:13
→ Waterpig: 給你看? 08/12 18:13
推 lirpassmore: 蘋果就是假定所有人都有嫌疑才會去把照片跟資料庫掃 08/12 20:28
→ lirpassmore: 描阿!這點就站不住腳了 08/12 20:28
推 Ferscism: 為了防止兒童色情一個公司可以看東西 08/14 13:22
→ Ferscism: 那政府為了維穩可不可以隨意搜索你家呢? 08/14 13:23
推 davidyun: 好文推! 08/14 23:39