精華區beta C_Chat 關於我們 聯絡資訊
就是在作品圖中加入人類肉眼難以辨識的雜訊 https://i.imgur.com/PBBbNRA.jpg https://twitter.com/Akihitweet/status/1577827240330809344?t=FOSz6UZh2oyMsStXJ8LE Zg&s=19 不過回覆裡也有人說有技術可以克服雜訊問題就是了 延伸閱讀:如何欺騙AI https://youtu.be/YXy6oX1iNoA
-- ※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 182.239.85.157 (香港) ※ 文章網址: https://www.ptt.cc/bbs/C_Chat/M.1665127047.A.957.html
diabolica: 如何欺騙人類 10/07 15:18
D2Diyus: 這真的比較是在欺負盜圖仔肉眼w 10/07 15:18
b2202761: 就只不過是在抓圖時候多一道刪除雜訊的步驟 10/07 15:19
Nuey: 就多一道工序而已== 哪有差 10/07 15:19
Nuey: 你不如整張圖都打上馬賽克還比較有用 10/07 15:19
holiybo: 這是不是跟防b站盜片是同一個原理 10/07 15:19
aqswde12349: 這跟加浮水印一樣沒屁用吧,又不是不能去除掉 10/07 15:20
hami831904: 在色圖加入雜訊→古典制約導致性奮與雜訊連結→未來 10/07 15:20
hami831904: 光看雜訊就可以射 10/07 15:20
k960608: 這就上鎖的概念 總會有拆鎖專家 10/07 15:20
Bugquan: 人眼不能辨別,但是AI勒? 10/07 15:21
k960608: 但是上鎖可以防止很多低等ai也是事實 10/07 15:21
mikeneko: 建議加上防支咒 10/07 15:21
joseph93234: adversarial perturbation 10/07 15:21
k960608: 人眼不能辨識=我可以正常尻 ai會辨識=ai會得到跟我們不一 10/07 15:22
k960608: 樣的資訊 這樣有沒有看懂 10/07 15:22
pikachu2421: 實際上根本不同類型的AI 不會有什麼效果 10/07 15:22
minoru04: 跟以前看到鎖碼台雜訊畫面就勃起一樣 10/07 15:23
oldriver: AI看得懂=AI可以把它挑出來去掉 多一道工而已 10/07 15:23
phoenix286: AI在讀樣本時不會做濾波嗎? 10/07 15:24
forb9823018: 單張圖識別物件才有用 10/07 15:24
sameber520: 只有一招 那就是拒絕交流 但肯定不值得 10/07 15:25
a43164910: 有人覺得只有他看得懂欸 笑死 10/07 15:25
geniuseric: 偷放維尼和綠色母狗呢 10/07 15:25
lay10521: 可以做到原圖相似度97%以上 但肉眼看不出來 10/07 15:25
moritsune: 早在讓AI畫圖前這類去雜訊的研究就已經做幾十年了 10/07 15:25
LLSGG: 這史前論文我覺得已經解決了啦 10/07 15:26
haha98: 以前gan紅的時候gradient adversarial 就一堆了 10/07 15:27
haha98: 已知用火 10/07 15:27
csvt32745: https://youtu.be/YjfzJdimPDA?t=333 10/07 15:27
vios10009: 你各位知道為什麼中國轉貼的圖片很多品質差又有雜訊了 10/07 15:27
vios10009: 吧,那是為了防盜啦 10/07 15:27
k0942588: 這只能防到很低階的model吧 10/07 15:27
sameber520: 以前怎麼防駭客 直接物理分隔系統不連網 同一招 10/07 15:27
kinghtt: 達文西領先業界500年... 10/07 15:27
franktpmvu: 這個是辨識用的模型 跟生成用的模型罩門不一樣 辨識 10/07 15:28
franktpmvu: 模型可能因為加一點雜訊就認錯物體 但加了雜訊的熊貓 10/07 15:28
franktpmvu: 在生成模型一樣會產生加了雜訊的熊貓 10/07 15:28
qxpbyd: https://i.imgur.com/VyHLRzb.jpg 抱歉 隨便找就一篇還原 10/07 15:28
smart0eddie: 這種東西換個model就沒屁用了 10/07 15:28
k960608: 沒錯 最強的鎖就是連門都沒有 10/07 15:28
qxpbyd: https://diffpure.github.io/ 10/07 15:28
smart0eddie: 生成有雜訊的熊貓又如何 人眼又看不到 10/07 15:28
k960608: 其實你各位每次輸入的驗證碼就是在幫ai識別啦 10/07 15:29
csvt32745: 生成模型上不知道有沒有用就是XD 10/07 15:29
qxpbyd: 而且那是影響分類問題 不知道對生成模型是有什麼影響 10/07 15:29
swear01: 這個沒用啦 李弘毅前幾天在講transfer learning的時候才 10/07 15:29
swear01: 講過這個,那裡的研究原因是訓練出來的AI模型要防盜,結 10/07 15:29
swear01: 論卻是在肉眼看不出來的雜訊下,AI因為減少了Overfittin 10/07 15:29
swear01: g反而效果更好 10/07 15:29
k960608: 這我好像十幾年前還在抓免空就聽過了 10/07 15:29
Annulene: 看著蠻搞笑的 已經不知道安怎了.. 10/07 15:29
haha98: 你攻擊gan可能還有點機會 但是現在紅的是diffusion 10/07 15:29
asd8569741: SD本身就是建立在去噪的模型,這種防禦方式會有用嗎 10/07 15:30
smart0eddie: diffusion 就是在去雜訊的== 10/07 15:30
qxpbyd: GAN有分類器 擴散模型沒有 10/07 15:30
IntelG4560: Difussion好像就是用加雜訊去雜訊的方式訓練的,懷疑 10/07 15:31
IntelG4560: 這個方法有效性 10/07 15:31
haha98: 建議可以先去看幾門開放式課程再來 10/07 15:33
milk830122: 繪師在這方面那比得過真正的工程師 耍小聰明哪有用 10/07 15:34
e446582284: 用AI的方法對抗AI? 腦洞真大,多一道工而已,連遊戲 10/07 15:34
e446582284: DRM 都擋不住駭客,你才圖片是要擋什麼 10/07 15:34
Mchord: 這方法完全無效,不用幻想了 10/07 15:34
milk830122: 繪圖軟體也是程式來的 10/07 15:34
sameber520: 不要自以為能在技術上取巧 技術一年可能好幾次大改 10/07 15:34
Mchord: 你如果加了雜訊圖好看那train下去一樣會生出好看的東西 10/07 15:35
tim910282: 那就只好生出產生雜訊的AI了 10/07 15:36
sameber520: 這麼想防 那就是從現在開始都別放圖 10/07 15:36
mapulcatt: 工程師:已知用火 10/07 15:36
shadowblade: 影像處理早就能搞定這種東西了 10/07 15:36
chuegou: 現在主流網站用可見雜訊驗證碼都防不住機器人了 影像辨 10/07 15:36
chuegou: 識很強大捏 10/07 15:36
Bugquan: 就算不改模型,也只是多一道工,而且除非全加了,不然總 10/07 15:36
Bugquan: 有沒加工的 10/07 15:36
Mchord: 加到整張看不清楚連粉絲都不想看的話,他們也懶得盜你圖 10/07 15:36
miyazakisun2: 那個雜訊還原 已經.... 10/07 15:37
k960608: 對 最終就會走向大家都不放圖的境界 10/07 15:37
Bugquan: 不放圖先餓死繪師而已 10/07 15:37
mn435: Ai學老圖就夠本了吧… 10/07 15:38
vios10009: 這個AI本身就是以降噪為基底去練習的,這就像是在國文 10/07 15:38
vios10009: 考卷上丟一堆幼稚園數學題目,AI看了都會笑 10/07 15:38
qxpbyd: 訓練過程就會加噪了 等於是繪師先幫忙放了一點noise 10/07 15:38
alen0303: 這已經好幾年前的問題了 早就被解決了 10/07 15:38
Annulene: 看著跟當時抖音的情況有點像? 結果應該也差不多 使用 10/07 15:38
Annulene: 者越來越多的話 10/07 15:38
mn435: 最後ai學ai誰要學繪師 10/07 15:39
jasonchangki: 真正厲害早就去當工程師了哪會繪師 10/07 15:39
sameber520: 但繪師的知名度和商業來源要先從分享開始 所以別想了 10/07 15:39
LiangNight: 越來越好奇未來的發展了 10/07 15:39
sameber520: 工業革命時的手工業者最後還不是得進工廠工作 10/07 15:40
twosheep0603: 這套是騙分類器用的 aka tag污染 10/07 15:42
twosheep0603: 對於diffusion來說可以說是毫無作用w 10/07 15:42
ringtweety: AI現在生的圖的等級 其實已經告訴你這雜訊效果不大了 10/07 15:43
undeadmask: 最後就會變成繪師都懶得畫圖 ACG二創市場萎縮 宅宅只 10/07 15:45
undeadmask: 能看AI圖尻尻 大家互相傷害罷了 10/07 15:45
qxpbyd: https://i.imgur.com/qMV2uoH.jpg Cold Diffusion那一篇 10/07 15:46
qxpbyd: 試過加不同種的noise了 10/07 15:46
zeolas: 看以後會不會變成軍備競賽囉,我反制你的反制之類的 10/07 15:47
TentoEtsu: 好像還滿多人樂見這種互相傷害 笑死 以後大家都沒得看 10/07 15:48
a43164910: 活不到那個以後啦 都沒得看是要發展成怎樣== 10/07 15:49
sameber520: 我倒覺得以後AI會變成繪師工作用IDE的一部份吧 10/07 15:49
sameber520: 說到底還不是要人下指令 修圖也還是繪師修的好 10/07 15:50
Irenicus: 不放圖就不能當社群偶像了 太苦了 10/07 15:51
Irenicus: 是說有時間想這些有的沒的 不如趕快去研究AI可以怎樣讓 10/07 15:52
Irenicus: 自己的產圖更多更好 10/07 15:52
Lhmstu: 這方法太低階了吧... 10/07 15:52
guogu: 怎麼可能沒得看 如果AI圖夠好看夠有趣 大家看AI圖一樣享樂 10/07 15:52
guogu: 如果AI圖千篇一律 沒故事性 那樣人類繪師就會繼續主流 10/07 15:52
nisioisin: 這張圖是數位邏輯還是影像辨識課本跑出來的吧XD 10/07 15:53
nisioisin: 這種程度應該很好分離出來 10/07 15:53
Siika: 真的要防就是完全斷網啦 10/07 15:53
guogu: 真的要防就是畫完送碎紙機 不上傳不出版就不可能被學 10/07 15:56
GreenComet: 都有對抗式訓練了 那比白噪點更能攻擊網路 10/07 15:56
orange0319: 不就和驗證碼一樣,到後來正常人根本不知道驗證碼那團 10/07 15:56
orange0319: 歪七扭八文字是啥,但是電腦卻能辨識 10/07 15:56
asiaking5566: 只能讓自己推的愛心數變少而已 10/07 15:57
purue: 去防這個 不如公開模仿資訊讓繪師抽成 10/07 15:57
DJYOSHITAKA: 這超多人在做了吧 10/07 15:57
mom213: 這老方法了 一堆外行仔zzz 10/07 15:58
sinnerck1: 騙分類器的老方法是有什麼用 10/07 16:00
mapulcatt: 畫師都死去大概也沒差 到後來用照片訓練 AI圖互相訓練 10/07 16:01
aaaaooo: 這就第N次工業革命阿 先學會用法的人可以把其他人淘汰掉 10/07 16:01
mapulcatt: 然後再由受眾的反應去決定訓練的反饋就好了 10/07 16:02
mapulcatt: 就像當時阿法狗一樣 進化到後來 人類的棋譜反而是累贅 10/07 16:02
ringtweety: 當AI已經能呈現出水準很高的圖 而不是什麼都畫成邪神 10/07 16:05
guogu: 繪師本來就外行人啊 人家是畫圖的不是搞ai的是要多內行 10/07 16:05
zeus7668: 文組想到的方法沒什麼參考意義 10/07 16:05
Annulene: 跟“人類”借圖還要知會一下 這個根本厲害 還難追溯源頭 10/07 16:06
ringtweety: 表示它的理解能力已經不是這種雜訊就可以斷的了 10/07 16:07
Aurestor: 這招是在瞧不起AI嗎 10/07 16:08
misclicked: 我的論文就是做這個的 10/07 16:10
akiue: AI:哈欠。 10/07 16:17
akiue: 想到網頁有時會出現,懷疑你是機器人。 10/07 16:18
aaronpwyu: 就跟放符文防中國一樣啊 插入訊息防盜用 10/07 16:27
clothg34569: 這一看就外行人的言論= = 10/07 16:29
clothg34569: 晚點再回一篇好了 這篇只證明了懂AI真的很重要 10/07 16:30
clothg34569: 之後繪師是不是應該要把李宏毅的課程列為必修阿 10/07 16:33
dsa888888: 不要上傳圖片讓它沒得吃 10/07 16:34
dsa888888: 雖然現在的圖庫應該夠了 10/07 16:34
jokerjuju: 這個大概還是停留在剪貼時代的產物 10/07 16:35
johnny3: 一句話 來不及了啦 10/07 16:39
Raptors1: 小干擾就死掉的AI不會被端出來啦 10/07 16:46
Raptors1: 以為工程師的頭髮白掉的? 10/07 16:46
junren0183: 這麼怕就不要貼圖出來就好了== 10/07 16:49
Darnatos: 這沒用... 10/07 17:04
xxxyangxxx: 前面加個濾波器就破解了 10/07 17:13
chairfong: 人類對ai做的事 就像以前大人為小孩裝了第四台鎖碼器 10/07 17:18
start928: 其實加雜訊進去 會讓這個程式更有robust 本來就有這個 10/07 17:24
start928: 技術了 這篇是在反串嗎XD 10/07 17:24
Kururu8079: 笑死,真的是已知用火欸 10/07 17:24
syldsk: 這個本來就有在研發不是? 10/07 17:30
Oxyuranus: 那就是補一個filter再餵圖而已 10/07 17:36
manu5566: 訓練都會加noise了,你這個反而是幫助他們訓練, 10/07 17:44
jacky5859: 這個不是很久了嗎 10/07 18:30
watashino: 這串一堆不懂DL的在鬧欸== 10/07 18:33
paul51110: 已知用火 10/07 19:05
Cactusman: 到底為啥要防止AI學習? 10/07 19:26
bitcch: 笑死 人工adversarial attack 更何況現在是生成模型 10/07 19:30
attacksoil: denoise太簡單了 10/07 20:16
nalthax: 簽名跟花押呢 10/07 21:29
zorko: 這串蠻歡樂的 這是生成模型啊 不是分類器 完全不一樣的領域 10/07 21:33
zorko: 現在生成模型領域當紅的是 Diffusion Model 今年幾十篇論文 10/07 21:34
zorko: 都在討論這個類型的 10/07 21:34
zorko: 另外GAN一般只有訓練會用到discriminator(分類器) 10/07 21:38
Addidas: 反覆富麗葉不就可以消掉了嗎 10/07 22:04
pionlang5566: 真的跟驗證碼一樣 我還有朋友在fb分享她怎麼寫解析 10/07 22:25
pionlang5566: 驗證碼的程式 都搞不清楚到底哪邊才是人類了 10/07 22:26
CarbonK: 白癡嗎…SD 就是基於雜訊的訓練方式 10/08 02:37