看板 DataScience 關於我們 聯絡資訊
後來,因為機器辨識能力已超越人類水準,ImageNet競賽在2017年之後就停辦了。 https://www.ithome.com.tw/people/128526 上文講的 可是下面這篇 看起來AI視覺辨識根本就問題還一大堆啊 所以是怎樣呢? thanks 另外停止號誌加上了一些貼紙,甚至在特定區域有污損,就會被辨識為限速標誌。香蕉動 點手腳就被認成烤吐司機;受試者身上放其他人的照片,就能像隱身一樣躲過專門辨識人 的 AI YOLO2。 針對交通號誌攻擊,似乎在安全上更有疑慮:畢竟自駕車的未來就在眼前,使用貼紙就能 讓視覺辨識 AI 將停止認成速限,非常有可能造成意外。而雖然有些混淆 AI 的「貼紙」 太過顯眼,但這項研究還模仿了常見污損、蟲(蝴蝶)的遮擋,儘管這些狀況下人類還是 認得出,卻能成功騙過 AI。因此在自駕車領域,也許除了影像辨識外還得以其他機制輔 助。 https://www.inside.com.tw/article/16574-AI-security -- ※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 211.72.78.253 (臺灣) ※ 文章網址: https://www.ptt.cc/bbs/DataScience/M.1570201449.A.B75.html
sxy67230: 關鍵字:adversarial example、decision boundary 10/04 23:40
感謝 我查看看
st1009: 就階段性目標達到啦,你說的不在他們討論範圍 10/05 08:56
※ 編輯: dharma (211.72.78.253 臺灣), 10/05/2019 16:27:55
vincentman: 如果只單純做recognition來說,辦識率已經很高了,你 10/07 17:52
vincentman: 說的錯誤狀況,要看比例有多少。另外你的舉例中,有些 10/07 17:52
vincentman: 需要localization,已算是object detection領域範圍 10/07 17:56
chaoannricar: 我看文章說17年後就改到Kaggle上辦了,不知道後來? 10/13 13:28