看板 NTU 關於我們 聯絡資訊
1.媒體來源: ※ 例如蘋果日報、奇摩新聞 公視新聞網 2.完整新聞標題: ※ 標題沒有寫出來 ---> 依照板規刪除文章 可解釋性人臉辨識 台大資工成功開發 3.完整新聞內文: ※ 社論特稿都不能貼! 違者退文,貼廣告也會被退文喔! 2020年5月11日 林靜梅 吳嘉堡 台北報導 https://youtu.be/yqu5JBOX4HU
人工智慧AI廣泛運用,不過它到底是怎麼做成決策、依據又是為何卻難以解釋。台大研究 團隊在科技部支持下,開發出「可解釋性人臉辨識模組」。 這是球王「費德勒」不同時期與不同打扮的照片,傳統人工智慧也許可以判定這是同一人 ,卻無法提供判釋原因。台大資工系教徐宏民與研究團隊,研發出「可解釋的人臉辨識模 組xCos」,認定兩張照片為同一人的判定原因之一,在鼻子。台大資工系教授徐宏民說明 ,「很綠的這個地方,很高的地方,我覺得這個鼻子這邊似乎是非常非常重要的準據。以 前是沒有,以前這兩個(照片)給它,除了吐一個分數出來,你也不知道它怎麼做判斷的 。」 各國積極推動人工智慧AI,但歐盟認為,阻礙AI廣泛運用的主因,正是缺乏信任,因為不 知道它怎麼做決定的。徐宏民教授指出,這也是為甚麼多國積極投入研發「可解釋性人工 智慧XAI」,因為這可解開AI決策過程中的「黑盒子」,讓它運用在更多醫學、金融、能 源等領域。徐宏民說:「在這些重要的決策上的時候,可以不只是有一個AI可以協助你判 斷,同時也可以解釋這背後,做這樣判斷的邏輯是什麼。我想在輔助人類做決策的過程當 中,它可以帶來更多的方便。」 科技部長陳良基表示,可解釋性人工智慧無疑是未來發展重要目標。去年也推出世界第一 個「AI科研發展指引」,其中一指引就是要重視可解釋性,因為人工智慧與人類發展密切 ,甚至取代人類工作,必須重視其運用上的倫理。 4.完整新聞連結 (或短網址): ※ 當新聞連結過長時,需提供短網址方便網友點擊 https://news.pts.org.tw/article/478226 5.備註: ※ 一個人一天只能張貼一則新聞,被刪或自刪也算額度內超貼者水桶,請注意 -- ※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 61.56.143.149 (臺灣) ※ 文章網址: https://www.ptt.cc/bbs/NTU/M.1589201238.A.60A.html
yahoo168: 完美實作了我心中的想法 給推 05/11 21:34
Imotucc: 樓下也是這麼想的 05/11 21:56
aarzbrv: 但是像川普他太太女兒整過型的也能解釋嗎? 05/11 22:02
chocopie: 這種black box的解釋太籠統 05/11 23:11
chocopie: 叫成龍擠眉弄眼拍張照、弄模糊點,丟給GAN,應該也能生 05/11 23:13
chocopie: 成圖片騙過模型。 05/11 23:13
ssd860505da: Explainable modeling 05/11 23:49
starsstars: 推推 05/12 00:04
winiel559: 很綠 05/12 00:18
h920032: Novelty? 05/12 01:34
PyTorch: 看不懂 聽起來像saliency map? 05/12 01:51
Ryspon: 看完文章也有點疑惑跟 saliency map 的差別在哪xd 05/12 04:11
bobsonlin: 推 05/12 13:51
kougousei: 看完文章滿頭霧水 05/12 14:52
kria5304: 為啥我跟金城武照片比對不合?A:因為你他媽是個死肥宅 05/12 15:36
jzoethai: 推推推 05/12 15:57
KindWei: PyTorch大大還會看不懂喔XDD 05/13 18:52
KindWei: 那我和金城武圖片相似的地方不就是眼睛、鼻子和嘴巴了ㄇ 05/13 18:55