看板 Cognitive 關於我們 聯絡資訊
深度神經網絡已經掌握了解決各種問題的方法——從識別、推理圖像中的物體, 到成為「圍棋上帝」。隨著這些任務變得越來越複雜,神經網絡摸索出來的解決 方法也變得越來越繁瑣。 因為這個系統太複雜了,即使是設計該系統的工程師可能也無法分析出它發出某 一指令的原因。當然,你也不能強求這個神經網絡能夠給出它下達每一個指令的 原因:目前為止還沒有一套能夠讓 AI 自己解釋自己行為的系統。 實際上,這就是人工智慧領域著名的「黑盒子」問題,隨著神經網絡在現實世界 中的應用越來越廣泛,對這一問題的研究也開始變得無比重要。對此,《麻省理 工科技評論》曾以「人工智慧核心地帶的黑暗秘密」為題刊發專題文章,來深入 探討神經網絡的不可解釋性問題。 作為人工智慧研究領域的先鋒,DeepMind對「黑盒子」問題也在持續關注——目前 ,該團隊正著手開發更多的工具,用於解釋人工智慧系統。6月26日,在最新發布 的一篇論文中,DeepMind提出了一種基於認知心理學來研究深度神經網絡的新方法。 內文有點多,想了解不妨直接看連結.... https://www.how321.com/302657.html -- ※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 122.116.69.130 ※ 文章網址: https://www.ptt.cc/bbs/Cognitive/M.1498836758.A.96E.html