深度神經網絡已經掌握了解決各種問題的方法——從識別、推理圖像中的物體,
到成為「圍棋上帝」。隨著這些任務變得越來越複雜,神經網絡摸索出來的解決
方法也變得越來越繁瑣。
因為這個系統太複雜了,即使是設計該系統的工程師可能也無法分析出它發出某
一指令的原因。當然,你也不能強求這個神經網絡能夠給出它下達每一個指令的
原因:目前為止還沒有一套能夠讓 AI 自己解釋自己行為的系統。
實際上,這就是人工智慧領域著名的「黑盒子」問題,隨著神經網絡在現實世界
中的應用越來越廣泛,對這一問題的研究也開始變得無比重要。對此,《麻省理
工科技評論》曾以「人工智慧核心地帶的黑暗秘密」為題刊發專題文章,來深入
探討神經網絡的不可解釋性問題。
作為人工智慧研究領域的先鋒,DeepMind對「黑盒子」問題也在持續關注——目前
,該團隊正著手開發更多的工具,用於解釋人工智慧系統。6月26日,在最新發布
的一篇論文中,DeepMind提出了一種基於認知心理學來研究深度神經網絡的新方法。
內文有點多,想了解不妨直接看連結....
https://www.how321.com/302657.html
--
※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 122.116.69.130
※ 文章網址: https://www.ptt.cc/bbs/Cognitive/M.1498836758.A.96E.html