→ sma1033: 黑箱只是比喻,講的是很難用簡單邏輯來描述或解釋行為 06/10 00:45
→ sma1033: 就跟電腦裡所有的random變數都非真正random一樣 06/10 00:46
→ sma1033: 即使不是random,你可能也很難完全掌握所有資訊與狀態 06/10 00:47
→ sxy67230: 黑箱只是方便跟外面的人解釋而已,解釋XX is some speci 06/10 08:15
→ sxy67230: fic function 這件事情,其實就是利用一個算法去擬合一 06/10 08:15
→ sxy67230: 個空間中可能線性也可能非線性的資料集而已,而那個東 06/10 08:15
→ sxy67230: 西可能是一個線性方程式也可能不是一個線性方程式,這 06/10 08:15
→ sxy67230: 個方程是機器利用訓練資料學習出來的。 06/10 08:15
推 TuCH: 就跟福爾摩斯的推理過程一樣 對一般人根本是黑箱 06/10 10:08
推 st1009: 我個人覺得依照現在的理論,你花很多時間可以看見他的每個 06/10 11:07
→ st1009: 過程,但未必可以真的理解他為何會這樣 06/10 11:08
推 zxp9505007: 無法debug 所以叫黑箱 06/10 12:57
→ zxp9505007: 有修過類神經網路就知道 黑箱這個比喻真的很貼切 06/10 12:58
→ f496328mm: 因為無法解釋阿 06/10 13:19
→ f496328mm: 過去統計上的迴歸,還有一些理論基礎 06/10 13:20
→ f496328mm: NN 就暴力法,一堆 random 因素,根本無法解釋 06/10 13:21
→ f496328mm: 不過實際上,NN解決的問題,的確很抽象 06/10 13:22
→ f496328mm: 有些根本無法給清楚的定義 06/10 13:22
→ f496328mm: 最簡單的貓狗辨識,你怎麼定義貓狗圖像? 06/10 13:23
推 sma1033: 我個人其實覺得貓狗圖像還是可以被定義出來,只是很複雜 06/10 17:58
→ sma1033: 沒辦法用10個參數來定義,但是可能可以用100萬個參數來 06/10 17:59
→ sma1033: 描述資料分布的情形,我認為跟「無法定義」還是不大一樣 06/10 18:00
推 maoc: 我個人認為:黑箱就是不用懂也能算出結果的意思。不懂線代, 06/10 19:16
→ maoc: 迴歸也就黑箱了! 06/10 19:16
→ sxy67230: 沒有什麼不能理解的,說穿了,NN只是多層複雜化的logist 06/10 19:28
→ sxy67230: ic regressions ,自然他很容易擬合出非線性方程。Convo 06/10 19:28
→ sxy67230: lution 、Recurrence 、Attention實際上的功用就是把特 06/10 19:28
→ sxy67230: 徵映射到更高維的空間的特徵變換Function。貓狗圖像一 06/10 19:28
→ sxy67230: 樣可以用svm、hog的方式經過調參跟filter找到特徵跟分 06/10 19:28
→ sxy67230: 類,只是cnn目前取代了這些需要仰賴專家的傳統方法而已 06/10 19:28
→ sxy67230: 。logistic regression 也有kernel 的方法可以解決非線 06/10 19:28
→ sxy67230: 性的問題,但是gpu當道的時代,大家覺得NN+gpu加上googl 06/10 19:28
→ sxy67230: e加持讓一堆人都覺得deep就是潮。 06/10 19:28
→ sxy67230: 如果NN真的是無法理解的,那神經網路壓縮的那些方法像是 06/10 19:38
→ sxy67230: pruning也會無效才對 06/10 19:38
推 yiefaung: 文中說的黑箱跟我們一般談到的黑箱不太一樣 可解釋性差 06/10 20:59
→ yiefaung: 調參像煉丹 不知道為何可以導致無法確定潛在風險才是 06/10 20:59
→ yiefaung: 問題 06/10 20:59
→ sxy67230: 同意樓上的真的要說黑箱的部分就是神經網路的調參有很大 06/10 23:08
→ sxy67230: 部分的經驗法則在,有時候參數設定沒什麼道理,但是整 06/10 23:08
→ sxy67230: 體算法卻是可以解釋的,符合直覺的。 06/10 23:08
推 thefattiger: sxy講的似乎有點偏了,nn本身當然是可以理解的 06/11 00:27
→ thefattiger: 黑箱指的應該是nn擬合出來的函數人類難以理解 06/11 00:28
→ thefattiger: 不然也不會有人在搞XAI了 06/11 00:29
→ thefattiger: nn說穿了就是curve fitting,只是fit的參數超多而已 06/11 00:31
推 bboybighead2: 很多人不懂線代 解釋迴歸係數還是嚇嚇叫 這不是被稱 06/11 17:21
→ bboybighead2: 做黑箱的原因,函數的可解釋性才是主因 06/11 17:21
推 erre: 做矩陣自乘拿博士也是覺得自己會線代,很難嗎… 06/12 11:08
推 j0958322080: 我的話要會SVD跟JORDAN FORM才敢說我會線代 06/13 09:25
推 thefattiger: 會線代是很奇怪的說法,就只是個基本的工具但範圍很 06/13 10:20
→ thefattiger: 廣,通常都只會熟常有用到的那些吧 06/13 10:20
推 sarsman: 以往解一個問題是定義一個函數,問題帶入該函數求出答案 06/14 22:09
→ sarsman: ;而NN是定義一個「定義一群函數」的函數,問題帶入那一 06/14 22:09
→ sarsman: 群函數求出答案,而那一群函數就是黑箱 06/14 22:09
推 Ericz7000: 我覺得數值方法中的optimization跟機器學習蠻相似的 06/15 17:52
→ sxy67230: 機器學習中的optimization就是來自於最佳化啊 06/16 17:02
推 cybermeow: 連用sgd train的over parameterized network為什麼可以 06/17 19:38
→ cybermeow: generalize well都一堆正在研究了 你說不是黑箱 06/17 19:38
→ cybermeow: 連loss的landscape長怎樣都不知道 像是什麼mode connec 06/17 19:39
→ cybermeow: tivity 06/17 19:39
→ shaform: 也沒人知道人類為何學習可以generalize well,但倒是沒 06/19 02:12
→ shaform: 人特別說人類的決定是黑箱 @@ 06/19 02:12
→ shaform: 也沒人知道人類有沒有loss,有的話 landscape 是什麼 06/19 02:12
推 littleyuan: 無法解釋給高層或客戶聽得懂 所以黑箱 07/19 13:13
→ littleyuan: rule based 很好解釋 只要有domain knowledge就能理 07/19 13:14
→ littleyuan: 解程式為什麼這樣寫 deep learning無法和人解釋 07/19 13:14
推 BrowningZen: 用alphago的例子就是 棋手照著下一定會嬴 可是不知道 08/05 03:50
→ BrowningZen: 怎麼嬴 下這步的想法是什麼 08/05 03:50
噓 yyawlin: activation function不一定是 logistics function, 唯一 09/02 13:45
→ yyawlin: 可以說是a sequence of nonlinear transformations of a 09/02 13:45
→ yyawlin: vector 09/02 13:45
※ 編輯: dharma (211.72.78.253 臺灣), 09/12/2019 13:30:33