精華區beta C_Chat 關於我們 聯絡資訊
現在的AI就是啊 深度學習爆紅是十年前就開始了 但大家根本不知道為什麼neural堆深一點就可以學習 CNN出來時屌炸天,好像什麼pattern都學的起來一樣 然後你問研究者為什麼圖片和文字的data structure兩者可以取得有類比性的成功 他會和你說我也不知道,甚至直接寫在論文裡那種 然後花了好幾年時間trial and error,用結果反推為什麼 這個研究方法不叫懂基本原理,的確比較像動漫那種黑科技知道能用就將就著應用而已 基礎原理的理解完全跟不上 當然啦,我們知道nerual net可以趨近任意函數 我們也知道這個世界和高斯分布關係很深 (高斯分布encode了最多的不確定性,同樣大小的空間下高斯能紀錄最多資訊) 但一樣啊,這只是稍微justify我們用神經網路,還有每個未知的分布都先用高斯套或高斯p rior套而已 然後他就work了 明明說因為天下沒有白吃的午餐理論,任何一個演算法都會被某一些分布的資料搞爆 但他就work了啊 著名學者像Andrew Ng在課堂上也就聳肩說看起來這世界對我們敵意沒那麼深 . . 但是最近好像終於開始有些進展了,NTK之類的 滿多是19年和今年的論文的,我還沒跟上,懂得大大請體諒我的認知 我自己一路學來是覺得 這個領域就是霧裡看花,但你學越多霧就越散 現有理論的不完整,我是覺得一部分是真的不完整 但其他一部分是大部分人,甚至可以講非AI領域,貝氏統計領域,量子領域以外的對uncert ainty(不確定性)都沒什麼認知 絕大多數人覺得世界就是0和1,不會去問threshold是什麼背後的分布長啥 一旦接受了這世界就是建立在不確定性的基礎上這設定後 很多事情就不會腦袋轉不過來這樣 要知道不一定要知道某一現象才叫懂 你知道你不懂什麼不知道什麼再能夠去推論你懂什麼 能做到這樣就很近似你懂了,這樣 -- ※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 101.12.84.61 (臺灣) ※ 文章網址: https://www.ptt.cc/bbs/C_Chat/M.1607585061.A.50F.html
ZooseWu: 我知道寫程式溝通都像你文章這樣 但是你好歹打文章的時候12/10 15:25
ZooseWu: 要換成全部都是中文吧 雖然有些名詞用中文沒辦法精確表達12/10 15:25
ZooseWu: 意思12/10 15:25
我學這些沒透過中文學過,很多是真的想不出對應中文是什麼,不好意思
undeadmask: 太棒了 我逐漸理解一切 12/10 15:25
Dirgo: 很多數學公式也是先找到通則,再想辦法證明或反證,很正常.12/10 15:26
weltschmerz: 類神經的節點 每個都是不知道衝三小的 但最後就是能12/10 15:26
weltschmerz: 算好12/10 15:26
arrenwu: 因為實際上他真的沒辦法保證這做法一定比較強12/10 15:26
hellwize: 供三小12/10 15:26
nh60211as: 可以撲要中文English mix在一起ㄇ,這樣讓我很confuse12/10 15:26
arrenwu: 現在真的大家懂得原理就是Fundamental Approximation Thm12/10 15:27
arrenwu: 也就是「資料夠多 層數夠多 就可以學得夠像」12/10 15:27
cloud7515: 哪天我們變成劍與魔法的世界 也會有人問魔法原理是啥12/10 15:27
uohZemllac: 總之train下去就有結果惹,比魔法還玄12/10 15:27
arrenwu: 但是要多少資料或多深這類 performance gurantee 目前12/10 15:27
arrenwu: 是不清楚的,而且我覺得大家也不感興趣XD12/10 15:27
cloud7515: 那這樣來看 科技其實就是魔法12/10 15:28
※ 編輯: praiseZun (101.12.84.61 臺灣), 12/10/2020 15:28:40
arrenwu: 這東西沒有那麼像魔法,只是有時候效果很棒12/10 15:28
arrenwu: 但實際上reinforcement learning 現在正在撞壁12/10 15:29
我自己覺得不是大家不敢興趣,是感興趣弄懂的都在數鈔票了。而且那些大家就算感覺的出 來怎麼做要寫成嚴謹的證明也是另一回事。
farseer7: 其實大家都是魔法師peko 12/10 15:29
ZooseWu: 我知道 因為我寫程式也都直接英文學習英文應用英文溝通 12/10 15:29
arrenwu: 因為他很容易發生"在這個情況好棒棒 但其他情況不是"12/10 15:29
ZooseWu: 但是我沒學過AI看你的文章就會看不懂QQ 12/10 15:29
hmcedamon: 這些詞真想全部tran成中文會馬上引來支語警察 12/10 15:29
vani1995: niubi 12/10 15:30
arrenwu: 把Deep Network 想成偶爾會膛炸的大砲就好了 12/10 15:30
arrenwu: 這東西並不是像程式那樣保證會成立的東西 12/10 15:30
arrenwu: 他隨時有可能在你不清楚的情況下爆開來 12/10 15:30
※ 編輯: praiseZun (101.12.84.61 臺灣), 12/10/2020 15:31:01
cloud7515: 硬派寫實啊 人也是一樣 12/10 15:31
arrenwu: 至少就我知道的部分,performance guarantee是一攤死水 12/10 15:31
arrenwu: 你沒能寫成數學證明 基本上就是不知道啊XD 12/10 15:32
arrenwu: 我想了一下 講不感興趣是不太對的說法 12/10 15:32
arrenwu: 應該說,你現在去做那個研究 會比較難拿到錢 12/10 15:33
arrenwu: 而且我聽到的部分是...那理論真的很難做 12/10 15:33
基礎研究現狀真的是這樣。我之前就看過美國很有名的教授在抱怨現在產的論文90%都是垃 圾,只是能快速累積應用上的成果就能被發出來了這樣
bag0831: It just works 12/10 15:33
Adiakyan: 有些專有名詞真的不知道要怎麼翻成中文 12/10 15:33
laladiladi: 俺尋思... 12/10 15:35
zznzm: 樣本標準差...12/10 15:35
※ 編輯: praiseZun (101.12.84.61 臺灣), 12/10/2020 15:36:10
twosheep0603: 看過對岸的教科書之後就知道翻成中文不見得比較好XD 12/10 15:36
CactusFlower: 天網全民beta不刪檔公測 12/10 15:36
bag0831: 翻成中文反而比原文還能看懂… 12/10 15:37
arrenwu: 因為現在大家比較關心應用層面的部分 12/10 15:37
arrenwu: 畢竟那些應用DEMO起來挺炫砲的 12/10 15:37
twosheep0603: 深度學習某種程度上比起膛炸大砲更像煉金丹炸爐 12/10 15:37
mihailseiko: 我懂用英文表達會比較習慣 但是work的中文你說沒學過 12/10 15:38
mihailseiko: 我還真不相信== 12/10 15:38
daniel50506: 英文的比例明明就夠低 work用workg是因為最順啊12/10 15:39
daniel50506: 不然要打 行得通嗎== 12/10 15:39
pikachu2421: 其實是模型穿模了(? 12/10 15:40
kevin7770726: 很多詞翻成中文也不會好懂到哪去 堆疊類神經網路來 12/10 15:41
kevin7770726: 學習(?) 別為難工程師了(扶額 12/10 15:41
CorkiN: 用work最能表達那個意思啊== 12/10 15:41
arrenwu: convolutional 這個中文我還真的不知道是啥 12/10 15:41
www8787: 全部打英文就好了 12/10 15:41
CorkiN: 卷積 12/10 15:42
arrenwu: 卷積 ... 好像看起來還滿像回事的 12/10 15:43
tsubasawolfy: 被叫現代煉金術不是沒原因 12/10 15:44
kendra0606: 所以現在就在走可解釋性了 12/10 15:44
qwe19272375: ML就有人搞黑科技也有人搞造假的 12/10 15:45
講到這個就想起一個好笑的。因為現在AI還真什麼解釋性無法檢驗,之前就有個新聞是公司 造假AI其實是印度人在背後下判斷。 "人工"智慧,嗯
Yanrei: 謝謝你,大魔法師 12/10 15:48
※ 編輯: praiseZun (101.12.84.61 臺灣), 12/10/2020 15:50:03
bluejark: 看不懂不是英文的問題 因為這些東西只有懂的人才懂 12/10 15:50
arrenwu: 人工智慧(X) 工人智慧(O) 12/10 15:51
mnkrwb: 有些詞就跟代號一樣 還是要看解釋才懂 翻成中文沒意義 12/10 15:51
dieorrun: 就像我看線代和電磁學一樣 12/10 15:53
aegis91086: 就跟飛機為什麼會飛 一樣,雖然知道有利用牛頓第三運 12/10 15:54
aegis91086: 動定律和白努力運動,但更詳細的原理還是未知的 12/10 15:54
arrenwu: 樓上只是需要多寫些習題而已XD 12/10 15:54
bobby4755: 宇宙貓貓.jpg 12/10 15:54
arrenwu: 我是說 dieorrun 12/10 15:54
aegis91086: 大家只知道這樣設計會飛起來跟如何飛好 12/10 15:55
syarokoi: 怎麼會有人想要翻譯專有名詞== 12/10 15:55
syarokoi: 很多詞中文根本沒辦法表達 12/10 15:55
Poke5566: 看不懂 幹 12/10 15:57
aegis91086: 湍流的流體力學分析很是很玄的東西啊== 12/10 15:57
waggamsn: 這倒是真的,Alphago Zero那麼強,但是圍棋邏輯也說不 12/10 16:00
waggamsn: 出來 12/10 16:00
fate201: 印度人 笑死 12/10 16:00
arrenwu: 因為AlphaGO就不是用人類的理論去分析啊 12/10 16:01
arrenwu: 用人類的圍棋理論反而是自行設定限制 12/10 16:02
winklly: 名詞翻下去本來只有外行人不懂的文章會變成沒人看得懂 12/10 16:04
siyaoran: 本來就不該翻譯 我們教育都看原文書的 中文翻譯沒有真的 12/10 16:06
siyaoran: 統一居多 硬要翻原本看得懂的變成看不懂 12/10 16:06
harry2014: 趕快推文免得別人以為我看不懂 12/10 16:13
DogFearCat: 嗯嗯跟我想的一樣 12/10 16:19
guolong: 資訊很多專有名詞還是用英文好一點 12/10 16:19
haoboo: 因為這樣才會有metaheuristic誕生阿 12/10 16:24
roc074: 我覺得CNN(DNN)的原理爆開來的那一天人類應該會有很可怕 12/10 16:25
roc074: 的進步。 12/10 16:25
LakersDlo: 真的不是中英文的問題,是專業問題 12/10 16:43
LakersDlo: Neural Network翻成神經網路我相信不懂的人還是不懂 12/10 16:43
LakersDlo: 還有像domain這種翻成域以後講話別人都不知道你說什麼 12/10 16:43
dannyko: 深度學習我們能理解的只有梯度下降,數學只能證明到這一 12/10 16:47
dannyko: 步,證明模型是終究可以收斂的,但是這是微觀的理解,全 12/10 16:47
dannyko: 局上沒人懂他到底收斂了什麼,怎樣會平滑怎樣會卡在saddl 12/10 16:47
dannyko: e point 12/10 16:47
Vladivostok: 翻成中文明明比較好,只是繁中翻譯成本太高 12/10 16:47
strayer014: 沒錯 AI基本上就是瘋狂亂套亂算寫公式 再套進去 12/10 16:53
strayer014: 大概只有前0.000001%的人 真的知道自己在幹嘛 12/10 16:54
strayer014: 其他:誰他媽知道那些LAYER在幹三小 結果all right就好 12/10 16:55
lazarus1121: 我以為靠大量的解來叫電腦湊多元方程式就叫AI 12/10 16:57
cat5672: https://reurl.cc/x0r7v1 12/10 16:59
LakersDlo: 以目前絕大部分論文都還是英文的情況來說 翻成中文 12/10 17:17
LakersDlo: 可不一定比較好,泛用性也得考慮進來啊 12/10 17:17
zxc1020305: 流體力學最後幾章都直接教你做個等比例模型去模擬情況 12/10 17:30
zxc1020305: ,然後用公式換算到原始比例。因為實際情況複雜到原始 12/10 17:30
zxc1020305: 比例根本很難用公式算 12/10 17:30
justatree: 萬聖節 12/10 17:35
yfguk6685: 歸類黑科技 12/10 17:54
LeafLu: 的確是黑科技 12/10 18:33
aegis91086: 用電腦做流力計算到現在也只能說是有算出趨勢 12/10 18:33
aegis91086: 然後計算方式也是百家爭鳴... 12/10 18:34
aegis91086: 白努力只能用在層流計算,現在一般環境幾乎都是湍流, 12/10 18:49
aegis91086: 但計算問題前面也提到了== 12/10 18:49
kinomon: 我覺得未來十年二十年會很噁心 12/10 18:55
aegis91086: 抱歉,白努力的部份說錯,希望原po幫刪 12/10 18:56
emptie: 很多人在期待泛用型的AI超越人類的那天 12/10 19:06
zxcmoney: 不就大數據性質? 12/10 19:24
adagiox: 就是抄自然界存在的東西 就像飛機先抄鳥類構型一樣 12/10 19:34
adagiox: 非線性複雜系統只能部分解析特性 12/10 19:34
adagiox: 原理部分還是不完全明白 12/10 19:35
wiydluck: 類神經網路用起來 感覺就是管教小孩 做錯就打 作對給糖 12/11 00:27
wiydluck: 然後他自己就知道該怎麼做了 後面遇到新事物也會比照辦 12/11 00:28
wiydluck: 至於他學到的判斷準則是什麼 就很難得知了 12/11 00:29
formulation: 應用真的都在騙研究隨便亂疊有東西就發,根本歪風 12/11 03:31
KenWang42: 真的很神奇 black box 12/12 00:05