精華區beta C_Chat 關於我們 聯絡資訊
※ 引述《praiseZun (praiseZun)》之銘言: : 現在的AI就是啊 : 深度學習爆紅是十年前就開始了 我想用簡單的說法講一下現在的AI到底是怎麼運作的 不過我對AI的理解就只有看看科技文章 下載tensorflow跑過範例而已 所以可能有很多錯誤的地方還請跟我說 在AI領域最小的單位就是神經元 你可以看作是一個作業員 作業員的工作就是一筆資料進來以後做一個轉換再丟出去 例如作業員的工作是把資料"÷2" 那你給他8他就會丟出4 非常簡單 然後你把很多作業員集合起來就會變成一個產線 然後一堆產線就集合成一間工廠 一堆工廠就集合成一間超級工廠 一堆超級工廠就集合成"超超級"工廠 不斷集合之後的"超超.....級工廠"就是我們的AI 這種不斷疊工廠的理論幾十年前就有了 只是最近硬體技術進步 能夠做更大量的運算 所以工廠可以疊更多層 往上疊之後出來的AI效果居然就還不錯 而你就是這堆"超....級工廠" AI的老闆 然後訓練AI的過程就是調整作業員的工作 例如把作業員工作調整成"÷2.5" 但是這部分是自動進行的 不是人工調整的 老闆唯一的工作就是把資料丟進去 AI吐出來之後你回答對或不對 例如你丟一張狗的圖片 AI就跟你說這是貓 你就說搞錯了 這是狗 AI就會自動調整裡面作業員的工作 然後繼續下一個測試 經過不斷調整之後如果工廠合格了 那我們不管丟什麼照片他大部分都能猜出是什麼動物 但是你完全搞不懂AI判斷的依據或是原理 就算你把資料拆開來看裡面的作業員怎麼操作的也沒用 因為他們不是用流水線的方式去處理資料 而是用一種叫做卷積(convolutional)的方式 大概就像這樣 https://imgur.com/Ivvy2YQ 所以整個AI就像一個黑盒子 你知道輸入跟輸出長怎樣 但是中間完全看不到 反正可以用就好 這就是現在AI的現況 但是中間看不到會有什麼問題? 如果有一天你買了AI駕駛的車 但是車子出問題或路況出問題 你只能選擇直行會撞到一棵大樹 或是選擇右轉撞到五個無辜的路人 如果選擇撞無辜的路人你很大的機率存活 但是五個路人很大的機率受重傷 而撞樹的話你很大的機率會死去 這時候你覺得AI該怎麼選擇? 當你站在法庭上時你覺得當初AI選擇撞路人 事由你該負責任? 還是車廠該負責任? 還是訓練AI的工程師要負責任? 如果AI選擇撞樹 這種車你敢買嗎? 如果撞到路人的情況AI判斷不是很大的機率受重傷 而是很大的機率死亡 或是很大的機率輕傷 你覺得什麼情況下AI該換不同的判斷? 你不知道 你看不到 沒人看的到 你只能把模擬資料輸入進去看結果 但是實際情況會不會不同? 這是一個很極端的例子 但是有爭議的地方往往就是在有兩難抉擇的地方 然後真實情況往往無可避免的就是會發生有許多爭議的情況 -- ※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 111.243.108.52 (臺灣) ※ 文章網址: https://www.ptt.cc/bbs/C_Chat/M.1607588316.A.400.html
arrenwu: AI判斷的依據大家都懂啊 就是最後算出來那個值 12/10 16:20
astrayzip: AI會照路權走吧 12/10 16:21
這好像是之前歐洲那邊的AI倫理相關的爭議問題 是我舉例錯了嗎
siyaoran: 不知道為何會得出那個值就沒辦法修正了 AI最大問題的確 12/10 16:21
siyaoran: 是修正成特定目標 12/10 16:21
siyaoran: 理論上要有一個手動輸入極高權值的結果要它優先選 這就 12/10 16:22
siyaoran: 不算是AI而是部分AI了 12/10 16:22
siyaoran: 求解不知道的東西也就算了 自動駕駛的AI大概都需要寫些 12/10 16:23
siyaoran: 規則出來遵守 12/10 16:23
ccpz: 比較不極端的例子也有,例如你要AI找出有人的照片,結果 12/10 16:24
ccpz: 找出一堆白人。然後黑人就抗議了 12/10 16:24
很大一部分的時候是老闆自己丟訓練資料或設定答案的時候就有老闆本身潛意識的偏見 然後AI完美重現而已xD 但是AI的黑盒子讓這些爭議變得很難處裡 到底是AI有問題 還是測試資料有問題 還是哪邊有問題?
arrenwu: 都沒有問題啊 12/10 16:27
arrenwu: 不如說,相信DeepNetwork結果一定不會錯才是有問題的 12/10 16:27
所以台灣的法規好像規定手不能離開方向盤 因為要讓最後的決定依據是駕駛人的樣子 國外不知道有沒有允許開車睡覺的法規
tkigood: 我的理解也是AI就是黑盒子 資料丟的不一樣 模型就不一樣 12/10 16:28
tkigood: 想改不知道從何改起 只能換資料丟丟看 換些變數重算看看 12/10 16:28
arrenwu: 想改不知道從何改起 <--- 一堆人在亂改不是嗎XD 12/10 16:29
arrenwu: 還有一堆根本就在挑case進行cross validation 12/10 16:29
亂改很簡單 但是不知道AI跟我的目標偏差在哪 怎麼把偏差修正吧 還是是因為我們AI菜雞所以不知道怎麼改xD
arrenwu: 現在的情況是...有滿多人改的新東西,在不同場合的效益 12/10 16:31
arrenwu: 不一樣 12/10 16:32
我看過很多論文都是改了一些參數之後就說 在某某特定的情況下 如果發生特定事件的話 這個AI就有特別高的效益唷>.^ 我不知道這算是突破還是怎樣......因為我也不太懂AI
arrenwu: 而且驗證那些 DNN 的 backbone 好壞的方式其實也是用測資 12/10 16:32
arrenwu: 去實驗。目前並沒有透過數學去證明的方式 12/10 16:32
fish770130: 所以AI下棋是告訴AI輸棋是錯的 贏棋是對的 然後練蠱? 12/10 16:42
競技類不知道適不適用我說的工廠型AI AI還有很多種不同的類型 競技類的是給他規則讓他動態的計算比分 例如圍棋的勝利規則就是地圍得多就贏 那AI就有目前的盤勢我能拿幾分 對面拿幾分 一樣這個分數是AI訓練後自己算出來的 不是我們給的 然後挑能拿最高分的點下棋 阿發狗好像是根據歷史棋局+跟自己下棋去訓練的 後面好像還出現更猛的 阿發狗 · 零 是連歷史棋局都不給 直接設定好規則開始自我訓練 然後屌虐阿發狗 但是下的棋與人類差異更大 球類的話就是球的位置權重是幾分 例如電子桌球AI訓練後 判斷打到對面角落就能拿到0.75分 輕輕往對面正中間打的話可能是0.-6分 但是AI怎麼判斷打對面角落能拿0.75分我們不知道 我們唯一要做的事情就是跟AI說你的球掉到你的地板=-1分 掉到對面地板=1分 然後請你動態根據球的位置判斷你的分數大概會是幾分 圍棋就是設定你圍的地-他圍的地就是他的得分 你也可以不用球的位置 而用敵人站的位置判斷分數 然後去訓練一個模型 只是這樣就很難訓練出一個好的AI 所以AI好壞就在於你有沒有讓AI有夠清楚夠正確的規則
max60209: 電車難題 12/10 16:49
電車難題就是把複雜的外部因素拔掉之後的哲學命題 現實生活真的到處都會遇到哲學命題會出現的難題
vankhub: 以目前的科技來說,試圖去理解跟整理中間的運作會是徒勞 12/10 17:00
vankhub: 的嗎?因為目前看來對AI的修正應該都是聚焦在如何讓產出 12/10 17:00
vankhub: 沒有問題,如果有問題那就測到沒有問題為止。但真正的癥 12/10 17:00
vankhub: 結點好像是中間的過程? 12/10 17:00
一個理論從要證明正確->可用->商用要走很多路 AI也一樣 在這個過程當中就有許多人不斷想探究中間的過程到底是怎麼一回事 但是就算到了已經大量商用 甚至有許多免費AI服務的現在 還是沒有很好的結論 當然打開黑盒子的研究也還是一直在進行吧 越複雜的AI越難保證沒有問題 只能保證"大部分情況"沒有問題 然後出問題的時候有人工解決方案
dannyko: 練蠱沒錯阿 蒙地卡羅就是靠賽 這就是alpha go早期的方法 12/10 17:01
dannyko: 後面的zero我沒讀論文不確定怎麼進化的 12/10 17:01
其實大家都在關注AI打敗人類了 但是阿發狗的目的好像是協助人類在棋藝上的精進 探索人類在圍棋中尚未發掘的道路
bag0831: 文章所說的是supervised learning(監督式學習),如果是 12/10 17:02
bag0831: 像下棋這類的遊戲AI是採用reinforcement learning(強化 12/10 17:02
bag0831: 式學習) 12/10 17:02
我對AI很有興趣 所以我只稍微探究過一些簡單的監督式學習原理 但是我本身是做遊戲的 所以玩AI的時候只玩過強化式學習AI 我也覺得這兩個不太一樣 但是不知道到底是怎麼回事 感謝你的解惑xD
dannyko: 理解中間的運作這陣子有新的方向了,在研究對抗型攻擊時 12/10 17:05
dannyko: ,發現防禦的方法能夠加強模型中間的可讀性,幾年內應該 12/10 17:06
dannyko: 會有一些突破 12/10 17:06
希望到時候我看得懂QQ
rock4308: 你說卷積然後放全連接的圖′_>` 12/10 17:53
我的理解好像錯了 卷積神經網路好像重點是前面的卷積層跟池化層的樣子 可以不斷卷積池化卷積池化疊上去 但是我實在看不懂那邊在幹嘛 如果可以的話還請大大說明一下 感謝
silverair: 小妹論文本來想做AI的,可是研究越深越覺得這東西門檻 12/10 19:44
silverair: 實在太高,很多人變成微調主流架構,於是改做GPU= = 12/10 19:44
silverair: 卷積其實簡單講就是抓特徵,卷出來的圖就類似於Sobel 12/10 19:45
silverair: operator那樣的特徵圖,出來圖太大就池化縮小 12/10 19:46
很好 完全不懂 看起來這不是三言兩語就能解釋到底在幹嘛的東西= = 做GPU是什麼?用GPU算AI?還是CUDA那種東西
silverair: 做那麼多其實也就是把大張的圖變小,又保留特徵 12/10 19:50
搭配我在網路上搜尋到的圖卷積示意圖 好像有一點懂了
silverair: CUDA的,做AI做的一知半解也很難弄,不如搞老本行= = 12/10 20:09
maplefff: https://youtu.be/rxaxSx4lrRw 12/10 21:13
rey123123: 你這個叫neural network。 AI的定義更大更廣 12/11 02:49
formulation: CNN那邊你錯得離譜,還是閉嘴吧 12/11 03:33
e5a1t20: 連圖片都放錯 路過噓一下 12/11 13:24
GTR12534: 應該不是所有都卷積吧 12/11 21:32
抱歉 我是菜雞 ※ 編輯: ZooseWu (111.243.108.52 臺灣), 12/12/2020 04:24:46