→ arrenwu: AI判斷的依據大家都懂啊 就是最後算出來那個值 12/10 16:20
推 astrayzip: AI會照路權走吧 12/10 16:21
這好像是之前歐洲那邊的AI倫理相關的爭議問題 是我舉例錯了嗎
推 siyaoran: 不知道為何會得出那個值就沒辦法修正了 AI最大問題的確 12/10 16:21
→ siyaoran: 是修正成特定目標 12/10 16:21
→ siyaoran: 理論上要有一個手動輸入極高權值的結果要它優先選 這就 12/10 16:22
→ siyaoran: 不算是AI而是部分AI了 12/10 16:22
→ siyaoran: 求解不知道的東西也就算了 自動駕駛的AI大概都需要寫些 12/10 16:23
→ siyaoran: 規則出來遵守 12/10 16:23
推 ccpz: 比較不極端的例子也有,例如你要AI找出有人的照片,結果 12/10 16:24
→ ccpz: 找出一堆白人。然後黑人就抗議了 12/10 16:24
很大一部分的時候是老闆自己丟訓練資料或設定答案的時候就有老闆本身潛意識的偏見
然後AI完美重現而已xD 但是AI的黑盒子讓這些爭議變得很難處裡
到底是AI有問題 還是測試資料有問題 還是哪邊有問題?
→ arrenwu: 都沒有問題啊 12/10 16:27
→ arrenwu: 不如說,相信DeepNetwork結果一定不會錯才是有問題的 12/10 16:27
所以台灣的法規好像規定手不能離開方向盤
因為要讓最後的決定依據是駕駛人的樣子
國外不知道有沒有允許開車睡覺的法規
推 tkigood: 我的理解也是AI就是黑盒子 資料丟的不一樣 模型就不一樣 12/10 16:28
→ tkigood: 想改不知道從何改起 只能換資料丟丟看 換些變數重算看看 12/10 16:28
推 arrenwu: 想改不知道從何改起 <--- 一堆人在亂改不是嗎XD 12/10 16:29
→ arrenwu: 還有一堆根本就在挑case進行cross validation 12/10 16:29
亂改很簡單 但是不知道AI跟我的目標偏差在哪 怎麼把偏差修正吧
還是是因為我們AI菜雞所以不知道怎麼改xD
推 arrenwu: 現在的情況是...有滿多人改的新東西,在不同場合的效益 12/10 16:31
→ arrenwu: 不一樣 12/10 16:32
我看過很多論文都是改了一些參數之後就說
在某某特定的情況下 如果發生特定事件的話 這個AI就有特別高的效益唷>.^
我不知道這算是突破還是怎樣......因為我也不太懂AI
→ arrenwu: 而且驗證那些 DNN 的 backbone 好壞的方式其實也是用測資 12/10 16:32
→ arrenwu: 去實驗。目前並沒有透過數學去證明的方式 12/10 16:32
推 fish770130: 所以AI下棋是告訴AI輸棋是錯的 贏棋是對的 然後練蠱? 12/10 16:42
競技類不知道適不適用我說的工廠型AI AI還有很多種不同的類型
競技類的是給他規則讓他動態的計算比分
例如圍棋的勝利規則就是地圍得多就贏
那AI就有目前的盤勢我能拿幾分 對面拿幾分
一樣這個分數是AI訓練後自己算出來的 不是我們給的
然後挑能拿最高分的點下棋
阿發狗好像是根據歷史棋局+跟自己下棋去訓練的
後面好像還出現更猛的 阿發狗 · 零
是連歷史棋局都不給 直接設定好規則開始自我訓練 然後屌虐阿發狗
但是下的棋與人類差異更大
球類的話就是球的位置權重是幾分
例如電子桌球AI訓練後
判斷打到對面角落就能拿到0.75分 輕輕往對面正中間打的話可能是0.-6分
但是AI怎麼判斷打對面角落能拿0.75分我們不知道
我們唯一要做的事情就是跟AI說你的球掉到你的地板=-1分 掉到對面地板=1分
然後請你動態根據球的位置判斷你的分數大概會是幾分
圍棋就是設定你圍的地-他圍的地就是他的得分
你也可以不用球的位置 而用敵人站的位置判斷分數 然後去訓練一個模型
只是這樣就很難訓練出一個好的AI
所以AI好壞就在於你有沒有讓AI有夠清楚夠正確的規則
推 max60209: 電車難題 12/10 16:49
電車難題就是把複雜的外部因素拔掉之後的哲學命題
現實生活真的到處都會遇到哲學命題會出現的難題
推 vankhub: 以目前的科技來說,試圖去理解跟整理中間的運作會是徒勞 12/10 17:00
→ vankhub: 的嗎?因為目前看來對AI的修正應該都是聚焦在如何讓產出 12/10 17:00
→ vankhub: 沒有問題,如果有問題那就測到沒有問題為止。但真正的癥 12/10 17:00
→ vankhub: 結點好像是中間的過程? 12/10 17:00
一個理論從要證明正確->可用->商用要走很多路 AI也一樣
在這個過程當中就有許多人不斷想探究中間的過程到底是怎麼一回事
但是就算到了已經大量商用 甚至有許多免費AI服務的現在 還是沒有很好的結論
當然打開黑盒子的研究也還是一直在進行吧
越複雜的AI越難保證沒有問題 只能保證"大部分情況"沒有問題
然後出問題的時候有人工解決方案
推 dannyko: 練蠱沒錯阿 蒙地卡羅就是靠賽 這就是alpha go早期的方法 12/10 17:01
→ dannyko: 後面的zero我沒讀論文不確定怎麼進化的 12/10 17:01
其實大家都在關注AI打敗人類了
但是阿發狗的目的好像是協助人類在棋藝上的精進
探索人類在圍棋中尚未發掘的道路
推 bag0831: 文章所說的是supervised learning(監督式學習),如果是 12/10 17:02
→ bag0831: 像下棋這類的遊戲AI是採用reinforcement learning(強化 12/10 17:02
→ bag0831: 式學習) 12/10 17:02
我對AI很有興趣 所以我只稍微探究過一些簡單的監督式學習原理
但是我本身是做遊戲的 所以玩AI的時候只玩過強化式學習AI
我也覺得這兩個不太一樣 但是不知道到底是怎麼回事 感謝你的解惑xD
→ dannyko: 理解中間的運作這陣子有新的方向了,在研究對抗型攻擊時 12/10 17:05
→ dannyko: ,發現防禦的方法能夠加強模型中間的可讀性,幾年內應該 12/10 17:06
→ dannyko: 會有一些突破 12/10 17:06
希望到時候我看得懂QQ
噓 rock4308: 你說卷積然後放全連接的圖′_>` 12/10 17:53
我的理解好像錯了 卷積神經網路好像重點是前面的卷積層跟池化層的樣子
可以不斷卷積池化卷積池化疊上去
但是我實在看不懂那邊在幹嘛 如果可以的話還請大大說明一下 感謝
推 silverair: 小妹論文本來想做AI的,可是研究越深越覺得這東西門檻 12/10 19:44
→ silverair: 實在太高,很多人變成微調主流架構,於是改做GPU= = 12/10 19:44
→ silverair: 卷積其實簡單講就是抓特徵,卷出來的圖就類似於Sobel 12/10 19:45
→ silverair: operator那樣的特徵圖,出來圖太大就池化縮小 12/10 19:46
很好 完全不懂 看起來這不是三言兩語就能解釋到底在幹嘛的東西= =
做GPU是什麼?用GPU算AI?還是CUDA那種東西
推 silverair: 做那麼多其實也就是把大張的圖變小,又保留特徵 12/10 19:50
搭配我在網路上搜尋到的圖卷積示意圖 好像有一點懂了
推 silverair: CUDA的,做AI做的一知半解也很難弄,不如搞老本行= = 12/10 20:09
噓 rey123123: 你這個叫neural network。 AI的定義更大更廣 12/11 02:49
噓 formulation: CNN那邊你錯得離譜,還是閉嘴吧 12/11 03:33
噓 e5a1t20: 連圖片都放錯 路過噓一下 12/11 13:24
噓 GTR12534: 應該不是所有都卷積吧 12/11 21:32
抱歉 我是菜雞
※ 編輯: ZooseWu (111.243.108.52 臺灣), 12/12/2020 04:24:46