看板 GO 關於我們 聯絡資訊
: → devidevi: AI選擇投子之後,已經認為沒有贏的希望.... 05/27 23:18 : 推 HeterCompute: 說句實話,AlphaGo想要投子的時候古力是真的完全沒 05/27 23:19 : → devidevi: 對AI而言怎麼下都是輸,這樣不算是BUG吧 05/27 23:19 : → HeterCompute: 機會了,古力只是想要整理一下心情,畢竟從大優變成 05/27 23:19 : → HeterCompute: 輸棋,那時差距已經二十目了,不可能逆轉的 05/27 23:20 不是有意抬摃,但這裏是有盲點的。 這局棋就是個很明顯的例子。在人機配對賽裏,人就是最大的變數。暫且不論時力 故意自緊一氣自填一眼的極端例子,以人加機器這樣的組合,只要是人,就有可能 出錯,或是下出緩著。 今天配對的是兩位高手,所以這樣的情況並不明顯,換成兩位業餘棋手上去,可以 預期出現意外翻轉的可能性更高。 這在現實應用上的意義更深遠。以自動駕駛為例,AI在判定時也許總是可以做出 最佳決策,但總是有突然衝出的老人,油門當煞車踩的新手,硬闖紅燈的死小孩。 在類似這種情況下,防禦性的應對,柔軟性的妥協忍耐,都是極為重要的。 AI在逆境劣勢裏的反應,是一個很重要的課題。應該沒有人願意看到,輸給李世 石的AI發神經的樣子。因為這和AI「求勝」的原始指令是有所衝突的。 只是這討論下去沒完沒了。這種事,還是留給黃博士這種專業人士傷腦筋吧。XD -- ※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 36.232.200.239 ※ 文章網址: https://www.ptt.cc/bbs/GO/M.1495946078.A.C21.html
HeterCompute: 我一直很想噓自動駕駛的例子,圍棋是輸贏,自動駕駛 05/28 12:44
HeterCompute: 考慮安全,目標不一樣混為一談就是錯的,而且我完全 05/28 12:44
HeterCompute: 不同意換成兩位業餘棋手上去意外翻轉更高所以要繼續 05/28 12:47
HeterCompute: 那你到底希望怎麼樣的翻盤形式,請具體說出來,不要 05/28 12:48
HeterCompute: 說穩穩收然後對方會自己緊氣到只剩一氣給你吃這種 05/28 12:48
q6261901: AI最大的障礙不是輸贏,而是哲學...效益與道德的衝突... 05/28 12:51
DendiQ: 訓練時沒加入人類干擾而已… 05/28 12:56
DendiQ: 目標不同 05/28 12:56
DendiQ: 要重新訓練 05/28 12:56
lionheart60: 阿斯拉vs皇呀 05/28 13:11
bxxl: 我覺得很好笑的的一點就是對AI苛求完美,對人類缺點理所當然 05/28 13:18
bxxl: 人類遇到意外狀況就不會出包? 機器出包率有人類高嗎? 05/28 13:20
KAOKAOKAO: 一樓ID取異質計算想必也是此道中人 但是可以查查自駕 05/28 13:47
KAOKAOKAO: 肇事率 你就會發現人類肇事率海放 05/28 13:47
KAOKAOKAO: 純效益主義考量 至少在駕車 也應該全面取代人類 05/28 13:48
gundam778: 因為心理上接受不了,所以會拒絕認同和理解。這是正常 05/28 13:48
gundam778: 人類的行為模式 05/28 13:48
gundam778: 駕車事故有九成是人為所致 05/28 13:49
Uizmporm: 路人的比喻不對 要對比也是突然想自行操控的駕駛 05/28 13:57
Uizmporm: AI可以學習如何閃避亂入的路人 但沒辦法接受失去控制權 05/28 13:58
q6261901: 自動駕駛可能還是無法解決道德問題 05/28 14:19
q6261901: 左打方向盤撞死老人,直走撞死小孩,右彎撞電線桿自亡 05/28 14:20
q6261901: ai如何判斷,難道要自我毀滅XD 05/28 14:21
q6261901: 這是很典型的哲學問題,人類卡在這關已經很久了~ 05/28 14:22
Maybetrue: 你說的沒錯,我也跟你有一樣的觀點 05/28 14:27
HeterCompute: 我認同自動駕駛的價值,只是兩種不同目標的AI類比 05/28 14:29
HeterCompute: 不倫不類 05/28 14:29
KAOKAOKAO: to q大:人類在面臨一樣困境時就沒有道德問題嗎? 05/28 14:32
ykes60513: 那種極端情況讓人去駕駛也沒法處理更好吧...有種角度是 05/28 14:33
KAOKAOKAO: h大: alphago標誌的是一種汎用性 延伸出去的話題涉及 05/28 14:33
ykes60513: 去計算活命機率 就像機器公敵裡面那樣 05/28 14:33
KAOKAOKAO: 自駕 應該不至於太滑坡 何況本篇就在討論與AI合作 05/28 14:33
ykes60513: 盡可能讓傷害最小化 這點AI應該還是辦的到的 05/28 14:35
ykes60513: q大的例子 大概就選自撞吧 鐵包肉活命機會比較大(? 05/28 14:36
ykes60513: 而且AI應該不至於會滑坡到那樣極端的情況 05/28 14:37
NoManInCar: 人也是會遇到這個問題 有人可以負責 AI出事誰負責? 05/28 14:38
KAOKAOKAO: 責任歸屬問題只要契約定好就沒問題了 一定有人負責 05/28 14:41
bxxl: AI出事就賣AI裝置的廠商負責吧,但他應付的責任不高於 05/28 14:42
KAOKAOKAO: 契約沒定好又會自己動的東西有人敢買嗎? 05/28 14:42
bxxl: 同樣場合下人類應付的責任 05/28 14:42
KAOKAOKAO: 現在飛機只有少部份人為操控 空難誰負責 自駕撞人就誰 05/28 14:42
KAOKAOKAO: 按現行常識 大概也是保險公司和製造公司一定比例分配 05/28 14:43
KAOKAOKAO: 不過歸咎責任至少是個好方向 不像卡在道德問題出不來 05/28 14:43
q6261901: 現行法律的責任歸屬,到底有沒有符合公平,都很難下這個 05/28 15:00
q6261901: 定論,加上AI的攪局,勢必更為混亂。不過AI應用勢在必行 05/28 15:00
q6261901: ,我是蠻樂觀其成AI在沒觸及道德層面中的貢獻,但如果跨 05/28 15:00
q6261901: 入道德層面,個人覺得人類距離滅亡感覺也不遠了 05/28 15:00
oklaohya: Ai會避開任何危險,人類想的到的風險它都能避開 05/28 15:39
lyricslee: 說自撞不會死的是有事嗎 05/28 15:54
chaohsiung: MIT在開發道德模擬器,討論自駕車該選擇撞死什麼人 05/28 17:40
chaohsiung: 例如在前方有小孩,閃避卻會撞到路旁老人的情況。 05/28 17:41
chaohsiung: 一定會撞到人時,AI該選擇撞哪一邊 05/28 17:42
bxxl: 這不是一個AI問題,而是人類要做的選擇題 05/28 17:51
bxxl: 你選好之後,讓AI學習你想要的行為即可 05/28 17:52
q6261901: 樓上完全懂得我要說的話,也許有人會說就讓ai自己決定 05/28 18:03
q6261901: 但如果人類沒辦法有自己的意識,勢必最後會走向滅亡 05/28 18:03
ykes60513: 我什麼時候說自撞不會死了= = 05/28 18:20
theophilus: 這幾天,AI就告訴你他的決策比人好 05/28 21:10