看板 Tech_Job 關於我們 聯絡資訊
※ 引述《xmiracle (旋律碎片)》之銘言: : 拿一個失敗例子說AI是騙局也太武斷了 : 你現在能跟Siri講話 Email信箱會自動擋垃圾信 : 手機相機會自動找人臉 都不是騙局啊 : "如果是人的話 多多少少會受到驚嚇而減速" : 但人在這麼短短一秒內 能不能在撞上去之前踩煞車也有爭議 : "若test pattern沒打到這個快撞到鬼corner case 早就撞上去了" : 但現實生活中很多機器學習應用 都沒把你個人行為特別訓練進去 : 另外深度強化學習只是機器學習的一個分支 : 說深度強化學習不成功也不代表機器學習不成功 : 科技發展的過程本來就會有犧牲者 : 當然誰都不願意被犧牲 能盡量避免犧牲最好 : 但如果這科技最終能給大家好處 : (例如因為路上全部都是自動駕駛 減少車禍率與交通時間) : 長遠來說繼續發展還是比較好 : ※ 引述《sunsamy ()》之銘言: : : 影/Uber自駕車撞死人畫面曝光 當下完全沒減速 : : https://goo.gl/URDpTu : : 新聞的影片如上 : : 如果是人的話 : : 多多少少會受到驚嚇而減速 : : 快撞到人的反應 : : https://www.youtube.com/watch?v=WGFeOliT6xw#t=23s
: : 快撞到鬼的反應 : : https://www.youtube.com/watch?v=GdCXoAo3tUQ#t=28s
: : 所以目前人工智慧仍是curve fitting的產物 : : 不curve fitting的話泛化能力也不夠 : : 所以當然做不出會思考的強人工智慧 : : 人要撞到人與鬼之前都會受驚嚇而減速或轉彎 : : 是人工智慧,若test pattern沒打到這個快撞到鬼corner case : : 早就撞上去了 : : 所以我才說是騙局 : : 各位看倌們,自已判斷吧 : : 至於其它人怎麼說呢?如下 : : ========================================== : : 深度強化學習被成堆的炒作包圍着 : : 當別人問我強化學習能否解決他們的問題時,至少有70% : : 的時候我的回答是:不能。 : : 深度強化學習是最接近於通用人工智能(AGI)的範式之一 : : 不幸的是,它目前還不能真正地奏效。 : : 人們認爲波士頓動力的機器人使用了強化學習, : : 但是實際上並沒有 : : 換言之,他們絕大多數情況使用的是經典的機器人技術。 : : 如果你僅僅關心最終的性能 : : 那麼很多問題都能夠通過其他方法更好地解決 : : 即使當深度強化學習成功的時候,它也有可能僅僅是 : : 過擬合了環境中的某些奇怪的模式 : : 即使忽略了泛化問題, : : 最終的結果也可能是不穩定的和難以復現的 : : 次有人問我強化學習能否解決他們的問題, : : 我還是要告訴他們,不行,不行。 : : https://goo.gl/LCGfQt AI自駕車和人類比安全? 自駕車會有bug, 會有設計不良,遇到緊急狀況處理不如人類。但別忘了,是和“典範” 人類比。 住測試區的人活該承受風險? 人類會疲勞,會酒駕,會超速,會闖紅燈,開車會滑手機,甚至看電視。遇到緊急狀況, 尖叫踩油門不是開玩笑的。撞到人還“不小心”倒車壓死也不是沒有。 除非有數據自駕車的事故率,發生事故的傷亡率大於人類,否則我用膝蓋想都寧願路上的 自駕車越多越好。 更別說這次事故車上還有人呢... -- ※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 1.161.214.124 ※ 文章網址: https://www.ptt.cc/bbs/Tech_Job/M.1521760428.A.D9C.html
syterol: 人類可以負刑責被關 AI自駕車也有負責被關的人我就接受03/23 07:24
syterol: 科技發展有所犧牲可以接受,但前提是撞與被撞雙方都要犧牲03/23 07:25
空難航空公司也沒人被關啊,自駕事故未來應該也走民事賠償路線。 ※ 編輯: iamala (1.161.214.124), 03/23/2018 07:30:20
syterol: 空難大部分駕駛一起死,也大部分是已知風險自願坐上去的人03/23 07:36
Kobelephants: 自駕車出車禍乘客要負責,是你你會買單嗎?03/23 07:37
syterol: AI自駕車死人可想而知會是一般路人 03/23 07:37
syterol: 又沒要乘客負責,負責人或工程師出來扛阿03/23 07:38
syterol: 不然就直接宣布自駕車撞死人不負刑責,看哪國立委會給上路03/23 07:39
這的確是法律和道德上的大哉問,不過我相信人類懶惰和商業上貪婪的天性,法律和道德 都只是技術性問題。就像現在的航空公司一樣啦,未來剛開始大概會是自駕車保費較高, 然後出事賠三倍,強迫被害者吞下去,社會大眾共哀幾天,哇,車難耶。久了順應民意保 費調降,自駕越來越多,事故也降低,就沒人注意這塊了。社會風氣導向被自駕撞死大概 和被太魯閣石頭砸死一樣是意外吧。 話說在美國自家院子被開槍打死之類的槍枝氾濫問題吵幾年都無解了,自駕車根本小case ※ 編輯: iamala (1.161.214.124), 03/23/2018 07:50:21
robert53: AI過度發展對人類一點好處也沒有 03/23 07:47
xmiracle: 如何定義過度發展?而且這次就是發展還不夠所以才出事 03/23 07:53
steve1012: 早就有測試區啦 肇事率超低好嗎 03/23 07:53
steve1012: 過度發展只是打高空的說法啦 什麼東西都馬能套個過度發 03/23 07:54
steve1012: 展說不好 03/23 07:54
robert53: https://goo.gl/d4s4tz 03/23 07:55
robert53: 是啦,你們比霍金還科技人囉。真是棒。 03/23 07:56
steve1012: 霍金值得敬佩啦 但不是他講的都對啦 這麼簡單的道理要 03/23 08:00
steve1012: 人教? 03/23 08:00
sorryla: 霍金是宇宙物理學大師,不是AI大師 03/23 08:05
ken29228468: 自駕車不會酒駕 03/23 08:07
docker: 只是對車禍死掉的方式還不習慣罷了,影片裡換做是人來駕駛 03/23 08:24
docker: 不見得不會撞死,大白天任意過馬路被撞死的三寶比比皆是 03/23 08:25
michaelgodtw: 是人工智慧比較強?那程式一定都不會出錯? 03/23 08:28
xmiracle: 只要程式比人類出錯機率小,就有發展價值,不是說做不到 03/23 08:31
xmiracle: 100分就不要做吧 03/23 08:31
syterol: 若比照空難模式,那就是不分貧富都一口價吧,和現在依據 03/23 08:33
syterol: 所得餘命求償又不同了 03/23 08:33
shter: 自駕車的情況就比照鐵路啊,因為鐵路就是高度自動化系統 03/23 08:35
shter: 出事那就是看外人車侵犯鐵路正常運行或是鐵路本身問題 03/23 08:36
shter: 火燒車、爆衝、出軌、號誌故障影響就營運單位賠償走保險 03/23 08:37
shter: 自駕車也一樣,如果出意外是程式bug那就車公司要賠償 03/23 08:38
balius: 電腦AI有bug會出錯,但人類就算沒bug也可以常常出錯... 03/23 09:06
Wishmaster: 光那兩個影片光線差那麼多,最好第一個人眼就看的到... 03/23 09:37
Ekmund: 霍金講的是對強人工智慧的約束能力,嘴霍金也扯太遠 03/23 09:42
soliboy: BUG可以修 酒駕慣犯你告訴我怎麼修? 03/23 11:02
Horatio1105: 上學期修了一門ai課 花了三四節課討論責任問題 最後 03/23 11:06
Horatio1105: 沒有定論 真的很難去定 03/23 11:06
Horatio1105: 製造商?工程師?還是購買人? 03/23 11:06
love95023: 人類出錯機率>AI 03/23 12:01
love95023: 人類犯錯…一錯再錯,AI犯錯…bug修了就好 03/23 12:02
steve1012: 酒駕容易出車禍 又有刑責 但還是... 03/23 12:45
b258963147: 科技的發展是必然,適者生存 03/23 12:48
uvxy: 人類開車從來就沒有安全過,自駕是必然的趨勢 03/24 02:08