看板 Soft_Job 關於我們 聯絡資訊
※ [本文轉錄自 Lawyer 看板 #1VNVm0C6 ] 作者: chuo11 (KKK) 看板: Lawyer 標題: [新聞] 未來將有AI法官? 法界研究人工智慧導入 時間: Sun Sep 13 19:01:17 2020 未來將有AI法官? 法界研究人工智慧導入司法 https://news.ltn.com.tw/news/society/breakingnews/2946530 〔記者吳政峰/台北報導〕司法官學院15日舉辦「2019年『人工智慧對司法之影響及未來 發展』國際研討會」,討論AI導入司法的可能性,司法官學院院長蔡碧玉表示,AI在司法 運用層面上越來越廣泛,甚至有的國家開始開發AI法官,試圖審理小型訴訟案件,但其中 的倫理與黑箱問題,也是勢必面對的挑戰。 蔡碧玉指出,從媒體報導看到有國家開始開發AI法官,希望AI法官能代替人類處理小型訴 訟案件,讓人類法官能騰出時間;亦有美國的律師事務所運用IBM所開發的華生(Watson )電腦所支援之AI律師ROSS,提供法律諮詢服務、蒐集大量文獻及案例、閱讀並分析大量 文件、搜尋可用證據,甚至是草擬契約、書狀等;國際間曾有討論將AI用於快速審查細節 、分析再犯率,判斷行為人能否具保、是否得以假釋或緩刑,甚至幫助法官做成判決。 但蔡碧玉也提出質疑,現有的法律規範對AI可能有所不足,當人類將事情交由AI進行運作 處理時,所衍生出來的法律責任將如何歸屬?AI透過機器學習的過程中,個資的蒐集與處 理,該如何規範及保護?如何解決識別資訊的隱匿問題?另外,AI是透過機器主動學習, 人們將難以理解其演算的過程,是否因此導致演算法的黑箱?在數據資料不夠全面、數量 不足時,是否造成誤導、偏見,甚至有歧視、不平等之問題?對於以規範自然人法律關係 為主的傳統法律,AI的發展將帶來難以預測的法律問題,該如何面對?這些都是法律人所 關切的課題。 受邀主講的IBM認知法律實務全球共同負責人Shawnna M. Hoffman-Chilrdess則表示,IBM 的華生電腦已經運用在辯論等領域,也支援AI律師ROSS,提供法律諮詢,但AI並不會取代 法律人,而是提供給法律人更多的判斷資訊,未來是AI的世代,也是第四次工業革命,而 伴隨而來的個資與隱私問題,將透過去中心化的區塊鏈降低風險、增加信任。 -- ※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 61.231.48.226 (臺灣) ※ 文章網址: https://www.ptt.cc/bbs/Lawyer/M.1599994880.A.306.html ※ 發信站: 批踢踢實業坊(ptt.cc) ※ 轉錄者: chuo11 (61.231.48.226 臺灣), 09/13/2020 19:03:21
jj0321: 將軍 我會判你有罪 09/13 19:24
www17010: 從台灣的資料下去訓練只會有恐龍AI法官吧 09/13 19:46
dreamnook: 應該會跑出很奇怪的判例(? 09/13 19:53
kongyeah: 加 判決.replace("可教化", ""); 就可以了 09/13 20:04
Victor7809: 只覺得會有很多奇怪判決來污染訓練集 09/13 20:18
OforU: 覺得機器會判得更公正 該怎麼判就怎麼判 但法界不可能讓A 09/13 20:30
OforU: I來判 09/13 20:30
Csongs: 異議! 09/13 20:50
vi000246: 反正都不會判死刑 隨便啦 09/13 23:48
superpandal: 接下來就有人想盡辦法攻略工程師 XDDD 09/13 23:52
viper9709: 人類終於要聽命於機器了嗎 09/14 01:36
purpleboy01: 加入民意 就會汙染了 09/14 02:23
jobintan: 不過與其拿稅金養法經匠,還不如拿去養相關設備與維護的 09/14 08:04
jobintan: data scientist還比較實際吶。 09/14 08:05
odahawk: 出問題的是演算法卻整天想改硬體... 09/14 08:06
allenxxx: 人寫的判決書你都看不懂了,AI寫的? 09/14 08:38
aidansky0989: 台灣電支都搞不定,難喔 09/14 08:57
water744: 全部可教化 09/14 09:36
knives: 可能只要說出關鍵字,就會判定成可教化了 09/14 10:14
nekosgr93: 法官是有缺到需要讓機器來輔助嗎 09/14 10:15
nekosgr93: 讓人類那間騰出時間是要去做什麼? 09/14 10:15
NDark: 岔個題。其實類似議題有強烈的需求。 09/14 11:48
NDark: 能解決痛點的團隊可能會有不錯的發展 09/14 11:49
NDark: 大家知道 因為疫情的關係 看醫生這件事 在各國變得困難 09/14 11:49
NDark: 而因為疫情網路上有各種自發社群分享疫情的情報 09/14 11:50
NDark: 其中就發現 上網求助諮詢看診 是存在硬需求 09/14 11:51
NDark: 不管是偏方 或是先確認要看哪一科,第一步驟都是先上網查問 09/14 11:52
NDark: 當然一定不能100%解決問題。這種行為並沒有佔醫生的便宜。 09/14 11:52
NDark: 而法律諮詢這邊已經有類似的服務在運作了。 09/14 11:53
NDark: 他的做法是上網付費諮詢,平台背後會有匿名的律師回答。 09/14 11:54
NDark: 這種服務 其實不只增加媒合 活絡市場 更能 減少資源浪費 09/14 11:55
ptta: 提供給演算法的樣本全都可教化 怎麼訓練出不可教化的判決? 09/14 12:31
aidansky0989: 重點在審閱文件,20年內不可能交給AI判決 09/14 13:42
becca945: 吸毒 精神疾病 手段不兇殘 通通可教化 09/14 14:32
ruthertw: 還遠的咧 光是女生說犯人逼她吹喇叭 AI就聽不懂了 09/14 15:05
jej: 35樓 這個教AI沒一兩次 他能夠比你更精確的了解 09/14 17:31
jej: 什麼時候的喇叭 是你想像中的喇叭 還是真喇叭 09/14 17:31
OforU: AI能做到分辨同詞 不同義 我以為是常識 09/14 19:56
MonkeyCL: 先讓 AI 關在圖書館讀書考國考好嗎 09/14 23:43
opencat: 法官主觀意識決定判決結果 垃圾資料一 ai根本無法收斂吧 09/15 01:16
goldflower: 可教化這個詞的權重值得商榷= = 09/15 09:56
odahawk: AI最多只能擔任書記官而已,各位鄉民被程式判刑會服氣嗎 09/15 11:09
allen139443: ai吃到恐龍的垃圾判決訓練出來還不是一樣變恐龍 09/15 14:36
maxsho: 證明終了有一集就是提到這個。因為檢查官利用ai的漏洞給 09/15 17:27
maxsho: 了特意證據導致無辜的人被判成兇手。同樣的語句在不同口 09/15 17:27
maxsho: 氣或是文化下意思可能就不一樣了,要讓ai能夠正確判斷不 09/15 17:27
maxsho: 是容易的事 09/15 17:27
nekosgr93: 連人都不能正確判斷了怎麼會覺得用人的資料餵出來的機 09/16 09:42
nekosgr93: 器能正確判斷 09/16 09:42
ggttoo: 請不要用台灣判例來訓練AI 09/16 11:38
uncleben006: 啊你要怎麼知道哪些是正確資料?結案就是正確嗎 09/18 18:53
kevinyin9: 用恐龍法官訓練集-> AI: 全部可教化 09/21 16:53
kattte: 誰能接受被機器判決 09/25 19:36
piggywu: 法官不需AI..就是法官加入太多私人情緒,才以為要有AI法官 10/19 23:49