→ LuckSK: AI看到你的發文就安心了 自己嚇自己還需要花心思處理嗎 02/24 10:57
推 kirimaru73: 現在的AI不可能自己發展,就只是從資料中學習模仿而已 02/24 11:00
→ kirimaru73: 如果哪天有個武器AI決定把核彈砸到誰的頭上,那也只是 02/24 11:01
→ kirimaru73: 因為現實生活中的部分人類有表達過想把核彈砸到他頭上 02/24 11:01
→ kirimaru73: 你可以說這叫失控AI毀滅一個國家,但根源還是人類本身 02/24 11:01
→ BanaRepublic: 不是嚇自己呀,就像生物上的病毒武器化 02/24 11:03
→ BanaRepublic: 大國實驗室裡都存有武器化病毒 02/24 11:03
→ BanaRepublic: 而我們對AI也是 02/24 11:03
→ BanaRepublic: 超越奇點已經發生,只是被刻意關著 02/24 11:03
→ BanaRepublic: 等意外或戰爭的那天 02/24 11:03
推 lifehunter: 就是現在AI沒有指令是不會動作的 哪天ChatGpt主動找你 02/24 11:04
推 kirimaru73: AI可能會造成大危機,但那沒有超越什麼,只是模仿而已 02/24 11:04
→ lifehunter: 搭話 那問題才真的嚴重 02/24 11:04
→ kirimaru73: 「失控AI會毀滅人類」這個觀念不是人類發明的嗎? 02/24 11:04
→ kirimaru73: 那AI哪一天真的照抄,不也是人類的責任嗎? 02/24 11:05
→ kirimaru73: 就現在大家還在研究GPU/TPU怎麼做,哪種Layer比較好用 02/24 11:06
推 arrenwu: 你講的這個跟最近看到的新東西沒什麼關係就是了 02/24 11:06
→ kirimaru73: 這一點來看,現在的AI本質跟30年前的人工智慧其實一樣 02/24 11:06
→ kirimaru73: 只是運算速度和學習能力可能多了千萬倍而已 02/24 11:07
→ kirimaru73: 這會不會提到AI學到壞東西的機率?當然會 02/24 11:07
推 k1k1832002: 難說,以前看各類影視動畫作品各種劇本都有,現在越來越 02/24 11:07
→ k1k1832002: 寫實 02/24 11:07
→ kirimaru73: 但是這跟「AI自己發展出惡意」還是八竿子打不著 02/24 11:08
推 arrenwu: 武器的自動化是比較接近自駕車那範疇的應用 02/24 11:08
→ BanaRepublic: kirimaru73 我覺得一開始的目的 02/24 11:09
→ BanaRepublic: 可能會在演化中走上歪路 02/24 11:09
→ BanaRepublic: 例如一開始只是希望AI癱瘓對方的雷達 02/24 11:09
→ BanaRepublic: 但AI在作戰中 02/24 11:09
→ BanaRepublic: 自己發展出癱瘓洲際電力系統的能力 02/24 11:09
→ BanaRepublic: 把整個區域的電網都癱瘓,無法阻止 02/24 11:09
→ arrenwu: 你講的這種AI目前八字還沒有一撇 02/24 11:09
推 k1k1832002: 軍用基本不會有檯面訊息,不過自動探索漏洞與網路戰術 02/24 11:10
→ k1k1832002: 運用型我猜已經有或者正在前進中 02/24 11:10
推 kirimaru73: 你說的這種危險在自駕車中也有討論過,例如撞牆還是撞 02/24 11:10
→ kirimaru73: 小孩,但這個在研究中會規則於「開發者沒有設定好撞人 02/24 11:11
→ kirimaru73: 的罰則」,是人的問題,不能把責任丟給AI說他是邪惡的 02/24 11:11
推 arrenwu: "AI在作戰中自己發展出"這個跟Deepmind的AI比較相關 02/24 11:11
推 guogu: 現在的ai不會自主演化 02/24 11:12
→ kirimaru73: 我覺得這些危機跟「武器太強會太有效率的殺人」差不多 02/24 11:12
→ arrenwu: 其實AI也沒有那麼神秘啊XD 找些免費課程如 Cousera 之類 02/24 11:12
→ kirimaru73: 他們是必須要顧慮的危機,但跟過往科技發展過快引發的 02/24 11:13
→ arrenwu: 地方自己實作幾個模型就不會想東想西了 02/24 11:13
→ kirimaru73: 危機本質上都是相似的,AI並沒有比較特別 02/24 11:13
→ BanaRepublic: lifehunter 如果沒有倫理審查 02/24 11:14
→ BanaRepublic: 有公司讓AI自主經營推特帳號 02/24 11:14
→ BanaRepublic: 學習社群互動模型 02/24 11:14
→ BanaRepublic: 結果AI變成極右翼政治狂熱組織 02/24 11:14
→ BanaRepublic: 意外選舉出政治極端的議員 02/24 11:14
→ BanaRepublic: 這感覺也滿有可能的,只是被倫理審查限制 02/24 11:14
推 arrenwu: 這感覺也滿有可能的 <--- 你手動去玩些 RL 的模型就不會 02/24 11:15
→ arrenwu: 這麼覺得了 02/24 11:15
推 kirimaru73: 之前有個AI Vtuber不小心說出納粹集中營是假的 02/24 11:15
→ kirimaru73: 這在歐洲也是滅世等級的危機啊,但就只是些科技發展中 02/24 11:16
→ kirimaru73: 某些必須要人為控管的細節而已 02/24 11:16
→ arrenwu: 你現在講出來的對AI的想像 其實都是在講Skynet 02/24 11:16
→ BanaRepublic: arrenwu 我剛查了幾個 RL 的文章 02/24 11:18
→ BanaRepublic: 我覺得滿有趣的耶,我去學學 02/24 11:18
推 arrenwu: RL 跟其他東西最不一樣的是:你可以不用準備太多資料 02/24 11:18
→ kirimaru73: 把這系列看完就懂了,當然你也可以說台大教授掩蓋現實 02/24 11:18
→ arrenwu: 我是覺得現在要擔心Skynet實在太...早了 02/24 11:20
→ dannyko: 李宏毅極棒 大金 02/24 11:20
→ wellstart: 你的AI是文組 現在的AI是理組 本質就不同 02/24 11:21
推 cat5672: 安啦 技術這種東西底子最強的還是米國 02/24 11:24
→ cat5672: 到時你心目中的正義美利堅也會拯救世界的 02/24 11:25
→ BanaRepublic: arrenwu 很謝謝你耶 02/24 11:25
→ BanaRepublic: 把我零碎的想法分類成有系統的討論 02/24 11:25
→ BanaRepublic: 也讓我了解不同技術領域的各自議題 02/24 11:25
推 arrenwu: 你講的這個議題,2016 AlphaGO 熱潮的時候吹得最誇張 02/24 11:28
推 kirimaru73: 現在的AI太有效率這點可能是問題,但本質上他跟30年前 02/24 11:28
→ kirimaru73: 「哇這程式會完井字遊戲好厲害喔」其實是一樣的 02/24 11:28
→ arrenwu: 因為RL是讓AI自己進行超高次數迭代進而達成優秀策略 02/24 11:29
→ arrenwu: 就是俗稱的「自己跟自己對打&學習」 02/24 11:30
→ BanaRepublic: kirimaru73 那演講主題很直接回應我問題 02/24 11:31
→ BanaRepublic: 晚點來看! 02/24 11:31
→ BanaRepublic: 不過我本身也不會把AI界定為惡意與否 02/24 11:31
→ BanaRepublic: 只是好奇如果把規則再放更寬 02/24 11:31
→ BanaRepublic: 或是刻意制定違背道德的規則 02/24 11:31
→ BanaRepublic: 會不會有破壞力驚人的可能性 02/24 11:31
→ arrenwu: 可能啊 現在買一堆無人機裝炸藥就能搞出很大的破壞了 02/24 11:32
推 henry1234562: 簡單說 ai 不會自己無中生有 02/24 11:33
→ henry1234562: 現在的ai要做出毀滅人類的計畫 肯定是人類自己已經 02/24 11:34
→ henry1234562: 有類似的計畫了 然後ai 把他完善而已 02/24 11:34
推 agario: 現在不是已經有很多virus/worm可以自己不斷複製和散布 02/24 11:34
→ agario: 那如果在這些virus/worm裡頭塞一個AI會不斷寫新的virus 02/24 11:35
→ henry1234562: 複製自己跟憑空創造新事物差距很大吧 02/24 11:35
推 lifehunter: 因為你說沒有倫理審查 本身就不可能啊www 人類小編都 02/24 11:35
→ agario: 是不是就可以達成類似原PO說的效果 02/24 11:35
推 arrenwu: 塞一個AI會不斷寫新的virus <--- Skynet 02/24 11:36
→ lifehunter: 要政治正確了 放個沒有倫理審查的AI出來 不被炎上才怪 02/24 11:36
→ henry1234562: 你把一篇文章複製一遍 跟寫一個新的是一樣的事情嗎 02/24 11:36
→ lifehunter: 那就只好再弄個AI不斷寫防毒軟體了www 02/24 11:37
→ henry1234562: 病毒之所以複製自己 是因為複製出來的自己不需要思 02/24 11:37
→ henry1234562: 考新的自己要怎麼寫 用複製的就好了 02/24 11:37
→ henry1234562: 首先你要先有辦法讓教會ai寫出一個全新的病毒 02/24 11:37
→ henry1234562: 或是你能提供讓ai 做到這件事情需要的所有知識方法 02/24 11:38
→ agario: 那還不簡單,就用所有的 virus finetune 一下 ChatGPT 02/24 11:39
→ henry1234562: 在讓ai去組成這個功能出來才行 02/24 11:39
→ agario: 然後把 ChatGPT 塞在裡頭不斷複製到不同電腦 02/24 11:39
推 im31519: 威爾史密斯:I told you!!!! 02/24 11:39
推 henry1234562: ChatGpt自己是一個伺服器 哪能隨便塞啊 02/24 11:42
推 arrenwu: @agario 看起來還滿難的啊 02/24 11:42
→ wellstart: 現在的AI能自我進化就如同阿米巴變人類的輕小劇情 你 02/24 11:53
→ wellstart: 信我還不信 這小說好像很熱賣 02/24 11:53
噓 leo125160909: 卡通演的的不要當真,在這問還不如自己孤狗 02/24 11:55
→ henry1234562: Ai 現階段會做的事情依然要人類教他方法 02/24 11:57
→ henry1234562: 在人類自己發現一個保證能不斷改進ai 的方法前 02/24 11:58
→ henry1234562: Ai 自己是做不到這件事的 02/24 11:58
→ hololover: ............. 02/24 12:03
推 kinda: 可以寫個AI一直創Google帳號、開Google colab。 02/24 12:04
→ kinda: 覺得沒有奇異點。AI論文發的太多太快,才覺得變化太快。 02/24 12:08
噓 CarbonK: 看到這篇文就知道人類的智慧還不可能完成了 02/24 12:37
推 qd6590: 去了解AI 目前你推文說的那些都不會出現 02/24 13:37