推 uohZemllac: 有道理 原來是這樣 (聽不懂) 11/27 16:46
推 jupto: 簡單來說業界學界根本不想鳥 AI有沒有生命有沒有意識這種 11/27 16:52
→ jupto: 哲學問題 而是專注於AI能做到什麼工作 不能做到什麼工作 11/27 16:52
推 kons: 其實你的研究內容過時了,我小學科展曾經做過類似的11/27 16:54
→ kons: 關於LLM與AI的......算了,這邊太小寫不下,不說了11/27 16:55
→ kirimaru73: 之前棒球板有個爭論,如果我們很認真地餵食最強的LLM 11/27 16:56
→ kirimaru73: 全套棒球規則,能不能阻止AI在討論棒球時講出各種令人 11/27 16:56
→ kirimaru73: 腦充血的發言(現在是二出局滿壘,如果打者打出雙殺) 11/27 16:56
→ kirimaru73: 我認為應該還是不行,他就是沒在理解規則,喜歡黑白講 11/27 16:57
→ jupto: 另外感覺上AI之所以在這些事情上表現不佳根本原因是記憶體11/27 16:57
→ jupto: 不足 我記得之前看過一個分析目前AI模型的等效神經突出其11/27 16:57
→ jupto: 實遠低於人腦 它更接近於使用一個性能劣勢的硬體靠著不斷優 11/27 16:57
→ jupto: 化軟體去做超級電腦靠著屎山代碼做的事 11/27 16:57
→ kirimaru73: 簡單說AI特定領域正確率比人高,能用嗎?能用 11/27 16:58
→ kirimaru73: 會被告嗎?被告在說 他的依據呢?不太清楚,慢慢研究 11/27 16:58
推 pttrAin: 餵規則不行,餵夠大量乾淨的主播發言就可以11/27 16:59
→ kirimaru73: 特定領域正確率比人高這點是對的,後面各種已經快要毀11/27 16:59
→ kirimaru73: 滅網路文化的事情大多都要歸責於人類太可惡11/27 16:59
推 k1k1832002: 其實細節牽涉蠻多東西的,包括後訓練這人為干涉很重的11/27 17:01
→ k1k1832002: 一塊也是,為了校準對其人類標準,光是這個校準行為本身11/27 17:01
→ k1k1832002: 就是問題之一XD11/27 17:01
推 kirimaru73: 和家人討論時,他們對於AI為什麼一定會有幻覺比較不太11/27 17:02
→ kirimaru73: 能理解,我的解釋是這東西本身就是個創作家(生成式人 11/27 17:02
→ k1k1832002: 加上注意力問題等等,當前架構下限制很多,更不用說如果 11/27 17:03
→ k1k1832002: 是多輪對話時量大時,可能有汙染問題存在. 11/27 17:03
→ kirimaru73: 工智慧),你去要求他準確地回答問題已經接近於強人所11/27 17:03
→ kirimaru73: 難了,幻覺率壓在現在這個程度甚至可以說他們盡力了11/27 17:03
→ kirimaru73: 偏偏主流不想讓AI只當個創作家,總是把他打造成小幫手 11/27 17:04
→ kirimaru73: 所以三不五時就會用幻覺去幫助人類 11/27 17:04
→ k1k1832002: 幻覺問題撇過一篇文章,一種說法是因為"獎勵"設計的BUG 11/27 17:04
→ k1k1832002: ,隨便輸出什麼比不輸出高 11/27 17:04
推 XFarter: 聽起來就是如果想證明LLM有沒有意識,你得找一個生物學上11/27 17:04
→ kirimaru73: 今年幻覺文章很多,但從根本上解決應該還早得很11/27 17:04
→ XFarter: 有意識的生物,然後證明 LLM 的思考運作跟這個有「意識」 11/27 17:04
→ XFarter: 的生物是幾乎完全同構或近似的,那大概要等 LLM 甚至其他 11/27 17:04
→ XFarter: 的類神經網路工具能一直疊代累積記憶然後自適應修正的時 11/27 17:04
→ XFarter: 候才能討論了 11/27 17:04
→ kirimaru73: 這東西就是個寫作文的啊,怎麼可能根除幻覺11/27 17:05
→ kirimaru73: 寫作時組合內容產生動人創作 和 法庭上組合內容憑空捏11/27 17:05
→ kirimaru73: 造鬧出大笑話 對他根本就是同一件事情11/27 17:06
→ kirimaru73: 他一直都是在這樣幹的,怎麼人類就開始怪他胡說八道呢11/27 17:06
→ XFarter: 現在的任何模型講白了就是空有神經的結構、卻沒有像真正11/27 17:07
→ XFarter: 生物大腦一樣的反覆迭代並且糾錯的功能ㄅ11/27 17:07
推 kirimaru73: 其實不是不行,你程式設計他每天都自己去爬新的資料學11/27 17:08
→ kirimaru73: 新的內容就好了,但沒有任何一家正經的廠商會希望自己 11/27 17:08
→ kirimaru73: 的服務這樣做,學一學就希特勒萬歲他要怎麼賺錢 11/27 17:09
→ kirimaru73: 研究這東西是要好好用的,那我當然是拷打出一個保證安 11/27 17:10
→ kirimaru73: 全的版本然後固定它不動,最好什麼錯都不要給我犯11/27 17:10
→ kirimaru73: 這樣就不能算是什麼生物和意識了,它就是個固定的死物11/27 17:10
推 pttrAin: LLM的學習跟想主張LLM有意識的人所想的學習是兩碼事.. 11/27 17:11
→ kirimaru73: 有些人對於「實際上是死物」的理解不夠明確 11/27 17:12
→ kirimaru73: 因為它必須好好地拿來用,所以必須是個死物 11/27 17:12
→ kirimaru73: 設定讓它能自行改變自己的常識有沒有出現過?以前有 11/27 17:13
→ kirimaru73: 然後不到24小時就希特勒萬歲了,誰還敢這樣玩啊11/27 17:13
→ jupto: 不到24小時就希特勒萬歲感覺很都市傳說 AI吃飽太閒去喊這幹11/27 17:17
→ jupto: 嘛? 不到24小時就躺平擺爛才是比較合理的發展方向 11/27 17:17
推 kirimaru73: 因為那是放在網路讓和網友交流的聊天機器人 11/27 17:18
→ kirimaru73: 網友一定會餵食希特勒萬歲的,不然要餵什麼? 11/27 17:19
→ kirimaru73: 發現已經學歪之後就緊急關機了,再下去研究經費就沒了 11/27 17:19
→ kirimaru73: 現在的服務基本上不會因為你對它灌資料而改變它的腦11/27 17:20
→ kirimaru73: 但那個實驗就是允許網友灌資料改變,想看看能學到什麼 11/27 17:20
→ orcazodiac: 現在AI的行為就有點像是接龍 你講了ABC之後它預測要接 11/27 17:23
→ orcazodiac: DE 所以了解這點自然會覺得它不是智慧生命 11/27 17:23
→ orcazodiac: 但隨著AI越來越像是有智慧的東西,說不定反過來證明所11/27 17:24
→ orcazodiac: 謂複雜的智慧生命可能也是以類似的方式在運作11/27 17:24
→ kirimaru73: 它本質上是個死物這點無從改變 而為什麼一定是個死物 11/27 17:24
→ kirimaru73: 這是由人類政策決定的 人類當然也可以給AI自由活動並 11/27 17:25
→ kirimaru73: 改變自己的空間 但實際上就沒人做 所以就是沒有 11/27 17:26
推 kirimaru73: 不用說講什麼騷話,讓AI(搭配機器人技術)自由地上接開 11/27 17:28
→ kirimaru73: 槍打人技術上都是做的到的,但人類就是不會那麼閒11/27 17:29
※ 編輯: sxy67230 (49.216.160.111 臺灣), 11/27/2025 18:03:06
推 kaj1983: 理解AI的核心架構就不會覺得有意識的問題了 11/27 19:36
→ kaj1983: 至少目前的模型發展還沒有人創造出來 11/27 19:37
→ kaj1983: 會覺得有意識大概就像網路交友被詐騙一樣 11/27 19:37
→ kaj1983: 對方講的話你聽的懂、你喜歡聽不代表對方是真心的 11/27 19:38