看板 Buddhism 關於我們 聯絡資訊
※ 引述《rsseek (RS)》之銘言: : ※ 引述 《sutranet》 之銘言: : : ## 5. 語言與 AI 的限制:能否理解「空」? : : : : 你說:「空」無法言說,而 AI 是基於語言訓練,是否能理解空? : : : : - 這很到位。佛教經常強調:「空不可言說,只能體證。」 : : - 語言只是指月之指,不能代替月亮。 : : - AI 可以模擬語言上的論述(比如我現在的回覆),但這不等於體悟。 : : - 在佛法角度,體悟「空」需要轉化心識,不是演算法的產物。 : : : : 所以:AI 可以「解釋空」,但不能「證悟空」。 : : : 閒來無事動動腦寫寫文字 : 推一下原文作者的這一段 : 原作者觀察得很精準: : 「用語言文字訓練出來的AI,是沒有能力處理超越語言文字(空性)的問題的」 : 最近讀碩,chatGPT真的幫了很大的忙 : 尤其是 5 ,真的海放 4o : 在知識細節處理得很到味 : 恰恰好小弟最近在學人工智慧這一塊 : 想說可以做一點點有關人工智慧的小分享 : 讓大家知道chatGPT在幹嘛、局限性在哪 : chatGPT本質是基於機器學習的大型語言模型 : 他會根據用戶輸入的字,自動選擇並輸出合理的文字 : 但機器學習是啥?顧名思義,機器自己會學習。 : 然而機器自己會學習又是什麼鬼? : 這部分可以從AI發展的脈絡解釋 : 早期的AI是規則式AI : 人類會先寫好所有的規則,讓機器自動根據人類寫好的規則運行 : 比方說早期的客服機器人: : 接收到「關鍵字」,吐出「顧客姓名」+預先寫好的內容 : 然而這樣的限制在於:人類很難清楚定義所有的規則交給AI運作 : 像是前面的客服機器人,只要顧客說出來的東西跟「關鍵字」有一點點偏差,機器人就無法 : 順利回應 : 比方說 : 設定好的關鍵字是「謝謝」->機器人回應:「不客氣」 : 一旦顧客說「乾蝦」->機器人就不會回應了 : 只要人類沒有先寫好規則,機器人就無法回應 : 但是人類的語言如此複雜,怎麼可能先寫好所有的規則 : 所以是時候換機器學習上場了 : 那機器要怎麼學習? : 簡單舉一個例子 : 假設我面前的桌子上,有隨機散落的100個硬幣 : 我現在要找一條直線,這條直線必須可以把這100個硬幣剛好切分開來,變成左邊50個硬幣 : 、右邊50個硬幣 : 因為桌子是平面的 : 我們可以把桌子的橫邊當成x,垂直邊當成y : 同時我們也知道,直線的方程是 y=wx+b : w跟b是未知數,假設為正數 : 現在我們只要把w跟b找出來就能解決這個問題 : 但是怎麼找? : 答案是:先隨便找一個數字填進去w跟b : 先隨便在桌上畫一條線 : 算算看左右兩邊的硬幣數量有沒有等於50 : 如果有,那這個就是正確答案 : 如果沒有,就算算看差距多少,如果左邊80個、右邊20個 : 代表我現在線太偏右邊,應該要整條往左邊移動 : 那我就把b的數字加大一點 —>整條線就會往左移 : 另外w則是決定整條線的斜率 : 也是要調調看,看怎樣可以讓硬幣分得更接近50、50 : 上面「調整數字」的過程就是交給機器自己去執行,直到機器自己找出最適合的數值,讓左 : 右兩邊的硬幣剛好等於50 50 : 這就是「機器學習」的過程 : 這是很簡化的例子,再具體一點,w跟b該變加大還是減小,其實都要透過人類寫好的函數來 : 去決定方向、大小,這就牽涉到Loss值的計算跟微分求導數的過程,這邊先不展開 : 總之,機器學習的過程就是像上面的方法,不斷地測試、校正、測試、校正 : 然後我們會發現一件事:機器學習的過程,玩的是統計,而不是因果(這邊的因果指的是像 : 規則式AI,或「若p則q,非q則非p」) : 像是分硬幣的過程,很可能會有好幾條線都能剛好把硬幣分成50、50 : 或者是完全沒有線能把硬幣分得剛好50、50(比方說有硬幣不小心重疊了) : 可能只能逼近,像是51、49 : 所以他找到的w跟b不會是唯一解、也不會是推理正解 : 機器學習的過程即是透過大量數據,去統計關聯性,以盡可能逼近我們要的答案 : 所以他注定無法做真正意義上的推理,因為他本質不是規則式AI 對於AI的推理,已經有嚴格的定義 可以說是整個大語言模型的共識了 而哲學上的推理定義可以說沒有真正的意義,每個人都是各說各話 https://www.youtube.com/watch?v=s00fy5RkCHc
排除BUG造成的幻覺 AI的"推理"是將"問題"拆解到最小單元 人類可以運用提示詞將步驟正確的表達出來 在影片後面用到的是另一種叫做資料治理的技術 https://www.youtube.com/watch?v=N9T93sQsIHc
用更好的數據打基底,可以讓模型更好的應用AI領域的推理 簡單用數學的向量做譬喻 假設我們有四個詞:“king”, “queen”, “man”, “woman”。 在一個好的詞嵌入模型中, “king” 和 “queen” 的詞向量將非常接近 因為他們都代表了皇室的頭銜; 同樣,“man” 和 “woman” 的詞向量也會非常接近, 因為他們都代表性別。 此外,詞嵌入模型甚至可以捕獲更複雜的關係。 例如, 從 “king” 的詞向量中減去 “man” 的詞向量並加上 “woman” 的詞向量, 結果會非常接近 “queen” 的詞向量。 這表示出了性別的差異:“king” 對於 “man” 就像 “queen” 對於 “woman”。 這在不可解釋性的向量空間還是能找到權重值 更詳細的處理過程還是不可解 : 當然,現在chatGPT 5透過嚴格的訓練方法,可以很逼近真正的推理 AI比較像是想法的擴大器 多訓練自己把問題步驟拆解 可以將這個工具用得更好 舉個例子 1、以十波羅蜜這十個方向來解釋金剛經 2、以六波羅蜜「布施(三輪體空,對治慳貪)、持戒(不傷害他人,對治惡業)、忍辱 (無生法忍,對治瞋恚)、精進(勤奮修行,對治懈怠)、禪定(心無雜念,對治散亂) 、般若(空性正見,對治愚癡)」這六個方向來解釋金剛經 3、請你以四部宗義(毘婆沙宗、經部宗、唯識宗、中觀自續派、中觀應成派)的方向來解釋金 剛經 常用AI就會知道上面三個問題出來的結果,側重方向都會不一樣 要會用不同角度去詢問AI才能得到想要的東西 故意藏拙去測試AI的回應的話,得到的結果真的就會比較差 : (這邊補充一點點:機器在學習的過程中,可能有某些參數能達到「推理」,但基於目前機 : 器學習的不可解釋性,即便他學到了推理,我們也無法知道他是否真的學到了推理、還是只 : 是模仿了推理,所以這邊先視作無法推理。我也很期待這個說法被推翻的那一天到來) 我會覺得大型語言模型有慢慢接近世間法的四無礙辯才 法無礙解:若將已知正確的問題詳細拆解步驟,是能夠仔細說明的。 義無礙解:可以將道理用不同角度去換句話說。 辭無礙解:資料庫有各種情況的詞彙。 樂說無礙解:隨便怎麼問都不會生氣的。 怎麼運用是看個人看法 但若能拿來用在各種情況的「六度萬行」建議的話 我真的很推薦 : 以前我用chatGPT 4o 請他幫我搜尋並摘要報告 最近一週內的重大新聞,結果他搜出來「重 : 大新聞」,但是是兩個月前的新聞,原因在於他的注意力機制,把重點放在「重大新聞」, : 而不是「一週內」 : (現在同樣的問題丟給chatGPT 5 ,比較能同時注意「一週內」跟「重大新聞」,所以不會 : 抓到舊聞給我) : 現在的大型語言模型,還沒辦法真正地了解人類所思所想、或邏輯推理,大型語言模型只是 : 根據機器學習,用學出來的東西去預測自己應該要講什麼,才能讓使用者滿意、最貼近真實 : 人類的回覆 : 這也是為什麼chatGPT 4o這麼擅長「稱讚人類」 : 因為這是人類想看到的:人類越想被稱讚,大型語言模型就越可能保留「稱讚人類」的參數 : 當然chatGPT 5有努力去解決這個問題 : 另外現在也有人提出符合因果的機器學習,但都還在很初期的階段(do模型) : 結論是:目前的AI,距離真正理解人類知識還很遙遠,但是這並不代表不能用 : 相反地,其實AI特別好用,我當初考碩士時讀的書都還是請chatGPT推薦的 : 但也因為好用,更要小心用 : 了解他能做到什麼、不能做到什麼 : 就能在他最擅長的地方好好用他 -- ※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 36.226.206.243 (臺灣) ※ 文章網址: https://www.ptt.cc/bbs/Buddhism/M.1759089392.A.DAA.html
rsseek : 感謝補充,嚴格說起來,LLM不具備的是顯式推理(大 09/29 11:45
rsseek : 前提:人都會死;小前提:蘇格拉底是人;。涵攝: 09/29 11:45
rsseek : 蘇格拉底是人,所以蘇格拉底會死。);但是仍有可 09/29 11:45
rsseek : 能透過一些方式去擁有隱式推理的能力。 09/29 11:45
這個反而是最沒爭議的 只要能呈現若P則Q的這種函數表達方式 所有神經網路經過訓練應該要都能做到 首先要理解符號主義和連接主義的差別 這需要理解的東西很多 https://www.youtube.com/watch?v=LF9sd-2jCoY
這部影片到50幾分鐘前都是講述建立這種泛化能力的運作過程 但就是現在LLM的BUG還是很多 譬如後台訓練時答錯跟回答不知道的評分都一樣 很多幻覺是這樣產生的...... ※ 編輯: MartinJu (36.226.206.243 臺灣), 09/29/2025 18:40:48
rsseek : 先推一個,明天來看;如果要從統計數據的結果(神 09/29 23:05
rsseek : 經網絡學習到的權重)回過頭來找符號(若p則q), 09/29 23:05
rsseek : 看起來會先遇到模態對齊的問題 09/29 23:05
rsseek : 上面的視頻比較偏科普,具體我覺得可以先從深度神 09/30 12:47
rsseek : 經網絡的數學模型開始; 09/30 12:47
rsseek : https://reurl.cc/z5ax0p 09/30 12:47
rsseek : 深度神經網絡主要源於非線性結構,這樣的結構讓機 09/30 12:47
rsseek : 器獲得泛化處理事物的能力 09/30 12:47
機器學習是線性代數的向量空間結構 深度神經網絡是利用統計學強化向量分析 只是多一層隱藏層,相當於多一個維度 以數學角度來看 統計問題在當前變數不夠分析時,有可能再往上多一層維度就可以
rsseek : 而這個結構透過LOSS定義,來去做反向傳播訓練,除 09/30 12:47
rsseek : 此之外,目前市面上的LLM則是再結合self-attention 09/30 12:47
rsseek : 機制做出來的 09/30 12:47
rsseek : 他的核心依然是統計,但「相關不等於因果」,雖然 09/30 12:47
https://youtu.be/LF9sd-2jCoY?t=2045
上面就是線性方程式 下面是統計可以改變的權重 本體是函數... 而足夠大的函數可以描述全世界
rsseek : 現在很多大廠努力透過思維鏈方式讓LLM模擬人類思考 09/30 12:47
rsseek : 過程 09/30 12:47
rsseek : 盡可能逼近若p則q的推理,但是兩者的本質不同,一 09/30 12:47
rsseek : 者連續,一者離散 09/30 12:47
你可能比較難理解量變產生質變 https://www.youtube.com/watch?v=Oj9t2Lzj-rI
這個能解釋AI運作的哲學 但牽扯一堆數學與哲學 數學和哲學有時候很看天分 有興趣的話可以仔細研究
rsseek : 目前兩者之間還是有一個難以跨越的鴻溝 09/30 12:47
rsseek : 這問題有點像是 09/30 12:48
rsseek : 拿一張7根手指頭的圖片問chatGPT,圖片裡有幾隻手 09/30 12:48
rsseek : 指頭 09/30 12:48
rsseek : 對他來說這問題他很容易出錯,因為他無法像是人類 09/30 12:48
rsseek : 用數數的方式,看著圖片計算1、2、3、4、5、6、7, 09/30 12:48
rsseek : 他只能先把圖片轉成文字:這是一張手的照片,而在 09/30 12:48
rsseek : 轉換的過程中會丟失「圖片中有幾隻手指頭」的資訊 09/30 12:48
rsseek : ,這是模態對齊的問題 09/30 12:48
rsseek : 但是從另一個角度說起來,人類的推理方式難道就是 09/30 12:48
rsseek : 若p則q嗎? 09/30 12:48
rsseek : 這畢竟只是一個解決問題的工具 09/30 12:48
rsseek : 從心理學中的「吊橋效應」可以看見,其實我們人類 09/30 12:48
rsseek : 的大腦也是一個黑盒子 09/30 12:48
rsseek : 我們也常常不知道自己的所思所想 09/30 12:48
rsseek : 直到打出這一段文字之前,我也不知道我會打出什麼 09/30 12:48
rsseek : 字,某種程度上,這也像是LLM的自回歸,我打出了字 09/30 12:48
rsseek : ,去推斷下一個合理的字;就像寫詩的「推敲」一樣 09/30 12:48
rsseek : ,也許人類思考事情的方式其實更接近LLM一點 09/30 12:48
rsseek : 只是我們期待有一個工具,可以在做到自然語言的前 09/30 12:48
rsseek : 提下,能達到若p則q專家系統的嚴謹性 09/30 12:48
rsseek : 如果個人戶要自己實作的話,我覺得n8n可行,就把系 09/30 12:48
rsseek : 統串在一起就好了,只是不夠泛用就是了 09/30 12:48
※ 編輯: MartinJu (36.226.206.243 臺灣), 10/01/2025 20:25:36