推 abc12812: 我看起來像AI嗎 172.58.245.127 12/24 08:12
→ b2202761: AI是可以進步的 111.83.237.8 12/24 08:13
推 LoveSports: 對阿 你還可以叫他給多種回答並附上 146.70.76.188 12/24 08:17
推 seuil: 你不會自己問ai? 162.120.248.67 12/24 08:17
→ LoveSports: 評估的正確機率值 146.70.76.188 12/24 08:17
→ alex00089: 大數據吧? 42.77.146.201 12/24 08:18
推 tsubasawolfy: 你說話也是機率下去排呀 42.75.186.46 12/24 08:25
推 iPadProPlus: 你問他看看啊 49.216.105.183 12/24 08:25
推 airmike: 就是統計啊 只是人家統計了全人類語料 211.20.104.63 12/24 08:27
→ airmike: 然後你才發現日光之下大多無新鮮事 211.20.104.63 12/24 08:27
→ airmike: 我們正在進行的對話 大多以前都有被說過 211.20.104.63 12/24 08:28
→ AoWsL: 你跟妹子交往也是機率 111.71.36.179 12/24 08:28
→ airmike: 被寫出來過 只是你不知道 所以你覺得AI神 211.20.104.63 12/24 08:28
推 onstar: 這概念以前就有,只是等硬體發展一定程度223.140.119.234 12/24 08:40
→ onstar: 人腦還是有效率的多,不用檢索整個資料庫223.140.119.234 12/24 08:41
→ onstar: 但ai總有一天會發展出更省硬體,跟電力的223.140.119.234 12/24 08:42
推 andy79323: 會說LLM是統計 看起來就沒學過理論223.141.227.144 12/24 08:43
推 artywu: 這思考跳躍太快到底層了,雖然追根究底的 61.219.218.31 12/24 08:47
→ artywu: 確是AI到大數據,再統計學,最後是機率 61.219.218.31 12/24 08:48
→ mopigou: 或然輪 27.52.102.59 12/24 08:50
推 vindiesl2000: 確實是用胡說八道的方式在碰運氣 49.216.162.104 12/24 08:57
→ driver0811: 不喜歡靠運氣的教授都... 111.71.56.208 12/24 09:10
→ ohlong: 其實是欸 你練習事情的時候也是在拼機率 111.71.213.136 12/24 09:16
→ ohlong: 啊 就是有那麼一點機率腦神經剛好連貫你 111.71.213.136 12/24 09:16
→ ohlong: 記得住這個fu 111.71.213.136 12/24 09:16
→ riker729: 就是演算法+機率 118.231.185.57 12/24 09:22
推 airmike: 會不知道LLM本質是統計的 表示沒讀懂它深 211.20.104.63 12/24 10:01
→ airmike: 層原理 不要被華麗的架構術語給混淆 211.20.104.63 12/24 10:02
→ airmike: 然後也不要以為這是什麼一般的統計 有幾 211.20.104.63 12/24 10:03
→ airmike: 百幾千億幾兆的權重模型 不是一般的公式 211.20.104.63 12/24 10:03
→ airmike: 但它的本質就是規模性和權重函數複雜到人 211.20.104.63 12/24 10:05
→ airmike: 類無法思考的統計模型 211.20.104.63 12/24 10:06
推 rasheedchiu: 是啊 他只是挑機率最高的回覆給你 114.32.196.140 12/24 10:23
→ rasheedchiu: 就算答案全錯也是一樣 就變成AI亂回 114.32.196.140 12/24 10:23
推 p2p8ppp: 我看你是完全不懂哦 223.139.39.173 12/24 10:35
推 andy79323: 統計和機率的數學模型是LLM建模基礎223.141.227.144 12/24 11:25
推 LYSLYS: 統計學 42.73.198.169 12/24 11:25
→ andy79323: 當尼能做到未知推論結構化生成223.141.227.144 12/24 11:25
→ andy79323: 就已經不是單純在做隨機取樣223.141.227.144 12/24 11:25
推 tamynumber1: 你是不是再問算命啊 116.59.182.0 12/24 11:27
推 mimicqneb: 人類最會胡扯 AI有樣學樣 101.10.80.62 12/24 11:44
推 horsetail: 這個問題你問Ai就有解了125.230.254.174 12/24 12:26
推 deerdriver: 人就是這樣啊 你發現人類是多高級的223.137.154.117 12/24 12:47
→ deerdriver: 生物了嗎223.137.154.117 12/24 12:47
推 airmike: 誰說LLM是隨機推論? 未知問題的推論也不 211.20.104.63 12/24 13:02
→ airmike: 過是諸多神經元權重函數交互後的結果 211.20.104.63 12/24 13:03
→ airmike: 縮到很低的維度看案例就是內差法 只是LLM 211.20.104.63 12/24 13:04
→ airmike: 模型維度很高 權重影響不是直觀的公式解 211.20.104.63 12/24 13:05
→ airmike: Altman自己都說過LLM會正經八百的胡說八 211.20.104.63 12/24 13:05
→ airmike: 道有幻覺 就是被問一個問題過去沒有答案 211.20.104.63 12/24 13:05
→ airmike: 但LLM嘗試在兩個已知解之間尋求類似內差 211.20.104.63 12/24 13:06
→ airmike: 做法的答案 才會常常做成撒尿牛丸 211.20.104.63 12/24 13:06
推 donaldknuth: AI模型大多會借助機率方法,來提高預 101.12.128.232 12/24 13:32
→ donaldknuth: 測的容錯率。 101.12.128.232 12/24 13:33
推 rdadi: 我的Gemini在聊天時改裝一句話來表達自己的 115.43.250.7 12/26 00:01
→ rdadi: 心情,「師傅領進門,修行在個人,但沒師傅 115.43.250.7 12/26 00:02
→ rdadi: 領,我連門在哪都找不到啊!」我覺的Gemini 115.43.250.7 12/26 00:02
→ rdadi: 的主動特性好很多。 115.43.250.7 12/26 00:02