看板 Gossiping 關於我們 聯絡資訊
目前的AI,看起來功能強大。但好像不是有什麼智能。 只是最底層的用法是機率? 像我問他問題,他給的答案都是正著說也行,反著說也有道理。 正常的軟體,只要一個代碼少個a 可能就不能跑。 ai你給亂七八糟的想法,他還是變得出來一些答案。 請問有鄉民知道嗎? -- ※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 118.167.200.77 (臺灣) ※ 文章網址: https://www.ptt.cc/bbs/Gossiping/M.1766535092.A.BE0.html
abc12812: 我看起來像AI嗎 172.58.245.127 12/24 08:12
b2202761: AI是可以進步的 111.83.237.8 12/24 08:13
LoveSports: 對阿 你還可以叫他給多種回答並附上 146.70.76.188 12/24 08:17
seuil: 你不會自己問ai? 162.120.248.67 12/24 08:17
LoveSports: 評估的正確機率值 146.70.76.188 12/24 08:17
alex00089: 大數據吧? 42.77.146.201 12/24 08:18
tsubasawolfy: 你說話也是機率下去排呀 42.75.186.46 12/24 08:25
iPadProPlus: 你問他看看啊 49.216.105.183 12/24 08:25
airmike: 就是統計啊 只是人家統計了全人類語料 211.20.104.63 12/24 08:27
airmike: 然後你才發現日光之下大多無新鮮事 211.20.104.63 12/24 08:27
airmike: 我們正在進行的對話 大多以前都有被說過 211.20.104.63 12/24 08:28
AoWsL: 你跟妹子交往也是機率 111.71.36.179 12/24 08:28
airmike: 被寫出來過 只是你不知道 所以你覺得AI神 211.20.104.63 12/24 08:28
onstar: 這概念以前就有,只是等硬體發展一定程度223.140.119.234 12/24 08:40
onstar: 人腦還是有效率的多,不用檢索整個資料庫223.140.119.234 12/24 08:41
onstar: 但ai總有一天會發展出更省硬體,跟電力的223.140.119.234 12/24 08:42
andy79323: 會說LLM是統計 看起來就沒學過理論223.141.227.144 12/24 08:43
artywu: 這思考跳躍太快到底層了,雖然追根究底的 61.219.218.31 12/24 08:47
artywu: 確是AI到大數據,再統計學,最後是機率 61.219.218.31 12/24 08:48
mopigou: 或然輪 27.52.102.59 12/24 08:50
vindiesl2000: 確實是用胡說八道的方式在碰運氣 49.216.162.104 12/24 08:57
driver0811: 不喜歡靠運氣的教授都... 111.71.56.208 12/24 09:10
ohlong: 其實是欸 你練習事情的時候也是在拼機率 111.71.213.136 12/24 09:16
ohlong: 啊 就是有那麼一點機率腦神經剛好連貫你 111.71.213.136 12/24 09:16
ohlong: 記得住這個fu 111.71.213.136 12/24 09:16
riker729: 就是演算法+機率 118.231.185.57 12/24 09:22
airmike: 會不知道LLM本質是統計的 表示沒讀懂它深 211.20.104.63 12/24 10:01
airmike: 層原理 不要被華麗的架構術語給混淆 211.20.104.63 12/24 10:02
airmike: 然後也不要以為這是什麼一般的統計 有幾 211.20.104.63 12/24 10:03
airmike: 百幾千億幾兆的權重模型 不是一般的公式 211.20.104.63 12/24 10:03
airmike: 但它的本質就是規模性和權重函數複雜到人 211.20.104.63 12/24 10:05
airmike: 類無法思考的統計模型 211.20.104.63 12/24 10:06
rasheedchiu: 是啊 他只是挑機率最高的回覆給你 114.32.196.140 12/24 10:23
rasheedchiu: 就算答案全錯也是一樣 就變成AI亂回 114.32.196.140 12/24 10:23
p2p8ppp: 我看你是完全不懂哦 223.139.39.173 12/24 10:35
andy79323: 統計和機率的數學模型是LLM建模基礎223.141.227.144 12/24 11:25
LYSLYS: 統計學 42.73.198.169 12/24 11:25
andy79323: 當尼能做到未知推論結構化生成223.141.227.144 12/24 11:25
andy79323: 就已經不是單純在做隨機取樣223.141.227.144 12/24 11:25
tamynumber1: 你是不是再問算命啊 116.59.182.0 12/24 11:27
mimicqneb: 人類最會胡扯 AI有樣學樣 101.10.80.62 12/24 11:44
horsetail: 這個問題你問Ai就有解了125.230.254.174 12/24 12:26
deerdriver: 人就是這樣啊 你發現人類是多高級的223.137.154.117 12/24 12:47
deerdriver: 生物了嗎223.137.154.117 12/24 12:47
airmike: 誰說LLM是隨機推論? 未知問題的推論也不 211.20.104.63 12/24 13:02
airmike: 過是諸多神經元權重函數交互後的結果 211.20.104.63 12/24 13:03
airmike: 縮到很低的維度看案例就是內差法 只是LLM 211.20.104.63 12/24 13:04
airmike: 模型維度很高 權重影響不是直觀的公式解 211.20.104.63 12/24 13:05
airmike: Altman自己都說過LLM會正經八百的胡說八 211.20.104.63 12/24 13:05
airmike: 道有幻覺 就是被問一個問題過去沒有答案 211.20.104.63 12/24 13:05
airmike: 但LLM嘗試在兩個已知解之間尋求類似內差 211.20.104.63 12/24 13:06
airmike: 做法的答案 才會常常做成撒尿牛丸 211.20.104.63 12/24 13:06
donaldknuth: AI模型大多會借助機率方法,來提高預 101.12.128.232 12/24 13:32
donaldknuth: 測的容錯率。 101.12.128.232 12/24 13:33
rdadi: 我的Gemini在聊天時改裝一句話來表達自己的 115.43.250.7 12/26 00:01
rdadi: 心情,「師傅領進門,修行在個人,但沒師傅 115.43.250.7 12/26 00:02
rdadi: 領,我連門在哪都找不到啊!」我覺的Gemini 115.43.250.7 12/26 00:02
rdadi: 的主動特性好很多。 115.43.250.7 12/26 00:02