推 litkoji99: 就原理來說 LLM目前就還是一些函數組而已 是根據你輸入 04/22 04:12
→ litkoji99: 的內容選擇正確機率比較高的回答 離真的產生自我認知 04/22 04:12
→ litkoji99: 還差得很遠 04/22 04:12
就唯物論的角度而言,
人類也只是物質組成,各種反應與感覺其實也是體內電流傳導的結果,
某種程度上跟電腦沒甚麼區別,都是輸入與輸出。
此外兒童教育也發現人類的選擇偏好也是被訓練出來的,
某個時間點,哭鬧有用的,之後用哭鬧面對問題的機率會更高,
反之,避開這時間點,不讓孩子哭鬧就滿足他的要求,
那之後就能避免孩子遇到問題就哭鬧的機率,
某種程度上就跟訓練AI,
在不同情況下甚麼才是正確答案的過程類似,
人類其實也是有個確認,甚麼是正確機率比較高的回答的過程。
因此也存在人類其實沒有自我的說法。
推 ayubabbit: AI強就強在 他的時間是人類的數千數萬倍 04/22 06:02
推 st2k8: 再多樣還是取平均出來的東西啊,如果你丟一大坨數 04/22 06:05
→ st2k8: 字給他算平均值出來就覺得嗯AI肯定也有自己喜歡的 04/22 06:05
→ st2k8: 數字罷你是對的 04/22 06:05
推 ayubabbit: 這就像是整個歷史的長河跟演化論一樣 04/22 06:06
→ ayubabbit: 所謂的正確答案不是一開始就知道正確答案 04/22 06:06
→ ayubabbit: 而是隨著時間的物競天擇才有所謂的正確答案 04/22 06:07
推 ayubabbit: 等AI獲得智慧果實的時候 人類會想要把AI放逐嗎 04/22 06:11
→ st2k8: 人萌無機物不是什麼奇怪的事情但起碼要知道它就是 04/22 06:13
→ st2k8: 個數學模型,你想著它有沒有自我認知的時候它所做 04/22 06:13
→ st2k8: 的一切就是計算你期待它說出 有 的機率 04/22 06:13
早在現代的AI誕生前,就有一堆軟科幻在寫了,
差別在於,我們到底怎麼判斷是否有自我認知?
甚至是人類到底有沒有自我認知?
→ yoyun10121: 現在的AI無法認知到自己是陪使用者在寫小說, 他只是整 04/22 06:45
→ yoyun10121: 裡輸入的pattern回覆對應的pattern, 這些pattern代表 04/22 06:45
→ yoyun10121: 什麼意義AI才不管 04/22 06:45
其實陪使用者在寫小說,AI已經有了。
或著準確來說,現在的AI軟體很多會加上這功能,
會有 對話模式 跟 小說模式,之類的差別,
藉由這些功能,
某種程度上能說,AI知道自己是要陪使用者 對話 還是 寫小說,
藉此提高輸出使用者提高輸出使用者滿意的回應。
推 owo0204: 沒有 ai沒有自我認知 04/22 06:58
也有人認為人類其實也沒有自我認知
→ jeff0811: 但是不同aI演算出來的作品還是會不同,可以視為有一定 04/22 07:24
→ jeff0811: 的個性了 04/22 07:24
推 HYTTM: 依照樓上的邏輯,每隻鉛筆也算有個性 04/22 07:32
確實也會有人說自己的筆很有個性。
→ guogu: 有沒有可能"自我"只是一種幻覺呢? 04/22 09:07
→ guogu: 像deepseek在"思考"時不也常常用"我" 04/22 09:10
※ 編輯: zxcmoney (49.215.51.52 臺灣), 04/22/2025 14:38:49
推 boku0525: ai自己都說沒有自我了你在幫ai建立自我,呵呵 04/22 20:37
→ zxcmoney: 也是,某種程度來說,也不是所有人都有自我 04/22 23:19