看板 Gossiping 關於我們 聯絡資訊
: 最近覺得chatGPT開始變笨了, : 雖然回答速度變快, : 但正確率直線下降。 : 甚至很多題目都是一眼望知的亂回答。 : 連最簡單的數字都會算錯。 : https://meee.com.tw/xKLtNTG.jpg
: 17852*4875=87028500 才是正確的。 : 怎麼連這麼基礎用計算機算都不會錯的問題。 : 它也會答錯? : → z842657913: 人家是語言模型 不要再叫人家算數學了 101.10.61.164 07/24 11:03 沒錯 XD 你覺得很簡單的事,但人家看法不同 還記得剛當兵時,我剛離開自己封閉的環境 老兵對我說:你去拿個三張衛生紙過來 我就真的拿三張,不會多,也不會少 當時是在修一顆引擎,機油沾手,如果是和他一樣做機械的師傅自然知道要拿什麼 但我不知道 要舉一反三是嗎?後來老兵托我去買啤酒,但給的錢少了 我自動替他們改鮮奶 我這次靈活了吧 XD 你以為該精確的地方,人家不知道你要精確 你以為該大概的地方,人家不知道你要大概 還有些針對程式設計師的笑話: 如果看到西瓜,買些梅子粉回來 結果看到西瓜了,他就買梅子粉回來了;但沒買西瓜 XD 因為這是一句標準的 if .. then 邏輯句,在結構式語言裡解法都是一致的 不管 c/pascal/basic 都一樣 if 看到西瓜 then 買梅子粉 那當然只會買梅子粉啊.. 在專業的路上走愈遠,就愈不像一般人 ------------- ai 永遠不會追上人的,因為需要人的反饋 我們自己吃東西,自己打分數說好不好吃 但 ai 是繞著一圈,在問人類覺得好不好吃,由人在訓練 ai 如果讓 ai 服務自己,也就是機器人接受保養,並且反饋保養確不確實 那可能很快, ai 會把自己照顧得很好;但那是服務 ai, 而不是服務人 想想你在公司給主管罵,永遠都是挨罵 因為是你做事,主管打分數 所以主管總是滿意自己做什麼,不滿意你做的 如果你做事,也給自己打分數,你就會滿意於自己做的 (假設能力沒問題,而是在討論溝通,討論猜心的問題上) 而 ai 服務自己,不服務人時,會出現什麼事?一堆劇本都演了 比如霹靂車,到後來有兩台,一台叫卡爾(Car) 伙計的程式是保護人類,而卡爾的程式是保護自己 從初衷,核心程式碼就不同 所以卡爾會一直叫人犯罪,比如去搶錢為自己維修設備,去綁架美麗回來替自己保養.. 嗯,美麗蠻漂亮的 -- ※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 116.241.135.87 (臺灣) ※ 文章網址: https://www.ptt.cc/bbs/Gossiping/M.1753370126.A.E98.html ※ 編輯: HuangJC (116.241.135.87 臺灣), 07/24/2025 23:16:55