看板 historia 關於我們 聯絡資訊
※ 引述《saltlake (SaltLake)》之銘言: : 現在有一種「人」,叫做聊天機器人。這種人的知識量可以輕易超過普通 : 人甚至專業學者,但是這種人利用資料處理被詢問的問題之可靠度…… 這個齁,我才剛測試過微軟Copilot (GPT-4) 話說,史懷哲跟華格納二妻柯西瑪是好友,連英文危機都有寫,聊天機器人應該抓得到 結果我問兩人有何關係,聊天機器人竟然給我回答:沒有任何關係 還列出了兩人的生卒年,明明有重複時間,卻給我說:兩人在不同時代 還列出了兩人的所屬領域,明明都列了音樂,卻跟我說:兩人領域毫無瓜葛 你說這不就睜眼說瞎話,真的會被它氣死,所以現在的聊天機器人還是算了 -- ※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 118.166.213.92 (臺灣) ※ 文章網址: https://www.ptt.cc/bbs/historia/M.1743004896.A.672.html
TKB5566: 所以很多人說AI要取代程式設計師 我也是傻眼 03/27 00:09
mangle: AI 搜尋錯誤率高達6成!ChatGPT、Perplexity 等8大 AI 03/27 00:45
mangle: 工具誰最準? https://www.managertoday.com.tw/articles 03/27 00:45
mangle: /view/70115?utm_source=copyshare 03/27 00:45
vajra0001: gpt還會給我編造假的歷史文獻 03/27 02:12
vajra0001: 之前跟我說左傳襄公二十六年有用龍祭天 03/27 02:13
vajra0001: 我就覺得我怎麼沒讀過 一翻 ....好你個gpt 03/27 02:14
fw190a: ....不要用gpt追問歷史細節,他就是印象派,很多人 03/27 06:42
fw190a: 反覆討論的事情才有些準確性,不同模型也差很多, 03/27 06:42
fw190a: 光是你究竟有沒有調用它的搜尋網頁功能結果就差很 03/27 06:42
fw190a: 多。我目前用grok比較多 03/27 06:42
moslaa: 越冷門的主題,AI越不準 03/27 10:27
moslaa: 這也沒辦法,AI本質也只是上網找既有資料 03/27 10:28
moslaa: 只是它找得快,整理得快而已 03/27 10:28
moslaa: 如果既有資料很少,它只好開始鬼扯 03/27 10:29
moslaa: 我的解決辦法是,關鍵部分一定問它出處,要明示 03/27 10:29
moslaa: 可惜雖然它會聽話明示,但"經常"發現它的依據是 03/27 10:30
moslaa: 沒什麼公信力的網文,如果是冷門題材。 03/27 10:30
moslaa: 不過話又說回來,每次遇到這種情況,其實我內心也有鬆一口 03/27 10:31
moslaa: 氣:我當人還是有點價值 XD 03/27 10:32
ccyaztfe: 目前的AI只能找已經電子化的資料,如果書籍資料只有紙本 03/27 11:18
ccyaztfe: 沒有電子檔,AI一定找不到的~ 03/27 11:18
ccyaztfe: 此外,它也只能找免費及有開放的電子書,如果是要付費的 03/27 11:20
ccyaztfe: 電子書,它也沒辦法知道內容。 把AI當人看待就很好理解 03/27 11:21
ccyaztfe: 了。AI就是一個只能使用電腦搜尋的人 03/27 11:21
mangle: 問出處他還會畫虎爛,之前直接丟一個網頁,問裡面的數字 03/27 11:27
mangle: 還會回答錯誤,我是用免費版chatgpt 03/27 11:27
moslaa: 想起來,chatgpt剛出來時,我還曾經堅持要它給學術論文出 03/27 12:01
moslaa: 處,它給了,但當我興奮地要找出來看全文時 03/27 12:02
moslaa: google半天確認了它這論文是假的,根本不存在! 03/27 12:02
saltlake: 樓上最近再用看看,這毛病照樣存在 03/27 12:24
saltlake: 機器人肯定不會說謊? 那是小說的設定 03/27 12:25
mangle: 目前我覺得免費版對於讀論文最好用的方式,是要直接上傳 03/27 13:28
mangle: 書面檔案,然後直接且清楚的詢問該論文中的內容,這樣比 03/27 13:28
mangle: 較有建設性,但我有時候也會怕怕的,所以大致文獻我也會 03/27 13:28
mangle: 看 03/27 13:28
mangle: 只是以前會仔細看,現在變成大概仔細點看,減輕一些負擔 03/27 13:29
mangle: ,並且多一個人討論的感覺,他會給你一些思路和反饋,不 03/27 13:30
mangle: 一定對,但幫助思考 03/27 13:30
saltlake: 樓上那種用法還是免不了普公所指出的潛在問題 03/27 14:46
saltlake: 關鍵在於當前至少商用的大型語言模型並沒有邏輯推理能力 03/27 14:47
mangle: 是啊 大語言模型很大的好處會用很淺顯易懂的語言讓你了解 03/27 17:23
mangle: 很機車艱深的理論,但你說畫圖說故事也是,他並沒有思考 03/27 17:23
mangle: 能力,其實照本宣科,但換個方式照本宣科幫助你閱讀,有 03/27 17:23
mangle: 效減輕跨領域學習的困難 03/27 17:23
mangle: 但光這樣就對學習知識有很大的益處,因此以後跨領域變成 03/27 17:29
mangle: 新興賽道,但你說跟傳統單一領域深耕30年當然有差距,但 03/27 17:29
mangle: 你會給出新的知識融合的賽道,這是過去有但不明顯的特徵 03/27 17:29
mangle: ,隨著科技的進步帶來的質變,因此知識量變得不太重要, 03/27 17:30
mangle: 反而辯證與思考還有邏輯訓練與融合不同領域的思維變得更 03/27 17:30
mangle: 重要,這是相對優勢產生能力優劣差異。但我還是說句實話 03/27 17:30
mangle: ,單一領域深耕的學者,必定會在中後期拓展不同領域,畢 03/27 17:30
mangle: 竟單一領域不可能完全分離,隨著研究深入,必然會這樣, 03/27 17:30
mangle: 也別小看傳統學者的知識廣泛,只是可能知識具有明確的領 03/27 17:30
mangle: 域界線範圍而已 03/27 17:30
kkStBvasut: gpt剛出來時我特地用英文問他 瑪麗安東妮是瑪麗亞特蕾 03/28 17:38
kkStBvasut: 西亞的女兒嗎 03/28 17:38
kkStBvasut: gpt竟然回答:不是 =,= 03/28 17:39
saltlake: 瑪麗亞特蕾西亞是瑪麗安東妮的女兒嗎? 03/28 22:14
saltlake: 殘念,這問題哄不了今日的聊天機器人 03/28 22:14
evysk701: 每次問一些古典文言文獻它都會給出超逼真的答案 但直接 04/02 15:40
evysk701: 順著它給的來源去翻整部原文根本找不到來源 連相似的句 04/02 15:41
evysk701: 子都沒有 04/02 15:41