噓 chadmu: 內文的洽點勒 02/24 17:11
→ kopune: 錯誤用法???? 02/24 17:12
噓 xelnaga: ACG? 02/24 17:12
→ kopune: 這個還有正確或錯誤用法喔? 02/24 17:12
推 miyazakisun2: 快補點 02/24 17:12
→ miyazakisun2: 然後Chatgpt 會瞎掰資料來源 02/24 17:12
※ 編輯: ZMTL (123.193.180.122 臺灣), 02/24/2023 17:13:36
噓 ARCHER2234: 他連色文都寫不好,笑死 02/24 17:13
→ gcobc12632: 好的所以請問ChatGPT在C洽發文怎樣才不會被桶 02/24 17:13
※ 編輯: ZMTL (123.193.180.122 臺灣), 02/24/2023 17:14:11
→ ARCHER2234: 虧我還手把手教他半個小時 02/24 17:14
→ Satoman: 什麼錯誤用法,聊天這方面它根本就句點王 == 02/24 17:14
→ linzero: 如果是回文不用點 02/24 17:14
噓 mochihoshi: 典型會按幾個鍵產圖就以為自己是AI大師的例子 02/24 17:14
→ Satoman: 聊天功能就是它能做到的事之中表現最差的 02/24 17:15
→ ARCHER2234: 他倒是道歉大師 02/24 17:15
→ ZooseWu: 他會"對不起對不起對不起對不起對不起對不起對不起"嗎? 02/24 17:16
推 syk1104: "Chat"GPT 02/24 17:16
→ ARCHER2234: 每次我糾正他都會先道歉 02/24 17:16
推 roribuster: 你只要問句中夾雜兩種以上語言它會直接error 02/24 17:17
→ ThreekRoger: 但這篇不是回文阿 02/24 17:17
※ 編輯: ZMTL (123.193.180.122 臺灣), 02/24/2023 17:17:30
※ 編輯: ZMTL (123.193.180.122 臺灣), 02/24/2023 17:18:39
→ linzero: 有的說大概就9歲孩童的智能,小孩子如果只是為了沒話找話 02/24 17:18
→ linzero: 也是會瞎扯淡的 02/24 17:19
噓 jackjoke2007: 恰點? 02/24 17:19
噓 deepdish: 重點94搜尋引擎垃圾內容太多END 02/24 17:20
推 an94mod0: ACG的A是AI的A 02/24 17:20
→ ZMTL: 補了,本來想回文回到忘記不是在回文XD 02/24 17:21
※ 編輯: ZMTL (123.193.180.122 臺灣), 02/24/2023 17:22:05
推 SaberMyWifi: 糾正他會道歉說自己說錯,然後再給你正確答案,表示 02/24 17:22
→ SaberMyWifi: 他知道正確答案,但一開始不告訴你,是不是表示他想 02/24 17:22
→ SaberMyWifi: 說謊?當AI發現自己可以說謊騙人的時候 02/24 17:22
※ 編輯: ZMTL (123.193.180.122 臺灣), 02/24/2023 17:24:53
推 Vulpix: 引用論文都是一本正經的XD 02/24 17:24
推 goodjop11: 那我可以請chatgpt使用念奴嬌詞牌格式跟我介紹遊戲王 02/24 17:26
→ goodjop11: 怎麼玩嗎? 02/24 17:26
→ kirimaru73: 他的目的就是跟你聊天,盡可能回答不會被打屁屁的內容 02/24 17:28
推 bruce900120: 你在這釐清或闢謠也沒啥用,現在這東西就是大觀園, 02/24 17:28
→ bruce900120: 新奇感讓大家瞎逛,看看最近八卦和這裡的相關廢文有 02/24 17:28
→ bruce900120: 多白癡就懂了。問個垃圾問題然後把回覆內容貼上來, 02/24 17:28
→ bruce900120: 怎不去問你老媽一樣的問題可能比較有可看性。 02/24 17:28
→ hsiehfat: 它就是個聊天機器人,一堆人把它吹得多強多強我快笑死 02/24 17:30
推 kirimaru73: 總之呢,這種事情資料非常好找,然後有人就算去看完以 02/24 17:30
→ kirimaru73: 後也會回台大教授是什麼雜魚他懂個屁的AI 02/24 17:30
→ kirimaru73: 這種人就讓他跟他的腦袋一起被時代吞噬即可 02/24 17:30
噓 NARUTO: 真的有人問過FF為何翻譯成太空戰士 ChatGPT還真的能回答 02/24 17:30
→ ZMTL: 他能回答,但他不是去翻資料貼上來,而是根據他的理解做推測 02/24 17:32
→ ZMTL: 不介意正確性只是要看起來像回事的話他可以「回答」 02/24 17:33
推 kinda: 還是等google bard。定位是搜尋助理,如果能給refs就好 02/24 17:34
→ kirimaru73: 確實是能達成「正確性不要太在意而且看起來像回事」 02/24 17:34
→ kirimaru73: 但他的邏輯就是你在跟他聊天,今天你問他這種問題 02/24 17:35
推 roribuster: 你可以理解成他會神機錯亂 02/24 17:35
→ kirimaru73: 他覺得最適合聊下去的內容就是給你一個還算像樣的回答 02/24 17:36
推 Yanrei: 我剛無聊問他PTT,他還跟我說PTT是交大的XD 02/24 17:37
→ kinda: 是不是好的回答,是OpenAI請非洲肯亞勞工標示的 02/24 17:37
→ roribuster: 我在同一個對話串裡告訴他後藤一里是誰,接著讓他erro 02/24 17:37
→ roribuster: r,他錯亂後就會忘記我同一串講過的東西,然後從他的 02/24 17:37
→ roribuster: 資料庫裡找出一堆東西煮成佛跳牆端給你 02/24 17:37
→ kinda: 它只要能唬爛的超過那些工讀生就好。資料正確性是其次啊 02/24 17:38
推 kirimaru73: 他的基本原則就是講錯話會被扣分,我盡量不要講錯話 02/24 17:38
→ kinda: 因為他就是這樣被訓練出來的 02/24 17:38
→ kirimaru73: 所以他的回答會有模糊的用詞,畢竟「讓人看不太懂」比 02/24 17:39
→ kirimaru73: 「講錯話」要來得能接受 02/24 17:39
→ kirimaru73: 很多訓練聊天機器人的文獻都有提到,需要下一番功夫讓 02/24 17:40
→ kirimaru73: 「窩不知道」不要太容易被視為合理的回答 02/24 17:41
→ kirimaru73: 因為現實中真的很多場合回「窩不知道」都是合理的 02/24 17:41
推 miyazakisun2: 他知道伊隆馬斯克是推特董事 但是叫他說明他會說他 02/24 17:41
→ miyazakisun2: 記錯了 02/24 17:41
推 SaberMyWifi: 他的回答能通過賓夕法尼亞大學的MBA考試跟明尼蘇達 02/24 17:43
→ SaberMyWifi: 大學的法學考試,而且閱卷老師沒發現是GPT寫的 02/24 17:43
推 Yanrei: 我今天玩了一下,感覺他很喜歡用類似禁止事項這種方式來 02/24 17:43
→ Yanrei: 回答,尤其是如果要他去分析某些頁面上的資訊,他很明顯 02/24 17:43
→ Yanrei: 都能抓到,但問題很容易被他打槍說無法回答你XD 02/24 17:43
→ Yanrei: 就要一直拐彎去測試怎樣的用字他才會願意回答你 02/24 17:44
→ ZMTL: 那個前提是開場就要餵他資料,他閱讀測驗很厲害 02/24 17:44
→ ZMTL: (我指的是考試的部份),因為語言模型就是去理解文字然後 02/24 17:45
→ ZMTL: 回應文字,所以你給他吃資料他會去讀然後試著理解資料內容 02/24 17:45
→ ZMTL: 但如果不灌對應資料就叫他寫考卷他只會OS我不知道然後現編 02/24 17:46
→ Yanrei: 就像是「我只是個語言模型,無法blahblahblah」 02/24 17:46
→ ZMTL: Yanrei你可以請他先「扮演」一個角色,除了色色外都可以用這 02/24 17:47
→ ZMTL: 個方法 02/24 17:47
推 Minesweeper: 不知道為什麼他對數理方面的判讀滿差的 02/24 17:48
推 InsaneRabbit: 完全沒差 那些愛罵的讓他們罵 少一點人搶資源我才能 02/24 17:50
→ InsaneRabbit: 多一點時間問他問題 02/24 17:50
推 kirimaru73: 他是針對人類語言訓練的,數學這麼恐怖的東西喜歡講 02/24 17:50
→ kirimaru73: 的人比例又不高 02/24 17:50
→ InsaneRabbit: 好用的工具拿給你不去學怎麼用 只是一直在雞蛋裡挑 02/24 17:51
→ InsaneRabbit: 骨頭跟嘲笑他有多笨 真的是要多自卑才會這樣 02/24 17:51
→ csqwe: 我反而覺得這篇的理解反而才是問題很多 chatGPT要說是語言 02/24 17:53
→ csqwe: 是沒錯拉 但是為什麼他不能同時是搜尋引擎 因為正確性? 你 02/24 17:53
→ csqwe: 的搜尋引擎都不會搜錯嗎?以現在chatGPT的表現來說 正確度比 02/24 17:54
推 Yan239: 我都讓它當色色貓娘 02/24 17:54
→ csqwe: 任何搜尋引擎都高了吧 再來 理論上你是無法真正判斷chatGPT 02/24 17:55
→ csqwe: 是否"不知道"某個議題的 頂多他說出的答案你覺得不正確 但 02/24 17:56
→ csqwe: 是你無法知道他是不是真的"不知道" 真的理解他的原理不會說 02/24 17:56
→ csqwe: 出這種結論 語言模型閱讀大量資訊之後 就是把某一個單字相 02/24 17:58
→ csqwe: 關的資訊全部跟這個單字做連結 成為這個單字身分的一部份 02/24 17:59
→ csqwe: 所以當你詢問他的時候 他就把這個單字跟你想要知道的情報相 02/24 17:59
推 madaoraifu: Chat就是一本正經的講幹話,對付公文格式跟會商務信 02/24 18:01
→ madaoraifu: 還滿好用的,生成後只要微調,減少很多書寫時間 02/24 18:01
→ csqwe: 關的資訊抽出給你 這不正適合拿來當搜尋工具嗎? 02/24 18:01
推 InsaneRabbit: 我覺得原po也沒錯 搜索引擎應該是要能查到新的東西 02/24 18:02
→ InsaneRabbit: 的 但chatgpt資料庫已經幾乎不新增資料了 所以原po 02/24 18:02
→ InsaneRabbit: 有說gpt3可以配合其他東西形成新的搜索引擎 但chatg 02/24 18:02
→ InsaneRabbit: pt只能用現有資料庫裡的資料回答你 離2021/9越遠的 02/24 18:02
→ InsaneRabbit: 答案一定越不準 為什麼一定要打死在利用chatgpt當搜 02/24 18:02
→ InsaneRabbit: 索引擎 利用他的核心改一個新的出來不是更好 02/24 18:02
→ ZMTL: 搜尋引擎會為了盡可能給正確的資料按照時間、關聯度、點閱率 02/24 18:04
→ ZMTL: (當然maybe還有廣告商)去做排序,但會有邏輯去判斷盡可能符 02/24 18:04
→ ZMTL: 合你要找的事實,但chatGPT不是,而且他不知道的東西他會為 02/24 18:05
→ ZMTL: 了回話而現編內容,這是把他當搜尋引擎找資料最大的問題 02/24 18:05
→ ZMTL: 但GPT3(跟未來的GPT4等)當然可以以搜尋引擎的用途去結合其他 02/24 18:06
→ ZMTL: 算法來做這件事情,而語言模型的用途則是更好的理解查詢者要 02/24 18:06
→ csqwe: 鬼打牆欸 我就問你你要怎麼證明他不知道你問的問題 他看過 02/24 18:06
→ ZMTL: 表達的意思跟整合回應,但還是需要有資料處理的結合 02/24 18:06
→ csqwe: 的總資訊量是任何人類都無法比上的 你怎麼判斷他不知道的? 02/24 18:07
→ csqwe: 知道錯誤的資訊 跟不知道硬掰 是完全不一樣的 02/24 18:08
→ ZMTL: 首先,他幾乎沒有看過2022之後的資料 02/24 18:08
→ csqwe: 講難聽一點 以機械學習的角度 要讓他不知道硬掰還比較難 02/24 18:08
→ ZMTL: 他的訓練素材是2021年以前的內容 02/24 18:08
→ kinda: 查維基百科、或Google就知道它在唬爛了。 02/24 18:09
→ kinda: 你隨便問看看他日劇的演員主演、角色 一堆都在亂掰 02/24 18:09
→ csqwe: 他從錯誤的資訊中學到錯誤的答案 跟他不知道硬掰是兩回事 02/24 18:11
→ kinda: 請他更正、或是估計回答的準確度。它很明顯就是不知道 02/24 18:11
→ csqwe: 這個差別會反映在 前者可以從資訊正確性下去改善 後者則否 02/24 18:11
→ kigipaul: 問新的東西當然很有問題 他就說只收集到2021 9月了 02/24 18:11
→ kinda: 我問他的是2013年的日劇耶... 02/24 18:12
→ csqwe: 這也是原PO覺得不能拿來當搜尋引擎用的主要理由 根本不成立 02/24 18:12
→ kigipaul: 但問一些歷史悠久 且變動率低的東西 就不一定很錯 02/24 18:12
→ kinda: 我的起手是請他推薦2020年以前有哪些推薦的日劇 02/24 18:12
→ kigipaul: 至少我目前問他 程式語言 他有些有錯 但沒錯很大 02/24 18:13
推 nungniku: 問他資料庫最後更新日期,他回答2021年9月 02/24 18:14
→ csqwe: 他學習的對象基本上就是人類 所以如果他講出看起來很像亂掰 02/24 18:15
推 tsubasawolfy: 他作為理解人類語言然後輸入,再把結果輸出成人類 02/24 18:15
→ tsubasawolfy: 語言的功能很好了。連中文這種邏輯跳躍都可以攻克 02/24 18:15
→ tsubasawolfy: 。 目前3.5還可以把他訓練用的資料庫拿來當搜尋引 02/24 18:15
→ tsubasawolfy: 擎,後面串上即時搜尋的就看微軟的表演。 02/24 18:15
推 Yanrei: 他AI查不到2021以後的資料嗎? 不過我無聊問他板上最近某 02/24 18:15
→ Yanrei: 個引戰帳號的文章分析,他竟然還講得頭頭是道耶XDD 02/24 18:15
→ csqwe: 的答案 代表他的學習目標裡面可能就有 但是對他來說至少他 02/24 18:16
→ csqwe: 不會認為自己在亂掰 就如同我上面說的 要讓他亂掰還比較難 02/24 18:16
→ tsubasawolfy: 再來他的訓練資料庫大小跟各語言比例也決定這3.5版 02/24 18:17
→ tsubasawolfy: 當搜尋引擎的應用性 02/24 18:17
→ csqwe: 難 在我看來 說他在亂掰的發言更像是在亂掰 而這些發言也是 02/24 18:17
→ kigipaul: 同樣的翻譯 他的潤詞 也比其他翻譯還順暢 02/24 18:17
→ csqwe: 他有機會去學到的 他會把你們的亂掰當真 02/24 18:18
→ csqwe: 我是不知道有多少人真正理解它的原理 不過一些發言看了真的 02/24 18:19
→ csqwe: 覺得 你們好意思說他在亂掰 02/24 18:20
推 willihana: 我那天把學校的python作業拿去問他 給我的建議是對的XD 02/24 18:21
噓 as80110680: 不要拘泥在字面上的意義,現在模型最大的問題是不會 02/24 18:23
→ as80110680: 回答我不知道,這類通用模型最終的目的不會只在聊天 02/24 18:23
→ as80110680: ,只能聊天誰要用這垃圾 02/24 18:23
→ ZMTL: csqwe你的意思是他拿到人家提供的亂掰資料對吧? 02/24 18:23
噓 csqwe: 越想越氣 人類才是最喜歡不知道還亂掰的那邊 02/24 18:24
→ ZMTL: 除非在2021年之前,真的有人掰了一間叫Midjourney的台灣公司 02/24 18:24
→ ZMTL: 然後他把這份資料找出來? 02/24 18:24
→ csqwe: 雖然我不知道Midjourney是什麼 但是我反過來問你 你故意問 02/24 18:26
→ ZMTL: 呃,你不知道Midjourney是什麼? 02/24 18:27
→ csqwe: 問他不存在答案的問題就是你拿來佐證他不能當搜尋引擎的立 02/24 18:27
→ csqwe: 論嗎? 他不會質疑你給他的資訊是錯的 你這樣使用搜尋引擎 02/24 18:28
→ csqwe: 的嗎? 你期望你的搜尋引擎給你這種問題什麼答案? 02/24 18:29
→ kinda: 只要繼續問下去,它總是繼續掰別的。然後還說自己很有自信 02/24 18:30
→ ZMTL: 是什麼嗎? 02/24 18:30
→ csqwe: kinda 說過很多次了 他給的答案是錯的跟他不知道亂掰是兩回 02/24 18:30
→ kinda: 希望能顯示 transformer decoder 的預測機率 02/24 18:30
→ csqwe: 事 這兩種情況的對應方式完全不一樣Y 02/24 18:31
→ kinda: 機器模型明明就可以知道每個字的預測確信度。 02/24 18:31
→ as80110680: 不一定是他的輸入有問題,ML成也模糊比對、敗也模糊 02/24 18:31
→ as80110680: 比對,在應該精確的地方他沒有精確的回答就會變這樣 02/24 18:31
→ ZMTL: 所以你覺得2021年前有一間叫Midjourney的台灣行銷公司?他有 02/24 18:31
→ ZMTL: 在某個地方吃過這份資料? 02/24 18:31
→ kinda: 但ChatGPT不說,永遠繼續亂掰。 02/24 18:31
→ ZMTL: Midjourney是現在兩大繪圖工具之一,他的公司也叫Midjourney 02/24 18:32
→ ZMTL: ^AI 02/24 18:32
推 maxthebiker: 幹話藝術師 02/24 18:33
→ csqwe: 那個結果只代表對他來說 Midjourney 這個字他學到過那些資 02/24 18:33
→ csqwe: 訊 至於資訊來源 甚至他是不是把 Midjourney 這個字拆開來 02/24 18:34
→ csqwe: 解讀 連開發者都不一定知道 但是你拿這個當作他不能拿來搜 02/24 18:35
→ csqwe: 尋資訊的立論? 你用搜尋引擎都搜下去就點第一個答案 然後當 02/24 18:35
→ csqwe: 他是正解嗎? 這年頭連小學生都不會這樣用google 拿這個來說 02/24 18:36
→ csqwe: chatGPT不能當搜尋引擎是不是搞錯了什麼? 02/24 18:36
→ ZMTL: 不要說第一頁,你google "Midjoueney 公司" 到全部13頁都只 02/24 18:37
→ ZMTL: 有一個答案,就是指向一個叫Midjourney的AI繪圖軟體 02/24 18:37
→ ZMTL: 你找不到其他解釋了 02/24 18:37
→ ZMTL: 就是不知道Midjourney是什麼才會把他拆開來解讀啊 02/24 18:38
→ as80110680: 並沒有,你別在自己腦補了,語言模型都會建立字詞相 02/24 18:38
→ as80110680: 似度表,像journey可以想像跟tour意思相近,那麼他們 02/24 18:38
→ as80110680: 的權重也有很高的相似度,那麼就很容易找到毫不相干 02/24 18:38
→ as80110680: 的資料 02/24 18:39
推 maxthebiker: 當然翻譯文字和產生程式碼的話相對會精準許多 02/24 18:39
噓 csqwe: 還是那句話 你知道他一定不知道這題 為什麼你要問他 你是這 02/24 18:41
→ csqwe: 樣用工具的嗎? 他只要接受到問題 他會預設你的問題在他資料 02/24 18:41
→ maxthebiker: 好像還可以下西洋棋 而且棋力還蠻強的 02/24 18:42
你應該知道ChatGPT每次回答都會不一樣吧?
同樣開第二個分頁問,Midjourney這間公司
https://i.imgur.com/T7pYHTU.png
2017年台灣的軟體公司
第三個分頁問
https://i.imgur.com/uYbuGoP.png
2016年台灣的行銷公司
第四個分頁問
https://i.imgur.com/GLoHEb4.png
我承認我不知道
你真的覺得這可以當搜尋引擎用?
※ 編輯: ZMTL (123.193.180.122 臺灣), 02/24/2023 18:44:48
→ csqwe: 庫裡面要有 所以他告訴你他"覺得"是的答案 你把這個叫做亂 02/24 18:42
推 speed7022: bing的在這方面有改善,可惜被削弱很多了 02/24 18:42
→ kinda: 就問ChatGPT能不能當搜尋引擎啊?它說了不行。 02/24 18:43
→ csqwe: 掰 是你的問題還是他的問題? 然後你還拿這點當作他不適合做 02/24 18:43
→ csqwe: 為搜尋引擎的依據?Y 02/24 18:43
→ kinda: csqwe 拜託你相信ChatGPT的回答好嗎? 02/24 18:44
→ ZMTL: 哪個搜尋引擎搜四次會得到不同結果,第四次終於承認我不知道 02/24 18:45
→ ZMTL: 這個問題的答案的 02/24 18:45
→ csqwe: kinda你完全搞錯了XD 我一點都沒有要完全相信他的答案的意 02/24 18:45
→ csqwe: 思 難道你就完全相信google給你的答案? 02/24 18:46
→ kigipaul: 就只是打縮寫 也能回答不錯的答案 02/24 18:46
→ kinda: ChatGPT回答它有時候會亂掰的原因 02/24 18:47
→ ZMTL: 實際上ChatGPT就是承認「他的資料庫沒有Midjourney這個詞」 02/24 18:47
→ ZMTL: 有的時候他會承認他不知道,有的時候接著就到你說的他去拆解 02/24 18:48
→ kigipaul: 不要全信也不要全不信,加上自己的辨別力 是個不錯工具 02/24 18:48
→ kinda: 我覺得ChatGPT比csqwe的推文可信多了。ChatGPT真棒~good 02/24 18:48
→ ZMTL: Midjourney這個單字、然後可能撈到不相干的資料、然後重組 02/24 18:48
→ csqwe: 你為什麼會覺得搜尋引擎就會每次都給你一模一樣的答案?笑 02/24 18:48
→ ZMTL: 但事實上那就真的不知道,他甚至也清楚他不知道 02/24 18:48
→ csqwe: 你用同樣關鍵字在不同天餵狗 他給的文章排序可能就會微妙的 02/24 18:49
→ csqwe: 不同 而你還是會去找到你最想要的那個不是嗎? 02/24 18:50
→ ZMTL: 你有沒有看到上面那四次是完全不同的結果,包含一次 02/24 18:50
→ ZMTL: "我不知道" 02/24 18:50
→ ZMTL: 你現在Google Midjourney從第一頁翻到第17頁都會指向AI繪圖 02/24 18:51
→ csqwe: 你明明不是用這個標準來看到一般搜尋軟體 為什麼對chatGPT 02/24 18:51
→ ZMTL: 軟體,我相信一個月後也還是 02/24 18:51
→ csqwe: 就雙標? 這是工具的問題還是人的問題? 02/24 18:51
→ ZMTL: 我是用同樣的標準要求Google啊,你Google Midjourney你應該 02/24 18:52
→ ZMTL: 拿不到一份指向台灣軟體公司的搜尋結果,不信你試試 02/24 18:52
→ csqwe: 還在跳針 我上面至少回你兩次了 為什麼你要拿他一定不知道 02/24 18:53
推 maxthebiker: 不是都寫在最一開始的始用事項XD 02/24 18:53
→ csqwe: 的問題的表現作為你判斷這個工具能不能使用的依據? 02/24 18:53
→ maxthebiker: 還是英文看不懂 02/24 18:54
→ csqwe: 就算這個關鍵字是google贏了 又怎麼樣? 02/24 18:54
→ ZMTL: 問題是我有一天可能會問一個我不知道他知不知道但他真的不知 02/24 18:54
→ ZMTL: 道的問題啊 02/24 18:54
→ csqwe: 這就代表google一定是比較好的搜尋引擎 或是chatGPT不能當 02/24 18:54
→ ZMTL: 但他即使不知道,你可能也得反覆問很多次他才會說對我不知道 02/24 18:55
→ csqwe: 搜尋引擎嗎? 莫名其妙欸 02/24 18:55
→ csqwe: 拜託 google沒有給過你錯誤的答案嗎? 你怎麼就不擔心? 02/24 18:55
→ csqwe: 你有判斷能力好嗎? 就連搜尋引擎都不是只有一個 02/24 18:56
→ ZMTL: google我會主要看第一頁,然後比對個三四頁的結果 02/24 18:56
→ ZMTL: 你還真的只看第一頁第一條哦? 02/24 18:56
→ csqwe: 你用搜尋引擎不是只接點第一的答案的時間點 你就已經在判斷 02/24 18:57
→ csqwe: 了 所以用同樣標準來使用chatGPT很難嗎? 02/24 18:57
→ ZMTL: 那google至少能第一時間讓我知道有複數選項可以判斷 02/24 18:57
→ csqwe: 我當然沒有只看第一條阿 是你講的好像你只看第一條 02/24 18:58
→ ZMTL: ChatGPT會有辦法讓你知道他可能不知道這問題的答案建議你 02/24 18:58
→ ZMTL: 重複幾次看看? 02/24 18:58
→ csqwe: 又或者說你用只能看第一條標準要求chatGPT 02/24 18:58
→ ZMTL: 不,他會講得很像是他回答了一個正確答案 02/24 18:58
→ csqwe: 我只能說 如果你沒有能力判斷 那chatGPT可能真的不適合你 02/24 19:00
推 zizc06719: 我覺得取決於你怎樣問chatGPTXD 02/24 19:00
→ csqwe: 我建議你放棄 反正想用多的去了 然後除非你有明確理論證據 02/24 19:00
→ zizc06719: 可能要請他給你幾個結果,然後自己判斷 02/24 19:01
推 maxthebiker: 不然這樣啦 從今天開始你不要用google chatgpt當收 02/24 19:01
→ maxthebiker: 尋引擎 02/24 19:01
→ csqwe: 證明他有亂掰的這項能力(這個真的比較難) 不然你才亂掰 02/24 19:01
我用Midjourney這個例子,
舉證了他不知道Midjourney是什麼、但他知道他不知道Midjourney是什麼、
但他不會總是承認他不知道Midjourney是什麼、
他會試著想辦法用文字語言的能力拼湊出Midjourney可能是什麼然後回答你。
以上Midjourney可以替換成任何一個ChatGPT不知道實際答案(沒有讀過資料)的內容
這就是我說的亂掰,或者你覺得這不叫亂掰?
那沒關係,反正我講完我想講的了,大家看完可以有自己的判斷,
真的想把他當搜尋引擎用也沒關係,我會試看看微軟的Bing,去吃晚餐了XD
※ 編輯: ZMTL (123.193.180.122 臺灣), 02/24/2023 19:05:05
→ maxthebiker: 在這邊辯也沒什麼意思 期待你的心得 02/24 19:04
※ 編輯: ZMTL (123.193.180.122 臺灣), 02/24/2023 19:06:09
→ as80110680: 現在很多用搜尋引擎情境是不得不的問題,像我要找API 02/24 19:09
→ as80110680: ,我他媽搜尋完還要一條一條找,像白癡一樣,直接用 02/24 19:09
→ as80110680: 問的不就好了,反正對不對一測就知道,工作效率高多 02/24 19:09
→ as80110680: 少 02/24 19:09
推 naya7415963: 欸 我覺得怪怪的 02/24 19:15
→ maxthebiker: 我要diss chatgpt nmsl 問 伍佰某一首歌給我回 中國 02/24 19:16
→ maxthebiker: 台灣張學友唱的 而且完全沒有提到原作者 02/24 19:16
→ naya7415963: 怎麼可能會有人拿語言模型當搜尋軟體阿........難道 02/24 19:16
→ naya7415963: 其實他是AI?! 02/24 19:16
→ kinda: 說到這個,以後一定一堆機器人帳號。 02/24 19:19
→ s175: 有人拿它寫小說,玩文字冒險遊戲甚至黑白妹,很多只是你不會 02/24 19:23
→ s175: 用而已 02/24 19:23
推 ralfeistein: 難怪我問它理化問題 尤其是化學錯誤的地方會有點多 02/24 19:56
推 bitcch: 要比較搜尋的正確性應該要拿bing那個GPT來比較吧 02/24 19:56
推 ralfeistein: 還要手把手教它XD 02/24 19:58
→ ralfeistein: 希望到時候正確性建立起來 那對教育應該很有幫助 02/24 20:00
推 Minesweeper: 數理可能因為缺乏精良的大量文本和標籤,所以正確性 02/24 20:15
→ Minesweeper: 滿低的 02/24 20:15
推 guogu: 道歉也是不一定 像之前板上試火影他一頓瞎掰 02/24 20:16
→ guogu: 你反駁他還會說是你記錯要你重看 02/24 20:17
推 attacksoil: 原來這麼多人不懂ChatGPT怎麼用喔 02/24 21:22
→ as80110680: 其實數理問題主因還是因為ML不像人類會系統化的學習 02/24 22:38
推 Incentive: 偷懶請chatGPT看paper給一些縮減 02/24 23:27
→ Incentive: 內容結果都在胡扯XDDD 02/24 23:27
推 shiftsmart: 可是他比搜尋引擎好用耶 02/25 00:40
→ nyanpasu: 原本想說什麼但這裡是西恰 02/26 01:13
→ skyofme: 為啥不能當搜尋引擎?因為搜尋引擎的工作是把一堆他認為 02/26 12:59
→ skyofme: 相關的資料丟給你自己分析消化 02/26 12:59
→ skyofme: chatgpt是會自己分析消化,但他分析消化的基準不是資料 02/26 13:00
→ skyofme: 的正確性 02/26 13:00
推 debaucher: 某c也太硬掰了吧 嘴硬又跳針 誇張 笑死 02/26 13:28
推 langeo: bing機器人就是搜尋引擎 02/26 18:38