推 Richun: 遊戲類的更新太快了,而AI的主資料庫裡面相關資訊又特別少 05/04 11:14
大家怕AI不是不會回答 而是瞎掰亂答阿...
對於判斷力不高的人而言 很可能就接受到錯誤資訊了
這點Claude比GPT Gemini好一點就是了
只是有些領域確實很少公開網路資料
資訊都藏在社團裡 小討論區等等 這種東西要把AI當成萬能回答機就會明顯出錯
反過來說 企業或公司不希望自己的資訊流出被AI採樣或訓練
或許也可以透過這種方式來保密
例如XX社群的討論區或許可以1分鐘註冊帳號進去討論
但是AI就是繞不過進不去 只要資料沒有被備份網站拉出來(例如ptt)
那社群裡的一手資料就永遠不會被AI拿走
好像也是一個辦法?
--
※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 36.226.223.86 (臺灣)
※ 文章網址: https://www.ptt.cc/bbs/C_Chat/M.1777864820.A.B60.html
推 aterui: 每個問題最後都加上「沒資料的地方就說不知道」會好嗎 05/04 11:22
推 bala045: 以後會不會有專門的AI投毒企業 05/04 11:22
→ jelly22: 聽說以前要求AI如果不知道就回答不知道可以降低瞎掰的機 05/04 11:22
→ jelly22: 率,這招現在還有用嗎 05/04 11:22
推 a43164910: AI就懂哥啊 你問他什麼他都要說懂 答案對不對另外算== 05/04 11:24
→ a43164910: 要他承認自己不會超難 05/04 11:24
→ yokann: 可以設定叫AI不會的就說不會 不要硬答 御三家都可以啦 05/04 11:25
→ Madevil: 股溝AI不就用它搜尋引擎的資料庫整理出解答的?那些需要 05/04 11:25
→ Madevil: 註冊才能存取頁面的部分爬出都撈不到就老問題了 05/04 11:25
→ jelly22: 從語言模型的原理來說AI變懂哥似乎也不奇怪 05/04 11:26
推 ssarc: AI說不知道那他就沒有存在價值了,硬掰都比承認好 05/04 11:26
推 Yanrei: Gemini你可以在設定固定邏輯裡加上要求如果沒有明確資料 05/04 11:26
→ Yanrei: 就直接回答不知道,這樣他就比較不會跟你鬼扯XD 05/04 11:26
→ Yanrei: 還可以設定他固定每次都會用妹妹/老婆/老公的語氣跟你說 05/04 11:27
→ Yanrei: 話(X) 05/04 11:27
推 magamanzero: 瞎掰就是AI聊天的基礎阿 他就東拼西湊的東西 05/04 11:28
→ Madevil: 要說資料不會被拿走?反過來講就是錯誤的解答反而不會混 05/04 11:28
→ Madevil: 入資料庫下毒,講白了那種封閉式討論還蠻常又不知道正確 05/04 11:28
→ Madevil: 答案的跳出來回,尤其是對岸的常做這種事 05/04 11:28
→ magamanzero: 不然不幹嘛餵狗關鍵字查資料就好 05/04 11:29
推 grtfor: 下毒這件事其實早就有了,只是之前被發現的都官方下毒 05/04 11:32
→ Madevil: 雖然比較推搜尋引擎察,不過還是要使用者自己有能力判斷 05/04 11:32
→ Madevil: 那些是有用的資料 05/04 11:32
推 amsmsk: ai不會知不知道啊 他是整理出來給你 05/04 12:08
→ qd6590: AI沒有不知道的概念 他的回答是他認為最接近你想要的東西 05/04 12:17
→ h0103661: AI可以“不知道”,只是很難做,而且很容易搞得更降智 05/04 12:19