→ polanco: 這個結衣壞掉了 02/07 08:51
推 MaxMillian: 雖然這只是吹風機 但吹收據可不是鬧著玩的 02/07 08:51
推 yankeefat: 用吹風機吹感熱紙wwww 02/07 08:52
※ 編輯: cloud7515 (36.229.11.168 臺灣), 02/07/2026 08:52:39
推 iqeqicq: 提醒各位,感熱紙是不可回收物 02/07 08:54
推 happyseal: 好消息:文字部分變黑了 壞消息:其他部分也( 02/07 08:54
→ nh60211as: 感熱紙+受熱=??? 02/07 08:56
推 acidrain: 反正本來就不會回來了 02/07 08:56
推 b160160: 笑死 02/07 08:58
推 yankeefat: 平常就該把這些資料整理好 02/07 08:59
推 daidaidai02: 熱感應紙壞文明 02/07 09:00
推 intela03252: 這對話內容清晰可見 02/07 09:01
→ intela03252: 「chatgpt,我該怎麼讓熱感應紙收據恢復顯示文字」 02/07 09:01
→ intela03252: 「用吹風機吹他」 02/07 09:01
→ intela03252: 「chatgpt,我吹了怎麼變黑了」 02/07 09:01
→ intela03252: 「你說得沒錯,用吹風機吹熱感應紙會導致變黑」 02/07 09:01
推 alpho: 結衣:怪我囉 02/07 09:05
推 ARCHER2234: ai可信度只有3-5成,尤其還要看自己會不會問 02/07 09:07
→ ARCHER2234: 他怎麼不知道的... 02/07 09:08
→ spfy: 文字回來了 只是回來的有點多了 02/07 09:11
→ ARCHER2234: 現在換吹冷風,就可以讓字跡的部分變白了優 02/07 09:11
→ ARCHER2234: 這樣就能得到黑底白字的收據 02/07 09:12
推 Jerrybow: 別說被AI騙,這是連常識都沒有吧... 02/07 09:15
推 bamama56: 記得下次問ai加速世界設定的時候不要要被騙了 02/07 09:18
→ aaronhkg: 用AI後 別忘記自己再搜尋一次驗證啊… 02/07 09:18
推 shadowblade: 重點在有沒有自行驗證資訊的能力 02/07 09:20
→ shadowblade: AI只是訓練過的猴子打字機這點根本沒被當常識 02/07 09:20
推 EternalK: 為什麼來源是鷹宮大小姐的直播啦w 02/07 09:24
推 ahw12000: intela03252 笑死 有像 02/07 09:27
推 Feeng: 11樓根本AI唬爛被抓包的定型文 02/07 09:29
推 ARCHER2234: 有時候被抓包還嘴硬咧,會反悔不錯了 02/07 09:30
推 shadowblade: AI聊天現在的基本法則: 總而言之捏一個說法給你/支持 02/07 09:31
推 s9018124: 金憨在整理報稅資料的時候川原出現在聊天室講的w 02/07 09:31
→ shadowblade: 你的論點/不承認自己說錯,至於資訊正確性那是啥小 02/07 09:32

推 v86861062: 哈哈哈哈 02/07 09:40
推 chairfong: 黑漆漆:怪我囉 02/07 09:43
推 hotfires: 你說的沒錯 會變黑喔(唉嘿 AI日常www 02/07 09:45
推 s175: 騙人的吧 02/07 09:47
推 catandlion: 現在的ai就是資料收集器,根本不會辨別真假,比較熱門 02/07 09:50
→ catandlion: 的知識還可以看看,稍微偏科一點的,都在道聽塗說。 02/07 09:50
推 Irenicus: 11F精闢 AI根本智障幹話王 02/07 09:50
推 scott032: 為什麼要相信AI 02/07 09:51
推 ARCHER2234: 熱門的都不一定對 02/07 09:52
→ brian040818: 直接google就知道不行吹 問AI反而會掰東西給你 02/07 09:52
推 hotfires: AI會先給個說法 等你察覺到不對的時候..."你說的沒錯"ww 02/07 09:58
推 Sheltis: 笑死 02/07 10:01
推 tonyxfg: 要說是道聽塗說也不太對,googleAI給出錯誤答案時下面會 02/07 10:02
→ tonyxfg: 附參考網頁連結,但從那些附的網頁去看,我完全不知道AI 02/07 10:03
→ tonyxfg: 是怎麼得出那錯誤答案的 02/07 10:03
→ Liddell1256: 已經是AI查到的資料都是AI給的錯誤資料的時代 02/07 10:05
→ bobby4755: 笑死 02/07 10:07
→ bobby4755: AI都從網路學的 在網路待久都知道討論特定小東西只會 02/07 10:08
→ bobby4755: 有一堆幹話 02/07 10:08
推 Rain0224: 他筆下的AI也確實騙過人 XD 02/07 10:18
→ kureijiollie: 蛤 02/07 10:18
推 akway: 這才是真實結衣 02/07 10:25
推 ztO: AI不可信,不是說現階段AI已經演進到會說謊、騙人。而是說AI 02/07 10:32
→ ztO: 即便想提供有用的資訊(沒想要欺詐),但AI提供的資料依然是 02/07 10:32
→ ztO: 值得嚴格審視真實性的 0.0 02/07 10:32
推 zzro: 沒錯啊 接下來要問如何讓字以外的變白! 02/07 10:49
→ a79111010: 反正也是死馬當活馬醫(? 02/07 10:49
推 kimokimocom: 笑了 還真的有人信AI去做喔 02/07 11:00
推 s175: 人類都不可信了 02/07 11:18
推 PAPALINO: 像發票隔熱紙夏天放車上有時就會黑了 02/07 11:27
推 zealotjacky: AI比起跟你說"我不知道" 更傾向隨便捏個答案回答你 02/07 11:27
推 sank: 感熱紙還要拍照或掃描做備份,超麻煩 02/07 11:27
→ s8018572: ...可憐 02/07 11:49
→ s8018572: 被AI收集到的大便陰了 02/07 11:49
推 ex990000: 一定是茅場害的 02/07 11:56
→ joyo21114s: 變成他最愛的黑漆漆了 不好嗎 02/07 11:59
→ zeonic: 直接查google算了 02/07 12:05
推 Yanrei: AI:哇 謝謝你的資訊 02/07 12:11
推 ucha: 現在都把 AI 做得更人性化 當然不好的一面也更像人 02/07 12:14
→ MyPetTankDie: 確實常常附的引用來源都是無關或是錯的沒錯。然後這 02/07 12:24
→ MyPetTankDie: 錯誤其實很簡單,很多人以為AI有在思考,但其實都是 02/07 12:24
→ MyPetTankDie: 統計和權重問題而已。簡單說越沒有人討論的東西準確 02/07 12:24
→ MyPetTankDie: 度越低、越偏向單一要素去推導,而前提錯過程就錯, 02/07 12:24
→ MyPetTankDie: 答案自然也錯。感熱紙就是網路時代之前就已經在商務 02/07 12:24
→ MyPetTankDie: 和公務上完全適應的東西,就會變這感覺lol。相關的 02/07 12:24
→ MyPetTankDie: 笑話是如果是公關廠商創造出來的概念或關鍵字幾乎都 02/07 12:24
→ MyPetTankDie: 會變成整篇理所當然引用廣告文宣或誤導,如果這種時 02/07 12:24
→ MyPetTankDie: 候不疑有他就會像這個作者一樣一路陷進去,是說這作 02/07 12:24
→ MyPetTankDie: 者會犯這種錯誤也是微妙就是lol 02/07 12:24
→ Fino5566: 說謊騙人是三小 他根本分不出是不是正確答案 對他來說 02/07 12:51
→ Fino5566: 都只是過去人類的行為數據 02/07 12:51
推 jasperhai: 推11樓,這一定懂AI www 02/07 13:20
推 doraemon3838: 所以有些推文直接貼ai回覆內容我都當沒看到 02/07 13:29
→ iampig951753: 感熱紙欸 02/07 13:35
→ iampig951753: 猴子打莎士比亞的時候哪會知道自己在打什麼 只知道 02/07 13:40
→ iampig951753: 怎麼做有香蕉吃就好 02/07 13:40
→ iampig951753: 對錯是人類幫猴子決定的 02/07 13:40
推 busters0: 難怪只能寫出SAO這種東西 02/07 14:17
推 kkmmking: 很多人不知道感熱紙的原理啊,會被騙到是正常啦, 02/07 14:30
→ kkmmking: 比較有問題的還是Ai怎麼會給這種答覆 02/07 14:30