作者oopFoo (3d)
看板Soft_Job
標題Re: [心得] AI的人性
時間Thu Apr 9 21:37:24 2026
https://www.theregister.com/2026/04/06/anthropic_claude_code_dumber_lazier_amd_ai_director/
The Register 查出這個人是Stella Laurenzo,AMD的AI主管。
https://www.blocktempo.com/amd-director-claude-code-thinking-depth-drops-api-cost-explodes/
https://reurl.cc/WbvpDe
Stella下了一個很嚴重的結論:「Claude 已無法被信任來執行複雜工程任務。」他的團隊已切換至其他模型服務商。
最讓開發者注重的是花費,同樣的 request 提問量,這份報告裡最誇張的數據是月度 API 成本從 345 美元飛升至 42,121 美元,漲幅 122 倍。
思考深度暴跌67%,API月費暴漲122倍。變笨又爆貴,就算你相信ai,你能相信anthropics不再搞鬼?
--------------------------------
Anthropics行銷預算是爆多的。這次網軍要怎麼洗地?
※ 引述《oopFoo (3d)》之銘言:
: 二月後,anthropics改了一些東東
: https://news.ycombinator.com/item?id=47664442
: adaptive thinking default (Feb 9)
: Medium effort (85) default on Opus 4.6 (Mar 3)
: 事情鬧大是因為
: https://github.com/anthropics/claude-code/issues/42796
: 說Claude變很笨,這段時間寫的codes現在正在靠Codex5.4重新改寫。
: 寫issue的人說,那些defaults都改過,還是一樣笨。八點檔繼續演
: ※ 引述《cateran (雲川閒步)》之銘言:
: : 最近工作上解一個問題用opus 4.6發生一個快讓我笑死的狀況
: : 背景是本公司巨大的c++應用程式在某個情況下crash
: : 餵log請AI檢查後很快就查查資料改好一版
: : 說是因為某某某情況所以本來的map找不到查詢的指標
: : 回傳一個out of bound的index value
: : 新程式新增了一段進階檢查的迴圈應對特殊狀況
: : 改好後跑原本測資還是crash
: : 把log餵回AI請他再看看
: : 結果第二版竟然把之前的修改全部拿掉
: : 只在上層呼叫端加一個fallback說指標找不到就直接回傳0
: : 還沾沾自喜跟我說 阿這樣就絕對不會crash了 很棒吧
: : 我只好質問agent 阿你這樣只是把問題掩蓋住 這樣對嗎?
: : AI也毫不掩飾的說 你說得沒錯 我不該這樣
: : 最後AI給出的第三版總算把問題從底層修好
: : 不禁在想第二版那種天兵解法的思路到底是怎麼出來的
: : 是因為訓練資料也包含一些菜鳥工程師的程式嗎
: : 有沒有AI大神可以解釋這種狀況
: 你確定有改好?其實埋了更多炸彈?
: news.ycombinator 那篇很精彩,一堆人事後諸葛說我也發現Claude變笨了,然後一推人說reddit早就吵翻了。
: 其實還滿慘烈的。這麼多人用的ai,變笨,使用的人埋了一堆炸彈,現在要如何拆彈?
--
※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 58.114.66.74 (臺灣)
※ 文章網址: https://www.ptt.cc/bbs/Soft_Job/M.1775741850.A.725.html
推 Romulus: 大腸麵大腸麵 04/09 21:51
推 yamakazi: Claude需要網軍護航? 04/09 22:17
噓 kurtsgm: ....在這個版幻想不存在的網軍 你八卦板來的嗎? 04/09 22:20
→ gtr22101361: 看reddit那才是ai戰地 04/09 22:32
→ gtr22101361: CLAUDE_CODE_DISABLE_ADAPTIVE_THINKING 04/09 22:32