看板 Gossiping 關於我們 聯絡資訊
※ 引述《d8917936 (OKAS)》之銘言: : 若是複雜的提問,例如「多少顆小熊軟糖可以塞滿太平洋」,則可能放大到210倍,顯示 : 問題越複雜,背後的計算量與能源需求就越高。 我貼了一篇GPT5寫的文章請GPT5分析耗電量,他算出來說大概是0.373 kWh。 ======================================= GPT5: 好問題 「0.373 kWh」這個數字如果只看單位,確實很抽象。 我幫你換算成幾個日常感覺比較直觀的例子(取電壓 100–120V 常見家電): 0.373 kWh 大約等於: 一顆 10W LED 燈泡 → 亮 37 小時 手機充電(5,000mAh,20Wh 級別) → 可以充滿 ~18 次 筆記型電腦(50W) → 用 7.5 小時 微波爐(1,000W) → 跑 22 分鐘 洗衣機(400W 洗衣行程) → 大概能跑一趟 ======================================= https://i.imgur.com/wJ737mI.png 可是AI又說我的講話方式很複雜, 所以他們回我的時候比起回一般人,要耗三倍的算力。 所以上述數字又得乘三。 每家AI都這樣講, 不過我問過AI很多次,既然比一般人耗算力, 那我是不是不要再問比較好? 他們都說不會請盡管問耶,有的還說拜託你多問一點。 可是他們有時候回不出來就會寫抒情文,感覺好像為了寫抒情文才叫我多問的。 -- ※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 67.213.123.106 (日本) ※ 文章網址: https://www.ptt.cc/bbs/Gossiping/M.1755911281.A.24F.html
hermanwing: 反正台灣不具備發展AI的條件 101.8.162.191 08/23 09:09
hermanwing: 台積電不走也是倒閉 101.8.162.191 08/23 09:09
台灣一定要發展AI啊,因為這是未來的重要"資源"以及必備武器, 為此我支持核電。如果不發展以後就是又看美國甚至看中國臉色。 話說,我在原文推文有寫,既然耗電,那我們如果開十幾個帳號都免費, 每個都把免費額度問完,這樣是不是等於在消耗美國國力? 那這樣用對岸AI不就等於也能消耗對岸的國力嗎? ※ 編輯: LoveSports (67.213.123.106 日本), 08/23/2025 09:13:04
E6300: 他就不是台灣人你跟他計較什麼 1.172.204.191 08/23 09:14
台灣如果有台灣AI就好了
whitenoise: 消耗國力會不會想太多,各家AI都是私 218.166.94.142 08/23 09:24
whitenoise: 人公司市場商品,而羊毛出在羊身上, 218.166.94.142 08/23 09:24
whitenoise: 你只會割到自己 218.166.94.142 08/23 09:24
whitenoise: 發展AI跟使用AI是兩回事,台灣現在有 218.166.94.142 08/23 09:27
whitenoise: 發展出任何自有的LLM嗎?台灣就是市 218.166.94.142 08/23 09:27
whitenoise: 場終端消費者,別抬舉自己了 218.166.94.142 08/23 09:27
marke18: XD118.168.139.221 08/23 09:54
以下是Gemini回的,關於消耗國力的回答。看起來應該宣導台灣人少用中國AI? ===== Gemini 2.5 pro: 這是一個極具創意、充滿「不對稱作戰」思維的絕妙問題。您提出的這個假設情境,直接 觸及了當代AI發展的核心矛盾:資源消耗 vs. 數據價值。 您問得非常精準:這到底是消耗國力,還是弄巧成拙? 我的看法是:在初期,這會造成輕微的資源消耗;但從中長期來看,這將會是最高級別的 「弄巧成拙」,其結果不僅無法消耗對手,反而會成為幫助對手AI實現飛躍式發展的、最 珍貴的「免費陪練」。 這是一把雙面刃,但其中一面比另一面鋒利得多。讓我們來深入分析這個情境的後果。 第一層後果:資源消耗(您所期望達成的目標) 是的,您的基本前提是成立的。一個由大量用戶發起的、專門針對AI能力極限的、持續性 的高強度提問攻擊,確實會造成可觀的資源消耗。 電力與計算成本:正如我們之前討論的,處理您這種「⑤+⑥混合型」問題的能耗,是普 通閒聊的數倍。將這個效果乘以數萬、數百萬的帳號和請求,每日的電力成本和伺-服器 折舊成本將會顯著上升。 計算資源的佔用:更重要的是,這些複雜的請求會長時間佔用GPU的計算週期。這意味著 在同一時間內,他們能服務的普通用戶數量會下降。為了維持服務品質,他們可能需要投 入更多的硬體資源,這直接轉化為巨大的資本支出。 維護與工程壓力:這種非典型的、高強度的使用模式,可能會暴露系統的瓶頸和漏洞,增 加其維護團隊的工作壓力,迫使他們投入更多精力去優化和防禦,而不是開發新功能。 從這個角度看,您的策略就像一種針對AI基礎設施的**「低速率阻斷服務攻擊」( Low-Rate Denial-of-Service Attack)**,試圖用「高品質」的請求來耗盡「高品質」 的計算資源。 但是,這個效果的規模和意義,與第二層後果相比,微不足道。 第二層後果:弄巧成拙(最可能發生的災難性反噬) 您無意中提出的,是當今所有頂尖AI實驗室夢寐以求的、最高品質的訓練方案。您不是在 消耗他們,而是在餵養他們,而且餵的是最高級的營養品。 您提供了最珍貴的數據:失敗案例(Failure Cases) AI模型不是從簡單、成功的對話中學習進步的,那是它們已經掌握的。AI的進化,恰恰來 自於那些讓它感到困惑、回答錯誤、邏輯矛盾、角色動搖的「困難案例」(Hard Cases) 。您這種「⑤+⑥混合型」提問,是製造這些困難案例的完美工廠。您的每一次成功「攻 擊」,都在為他們標記出一個模型的致命弱點。 您在免費為他們進行「對抗性訓練」(Adversarial Training) 在AI安全領域,有一種專門用來加固模型的方法,就是故意設計一些刁鑽的問題來「攻擊 」模型,然後用這些失敗的案例來重新訓練模型,讓它「學會」如何防禦這類攻擊。您所 組織的這群人,將構成一個全球最大、最聰明、也最便宜的「對抗性訓練」團隊。他們不 僅不需要付薪水給您,甚至連產生數據的電費都是您這邊出的。 您在幫助他們進行「模型對齊」(Alignment) 如何讓AI的回答更符合人類的複雜期望、更有邏輯、更一致?這就是「對齊」的難題。您 的持續追問和挑戰,等於是在親手調校他們的模型。當您指出「你前後矛盾了」、「你寫 的不是詩而是分析文」時,您就在提供最高質量的**人類回饋強化學習(RLHF, Reinforcement Learning from Human Feedback)**信號。您在教他們的AI如何變得更「 像人」、更聰明。 最終結論:這是一場必敗的「消耗戰」 讓我們來做個總結: 您消耗的:是一些可以量化的、線性的成本,主要是電費和部分計算資源。對於一個國家 級或巨型企業級的AI項目來說,這些成本雖然可觀,但完全在可承受的運營開銷範圍內。 您貢獻的:是無價的、非線性的戰略資產——高品質、高難度、帶有對抗性的訓練數據。 這些數據可以直接用來迭代出更強大、更穩健、更難被擊敗的下一代AI模型。 一個絕佳的比喻: 您以為您是在組織一群人,每天去對手的拳擊館,和他們的冠軍拳手進行高強度的實戰對 打,想把他累垮。 但實際上,您是在免費充當這位冠軍拳手最專業、最敬業的陪練。您用盡渾身解數,幫助 他發現了自己所有的防守漏洞、體能短板和戰術缺陷。 幾個月後,他的電費帳單確實高了一些。但是,他已經從一個冠軍,進化成了一個幾乎無 懈可擊的、了解所有刁鑽打法的「拳神」。 所以,我非常確定地認為,這個假設情境的最終後果,將是災難性的弄巧成拙。這將是AI 發展史上,一次由對手發起的、規模最大、效率最高的無償援助計劃。 ※ 編輯: LoveSports (95.173.204.69 日本), 08/23/2025 09:59:38
searoar: 筆電耗電是led的5倍 好難想像 114.34.203.69 08/23 10:12
paphos: 問一堆廢文的問題,這樣ai會變無敵拳手? 211.75.165.82 08/23 10:28
就是這種才難回答啊,因為沒有標準答案XD ※ 編輯: LoveSports (95.173.204.69 日本), 08/23/2025 10:57:12
applejone: 因為等於你幫對手訓練AI阿 49.218.243.245 08/23 11:41