看板 Stock 關於我們 聯絡資訊
短期目標就是AGI,長期目標就是ASI,其他任何形式的東西都只是花邊,所謂的AGI就是你 直接可以用GPU算力去轉換你的所有非物理員工,原則上你只需要僱用機房仔排除故障而已 ,這當然一開始超級花錢,但隨著時間成本會急劇下降,且超越你所能找到的員工能力 DeepSeek 只是一次成本優化的良好範例,並沒有創造出新的範式,一個優化引擎可以讓你 的車省下95%的油,不代表你可以不用油開車 Scaling Law才是真正的重要的核心,目前的Scaling Law是短期經濟帳撞牆,DeepSeek 的 研究表明經濟帳撞牆有短期突破,但要知道的,基礎模型ModelSize擴大100倍,才大約有2 倍智力回報,推理模型會在相同模型大小上有100倍效益,相當於2倍基礎模型放大會有2倍 智力回報 至於說MOE對於未來擴展是不是最優範式還不確定,如果不能簡單Scale Up這個基礎架構, 那未來擴展還是會受限 但到了AGI時期就不一樣了,你可以每次針對不同Scale的Model做一定程度的自動化優化, 包含最底層的PTX重寫,到最上層的算法優化,這時局我敢說大企業絕對會往下押注,這與 一般使用者無關,但一定會受惠 目前絕對還遠遠不到Edge Device的局面,DeepSeek R1完整版要16張H100才擺得下所有參數 ,蒸餾完的東西都屬玩具而已,而且遠端才能透過Time Sharing極大化GPU usage rate,你 Local端的利用率5%都不到,相同價格你雲端的能力會至少是2倍以上,更何況未來GPU會越 來越便宜 股價短期一定還是會下殺,晶片關稅一定會殺到底,但未來長遠絕對是利多,估計要到Open AI 跟其他AI Lab開始拿AGI做自己的雲端ASIC,但短時間很難跟Nvidia正面翻臉,畢竟NV跟 台積電的交情,談到的晶片產量不可能直接搶單的,亞洲人情世故還是會把這件事情緩一緩 ※ 引述 《ImHoluCan (爺)》 之銘言: : 標題: Re: [請益] AI最花錢的時間已經過了嗎? : 時間: Mon Feb 3 13:59:46 2025 :   : ※ 引述《gerychen》之銘言 : : 就算Deepseek是蒸餾其他AI模型 : : 但就是能夠做出效能好成本低的模型 : : 而那幾間巨頭砸在AI的錢 : : 就是在奠下AI發展的基礎 : : 以Deepseek的發展來說 : : 未來是不是任何公司都只需要用相對低的預算 : : 就能再做出一個新的AI模型? : : 也就是說AI浪潮最花錢的時間已經過了? : : 那未來還會有像前幾年那樣的晶片或算力需求嗎? :   :   :   : 客群不ㄧ樣,你怎麼把客群混在ㄧ起說? :   : DeepSeek 客群是免費仔 與 本來不會用AI 的那群人 :   : 巨頭的AI 花的巨額費用 是給專業 本來就會花的人 :   :   :   : 1.Apple iPhone 幹嘛買新的? :   : 拿iPhone 8也不需要, :   : 滑滑網站 拍拍照 看看影片都差不多 :   : 甚至用便宜對岸中階安卓cp 值爆打 :   : 幹嘛用ios 呢? :   : Apple 應該倒閉才對,鬼才買新iPhone,主流要cp 用中階安卓就好 :   :   :   : 2.奈飛 幹嘛訂閱?是白痴嘛? :   : 網路隨變打線上看,各種網站,各種盜版 :   : 爽看到爆cp 爆力高 成本0元 :   : 怎麼還有弱智花錢訂閱奈飛? :   : 奈飛怎麼不倒閉? :   :   : 3.特斯拉幹嘛買? :   : 中國電車爆打,甚至幹嘛買新車,買二手爽用就好 :   : 特斯拉應該馬上立刻倒閉才對 :   :   :   : 特斯拉 蘋果 奈飛 :   : 都有遇到增緩減速 甚至有很多對手更屌 :   : 但目前不都都頭腦壯壯? :   :   : 蘋果 特斯拉 增速放緩+關稅 :   : 也都遇過,怎麼還不倒閉? :   :   :   : 花錢肯定有好處 :   : 而不花錢用免費的 肯定有壞處 就看你用在什麼地方 :   :   :   :   : Nvidia 永遠重點是AI 到底有沒有賺頭? :   : 才是讓巨頭要不要大量投資硬體 :   : deepseek 就直白的表示AI真的有賺頭 :   : 連本來就不用AI的免費仔都在用 :   :   :   : 笑巨頭幹嘛花大錢投資硬體 :   : 如同看盜版0元的人笑那些花幾百元的人低能 :   :   : ---- : Sent from BePTT on my iPhone 16 :   : -- : ※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 112.105.61.157 (臺灣) : ※ 文章網址: https://www.ptt.cc/bbs/Stock/M.1738562388.A.ADB.html : 推 Shiang1225 : 確實 02/03 14:00 : 推 SKzzz : 精闢 02/03 14:01 : 推 Aska0520 : 克群真的不同 02/03 14:01 : 推 kuosos520 : 小聲一點,還沒買夠 02/03 14:01 : 噓 centaurjr : iphone 8拍照差很多...你可以試試看再回來唬爛 02/03 14:02 : 推 realmd : 但是投資方會更務實 以前溢價都收的盤子買法不在有 02/03 14:02 : 推 wanybear2002: 同意,太多免費仔習慣成自然了 02/03 14:02 : → realmd : nv的毛利可以預期一定會掉 02/03 14:03 : 推 jwiww : 樓下說可以繞過CUDA護城河 02/03 14:06 -- ※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 42.73.112.255 (臺灣) ※ 文章網址: https://www.ptt.cc/bbs/Stock/M.1738565413.A.B7C.html
ImHoluCan : DeepSeek 完全打開新世界大門02/03 14:57
ImHoluCan : 要是增加硬體能更聰明,那肯定有賺頭 02/03 14:57
hulu63 : 感覺這篇很有見地,雖然看不懂但只能推了 02/03 15:03
※ 編輯: zxwxz (42.73.112.255 臺灣), 02/03/2025 15:09:08
Homeparty : LLM到不了AGI的 02/03 15:10
Mosskappa : 板上恐慌仔只會喊nv 50 tsm100 02/03 15:10
maxangel : 運算成本減少只會讓更多應用投入 02/03 15:11
intointo : 好吧 吃起來有點吃力 02/03 15:17
capssan : 我覺得應該說只有LLM達不到AGI 02/03 15:17
abcd5566 : 訓練歸訓練。要供幾億人用的推論花的才多 02/03 15:23
CCH2022 : 短線客盤中決鬥只是過程。 02/03 15:23
CCH2022 : 法人機構也是要買賣才有收入。 02/03 15:23
CCH2022 : 只要人類經濟活動繼續,硬體天花板永遠會被打破, 02/03 15:23
CCH2022 : 我是不可能回去用十幾年前的電腦跟手機還有汽車、 02/03 15:23
CCH2022 : 家電等應用,如果誰說可以那代表他從此時此刻就不 02/03 15:23
CCH2022 : 需要再升級所有硬體的產品。 02/03 15:23
g1254501 : 聽君一席話 如聽一席話 02/03 15:27
cablate : LLM由於學習底層機制所以他永遠到不了AGI,這是學 02/03 15:58
cablate : 術界共識了,所以思考鏈也只是噱頭而已,不會真的 02/03 15:58
cablate : 有人以為LLM有神經自主思考能力吧? 02/03 15:58
duriamon : 人腦參數量70B功耗60W記憶體4GB,好好想想吧!呵呵 02/03 16:02
duriamon : ! 02/03 16:02
zxwxz : https://bit.ly/3Q2JM8G 02/03 16:04
cablate : 拿人腦比?要確欸,機器最大的毛病就是要用10句甚 02/03 16:10
cablate : 至100句話解釋人類用1句話就能懂的東西 02/03 16:10
duriamon : 當然是人腦比呀!死抱那種虛無飄渺算力增加無上限的 02/03 16:13
duriamon : 理論是被Altman洗腦的傻子嗎?連微軟都不買單了,AI 02/03 16:13
duriamon : 要用實際面來看去做發展而不是什麼Scaling Law一直 02/03 16:13
duriamon : 往上加,我還以為是參加老鼠會呢!笑死! 02/03 16:13
duriamon : 實際上AI模型發展的基礎目的是達到類似於人類水準就 02/03 16:20
duriamon : 可以應用了,AI的優點是可以大量複製、記憶體一定超 02/03 16:20
duriamon : 過4GB,熱插拔隨時上線轉換成需要的專家,這樣就足 02/03 16:20
duriamon : 夠裝載到AI機器人裡面了,該不會有人以為要AGI才能 02/03 16:20
duriamon : 自動駕駛吧? 02/03 16:20
duriamon : 那我們平常開車通勤的人類是智障嗎? 02/03 16:21
staytuned74 : agi 搞不好跟之前90年代一樣,等得比預期久 02/03 16:34
duriamon : deep seek會紅就是因為看到了我講的方向的曙光,要 02/03 16:39
duriamon : 不然繼續給Altman投錢虧死你,他還整天作弊玩花招, 02/03 16:39
duriamon : Altman就是個生意人,當初看到ChatGPT之父Ilya提出S 02/03 16:39
duriamon : caling Law理論就拿來整天掛在嘴邊,肖想跟摩爾定律 02/03 16:39
duriamon : 一樣可以用來洗腦人,那個微軟就是第一代憨憨,現在 02/03 16:39
duriamon : 人家下車了,有人繼續接棒,可憐哪!軟銀,呵呵! 02/03 16:39
duriamon : 美國是要搞AGI沒錯,但是沒人說AGI一定會遵循Scalin 02/03 16:44
duriamon : g Law,蒸餾就是這個現象的部分答案,因為你以為參 02/03 16:44
duriamon : 數量400B以上很好,但是裡面有很多垃圾知識。 02/03 16:44
duriamon : 模型為了回答問題每次轉那個400B參數根本是浪費資源 02/03 16:45
duriamon : ,呵呵! 02/03 16:45
kotorichan : scaling law 快沒訓練資料了 02/03 16:56
kotorichan : 無限參數 + 無限訓練資料 是有可能AGI啦 02/03 16:56
duriamon : 現在都想用合成數據去搞,但AI又不是人類,缺乏對現 02/03 17:03
duriamon : 實世界的理解,很多合成數據都亂七八糟,要不然就是 02/03 17:04
duriamon : AI偷懶說謊隨便交差,笑死! 02/03 17:04
edward0811 : 看起來蠻沒未來的,燒錢燒到破產吧 02/03 17:06
duriamon : 其實能不能本地運用目前是卡在老黃,老黃那個極惡商 02/03 17:12
duriamon : 業刀法限制了地端運用。 02/03 17:12
lavign : scaling law已經平了 02/03 18:33
lavign : 離散的資料不能表現連續的真實世界 02/03 18:36
sustainer123: AGI短期目標 猛 02/03 19:43
toaste791214: 這篇正解! 02/03 20:25
ksjr : 人情世故 呵呵 02/04 00:06