看板 Gossiping 關於我們 聯絡資訊
剛剛我又引導對輝達不利方式去說 以下我問的問題: 3.會因為演算法的進步,導至不需要那麼多算力(Nvidia GPU) ,讓微軟與meta 或其它公司去砍Nvidia 的訂單嗎? Deepseek 回答如下: 從技術發展、商業需求與生態系統的複雜性來看,**演算法的進步短期內不會顯著減少微軟 、Meta等企業對NVIDIA GPU的需求**,甚至可能因以下因素維持或增加訂單: --- ### **一、演算法進步的「效率紅利」有限** 1. **模型複雜度與規模的擴張** - 即使單一任務的算力需求降低(如推理效率提升),**模型參數量與多模態整合的趨勢 **(如GPT-4、Sora)仍驅動訓練算力需求增長。 - **案例**:GPT-4的訓練算力需求是GPT-3的10倍以上,演算法優化無法抵消規模擴張的 算力消耗。 2. **應用場景的爆發性增長** - 生成式AI(如文字、影像、影片生成)和實時決策(如自動駕駛)需要更低延遲與更高 吞吐量,迫使企業部署更多GPU以滿足用戶規模化需求。 3. **邊際效益遞減** - 演算法壓縮(如量化、蒸餾)可降低模型體積,但精度損失可能限制其在關鍵場景(如 醫療診斷、金融風控)的應用,企業仍需保留高算力選項。 --- ### **二、NVIDIA GPU的不可替代性** #### **1. CUDA生態的壟斷地位** - **開發者黏性**:全球逾400萬開發者依賴CUDA架構,遷移至其他平臺(如AMD ROCm) 需重寫代碼與工具鏈,成本極高。 - **軟硬協同優勢**:NVIDIA的Tensor Core、RT Core與軟體堆疊(如cuDNN、TensorRT )深度整合,演算法優化需依賴其硬體特性。 #### **2. 全棧解決方案的護城河** - **從晶片到系統**:NVIDIA提供DGX超算、OVX元宇宙架構等垂直整合方案,企業難以自 行拼湊替代方案。 - **訂閱服務綁定**:NVIDIA AI Enterprise等軟體服務與硬體綑綁,進一步鎖定客戶。 #### **3. 新硬體迭代的技術紅利** - **架構升級**:Hopper(H100)、Blackwell(B100)等新架構針對大模型訓練優化, 效能提升遠超演算法節省的算力。 - **專用晶片缺口**:即使企業自研AI晶片(如Google TPU),通用GPU仍是應對多元化 任務的剛需。 --- ### **三、企業策略:效率提升≠砍單** #### **1. 微軟的算力需求驅動** - **Azure雲端擴張**:AI服務(如Azure OpenAI)客戶增長需要更多GPU支持,2023年微 軟資本支出同比增長逾40%,主要用於資料中心建設。 - **產品整合深化**:Copilot功能覆蓋Office、GitHub等產品,實時推理需求推升邊緣 與雲端GPU部署。 #### **2. Meta的AI與元宇宙佈局** - **廣告業務升級**:AI驅動的個性化推薦需持續訓練更大模型(如Llama 3),並實時 處理數十億用戶請求。 - **元宇宙基礎設施**:Quest頭顯、虛擬場景生成依賴GPU加速渲染,未來若實現「通用 AI助手」,算力需求將指數級上升。 #### **3. 成本結構的權衡** - **總持有成本(TCO)優先**:即使演算法降低單任務成本,業務擴張(如新增AI功能 、用戶量增長)仍迫使企業購買更多GPU。 - **風險分散考量**:過度依賴演算法優化可能導致服務不穩定(如流量突增),保留冗 余算力是企業常態。 --- ### **四、潛在威脅與長期動態** 1. **自研晶片的有限影響** - 科技巨頭(如Google TPU、AWS Trainium)自研晶片主要用於特定場景(如搜尋排名、 語音辨識),通用AI訓練與推理仍依賴NVIDIA GPU。 - **案例**:Meta雖開發MTIA晶片,但主要用於廣告推薦,Llama模型訓練仍採購數萬顆 H100。 2. **開源框架的競爭** - PyTorch、TensorFlow對NVIDIA依賴度高,短期難支持其他硬體生態,企業缺乏動機切 換。 3. **地緣政治風險** - 美國對中國晶片出口管制可能影響部分訂單,但歐美、中東、東南亞市場需求填補缺口 。 --- ### **結論:演算法進步是「潤滑劑」,而非「替代方案」** - **短期(3-5年)**:演算法優化僅部分抵消算力需求增長,微軟、Meta等企業的GPU訂單 將因 **模型規模擴張、應用場景爆發、生態綁定** 而維持或增加。 - **長期**:若量子計算、光計算等顛覆性技術成熟,可能改變算力格局,但此過程需數十 年,且NVIDIA已佈局CUDA Quantum等適應性方案。 - **企業策略**: - **同步投資演算法與硬體**:最大化現有GPU利用率,而非削減採購。 - **鎖定供應鏈**:確保AI競賽中不因算力短缺落後對手。 **簡言之,演算法進步如同「更省油的引擎」,但AI時代的「車速」與「車隊規模」增長更 快,油箱(GPU)的需求只會更大。** 除非出現顛覆性技術革命,NVIDIA的訂單難以被大幅 砍單。 ————— 靠我三次ㄧ直引導輝達毀滅性問法 結果deepseek ㄧ直說是更欠 輝達Gpu ---- Sent from BePTT on my iPhone 16 -- ※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 111.82.104.170 (臺灣) ※ 文章網址: https://www.ptt.cc/bbs/Gossiping/M.1738264565.A.94A.html
StylishTrade: 因為腦神經精度超低吧XD 1.163.114.244 01/31 03:19
StylishTrade: 生物體是不可能高精度的 1.163.114.244 01/31 03:20
StylishTrade: 你要模擬大腦就是要精度低 1.163.114.244 01/31 03:20
ImHoluCan: 不過要是之後真的被deepseek 講中,是 111.82.104.170 01/31 03:24
ImHoluCan: 更欠,不是可以更省省輝達gpu ,那de 111.82.104.170 01/31 03:24
ImHoluCan: epseek 肯定真的對美國是破壞性打擊 111.82.104.170 01/31 03:24
suzhou: 目前癱的更嚴重的是新能源公司118.150.170.248 01/31 03:31
suzhou: 本來在吹微型核電題材 瞬間被打回地上118.150.170.248 01/31 03:32
suzhou: 這波就在等驗證整個產業鏈未來該怎麼走118.150.170.248 01/31 03:32
StylishTrade: 如果你的模型精度差就會出包 1.163.114.244 01/31 03:35
StylishTrade: 那就表示你的模型有問題 1.163.114.244 01/31 03:36
v1991829: 好了啦 149.88.101.8 01/31 03:55
v1991829: 你就沒有高檔出脫 低檔接回來的能力 149.88.101.8 01/31 03:56
v1991829: 跌個幾天在那邊上網討拍 149.88.101.8 01/31 03:56
v1991829: 如果你149賣掉 現在買回來 149.88.101.8 01/31 03:56
v1991829: 你還需要在這邊扯這麼多543嗎 149.88.101.8 01/31 03:56
v1991829: 就乖乖把未實現損益吃下去 149.88.101.8 01/31 03:58
v1991829: 沒人想跟你抬槓瞎猜未來的gpu需求 149.88.101.8 01/31 03:58
v1991829: 瞎子摸象 149.88.101.8 01/31 03:58
ImHoluCan: V1991很急喔,40見,你沒有高檔出脫能 112.105.61.157 01/31 11:15
ImHoluCan: 力,這幾天還在底下留言 112.105.61.157 01/31 11:15
ImHoluCan: 我天天發文你看到就心痛一次,每次就 112.105.61.157 01/31 11:18
ImHoluCan: 被提醒一次,看來你很急喔,你149沒賣 112.105.61.157 01/31 11:18
ImHoluCan: 掉,是不是沒錢了呢? 你小朋友別拿爸 112.105.61.157 01/31 11:18
ImHoluCan: 媽的錢玩股票 112.105.61.157 01/31 11:18
ImHoluCan: 笑死每次看你發文,你就崩潰ㄧ次,每 112.105.61.157 01/31 11:26
ImHoluCan: 次都來推文,很急喔 112.105.61.157 01/31 11:26
ImHoluCan: 笑死年紀1991,沒有本業,你要不要笑 112.105.61.157 01/31 11:28
ImHoluCan: 死人? 112.105.61.157 01/31 11:28
ImHoluCan: 年紀那麼大還是個社畜,可憐 112.105.61.157 01/31 11:30
ImHoluCan: 你還是去高雄看你的那支動物好了 112.105.61.157 01/31 11:32