推 nanako81240 : 鏟子很重要阿 但人家用湯匙挖得跟你鏟子一樣多 01/28 15:25
=_= 你沒搞懂 沒那些gpt4o存在(用高算力產生) 你v3訓練用的數據集可能都產不出
※ 編輯: LDPC (76.21.72.78 美國), 01/28/2025 15:25:31
※ 編輯: LDPC (76.21.72.78 美國), 01/28/2025 15:26:24
→ nanako81240 : 美國被發現只會拼命買鏟子 01/28 15:26
→ losage : 問題是湯匙也是老黃造的,這場暴跌他最冤好嗎 01/28 15:27
推 jise51103 : 蒜粒是啥 01/28 15:27
推 metallolly : 我已經在研究職訓局水電班怎麼報名了 01/28 15:29
→ NCKUFatPork : 基本上就是沒人挖石油 你要怎麼精煉加工 01/28 15:29
推 colapola : 老黃真的跌的莫名其妙 01/28 15:29
→ NCKUFatPork : Deepseek只是精練而已 底層還是大模型還是尻別人的 01/28 15:29
推 s213092921 : 你有算力,我有蒜粒 01/28 15:30
→ opticalman : 中國學chatgpt成就DS,DS被分析完,還不是要靠算力 01/28 15:30
→ opticalman : 成就另一個里程盃......總結:AI 更進化需演算法+ 01/28 15:30
→ opticalman : 算力 01/28 15:30
推 create8 : 幹,我要去少林寺學料理了 01/28 15:31
推 x2159679 : deepseek的底層大模型好像還是用openai的...... 01/28 15:31
推 opticalman : 對阿,就演算法抄來,然后再進化 01/28 15:32
推 gk1329 : 自然界可以參考鴨 01/28 15:33
→ poru : NV都開釋了!只是市場還在恐慌 01/28 15:33
→ gk1329 : 人腦不是自然界最大的 但算法是最好的 01/28 15:33
→ gk1329 : 現代人類腦容量還比古代少的多 01/28 15:34
推 super0949 : 確實 好的鏟子才能鏟出好的薯條 01/28 15:34
→ gk1329 : 光推算力 大概就跟一個國家人口一直增加 難道就會進 01/28 15:35
→ gk1329 : 步嗎 01/28 15:35
→ Hina : 老黃暴跌冤 ?? 因為事實就證明不需要這麼高階的 01/28 15:36
推 anachronism : 算力是後天努力 01/28 15:37
→ anachronism : 模型是先天基因 01/28 15:37
→ Hina : 你現在問老美幾大AI 看還會想買高階的嗎 01/28 15:37
→ Hina : 生意人最重要的一件事 成本 這是永遠不變的 01/28 15:37
→ Hina : 花越少的錢 賺越多的錢 這就是生意人 01/28 15:38
推 ejnfu : 你等之後財報周看軟體巨頭有沒有下調資源支出就知道 01/28 15:38
→ ejnfu : 了 01/28 15:38
推 x2159679 : AI模型現在根本還沒到賺錢階段吧 01/28 15:38
→ x2159679 : AI會被吹那麼大是因為還做一個夢,這個夢還沒實現 01/28 15:39
推 tom77588 : 工欲善其事 必先利其器,硬體還是最重要 01/28 15:39
→ x2159679 : AI現在這些東西都只是在做夢過程中的副產物而已 01/28 15:40
→ x2159679 : 倒不如說如果美國真的更重視和中國的軍備競賽反而會 01/28 15:41
→ x2159679 : 投入更多資源 01/28 15:41
→ LouisWOLF : 把年菜退一退,吃泡麵了 01/28 15:43
→ s860703 : 晚上就漲回去了 01/28 15:46
→ deathoflove : 會啊 當然繼續買高階 抄不出來是人的問題 01/28 15:46
推 strlen : 這邊大概多數人沒做過生意吧?我做一個產品花了一年 01/28 15:51
推 HenryLin123 : 鏟子就是挖薯條啊 01/28 15:51
→ strlen : 時間一百萬成本 然後製造一個1000元 推出後被對手拿 01/28 15:52
→ strlen : 去研究改造他只花一個月十萬元 做一個只要100元 01/28 15:52
→ strlen : 拓荒者當然花比較多錢不是嗎?DS公佈的600萬訓練成 01/28 15:52
→ strlen : 本也是單獨算V3 r1沒公佈 前期研發試誤跟設備成本 01/28 15:53
→ strlen : 也完全沒公佈 大家可以思考一下 這些通通都也是可以 01/28 15:53
→ strlen : 公佈的 為什麼DS只選擇公佈V3訓練成本 01/28 15:54
→ strlen : 如果真的要證明我可以降本增效 應該是全都公佈吧? 01/28 15:54
→ strlen : 然後呢 中國政府還加碼一兆元投資AI 為何要加碼? 01/28 15:55
推 ohlong : 有人分析r1 是post training 這樣就合理了 基礎結 01/28 15:55
→ ohlong : 構一樣之下pre training 算力一樣得消耗那麼多 講 01/28 15:55
→ ohlong : 白就濃縮雞湯塊賣你比較便宜不是正常的事 01/28 15:55
→ strlen : 照很多人說算力過剩 現在不是應該減碼嗎.....? 01/28 15:55
推 ohlong : 看到現在覺得根本不足以影響長期需求 反而是要看川 01/28 16:01
→ ohlong : 普那個瘋子到底要搞啥毛 01/28 16:01
推 walelile : NV B系列重點也擺在推論上,宣傳比上代快15x 01/28 16:01
推 LADKUO56 : Deepseek八成是抄的吧 怎麼看就華西街要出貨 01/28 16:02
推 NexusPrime : 如果DS是拿現有的模型再加以改進訓練,那低成本是 01/28 16:03
→ NexusPrime : 合理的,跟從無到有完全不能比 01/28 16:03
推 amazingwow : 鏟子還是需要 越堆越多就對了 01/28 16:05
→ finhisky : 機構出貨會搭配新聞 一邊崩一邊出嗎? 01/28 16:08
推 JaccWu : 搞不好也在跌阿川想要加關稅的事啊 01/28 16:11
→ JaccWu : 加關稅成本or稅金增加 晶片價格上升 但毛利沒增加 01/28 16:12
推 deathoflove : 大國博弈、巨頭間的賽局拿來跟巷口小吃攤類比 ㄏ 01/28 16:19
推 a187 : 會翻漢堡了嗎 01/28 16:19
推 walelile : 人類炸的薯條有比機器好吃嗎? 成本有比機器便宜嗎? 01/28 16:23
推 AirLee : 那很好啊不用花錢買nv的卡 01/28 16:26
推 a0808996 : OpenAI只想賣鼎泰豐 但是ds只是賣幸福餐盒 01/28 16:27
→ a0808996 : 但是普羅大眾 都偏向買幸福餐盒 只能說客群不同ㄅ 01/28 16:28
→ a0808996 : 我覺得在探討的是變現率 幸福餐盒能獲利 01/28 16:29
→ a0808996 : 但是鼎泰豐 要賠錢經營 01/28 16:29
→ walelile : OpenAI問題是o1訂價太高,4o mini比DS V3 API便宜 01/28 16:30
→ walelile : o1定價高一方面可以減少擠壓到人類的工作 01/28 16:32
推 a0808996 : ds能靠免費 提高普及率 再出一個高階版的給人訂閱 01/28 16:33
→ walelile : 以DS免費放model+低價,中國會有一票人幹不過AI 01/28 16:33
→ walelile : 低階碼農估計能砍一半以上,翻譯砍一半,美工砍一半 01/28 16:34
推 a0808996 : 成本夠便宜出一個免費的 讓你看廣告也能獲利 01/28 16:35
→ a0808996 : 其他人還要打嗎 01/28 16:35
→ walelile : 他都免費放出來了,別人可以直接拿來用 01/28 16:37
→ walelile : OpenAI今天遇到的問題,就是明天DS的問題 01/28 16:37
→ walelile : 中國還要處理接下來更嚴重的失業問題 01/28 16:37
→ walelile : 今天DS省下前段model的成本,別人省整個model的成本 01/28 16:39
→ walelile : 一樣開API, 別人可以在殺50%價格 01/28 16:40
推 a0808996 : 開源的好處就是大家 一起優化阿 01/28 16:40
→ a0808996 : 不能說 沒受益阿 01/28 16:40
→ walelile : 我是不信有那麼多廠商要找人優化 01/28 16:41
→ walelile : 光是他現在放出來的版本就夠強了, 買卡內捲一定發生 01/28 16:41
→ IBIZA : 訓練數據集不是用其他AI產生 01/28 16:44
推 a0808996 : 你這樣說 那ds幹嘛要開源 真的佛心來做功德的嗎 01/28 16:46
→ IBIZA : 訓練數據集主要是來自各種爬蟲專案, 還有各種專業 01/28 16:46
推 grayeric : 薯條都沒了 日子怎過 01/28 16:47
→ a0808996 : 就是有好處 才會開源 01/28 16:47
→ IBIZA : 或非專業的電子書庫、百科全書 01/28 16:47
→ IBIZA : 之前V2版時公布的數據集概略資料是說60%程式碼10%數 01/28 16:49
→ IBIZA : 學30%自然語言文本 01/28 16:49
→ IBIZA : 程式碼的部分來自GitHub跟The Stack Flow 01/28 16:49
→ IBIZA : 程式碼的部分來自GitHub跟The Stack Overflow 01/28 16:50
推 KISS1979 : 台灣又嬴麻了 01/28 16:50
→ invidia : 先準備紙箱去公園佔位ㄅ 01/28 16:57
推 qweaaazzz : 推推推 01/28 16:59
→ qweaaazzz : 今天寒流來 公園好冷 01/28 16:59
推 cablate : 呆灣傻蛙還在臭人家只會賣鏟子,你知道多少應用因 01/28 18:07
→ cablate : 為這些鏟子被開發出來改善生活嗎== 這就是AI的未來 01/28 18:07
→ cablate : ,未來就是完全取代所有電子數據層面的應用,誰沒 01/28 18:07
→ cablate : 有AI就輸 01/28 18:07
推 cablate : ds才不是免費餐盒,他只是口糧餅乾,現在大廠免費 01/28 18:09
→ cablate : 開放的模型才是免費餐盒的等級,ds成也成本,最終 01/28 18:09
→ cablate : 很高機率也是敗在成本(算力) 01/28 18:09
推 cablate : 算力過剩問題只是在於目前瘋狂堆疊算力看起來沒有 01/28 18:13
→ cablate : 那麼劃世代的亮眼成績,對很多人來說4o甚至4omini 01/28 18:13
→ cablate : 就足以解決生活或工作上多數問題,而各個專業領域 01/28 18:13
→ cablate : 也有各種開源/便宜模型可以使用,相較之下狂堆算力 01/28 18:13
→ cablate : 的o1或o3並沒有真正做到像gpt3與4的那種劇烈差異。 01/28 18:13
→ cablate : 順帶一提,開源本來就是這個圈子的文化,開源是有 01/28 18:14
→ cablate : 很多好處的,ds的問題很明顯,他們需要盡快豎立一 01/28 18:14
→ cablate : 個有影響力的IP,開源就是一個很好的方式。 01/28 18:14
推 sean667cd : 推 LD大,昨天瘋狂撿鑽石! JoJo的不滅鑽石! 01/28 18:23
→ sean667cd : 喔拉喔拉喔拉喔拉喔拉喔拉! 01/28 18:23
→ huabandd : 算力永遠不會嫌多啦 01/28 19:38
→ huabandd : 你可以用不到,但廠商不能給不起 01/28 19:39
推 stosto : 你用nn不去堆node最好模型夠強…. 01/28 20:32
推 horb : 本來就不嫌多了。現在Ai連比大小都不一定每次都對了 01/29 21:14