看板 Stock 關於我們 聯絡資訊
就是算力才是絕對 (新聞用運算這詞可能不太好懂) https://x.com/karpathy/status/1883941452738355376 吃瓜可以看下面翻譯 https://x.com/op7418/status/1884065603184681162 無窮算力->無窮智能 這就是OpenAI和Andrej Karpathy, Jim Fan甚至認為 高算力模型可以訓練更強大模型 不要忽視scale 像之前有人在懷疑v3有用到gpt合成數據 Andrej論點是 你要合成高品質數據 也是要算力 這又跟老黃提到高品質render ->算力 好了QQ 不要再跌了 我已經在看youtube學習如何炸薯條了 ※ 引述《rayisgreat (在過往中無盡徘徊)》之銘言: : 原文標題: : OpenAI執行長:DeepSeek令人驚豔 但關鍵在運算 : 原文連結: : https://www.cna.com.tw/news/aopl/202501280099.aspx : 發布時間: : 中央社 2025/1/28 13:29(1/28 13:48 更新) : 記者署名: : 曾依璇/李佩珊 : 原文內容: : (中央社舊金山27日綜合外電報導)人工智慧(AI)公司OpenAI執行長阿特曼今天說,中 : 國新創公司「深度求索」(DeepSeek)的R1模型「令人印象深刻」,但OpenAI認為更強大 : 的運算能力是OpenAI成功的關鍵。 : 路透社報導,成本低廉的中國AI模型DeepSeek上月開始吸引全球目光,當時這家公司在論 : 文中表示,使用較低性能的輝達(Nvidia)H800晶片訓練其DeepSeek-V3模型,只花費不 : 到600萬美元。 : 根據DeepSeek官方微信帳號貼文,上週推出的DeepSeek-R1模型比OpenAI的o1模型便宜20 : 倍到50倍,依任務內容而有不同。 : 阿特曼(Sam Altman)在社群平台X寫道:「DeepSeek的R1模型令人印象深刻,尤其是以 : 這個價格所能實現(的結果)。」 : 他還說:「但我們主要是很高興能繼續執行我們的研究藍圖,並認為要成功完成任務,現 : 在比以往都更重要的是更多運算。」(譯者:曾依璇/核稿:李佩珊)1140128 : 心得/評論: : https://imgur.com/iSz2Nr0 : OpenAI 執行長 Sam Altman : 今日也對近來興起的中國 DeepSeek 發表了回應 : 台股美股會繼續往下or往上回彈? -- ※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 76.21.72.78 (美國) ※ 文章網址: https://www.ptt.cc/bbs/Stock/M.1738049054.A.EBC.html
nanako81240 : 鏟子很重要阿 但人家用湯匙挖得跟你鏟子一樣多 01/28 15:25
=_= 你沒搞懂 沒那些gpt4o存在(用高算力產生) 你v3訓練用的數據集可能都產不出 ※ 編輯: LDPC (76.21.72.78 美國), 01/28/2025 15:25:31 ※ 編輯: LDPC (76.21.72.78 美國), 01/28/2025 15:26:24
nanako81240 : 美國被發現只會拼命買鏟子 01/28 15:26
losage : 問題是湯匙也是老黃造的,這場暴跌他最冤好嗎 01/28 15:27
jise51103 : 蒜粒是啥 01/28 15:27
metallolly : 我已經在研究職訓局水電班怎麼報名了 01/28 15:29
NCKUFatPork : 基本上就是沒人挖石油 你要怎麼精煉加工 01/28 15:29
colapola : 老黃真的跌的莫名其妙 01/28 15:29
NCKUFatPork : Deepseek只是精練而已 底層還是大模型還是尻別人的 01/28 15:29
s213092921 : 你有算力,我有蒜粒 01/28 15:30
opticalman : 中國學chatgpt成就DS,DS被分析完,還不是要靠算力 01/28 15:30
opticalman : 成就另一個里程盃......總結:AI 更進化需演算法+ 01/28 15:30
opticalman : 算力 01/28 15:30
create8 : 幹,我要去少林寺學料理了 01/28 15:31
x2159679 : deepseek的底層大模型好像還是用openai的...... 01/28 15:31
opticalman : 對阿,就演算法抄來,然后再進化 01/28 15:32
gk1329 : 自然界可以參考鴨 01/28 15:33
poru : NV都開釋了!只是市場還在恐慌 01/28 15:33
gk1329 : 人腦不是自然界最大的 但算法是最好的 01/28 15:33
gk1329 : 現代人類腦容量還比古代少的多 01/28 15:34
fakelie : https://i.imgur.com/cvD4Rcb.jpeg 01/28 15:34
super0949 : 確實 好的鏟子才能鏟出好的薯條 01/28 15:34
gk1329 : 光推算力 大概就跟一個國家人口一直增加 難道就會進 01/28 15:35
gk1329 : 步嗎 01/28 15:35
richaad : https://i.imgur.com/qdJxe3T.jpeg 01/28 15:35
Hina : 老黃暴跌冤 ?? 因為事實就證明不需要這麼高階的 01/28 15:36
anachronism : 算力是後天努力 01/28 15:37
anachronism : 模型是先天基因 01/28 15:37
Hina : 你現在問老美幾大AI 看還會想買高階的嗎 01/28 15:37
Hina : 生意人最重要的一件事 成本 這是永遠不變的 01/28 15:37
Hina : 花越少的錢 賺越多的錢 這就是生意人 01/28 15:38
ejnfu : 你等之後財報周看軟體巨頭有沒有下調資源支出就知道 01/28 15:38
ejnfu : 了 01/28 15:38
x2159679 : AI模型現在根本還沒到賺錢階段吧 01/28 15:38
x2159679 : AI會被吹那麼大是因為還做一個夢,這個夢還沒實現 01/28 15:39
tom77588 : 工欲善其事 必先利其器,硬體還是最重要 01/28 15:39
x2159679 : AI現在這些東西都只是在做夢過程中的副產物而已 01/28 15:40
x2159679 : 倒不如說如果美國真的更重視和中國的軍備競賽反而會 01/28 15:41
x2159679 : 投入更多資源 01/28 15:41
LouisWOLF : 把年菜退一退,吃泡麵了 01/28 15:43
s860703 : 晚上就漲回去了 01/28 15:46
deathoflove : 會啊 當然繼續買高階 抄不出來是人的問題 01/28 15:46
strlen : 這邊大概多數人沒做過生意吧?我做一個產品花了一年 01/28 15:51
HenryLin123 : 鏟子就是挖薯條啊 01/28 15:51
strlen : 時間一百萬成本 然後製造一個1000元 推出後被對手拿 01/28 15:52
strlen : 去研究改造他只花一個月十萬元 做一個只要100元 01/28 15:52
strlen : 拓荒者當然花比較多錢不是嗎?DS公佈的600萬訓練成 01/28 15:52
strlen : 本也是單獨算V3 r1沒公佈 前期研發試誤跟設備成本 01/28 15:53
strlen : 也完全沒公佈 大家可以思考一下 這些通通都也是可以 01/28 15:53
strlen : 公佈的 為什麼DS只選擇公佈V3訓練成本 01/28 15:54
strlen : 如果真的要證明我可以降本增效 應該是全都公佈吧? 01/28 15:54
strlen : 然後呢 中國政府還加碼一兆元投資AI 為何要加碼? 01/28 15:55
ohlong : 有人分析r1 是post training 這樣就合理了 基礎結 01/28 15:55
ohlong : 構一樣之下pre training 算力一樣得消耗那麼多 講 01/28 15:55
ohlong : 白就濃縮雞湯塊賣你比較便宜不是正常的事 01/28 15:55
strlen : 照很多人說算力過剩 現在不是應該減碼嗎.....? 01/28 15:55
ohlong : 看到現在覺得根本不足以影響長期需求 反而是要看川 01/28 16:01
ohlong : 普那個瘋子到底要搞啥毛 01/28 16:01
walelile : NV B系列重點也擺在推論上,宣傳比上代快15x 01/28 16:01
LADKUO56 : Deepseek八成是抄的吧 怎麼看就華西街要出貨 01/28 16:02
NexusPrime : 如果DS是拿現有的模型再加以改進訓練,那低成本是 01/28 16:03
NexusPrime : 合理的,跟從無到有完全不能比 01/28 16:03
amazingwow : 鏟子還是需要 越堆越多就對了 01/28 16:05
finhisky : 機構出貨會搭配新聞 一邊崩一邊出嗎? 01/28 16:08
JaccWu : 搞不好也在跌阿川想要加關稅的事啊 01/28 16:11
JaccWu : 加關稅成本or稅金增加 晶片價格上升 但毛利沒增加 01/28 16:12
deathoflove : 大國博弈、巨頭間的賽局拿來跟巷口小吃攤類比 ㄏ 01/28 16:19
a187 : 會翻漢堡了嗎 01/28 16:19
walelile : 人類炸的薯條有比機器好吃嗎? 成本有比機器便宜嗎? 01/28 16:23
AirLee : 那很好啊不用花錢買nv的卡 01/28 16:26
a0808996 : OpenAI只想賣鼎泰豐 但是ds只是賣幸福餐盒 01/28 16:27
a0808996 : 但是普羅大眾 都偏向買幸福餐盒 只能說客群不同ㄅ 01/28 16:28
a0808996 : 我覺得在探討的是變現率 幸福餐盒能獲利 01/28 16:29
a0808996 : 但是鼎泰豐 要賠錢經營 01/28 16:29
walelile : OpenAI問題是o1訂價太高,4o mini比DS V3 API便宜 01/28 16:30
walelile : o1定價高一方面可以減少擠壓到人類的工作 01/28 16:32
a0808996 : ds能靠免費 提高普及率 再出一個高階版的給人訂閱 01/28 16:33
walelile : 以DS免費放model+低價,中國會有一票人幹不過AI 01/28 16:33
walelile : 低階碼農估計能砍一半以上,翻譯砍一半,美工砍一半 01/28 16:34
a0808996 : 成本夠便宜出一個免費的 讓你看廣告也能獲利 01/28 16:35
a0808996 : 其他人還要打嗎 01/28 16:35
walelile : 他都免費放出來了,別人可以直接拿來用 01/28 16:37
walelile : OpenAI今天遇到的問題,就是明天DS的問題 01/28 16:37
walelile : 中國還要處理接下來更嚴重的失業問題 01/28 16:37
walelile : 今天DS省下前段model的成本,別人省整個model的成本 01/28 16:39
walelile : 一樣開API, 別人可以在殺50%價格 01/28 16:40
a0808996 : 開源的好處就是大家 一起優化阿 01/28 16:40
a0808996 : 不能說 沒受益阿 01/28 16:40
walelile : 我是不信有那麼多廠商要找人優化 01/28 16:41
walelile : 光是他現在放出來的版本就夠強了, 買卡內捲一定發生 01/28 16:41
IBIZA : 訓練數據集不是用其他AI產生 01/28 16:44
a0808996 : 你這樣說 那ds幹嘛要開源 真的佛心來做功德的嗎 01/28 16:46
IBIZA : 訓練數據集主要是來自各種爬蟲專案, 還有各種專業 01/28 16:46
grayeric : 薯條都沒了 日子怎過 01/28 16:47
a0808996 : 就是有好處 才會開源 01/28 16:47
IBIZA : 或非專業的電子書庫、百科全書 01/28 16:47
IBIZA : 之前V2版時公布的數據集概略資料是說60%程式碼10%數 01/28 16:49
IBIZA : 學30%自然語言文本 01/28 16:49
IBIZA : 程式碼的部分來自GitHub跟The Stack Flow 01/28 16:49
IBIZA : 程式碼的部分來自GitHub跟The Stack Overflow 01/28 16:50
KISS1979 : 台灣又嬴麻了 01/28 16:50
invidia : 先準備紙箱去公園佔位ㄅ 01/28 16:57
qweaaazzz : 推推推 01/28 16:59
qweaaazzz : 今天寒流來 公園好冷 01/28 16:59
iMANIA : https://i.imgur.com/dDAbXMr.jpeg 01/28 17:34
cablate : 呆灣傻蛙還在臭人家只會賣鏟子,你知道多少應用因 01/28 18:07
cablate : 為這些鏟子被開發出來改善生活嗎== 這就是AI的未來 01/28 18:07
cablate : ,未來就是完全取代所有電子數據層面的應用,誰沒 01/28 18:07
cablate : 有AI就輸 01/28 18:07
cablate : ds才不是免費餐盒,他只是口糧餅乾,現在大廠免費 01/28 18:09
cablate : 開放的模型才是免費餐盒的等級,ds成也成本,最終 01/28 18:09
cablate : 很高機率也是敗在成本(算力) 01/28 18:09
cablate : 算力過剩問題只是在於目前瘋狂堆疊算力看起來沒有 01/28 18:13
cablate : 那麼劃世代的亮眼成績,對很多人來說4o甚至4omini 01/28 18:13
cablate : 就足以解決生活或工作上多數問題,而各個專業領域 01/28 18:13
cablate : 也有各種開源/便宜模型可以使用,相較之下狂堆算力 01/28 18:13
cablate : 的o1或o3並沒有真正做到像gpt3與4的那種劇烈差異。 01/28 18:13
cablate : 順帶一提,開源本來就是這個圈子的文化,開源是有 01/28 18:14
cablate : 很多好處的,ds的問題很明顯,他們需要盡快豎立一 01/28 18:14
cablate : 個有影響力的IP,開源就是一個很好的方式。 01/28 18:14
sean667cd : 推 LD大,昨天瘋狂撿鑽石! JoJo的不滅鑽石! 01/28 18:23
sean667cd : 喔拉喔拉喔拉喔拉喔拉喔拉! 01/28 18:23
huabandd : 算力永遠不會嫌多啦 01/28 19:38
huabandd : 你可以用不到,但廠商不能給不起 01/28 19:39
stosto : 你用nn不去堆node最好模型夠強…. 01/28 20:32
horb : 本來就不嫌多了。現在Ai連比大小都不一定每次都對了 01/29 21:14