推 ManOfSteel : chegg學生時代的解答好幫手 01/24 02:21
推 ppuuppu : 老黃加油阿!以後智慧機器人和自駕車就靠你了 01/24 02:31
推 SRNOB : 都多久了...明明是拿去繪圖維多利亞大才需要買顯卡 01/24 02:33
噓 a000000000 : 這件事很微妙喔 M軟跟蘇媽的合作案好像很大 01/24 02:48

→ a000000000 : chatgpt運算需求是估狗傳統搜尋的六倍七倍 01/24 02:49
→ a000000000 : 老黃不可能打兩折賣M軟 M軟要搞大到估狗規模 01/24 02:50
→ a000000000 : 如果跟老黃買的話 那算力不知道要花幾B 01/24 02:50
→ a000000000 : 不如錢拿來投資軟體 然後跟蘇媽買10%價格/算力 01/24 02:51
→ a000000000 : 不過其他路邊拿不出1b以上自己搞硬or軟的 01/24 02:52
→ a000000000 : 通通只能乖乖跟老黃然後被抽乾 01/24 02:52
推 s987692 : 現在想想MI300,amd內部似乎也極其重視。 01/24 03:04
推 waitrop : 老黃抽乾使用者已經好幾年了,不是只有現在,所以 01/24 03:06
→ waitrop : 才有那麼多公司自己做TPU, ASIC 跟底層軟體,像是G 01/24 03:06
→ waitrop : oogle, Amazon, Microsoft, Facebook, Alibaba 等 01/24 03:06
→ waitrop : ,都自己做TPU ASIC 跟底層軟體,老黃太貴了 01/24 03:06
噓 a000000000 : 蘇媽在computex的時候找M軟的上台 01/24 03:06
→ a000000000 : 然後有想逼M軟的破梗 M軟仔死不肯 01/24 03:07
→ a000000000 : 3奈米跟以後的晶片設計開發成本太高惹 01/24 03:08
→ a000000000 : 現在老黃那整組ai晶片市場也就15b/年左右 01/24 03:08
噓 a000000000 : 我看到2奈米以後整組開發成本應該會破1b 01/24 03:11
→ a000000000 : 後面那些用量沒很大的 自有晶片部門規模也不大的 01/24 03:12
→ a000000000 : 應該很難就養整組幾百人然後花1b+開發晶片 01/24 03:12
推 waitrop : 我提的這幾家都規模夠大,資料夠多,也夠有錢可以 01/24 03:14
→ waitrop : 自己養團隊自己開發,也的確已經做好幾代了 01/24 03:14
噓 a000000000 : 問題4這幾家連要自己人吳鳳接軌從老黃轉自家 01/24 03:17
→ a000000000 : 都喊得很辛苦惹 01/24 03:17
→ a000000000 : 15b hyperscaler分一半 再五家分 平均一家1.5b 01/24 03:18
→ a000000000 : 這路會越走月難 開發成本太高惹 01/24 03:19
推 aegis43210 : 蘇嬤弱點在AI訓練方面還是不如老黃,打殺價戰可能兩 01/24 03:22
→ aegis43210 : 敗俱傷,結局難料,一切看蘇嬤想賣的多便宜,賣太便 01/24 03:22
→ aegis43210 : 宜的話,對獲利貢獻有限 01/24 03:22
→ aegis43210 : 其他家現在主攻AI推論,這部份老黃不是最強,還能掙 01/24 03:24
噓 a000000000 : 老黃毛利80%蘇媽60%賣 價格94一半而已 01/24 03:24
→ aegis43210 : 扎一下 01/24 03:24
→ a000000000 : 60%一樣賺爛 01/24 03:24
推 aegis43210 : 這波令人想到alphago那時的熱潮,passcard跌破眼鏡 01/24 03:28
→ aegis43210 : 的狂賣,老黃直接成為AI霸主,運氣真的好,沒輒 01/24 03:28
推 waitrop : 以我接觸過做上層AI ML model 等研究員與使用者的 01/24 03:29
→ waitrop : 經驗,這群人是這次泡沫的既得利益者,做不爽就跳 01/24 03:29
→ waitrop : 槽包裹拿兩倍,打著頂校跟faang的AI ML稱號,真的 01/24 03:29
→ waitrop : 很爽,所以要求他們學習跟使用新的framework,很多 01/24 03:29
→ waitrop : 就拿翹直接跳槽不幹,不知道這次大裁員是否能讓這 01/24 03:29
→ waitrop : 群人收斂一下 01/24 03:29
推 aegis43210 : 去年看衰老黃是因為ML蛋糕不會再快速變大,現在如果 01/24 03:34
→ aegis43210 : 真的又引發熱潮,的確是一起賺爛… 01/24 03:34
→ newwu : Nvidia 真的好強 01/24 03:40
推 hidalgo22976: AMD目前在AI這塊就是不成行,不是M想找誰合作的問題 01/24 03:53
→ hidalgo22976: 目前就Nvidia可以用,AMD在練個幾年吧 01/24 03:54
推 hidalgo22976: 你看那個做ML的會買AMD的gpu 是可以支援啦,但問題 01/24 03:56
→ hidalgo22976: 一堆,效能又慢 01/24 03:56
推 hidalgo22976: M除非打算過個幾年後再出,要不現階段就只有nvidia 01/24 03:59
→ hidalgo22976: 可以用 01/24 03:59
推 hidalgo22976: AMD的問題不是單純軟體那麼簡單 整合問題 01/24 04:10
→ hidalgo22976: 若是只有軟體 還好解決 找人過去就好 n都踏過坑了 01/24 04:11
推 chienk : 都噴了才講 01/24 04:47
→ FatFatQQ : 語言學習跟圖像的運用有差吧 01/24 05:33
推 waitrop : 語言學習要看前後句話已經前後字等還有文法判斷, 01/24 05:39
→ waitrop : 所以不能非常平行化處理,相對而言,圖像處理可以 01/24 05:39
→ waitrop : 切的很細分很多圖像平行處理,所以GPU 在圖像處理 01/24 05:39
→ waitrop : 很好,但是語言學習就很吃力,TPU 在語言學習表現 01/24 05:39
→ waitrop : 會比較好 01/24 05:39
→ FatFatQQ : 花旗那分析師是不是以為一種AI可以解決無限問題太 01/24 05:43
→ FatFatQQ : 興奮惹 拉這麼多 01/24 05:43
噓 DrGun : 感恩教主!讚嘆教主!教主文成武德 一桶糨糊! 01/24 06:00
噓 DrGun : 4說蘇媽在AI這塊有沒有可能重演當初叫索尼M軟出錢開 01/24 06:07
→ DrGun : 發遊戲機der歷史呢? 01/24 06:09
噓 hidalgo22976: 現在的language model都用attention model 為啥不 01/24 07:09
→ hidalgo22976: 能平行化.... 講笑話嗎.. 01/24 07:09
→ newwu : 同意樓上 01/24 07:10
→ newwu : gpt就是用一堆v100 訓練的 01/24 07:13
推 hidalgo22976: 而且,我剛想了一下,RNN時代也可以平行化啊..比較 01/24 07:25
→ hidalgo22976: 需要cpu的應該是RL 跟語言還是圖像沒什麼關聯吧 01/24 07:25
推 hidalgo22976: gpt1還是gpt2 好像有一個就是用lstm 記不清楚了 01/24 07:27
推 hidalgo22976: 早年一堆用Lstm的,也是訓練的很巨大 01/24 07:29
推 LSTR : 我大輝達真要買來傳家,各種風口飛高高,太神啦! 01/24 07:34
推 waitrop : 我不懂什麼是attention model. 我只知道我自學natu 01/24 08:08
→ waitrop : ral language process 的課是教lstm model. 我不是 01/24 08:08
→ waitrop : 做上層model 的人,我的確對這些model 都不熟 01/24 08:08
推 k798976869 : 現在都在徵人自己做TPU惹 老黃洗洗睡吧 01/24 08:44
→ Adrian : 老黃都不會被殺估值 QQ 01/24 08:56
推 LSTR : 老黃沉穩滑水,和某投顧各種吹不一樣,估值穩穩的 01/24 09:13
推 leoloveivy : TPU 是有錢才投的 要等到跟N拼本要夠厚 01/24 09:14
推 v21638245 : 什麼時候回350== 01/24 09:27
→ NCCUexpert : 自學nlp..把大家講得一愣一愣的,醉了 01/24 09:39
→ Alwen : 術業有專攻,你看教主也是在AI潛力這塊低估老黃 01/24 09:41
→ Alwen : 才隔一年一堆人對老黃AI市場又轉變看法= = 01/24 09:42
推 yogo3388 : 教主早安 01/24 09:56
推 falcon11 : AMD CES 微軟那PART很尬 01/24 10:20
→ FatFatQQ : 有現在在業界懂行的嗎 必竟這技術本來每年都有不同 01/24 10:41
→ FatFatQQ : 發展 01/24 10:41
→ ACDC69 : 大陸有很多連出來用現在好像關閉了 01/24 11:14
噓 a000000000 : 估狗那裁員我看反效果比較多 01/24 11:26
→ a000000000 : AI大師都是跳槽喊價高手 用尼公司內部的東西 01/24 11:26
→ a000000000 : 出去沒價碼 跑不掉不就等被裁 傻惹嗎 01/24 11:27
→ jonaswang01 : 結果gpt會員最常跑律師事務所 01/24 11:58
推 Dreamer77 : 應該有sw stack包起來讓AI高手不用管底層是哪種hw 01/24 11:59
→ Dreamer77 : 方便出去吹 01/24 11:59
→ LDPC : 現在都萬物Transformer了 連CV也是 還有ChatGPT雖然 01/24 12:09
→ LDPC : 昂貴但在面向消費者時 是可以特製化弄小和搭配AMD 01/24 12:10
→ LDPC : 這種APU 因為ChatGPT是Generative Pre-trained 01/24 12:12
→ LDPC : pretrain model是可以針對落地場景客製化啊 01/24 12:12
→ LDPC : 這樣可以減少費用啊 簡言之Training和Inference 01/24 12:12
→ LDPC : 是兩件不一樣事情 老黃通吃兩邊不代表AMD不能走落地 01/24 12:13
→ LDPC : 最後99AMD 99NVDA 99TSLA Q____Q 01/24 12:15
推 kanx : 如果要在客戶端用特製的tpu搞不好比amd更便宜啊 XD 01/24 12:16
→ kanx : NV CUDA的領先, 其他廠商不花大錢是不太可能超越的 01/24 12:17
→ LDPC : 在deploy時候 有時候不需要cuda 只要省電計算快就行 01/24 12:18
→ LDPC : cuda好用在於寫算法做training 一但model有框架 01/24 12:18
→ LDPC : 可以再根據計算系統deploy 這也是為啥tensorflow 01/24 12:19
→ LDPC : 這樣複雜 因為他根據各種cpu寫不同的deployment.. 01/24 12:19
→ LDPC : qualcom自己都再推自家的compiler把ai模型轉成適合 01/24 12:20
→ LDPC : 自家的計算機系統優化底層c code 01/24 12:20
→ LDPC : 這也是為啥pytorch在落地很難用 因為很多算法不支援 01/24 12:22
→ LDPC : 同時也不能優化各種不同cpu架構 但用它寫model又很 01/24 12:23
→ LDPC : 很簡單 所以才會有人說落地要用tensorflow開發底層 01/24 12:23
推 waitrop : 說來還真是慚愧,我的確所有東西都自學的,nlp自學 01/24 12:37
→ waitrop : ,AI ML也是自學,python,手機, RTL, verification 01/24 12:37
→ waitrop : ,verilog,sv,CPU,cloud, VM, container 等通通都是 01/24 12:37
→ waitrop : 自學,我出身差不是什麼名門實驗室或是大牌指導教 01/24 12:37
→ waitrop : 授出身,工作需要什麼就學什麼,甚至為了換工作去 01/24 12:37
→ waitrop : 自學最熱門的技術,不過我覺得我自學還蠻不錯的, 01/24 12:37
→ waitrop : 至少工作上用得到也用的不錯 01/24 12:37
推 waitrop : 不久前跟DeepMind 合作開發alphafold平台,但是知 01/24 12:41
→ waitrop : 道project做完得獎我還是對上層model 不熟 01/24 12:41
→ gbman : AI吹起來 01/24 13:26
推 silentneko : 三類仔被糊了一臉天書XD 01/24 14:40
推 cute15825 : 也沒啥一臉天書 就最強那幾間包一包成etf就好了 01/24 17:54
→ cute15825 : 但這波我覺得供應鏈更有機會 01/24 17:55
推 zaza1128 : Google 自己的要趕快端上來了 01/24 18:55
→ kyova : attention算是應用蠻廣泛的概念了。自學很正常阿, 01/24 21:43
→ kyova : 因為東西太多太雜了...當然正規訓練還是比較紮實。 01/24 21:43
→ kyova : 一堆新東西,哪學的完... 01/24 21:44
推 gbman : AI太多打高空的東西XD 01/24 22:00