看板 Stock 關於我們 聯絡資訊
原文標題: AI聊天機器人ChatGPT可望成就Nvidia 但挫傷另外兩檔股票 原文連結: https://news.cnyes.com/news/id/5067269 發布時間: 2023/01/19 10:07 記者署名: 鉅亨網編譯許家華2023/01/19 10:07 原文內容: 華爾街分析師認為,人工智慧聊天機器人 ChatGPT 為 Nvidia (NVDA-US) 的投資者帶來 紮實機會,但對 Chegg (CHGG-US) 和谷歌來說卻是壞消息。 OpenAI 公司 2022 年推出 ChatGPT,暴風般襲擊人工智慧產業,2019 年就投資 OpenAI 公司的微軟 (MSFT-US) 周一表示,將透過其雲端託管工具 Azure OpenAI Service,讓更 多顧客可接觸使用該機器人。 據多家媒體報導,微軟計劃將該工具整合到其 Bing 搜索引擎中,對 Alphabet (GOOGL-US) 旗下的谷歌構成潛在挑戰。 華爾街分析師表示,ChatGPT 也對教育技術公司 Chegg (CHGG-US) 構成威脅。然而,花 旗集團認為,Nvidia 可能因該機器人大熱門而受益,因其圖形處理器 (GPU) 用於訓練和 運作 ChatGPT。 花旗分析師 Atif Malik 周二 (17 日) 寫道,ChatGPT 服務開始運作的頭 12 個月,可 望為 Nvidia 產生 30 億至 110 億美元的銷售商機。他重申對 Nvidia 股票的「買進」 評級,目標價 210 美元。 Nvidia 周三下跌 1.84%,收每股 173.77 美元,而 S&P 500 指數同日收低 1.56%。 Nvidia 拒絕對花旗的預期報告置評,因處在下個月發布財報前的緘默期。 BMO 資本市場分析師 Jeffrey Silber 周三寫道,雖然現在論斷 ChatGPT 對 Chegg 的影 響程度還太早,但該公司第四季美國網路流量一直在減少,其財務長 Andrew Brown 表示 :「雖然 ChatGPT 技術特別好,但老實說,現在還不到處理更複雜數學問題的強大程度 ,而這正是我們要做的核心。」 Chegg 發言人表示,公司不認為 ChatGPT 會對公司業務產生重大影響,「那不是專為教 學工具設計的。」 根據 FactSet ,Chegg 預定 2 月 6 日發布第四季財報,其周三股價重挫 16.61%,收每 股 20.38 美元。Silber 給予該股「符合市場表現」的評級,相當於「中立」,目標價 30 美元。 Truist 分析師 Youssef Squali 周三報告指出,ChatGPT 對谷歌的潛在衝擊最明顯。「 以 ChatGPT 目前形式,短期內不太可能對谷歌搜尋業務構成重大威脅,因其設計並非旨 在解決商業性質的查詢。但 ChatGPT 的功能可能與微軟的 Bing 結合,應可幫助微軟奪 回一些市占。」 Alphabet 沒有回應置評請求。 Alphabet 周三下跌 0.19%,收每股 91.12 美元;微軟同日收低 1.89% 至每股 235.81 美元。Squali 給予 Alphabet 股票「買進」評級,目標價 130 美元,較現行股價隱含漲 幅 42%。 特斯拉執行長馬斯克 (Elon Musk) 曾大讚 ChatGPT 「好到嚇死人」,可想而知,長期下 來對股價的影響力可能相當巨大。 心得/評論: 開年以來 NVDA 差不多反彈了30% 有...從低點 11x 附近算也超過八成了。 整理一下最近的財報: 2020 2021 2022 Q2 Q3 Q4 Q1 Q2 Q3 Q4 Q1 Q2 Q3 Revenue 3.86B 4.73B 5B 5.6B 6.5B 7.1B 7.6B 8.28B 6.7B 5.93B 毛利 58.8% 62.6% 63.1 64.1% 64.8% 65.2% 65.4% 65.5% 43.7% 56.1% 淨利 0.62B 1.34B 1.46B 1.9B 2.37B 2.45B 3B 1.61B 0.65B 0.68B EPS(USD):0.99 2.12 2.31 0.75 0.94 0.97 1.18 0.64 0.26 0.27 營收(YoY)- 1. Gaming : 1.57 B (-51%) 2. Datacenter : 3.83 B (+31%) 3. Professional Visualization: 0.2 B (-65%) 4. Auto : 0.25 B (+86%) 下一季老黃給的outlook是營收6B,gross margin 回升到66% (non-GAAP). 可以預期車用在各家電動車成長下營收會持續拉高。最有話題和機會的莫過 於去年底 OpenAI 發表的聊天機器人 chatGPT... 當時小弟的臉書被狂刷一波朋友們測試這個 chat bot 所餵的各種問題, 小試一下之後覺得真的頗強der 除了滑鼠和飛鼠可能搞不清楚外(XD),對問題語意的理解程度頗高,可以說基本的 算數、邏輯、詢答,甚至程式和debug 都可以搞定.... 綜合大家的一些評論,chatGPT 在各種問題詢答或文章生成已經具備堪用 甚至"有點"實用的階段。 chatGPT 的運作原理是利用海量文章資料建立模型,模型建立後,根據輸入的 問題去"生成"文章。下一代 GPT-4 的模型所使用的參數,將會遠遠大過目前的 GPT-3。 老實說我們不用去太深入研究R,training 這塊其實是老黃的禁臠拉 QQ" 未來微軟打算在 Bing 導入chatGPT,谷歌也不會坐以待斃, 講來講去,受惠的都會是老黃,ㄎㄎ 最後,NVDA股價已經先反映了... G 最後一棒宣布 layoff 之後,FAANG 只剩阿婆還沒裁員了, 阿婆勉強算是個硬體或是系統廠,跟另外已經裁員的四家純軟or網路公司 不太一樣,這波裁員潮,純軟明顯受傷較重,幫QQ" 市場也許利空出盡,會走一波反彈,之後就看真槍實彈的財報惹~~ PS. 個人看法,盈虧自負。兔年困霸數錢數到兔~~ -- ※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 112.105.146.156 (臺灣) ※ 文章網址: https://www.ptt.cc/bbs/Stock/M.1674497415.A.035.html ※ 編輯: MiniArse (112.105.146.156 臺灣), 01/24/2023 02:12:05
ManOfSteel : chegg學生時代的解答好幫手 01/24 02:21
ppuuppu : 老黃加油阿!以後智慧機器人和自駕車就靠你了 01/24 02:31
SRNOB : 都多久了...明明是拿去繪圖維多利亞大才需要買顯卡 01/24 02:33
a000000000 : 這件事很微妙喔 M軟跟蘇媽的合作案好像很大 01/24 02:48
NEX4036 : https://i.imgur.com/jRDZEry.jpg 01/24 02:49
a000000000 : chatgpt運算需求是估狗傳統搜尋的六倍七倍 01/24 02:49
a000000000 : 老黃不可能打兩折賣M軟 M軟要搞大到估狗規模 01/24 02:50
a000000000 : 如果跟老黃買的話 那算力不知道要花幾B 01/24 02:50
a000000000 : 不如錢拿來投資軟體 然後跟蘇媽買10%價格/算力 01/24 02:51
a000000000 : 不過其他路邊拿不出1b以上自己搞硬or軟的 01/24 02:52
a000000000 : 通通只能乖乖跟老黃然後被抽乾 01/24 02:52
s987692 : 現在想想MI300,amd內部似乎也極其重視。 01/24 03:04
waitrop : 老黃抽乾使用者已經好幾年了,不是只有現在,所以 01/24 03:06
waitrop : 才有那麼多公司自己做TPU, ASIC 跟底層軟體,像是G 01/24 03:06
waitrop : oogle, Amazon, Microsoft, Facebook, Alibaba 等 01/24 03:06
waitrop : ,都自己做TPU ASIC 跟底層軟體,老黃太貴了 01/24 03:06
a000000000 : 蘇媽在computex的時候找M軟的上台 01/24 03:06
a000000000 : 然後有想逼M軟的破梗 M軟仔死不肯 01/24 03:07
a000000000 : 3奈米跟以後的晶片設計開發成本太高惹 01/24 03:08
a000000000 : 現在老黃那整組ai晶片市場也就15b/年左右 01/24 03:08
a000000000 : 我看到2奈米以後整組開發成本應該會破1b 01/24 03:11
a000000000 : 後面那些用量沒很大的 自有晶片部門規模也不大的 01/24 03:12
a000000000 : 應該很難就養整組幾百人然後花1b+開發晶片 01/24 03:12
waitrop : 我提的這幾家都規模夠大,資料夠多,也夠有錢可以 01/24 03:14
waitrop : 自己養團隊自己開發,也的確已經做好幾代了 01/24 03:14
a000000000 : 問題4這幾家連要自己人吳鳳接軌從老黃轉自家 01/24 03:17
a000000000 : 都喊得很辛苦惹 01/24 03:17
a000000000 : 15b hyperscaler分一半 再五家分 平均一家1.5b 01/24 03:18
a000000000 : 這路會越走月難 開發成本太高惹 01/24 03:19
aegis43210 : 蘇嬤弱點在AI訓練方面還是不如老黃,打殺價戰可能兩 01/24 03:22
aegis43210 : 敗俱傷,結局難料,一切看蘇嬤想賣的多便宜,賣太便 01/24 03:22
aegis43210 : 宜的話,對獲利貢獻有限 01/24 03:22
aegis43210 : 其他家現在主攻AI推論,這部份老黃不是最強,還能掙 01/24 03:24
a000000000 : 老黃毛利80%蘇媽60%賣 價格94一半而已 01/24 03:24
aegis43210 : 扎一下 01/24 03:24
a000000000 : 60%一樣賺爛 01/24 03:24
aegis43210 : 這波令人想到alphago那時的熱潮,passcard跌破眼鏡 01/24 03:28
aegis43210 : 的狂賣,老黃直接成為AI霸主,運氣真的好,沒輒 01/24 03:28
waitrop : 以我接觸過做上層AI ML model 等研究員與使用者的 01/24 03:29
waitrop : 經驗,這群人是這次泡沫的既得利益者,做不爽就跳 01/24 03:29
waitrop : 槽包裹拿兩倍,打著頂校跟faang的AI ML稱號,真的 01/24 03:29
waitrop : 很爽,所以要求他們學習跟使用新的framework,很多 01/24 03:29
waitrop : 就拿翹直接跳槽不幹,不知道這次大裁員是否能讓這 01/24 03:29
waitrop : 群人收斂一下 01/24 03:29
aegis43210 : 去年看衰老黃是因為ML蛋糕不會再快速變大,現在如果 01/24 03:34
aegis43210 : 真的又引發熱潮,的確是一起賺爛… 01/24 03:34
newwu : Nvidia 真的好強 01/24 03:40
hidalgo22976: AMD目前在AI這塊就是不成行,不是M想找誰合作的問題 01/24 03:53
hidalgo22976: 目前就Nvidia可以用,AMD在練個幾年吧 01/24 03:54
hidalgo22976: 你看那個做ML的會買AMD的gpu 是可以支援啦,但問題 01/24 03:56
hidalgo22976: 一堆,效能又慢 01/24 03:56
hidalgo22976: M除非打算過個幾年後再出,要不現階段就只有nvidia 01/24 03:59
hidalgo22976: 可以用 01/24 03:59
hidalgo22976: AMD的問題不是單純軟體那麼簡單 整合問題 01/24 04:10
hidalgo22976: 若是只有軟體 還好解決 找人過去就好 n都踏過坑了 01/24 04:11
chienk : 都噴了才講 01/24 04:47
FatFatQQ : 語言學習跟圖像的運用有差吧 01/24 05:33
waitrop : 語言學習要看前後句話已經前後字等還有文法判斷, 01/24 05:39
waitrop : 所以不能非常平行化處理,相對而言,圖像處理可以 01/24 05:39
waitrop : 切的很細分很多圖像平行處理,所以GPU 在圖像處理 01/24 05:39
waitrop : 很好,但是語言學習就很吃力,TPU 在語言學習表現 01/24 05:39
waitrop : 會比較好 01/24 05:39
FatFatQQ : 花旗那分析師是不是以為一種AI可以解決無限問題太 01/24 05:43
FatFatQQ : 興奮惹 拉這麼多 01/24 05:43
DrGun : 感恩教主!讚嘆教主!教主文成武德 一桶糨糊! 01/24 06:00
DrGun : 4說蘇媽在AI這塊有沒有可能重演當初叫索尼M軟出錢開 01/24 06:07
DrGun : 發遊戲機der歷史呢? 01/24 06:09
hidalgo22976: 現在的language model都用attention model 為啥不 01/24 07:09
hidalgo22976: 能平行化.... 講笑話嗎.. 01/24 07:09
newwu : 同意樓上 01/24 07:10
newwu : gpt就是用一堆v100 訓練的 01/24 07:13
hidalgo22976: 而且,我剛想了一下,RNN時代也可以平行化啊..比較 01/24 07:25
hidalgo22976: 需要cpu的應該是RL 跟語言還是圖像沒什麼關聯吧 01/24 07:25
hidalgo22976: gpt1還是gpt2 好像有一個就是用lstm 記不清楚了 01/24 07:27
hidalgo22976: 早年一堆用Lstm的,也是訓練的很巨大 01/24 07:29
LSTR : 我大輝達真要買來傳家,各種風口飛高高,太神啦! 01/24 07:34
waitrop : 我不懂什麼是attention model. 我只知道我自學natu 01/24 08:08
waitrop : ral language process 的課是教lstm model. 我不是 01/24 08:08
waitrop : 做上層model 的人,我的確對這些model 都不熟 01/24 08:08
k798976869 : 現在都在徵人自己做TPU惹 老黃洗洗睡吧 01/24 08:44
Adrian : 老黃都不會被殺估值 QQ 01/24 08:56
LSTR : 老黃沉穩滑水,和某投顧各種吹不一樣,估值穩穩的 01/24 09:13
leoloveivy : TPU 是有錢才投的 要等到跟N拼本要夠厚 01/24 09:14
v21638245 : 什麼時候回350== 01/24 09:27
NCCUexpert : 自學nlp..把大家講得一愣一愣的,醉了 01/24 09:39
Alwen : 術業有專攻,你看教主也是在AI潛力這塊低估老黃 01/24 09:41
Alwen : 才隔一年一堆人對老黃AI市場又轉變看法= = 01/24 09:42
yogo3388 : 教主早安 01/24 09:56
falcon11 : AMD CES 微軟那PART很尬 01/24 10:20
FatFatQQ : 有現在在業界懂行的嗎 必竟這技術本來每年都有不同 01/24 10:41
FatFatQQ : 發展 01/24 10:41
ACDC69 : 大陸有很多連出來用現在好像關閉了 01/24 11:14
a000000000 : 估狗那裁員我看反效果比較多 01/24 11:26
a000000000 : AI大師都是跳槽喊價高手 用尼公司內部的東西 01/24 11:26
a000000000 : 出去沒價碼 跑不掉不就等被裁 傻惹嗎 01/24 11:27
jonaswang01 : 結果gpt會員最常跑律師事務所 01/24 11:58
Dreamer77 : 應該有sw stack包起來讓AI高手不用管底層是哪種hw 01/24 11:59
Dreamer77 : 方便出去吹 01/24 11:59
LDPC : 現在都萬物Transformer了 連CV也是 還有ChatGPT雖然 01/24 12:09
LDPC : 昂貴但在面向消費者時 是可以特製化弄小和搭配AMD 01/24 12:10
LDPC : 這種APU 因為ChatGPT是Generative Pre-trained 01/24 12:12
LDPC : pretrain model是可以針對落地場景客製化啊 01/24 12:12
LDPC : 這樣可以減少費用啊 簡言之Training和Inference 01/24 12:12
LDPC : 是兩件不一樣事情 老黃通吃兩邊不代表AMD不能走落地 01/24 12:13
LDPC : 最後99AMD 99NVDA 99TSLA Q____Q 01/24 12:15
kanx : 如果要在客戶端用特製的tpu搞不好比amd更便宜啊 XD 01/24 12:16
kanx : NV CUDA的領先, 其他廠商不花大錢是不太可能超越的 01/24 12:17
LDPC : 在deploy時候 有時候不需要cuda 只要省電計算快就行 01/24 12:18
LDPC : cuda好用在於寫算法做training 一但model有框架 01/24 12:18
LDPC : 可以再根據計算系統deploy 這也是為啥tensorflow 01/24 12:19
LDPC : 這樣複雜 因為他根據各種cpu寫不同的deployment.. 01/24 12:19
LDPC : qualcom自己都再推自家的compiler把ai模型轉成適合 01/24 12:20
LDPC : 自家的計算機系統優化底層c code 01/24 12:20
LDPC : 這也是為啥pytorch在落地很難用 因為很多算法不支援 01/24 12:22
LDPC : 同時也不能優化各種不同cpu架構 但用它寫model又很 01/24 12:23
LDPC : 很簡單 所以才會有人說落地要用tensorflow開發底層 01/24 12:23
waitrop : 說來還真是慚愧,我的確所有東西都自學的,nlp自學 01/24 12:37
waitrop : ,AI ML也是自學,python,手機, RTL, verification 01/24 12:37
waitrop : ,verilog,sv,CPU,cloud, VM, container 等通通都是 01/24 12:37
waitrop : 自學,我出身差不是什麼名門實驗室或是大牌指導教 01/24 12:37
waitrop : 授出身,工作需要什麼就學什麼,甚至為了換工作去 01/24 12:37
waitrop : 自學最熱門的技術,不過我覺得我自學還蠻不錯的, 01/24 12:37
waitrop : 至少工作上用得到也用的不錯 01/24 12:37
waitrop : 不久前跟DeepMind 合作開發alphafold平台,但是知 01/24 12:41
waitrop : 道project做完得獎我還是對上層model 不熟 01/24 12:41
gbman : AI吹起來 01/24 13:26
silentneko : 三類仔被糊了一臉天書XD 01/24 14:40
cute15825 : 也沒啥一臉天書 就最強那幾間包一包成etf就好了 01/24 17:54
cute15825 : 但這波我覺得供應鏈更有機會 01/24 17:55
zaza1128 : Google 自己的要趕快端上來了 01/24 18:55
kyova : attention算是應用蠻廣泛的概念了。自學很正常阿, 01/24 21:43
kyova : 因為東西太多太雜了...當然正規訓練還是比較紮實。 01/24 21:43
kyova : 一堆新東西,哪學的完... 01/24 21:44
gbman : AI太多打高空的東西XD 01/24 22:00
bbkhdh : https://arxiv.org/pdf/1706.03762 01/25 17:21