看板 Gossiping 關於我們 聯絡資訊
這幾天八卦版突然有很多AI專家 那剛好問一下 這兩天看到很多人說 DeepSeek 是用蒸餾(Distillation)手法學習chatgpt的 所以訓練費才會這麼便宜 從蒸餾的敘述看起來 DeepSeek是從ChatGPT 獲取大量回應來訓練自己 阿不就學別人AI的 AI? 這招聽起來挺聰明的 中國只要坐享其成就可以 蒸餾真的是這樣嗎? 所以 DeepSeek到底是不是學別人AI的 AI? 有請八卦AI專家出來打臉 -- ※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 112.104.88.32 (臺灣) ※ 文章網址: https://www.ptt.cc/bbs/Gossiping/M.1738154262.A.597.html
jarry1007: deekseek其實就是把openai換icon而已 1.200.24.24 01/29 20:40
jarry1007: 成本為0 1.200.24.24 01/29 20:40
fool5566: http://i.imgur.com/hByiC6U.jpg 42.79.110.137 01/29 20:40
eric112: 憨鳥的智商堪慮 1.168.175.251 01/29 20:42
No005: 其實是它幫你問ChatGPT,經過言論審查後回 101.139.48.155 01/29 20:43
No005: 答你 101.139.48.155 01/29 20:44
mom213: 蒸餾通常是用A模型當老師指導參數量較小B 42.72.224.29 01/29 20:49
mom213: 模型 希望用更少的參數達到接近的效能 各 42.72.224.29 01/29 20:49
mom213: 位文組懂了嗎 42.72.224.29 01/29 20:49
antiSOC: 麻煩數發部搞個學別人AI的AI的AI的AI 1.162.208.252 01/29 21:02
sweetonion: 那我們也蒸餾一個啊 61.228.49.32 01/29 21:09
exghost: 這讓我想起Musk之前要 OpenAI變不開源114.136.154.219 01/29 21:14
exghost: 要他們把名稱改為Closed AI XD114.136.154.219 01/29 21:14
gueswmi: deepseek R1推理模型 自個說了 蒸餾了125.224.135.148 01/29 21:15
gueswmi: 阿里巴巴跟meta的開源版125.224.135.148 01/29 21:15
Janius: 數發部比較拿手的是蒸口罩 1.161.62.62 01/29 21:16
gueswmi: 本以為是偷師openAI 4o 時間點也不對125.224.135.148 01/29 21:16
gueswmi: 560萬美元確實有跨大 因為看起來是v2.5125.224.135.148 01/29 21:17
gueswmi: 到V3是只花560萬美元 反正硬體不列入125.224.135.148 01/29 21:18
chenu: 這麼厲害 台灣早就有了 沒聽過CHATDPP嗎 118.166.36.156 01/29 21:30
wellymac: 人家論文都公布多久了 還需要猜嗎… 223.139.182.19 01/29 23:15