推 aria0520 : 那些實驗不是復刻 只是在distill103.224.201.110 01/29 15:45
→ aria0520 : 真的要"復刻" 指的是在完全從零開始103.224.201.110 01/29 15:45
噓 boards : 滿滿支語101.10.44.11 01/29 15:45
→ aria0520 : 的條件下 跟DS宣稱的成本相同下103.224.201.110 01/29 15:45
→ aria0520 : 復現出R1的結果103.224.201.110 01/29 15:45
→ aria0520 : 但首先DS沒公開他的訓練資料集103.224.201.110 01/29 15:46
→ aria0520 : 所以只能說小lab可以用他公布的模型103.224.201.110 01/29 15:47
→ aria0520 : 做distill 配合他的方法做出不錯的103.224.201.110 01/29 15:47
→ aria0520 : 模型而已103.224.201.110 01/29 15:48
→ aria0520 : 但如果只是這樣 4o實際上也是OAI103.224.201.110 01/29 15:49
→ aria0520 : distill出來的 真正關鍵還是在103.224.201.110 01/29 15:49
→ aria0520 : 如何做出用來給其他模型distill的103.224.201.110 01/29 15:49
→ aria0520 : 源模型 如果這個能用DS宣稱的算力103.224.201.110 01/29 15:50
→ aria0520 : 條件做出 那就貢獻很大 也是最值得103.224.201.110 01/29 15:50
→ aria0520 : "復刻"的部分103.224.201.110 01/29 15:50
R1的技術文件有如實說他們是從Deepseek v3調過來的吧,openAI也是有在某次技術人員訪
談說o1是從4o調過來的(當前OpenAI最讓人詬病的就是o1連技術報告中的訓練方法都閉源)
,這點站在不錯的起點繼續做下去應該是整個LLM領域的共識,要完全從零是不太可能的。
不過你要說成本要從前一個模型開始算的那就不太合理了,像台灣很多實驗室自己調的語言
模型也是從llama這些基礎開始調的(你要用蒸餾說也沒什麼意見),這樣要把Meta訓練這
個模型的成本疊上去也是蠻怪的。但我這邊就單就R1的訓練方法討論確實他省去很多之前te
st time computing的方法中需要一堆人工跟算力搜索的麻煩這個倒是無需質疑。至於訓練
數據集沒開源,我覺得這個畢竟是人家的智慧財需要經過公司許可吧?畢竟llama也沒開源
自己全部的訓練數據要要求一家私企去做這件事有點太苛刻了。我的想法還是技術上DS確實
值得令人誇讚,其他的就讓子彈飛一點吧。畢竟工程人員還是講技術比較務實,人家優秀的
地方本來就值得學習。
推 vbotan : 3樓只會這招嗎 223.23.72.10 01/29 15:51
※ 編輯: sxy67230 (59.115.66.147 臺灣), 01/29/2025 16:11:25
→ aria0520 : 主要是訓練集沒公開就還是有點懸念103.224.201.110 01/29 16:14
→ aria0520 : 畢竟連OAI之前o3那次math benchmark103.224.201.110 01/29 16:14
→ aria0520 : cheat風波導致benchmark的可信度103.224.201.110 01/29 16:15
→ aria0520 : 變低許多 連OAI都會搞出這齣 一個103.224.201.110 01/29 16:15
→ aria0520 : 急需注資和關注度new fund更有可能103.224.201.110 01/29 16:15
→ aria0520 : 有貢獻是一定的 新方法在distill上103.224.201.110 01/29 16:16
→ aria0520 : 有機會成為新baseline103.224.201.110 01/29 16:17
推 knightwww : 幫補血 1.169.97.52 01/29 16:49
推 PhilHughes65: 貼文的人寫了這麼多技術用語,結果 103.135.144.19 01/29 17:04
→ PhilHughes65: 某些人只會噓支語 103.135.144.19 01/29 17:04
推 hensel : 回文用中文的我都噓支語 111.249.68.207 01/29 17:58
推 ctw01 : 感謝,讀了真的收益良多 180.218.44.106 01/29 18:29
推 lusifa2007 : 傳聞它是蒸餾chat gpt 的基礎這是 114.42.230.28 01/29 18:30
→ lusifa2007 : 真的假的 114.42.230.28 01/29 18:30
→ ctw01 : 這種事情應該很難知道了 但目前看223.137.91.171 01/29 19:52
→ ctw01 : 起來他真的有提出一套有用的方法我223.137.91.171 01/29 19:52
→ ctw01 : 覺得這是比較重要的223.137.91.171 01/29 19:53
推 tanby : 蒸餾要有模型 ChatGPT沒有公開 111.250.8.222 01/29 22:27
蒸餾不一定要有模型輸出完整機率分佈就是了,但是Deepseek真的有用GPT 4o或o1蒸餾還是
需要有關鍵模型大量輸出統計證據,不然當前都是猜測而已。僅憑很多人隨意測試是很難說
是真的有蒸餾的,畢竟LLM其實真的有心是很容易用Prompt變造出惡意虛假事實的(像先催
眠模型是chatGPT,然後再問他是誰,然後把結果截圖),還是一句話,讓子彈再飛一會兒
。
※ 編輯: sxy67230 (223.118.50.65 香港), 01/30/2025 00:51:45
推 AiriMania : 根本不用催眠其實 造假方法多的是 49.216.49.60 01/31 08:03