推 tr920 : Openapi 都跳出來質疑有distill 痕 123.194.12.84 01/29 17:02
→ tr920 : 跡了,你回那麼嗆小心被打臉啊 123.194.12.84 01/29 17:02
噓 quartics : 你說的跟本不是什麼新技術,也跟di 42.78.171.125 01/29 17:07
→ quartics : stilled 不衝突 42.78.171.125 01/29 17:07
馬上就飛一隻出來了 不是什麼新技術 那openai google meta怎麼不先做(挖鼻
噓 whizz : 不然這樣啦 deepseek開直播訓練 1.168.110.29 01/29 17:19
→ whizz : 用2000塊 H800訓練來看看啊 1.168.110.29 01/29 17:19
才剛講完馬上就來兩個青鳥XDDDD 都有實驗室用30鎂就復現了
推 tr920 : 可以用30鎂就復現,那DS花550萬鎂 123.194.12.84 01/29 17:34
→ tr920 : 幹嘛XDD!! 123.194.12.84 01/29 17:34
一個是先人研究出方法 一個只是照用別人的方法
你會說你高中就學會牛頓高斯想幾十年的東西 所以牛頓高斯在浪費人生?
推 tr920 : 以你的邏輯,R1是用人家砸大錢訓練 123.194.12.84 01/29 17:39
→ tr920 : 出來的LLM來前進,那些砸大錢的公 123.194.12.84 01/29 17:39
→ tr920 : 司在浪費人生? 123.194.12.84 01/29 17:39
"可以用30鎂就復現,那DS花550萬鎂幹嘛XDD!" 這句話是你說的又不是我說的
我現在一整個黑人問號
推 tr920 : 一句話啦,你敢保證Deepseek沒有用 123.194.12.84 01/29 17:43
→ tr920 : Distill技術?如果不敢保證,就把 123.194.12.84 01/29 17:43
→ tr920 : 隨便罵人青鳥字眼吞回去 123.194.12.84 01/29 17:43
對不起讓你誤會了 我絕對沒有說你是青鳥
推 master32 : 我是覺得盡量不要一開始就把人打入 111.253.56.238 01/29 18:14
→ master32 : 某一族群,科技板不該這樣 111.253.56.238 01/29 18:14
推 lusifa2007 : 政治立場帶入單純技術討論 碩士用 114.42.230.28 01/29 18:34
→ lusifa2007 : 雞腿換的? 114.42.230.28 01/29 18:34
https://i.imgur.com/2BDUqa7.png 如果要像這樣"純技術討論" 我還是繼續用雞腿吧
推 straggler7 : 純技術討論? 我信你個鬼! 36.229.59.188 01/29 18:55
→ aria0520 : 但我也不是耶XD 單純就事論事103.224.201.110 01/29 19:20
→ aria0520 : 看我以往推文就知道我不是XD103.224.201.110 01/29 19:21
抱歉 我不該說你是青鳥
推 ctw01 : 這樣受益良多感謝,另外想詢問因為 180.218.44.106 01/29 19:26
→ ctw01 : deepseek 似乎沒有公開他們這套方 180.218.44.106 01/29 19:26
→ ctw01 : 法論是對哪個LLM模型,現在openai 180.218.44.106 01/29 19:26
→ ctw01 : 質疑distill 是質疑他們使用的LLM 180.218.44.106 01/29 19:26
→ ctw01 : 對chatgpt distill然後再用這套方 180.218.44.106 01/29 19:26
→ ctw01 : 法論嗎? 180.218.44.106 01/29 19:26
這麼說很有可能 deepseek v3本身應該就是幹了很多資料XD
→ ctw01 : 因為本身不是做NLP相關的,以前也 180.218.44.106 01/29 19:27
→ ctw01 : 沒接觸多少ai研究,如果問了蠢問題 180.218.44.106 01/29 19:27
→ ctw01 : 敬請見諒 180.218.44.106 01/29 19:27
LLM終於來到了zero的時代 我對這點是蠻興奮的
※ 編輯: KanzakiHAria (36.231.98.6 臺灣), 01/29/2025 19:44:13
→ BoXeX : 反而覺得distill還好 那些模型 111.250.18.76 01/29 20:19
→ BoXeX : 在訓練時也沒少盜用別人著作權文章 111.250.18.76 01/29 20:20
→ lavign : LATS也是用MCTS,只是評分方式改成 220.134.57.143 01/29 20:32
→ lavign : 用LLM自己的機率函式? 220.134.57.143 01/29 20:32
自己把生出來的subtree再丟給LLM自己評分擇優 不一定是打分數 只要能選較好的路徑
當然衍生方式就很多 要不要另外用一個LLM專門做路徑的評分? 就可以發下一篇XD
或者專門訓練一個評分系統 發下一篇 博士生要論文生論文就是這樣做
※ 編輯: KanzakiHAria (36.231.98.6 臺灣), 01/29/2025 20:44:12
推 tanby : 知識蒸餾要有模型 OpenAI沒有公開 111.250.8.222 01/29 22:33
→ tanby : 模型 DS頂多用OpenAI模型去標注數 111.250.8.222 01/29 22:33
→ tanby : 據 111.250.8.222 01/29 22:33
推 janeration : 沒有公開不代表DS拿不到啊 101.9.190.172 01/30 00:33
噓 pig2014 : 反對你的人就說是青鳥是三小,反民 123.195.185.38 01/30 18:01
→ pig2014 : 進黨也不要反到這麼弱智操,很丟返 123.195.185.38 01/30 18:01
→ pig2014 : 民進黨派的臉 123.195.185.38 01/30 18:01
只會噓文的ID 花這麼久才找到這麼小的噓點
※ 編輯: KanzakiHAria (36.231.97.33 臺灣), 01/30/2025 18:42:03