推 kenkao25: 省稿的爭議原本就很多 有時候只能希望遇到好的reviewers 12/17 20:42
推 sxy67230: 基本上就審稿評審真的很大,現代的Journal 雖然都是隨 12/17 21:59
→ sxy67230: 機審稿委員,但是審稿委員有一些偏見的話,就會給比較低 12/17 21:59
→ sxy67230: 的分數 12/17 21:59
推 sxy67230: 我自己碩士的時候投Journal 也是這樣,審稿來來回回11 12/17 22:03
→ sxy67230: 個月的都有,尤其是大刊。現在的DNN就Attention 架構的 12/17 22:03
→ sxy67230: 模型當道,你不用Attention Based Model就要證明你的東 12/17 22:03
→ sxy67230: 西是超越Attention 的不然都會被打低分 12/17 22:03
推 sxy67230: 不然就是你要提出比較當今流行模型,否則也是低分。我 12/17 22:18
→ sxy67230: 其實覺得用一大堆巨量資料去'蒸餾'的方法根本是病態的, 12/17 22:18
→ sxy67230: 人類的元學習能力根本不是這樣去蒸餾訊息。Bert你現在要 12/17 22:18
→ sxy67230: 更好,我們就來用更質量更高的資料吧,於是Roberta就出 12/17 22:18
→ sxy67230: 來了。XLNet的概念很好,回歸了語言模型的問題,但是Rob 12/17 22:18
→ sxy67230: erta又把整個NLP領域帶入數據深淵,我覺得這是當前的困 12/17 22:18
→ sxy67230: 境 12/17 22:18
→ hsnuyi: 沒看過被拒後 審稿人把你的東西改一下自己發的例子嗎? 12/18 00:42
推 steven95421: 推樓樓上 12/18 12:32
→ roccqqck: 樓樓上的困境應該是學術界根本贏不了大公司XD 12/18 14:20
→ roccqqck: 樓樓樓上才對 12/18 14:20
→ roccqqck: 然後大公司根本不需要投稿也有人會看你論文 他們就釋出s 12/18 14:23
→ roccqqck: ource code放GLUE之類的排行榜就好 硬體跟人力跟data都 12/18 14:23
→ roccqqck: 玩不贏大公司啦 12/18 14:23
→ roccqqck: 講白了這篇就算真的上期刊了 大概也沒多少人去看 12/18 14:39
→ roccqqck: 就跟sxy講得一樣 沒有蒸餾一個pretrained model出來 12/18 14:41
→ roccqqck: 根本沒人鳥你 這投稿就賺學術點數而已 12/18 14:42
→ roccqqck: 然後證明自己會改模型內部 履歷還是有幫助 12/18 14:44
推 erre: 掰陳call改一改就知道哪個贏,然後又可以做ai 12/18 16:49