看板 DataScience 關於我們 聯絡資訊
大家好,小弟我近來在研究一些sequence model,在computer vision的領域中 我們都知道over fitting意味者泛化能力差,也就是會沒辦法很好的學習到general 的特徵,因而在testing set上面表現不佳。 這裡我想到了一個問題,那對於rnn的model,overfitting又會以怎樣的方式呈獻呢? 倘若是翻譯的問題的話,那overfitting代表每個字都可以被正確的翻譯,那似乎也不差? 請教各位大大惹 -- ※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 140.112.248.194 ※ 文章網址: https://www.ptt.cc/bbs/DataScience/M.1534130771.A.CD1.html
youngman77: 沒辦法保證蒐集到所有需要被翻譯的sequence吧,overfi 08/13 13:24
youngman77: t的話就資料集有限制的狀況(有限的sequence分布)下 08/13 13:24
youngman77: 正確翻譯比例很高(training set跟test set同一組), 08/13 13:24
youngman77: 但你有所有目標sequence的分布資料的話也不用做mode 08/13 13:24
youngman77: l啦,不是用dictionary就好了嗎 08/13 13:24
yiefaung: 你的例子overfit不代表每個字被正確翻譯 是代表training 08/13 16:48
yiefaung: set中的seq完全對應 所以有可能改一個字就翻不出來 08/13 16:48
OnePiecePR: 你說的比較不需要人工智慧吧,IFs系統查表比較適合 08/14 21:32
seasa2016: 這是在翻譯的問題上 那seq2seq model還有用在如 文本摘 08/19 18:40
seasa2016: 要 08/19 18:40
seasa2016: 那想請問 結果會怎麼表現呢? 08/19 18:40
whsunset: 你第一段的最後一句就是答案了啊,在沒看過的資料上會表 08/23 14:23
whsunset: 現的不好,跟 task 沒什麼關係 08/23 14:23