→ youngman77: 沒辦法保證蒐集到所有需要被翻譯的sequence吧,overfi 08/13 13:24
→ youngman77: t的話就資料集有限制的狀況(有限的sequence分布)下 08/13 13:24
→ youngman77: 正確翻譯比例很高(training set跟test set同一組), 08/13 13:24
→ youngman77: 但你有所有目標sequence的分布資料的話也不用做mode 08/13 13:24
→ youngman77: l啦,不是用dictionary就好了嗎 08/13 13:24
推 yiefaung: 你的例子overfit不代表每個字被正確翻譯 是代表training 08/13 16:48
→ yiefaung: set中的seq完全對應 所以有可能改一個字就翻不出來 08/13 16:48
→ OnePiecePR: 你說的比較不需要人工智慧吧,IFs系統查表比較適合 08/14 21:32
→ seasa2016: 這是在翻譯的問題上 那seq2seq model還有用在如 文本摘 08/19 18:40
→ seasa2016: 要 08/19 18:40
→ seasa2016: 那想請問 結果會怎麼表現呢? 08/19 18:40
推 whsunset: 你第一段的最後一句就是答案了啊,在沒看過的資料上會表 08/23 14:23
→ whsunset: 現的不好,跟 task 沒什麼關係 08/23 14:23