→ wheado: 實際應用上老闆是不在乎var, 02/14 11:01
→ wheado: 準確度數據好看才是真理....02/14 11:01
她現在不在乎,但下個月可能會再回來問我G___G
→ truehero: 老闆不要10 FOLD ,你就用2 FOLD 3 FOLD 5 FOLD02/14 13:21
→ truehero: 找出一個切法能讓 OOF平均最高 ,02/14 13:23
推 ddavid: 不 10-Fold 就給他一個 Leave-one-out 啊 02/14 13:44
她一開始叫我做10fold,現在說10太多,我怕沒個依據她到時候3-10每個都試一次,我真
的會畢不了業
→ cs410567cs: 一般都是做5 fold 不過只有450筆 不適合做ML DL吧 02/15 13:27
農業資料蒐集不容易,蠻多人都是數據很少還是硬做的,說實話我也覺得太少,但我也是
被老闆抓來硬做,沒得商量的。
→ cs410567cs: 另外 超過2-3年的文章都是上古文章02/15 13:28
沒看到近幾年有類似的討論,只好考古了
※ 編輯: NDEJG (66.253.158.26 美國), 02/15/2022 23:44:01
推 f821027: 多個模型的話就是比較cross_val_score去比較平均的mse或02/16 12:19
→ f821027: mae等等哪個低02/16 12:19
→ f821027: 單模的話可以把每個folde的mse或mae都算出來 畫成折線圖02/16 12:19
→ f821027: 搭配std判斷資料的robustness02/16 12:19
單模的話是取k組當testing set嗎?
→ f821027: ble/modules/cross_validation.html02/16 12:24
感謝分享,我有些文章就是從這個頁面找的xD
※ 編輯: NDEJG (128.210.106.49 美國), 02/17/2022 06:58:28
推 f821027: 有點不太確定你說的testing set的意思,我的認知是all d 02/17 15:00
→ f821027: ata 先分成training set 和 testing set,針對training 02/17 15:00
→ f821027: set去做k-fold cross validation 去確保build出來的模型 02/17 15:00
→ f821027: 參數會是最好的,當然fold越多的話 模型穩健度會越高, 02/17 15:00
→ f821027: 那這k個fold都會有你放進cross_val_score裡面scoring參 02/17 15:00
→ f821027: 數的指標,看你幾個fold,那這k個fold可以驗證你放的模 02/17 15:00
→ f821027: 型的穩健性,可以透過std判斷 02/17 15:00
→ NDEJG: 了解,感謝大大分享Q_Q 02/18 02:49
推 hsuchengmath: 第二個問題,regression要怎麼計算bias =target lab 03/15 08:01
→ hsuchengmath: el-mean(模型預測出來的) 計算variance=var(模型預 03/15 08:01
→ hsuchengmath: 測出來的) 03/15 08:01
推 hsuchengmath: 這些都是基本統計的內容, 回去複習哈哈哈 03/15 08:03