→ yiche: 傳統機器學習方法:SVM、Tree structure嘗試過了嗎? 04/01 20:50
→ yiche: 也許要考慮統計方法了 04/01 20:50
推 ToastBen: 小樣本,推樓上 04/02 15:59
推 ddavid: 我覺得可能還需要考慮一點是,這個問題(元素配比如何影響 04/03 04:00
→ ddavid: 結合後的性質)是否真的是這些學習方式的模型能表達的 04/03 04:01
→ ddavid: 我對該領域不熟,雖然稍微Google了一點但也不能確定 04/03 04:02
→ ddavid: 所以舉例而言,如果只有很狹窄範圍的某種配比才能凸顯出特 04/03 04:02
→ ddavid: 定性質,一離開這範圍就會造成這種性質快速減弱。如果這種 04/03 04:03
→ ddavid: 情況很常見的話,這會導致模型要嘛很難學習準確,要嘛很容 04/03 04:04
→ ddavid: 易overfitting 04/03 04:04
→ ThePttUser: 樓上沒錯,材料分析就是有這問題,不過目前國外的確 04/03 09:52
→ ThePttUser: 有一批人在做元素成分的比例跟之後的材料性質 04/03 09:53
→ ThePttUser: 目前我看到的是在大約三種元素的調配下有不錯訓練 04/03 09:53
→ ThePttUser: 尤其是還要考慮到製備過程都可能讓長晶方式有差異 04/03 09:55
→ ThePttUser: 所以我目前只是先玩玩看,主要還是看能不能另闢蹊徑 04/03 09:56
→ ThePttUser: 另外回一樓tree我也做過了,訓練結果是第二好的 04/03 10:01
→ ThePttUser: 我再試試svm 04/03 10:01
推 ddavid: 考量製備過程真的就很複雜了,會不會有可能是與其去學習那 04/03 20:25
→ ddavid: 個不容易甚至根本學不了的模型,想辦法做出模擬系統反而直 04/03 20:26
→ ddavid: 接?XD 04/03 20:26
推 ddavid: 雖然模擬系統應該成本遠高且細節必須完全清楚XD 04/03 20:38
→ razer: 看完這段我只能說這個世代的數據分析已經跟我想的完全不同 04/03 20:57
→ razer: 了 04/03 20:57
→ razer: 你不覺得用物理模型去抓一些參數用在模型裡,或是設定資料 04/03 21:00
→ razer: 上下界,會比你完全放數字自由移動更好一點嗎? 04/03 21:00
推 Starcraft2: 除了model外, data部分可以參考oversampling像是SMOTE 04/04 01:10
→ Starcraft2: 可以參考這篇Kaggle文章 04/04 01:10
→ Starcraft2: kaggle.com/rafjaa/dealing-with-very-small-datasets 04/04 01:10
→ Starcraft2: 如果是在深度學習的影像處理等領域 04/04 01:12
→ Starcraft2: 關鍵字Data Augmentation可以去看看 04/04 01:12
推 Virness: 樣本數太少了 可以找簡單的模型試試看Logistic Regressio 04/04 01:13
→ Virness: n 決策樹 04/04 01:13
→ Starcraft2: 400個不能說真的很少, 但不推薦用NN 先從前面大家 04/04 01:26
→ Starcraft2: 提到的幾個比較基本的模型試試吧 04/04 01:27
推 heavyking02: 可以試試看GAN 雖說訓練時間真的比較久 但是對於某 04/05 11:49
→ heavyking02: 些類別成效是還不錯 04/05 11:49
→ yiche: 請問樓上意指要用GAN 生成data嗎? 04/05 12:35
推 a78998042a: 推22樓,小樣本分析要搭配domain資訊,而基本上400在 04/07 08:00
→ a78998042a: 統計分析的領域也不算小了,搭配統計檢定來了解模型殘 04/07 08:01
→ a78998042a: 差,賦予模型解釋能力。樣本不夠、資訊不夠就是加資訊 04/07 08:01
→ a78998042a: 進去、更精細的了解模型。 04/07 08:01
推 mewtwo: 我看到這個樣本數跟問題,第一個想到的不是NN。 04/07 19:27
→ mewtwo: 是multinomial logistic regression 04/07 19:27