→ chang1248w: 你要不要全部拿出來一次問一問 04/24 19:31
噓 chang1248w: embedding 的做法很多,看你爽用哪一個就用哪一個 04/24 19:49
噓 chang1248w: 有了frequency pattern 要找彼此之間的conditional 04/24 19:56
→ chang1248w: probability 就是小菜一碟,會這樣問代表你求關鍵字 04/24 19:56
→ chang1248w: 回去以後根本沒做功課。 04/24 19:56
→ ddavid: frequent pattern mining / association rule 04/24 20:47
→ ddavid: 可見上次給你關鍵字,你根本沒去了解 04/24 20:47
→ stayfool: 我查了FP的資料,範例是2個詞、3個詞以上,一起出現 04/24 20:51
→ stayfool: 的頻率,例如食物跟漢堡一起出現10次,FP就可處理問題 04/24 20:53
→ stayfool: 我是ML新手,不知道在某條件下的frequency pattern 04/24 20:57
→ stayfool: 該如何作?因為給定的條件跟出現頻率無關,條件只出現1次 04/24 21:00
→ stayfool: 例如購買是條件,食物碰到購買會和漢堡相似 04/24 21:03
→ stayfool: 衣服碰到購買,也許會和透氣相似,這種情況下 04/24 21:05
→ stayfool: 該如何作出詞向量,想不出來,才再次發文請教 04/24 21:07
噓 chang1248w: 太好了,新關鍵字條件機率 04/24 22:28
→ ddavid: 你是不是沒發現 fp 的後面還有另一個關鍵字 association 04/27 21:34
→ ddavid: rule XD 04/27 21:34
→ ddavid: 然後你這目標性,看起來並不是要做詞向量啊 04/27 21:36
→ ddavid: 你可以明確說看看拿了詞向量要怎麼用嗎,你期待一個詞向量 04/27 21:37
→ ddavid: 在 A 情況跟一個詞向量 X 距離近,在 B 情況卻又要能跟另 04/27 21:38
→ ddavid: 一個詞向量 Y 接近? 04/27 21:38
→ diabolica: 要問幾次 05/01 01:47
推 hsuchengmath: 可以查查contractive learning, 在同個陣列的物件 05/01 05:51
→ hsuchengmath: 他們互為正樣本,在另一個陣列的物件 他們互為負 05/01 05:51
→ hsuchengmath: 樣本,這種訓練方式也適用於few shot learning, 就 05/01 05:51
→ hsuchengmath: 提點到這了xdd 05/01 05:51