看板 DataScience 關於我們 聯絡資訊
近期Contrastive learning的loss function 基本上都是源自approximate estimate的 mutual information, 但是不論從Deep InfoMax,InfoNCE, 都和Mutual Information的樣子差很多 有沒有Step by Step的推導過程 謝謝大家幫忙 -- ※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 101.10.17.100 (臺灣) ※ 文章網址: https://www.ptt.cc/bbs/DataScience/M.1608992550.A.3B0.html
pups003: 可以參考on variations bounds of mutual information 12/31 23:13
pups003: *variational 自動選字來亂 12/31 23:16
wang19980531: 好謝謝 我來看一下 式子好像有點多 01/02 13:25
sxy67230: 關鍵字:mutual information neural estimation,其實就 01/06 00:19
sxy67230: 是轉化成找MI的上下界的問題,透過學習一個function逼 01/06 00:20
sxy67230: 近下界 01/06 00:20