推 yoyololicon: 用libtorch沒啥問題 要跑real time wavenet 可以看 01/28 09:33
→ yoyololicon: 看fast wavenet, 還有百度deepvoice的paper ,在實01/28 09:33
→ yoyololicon: 做上有很詳細的介紹,基本上就是一直cache以及做mul01/28 09:33
→ yoyololicon: tiprocessing01/28 09:33
謝謝,稍微掃過paper
沒有理解錯的話似乎大部分是在解auto regressive (AR)的問題
後續的研究似乎也都是想把AR拿掉。但如果已經沒有AR,像是這篇
https://arxiv.org/pdf/1706.07162.pdf
是一次處理一個區塊,那有辦法再加速嗎
(例如針對dilated conv等等)。
還是我有理解錯誤?
推 gary9630: pruning的話可以參考ICLR2019 best paper那篇 winning l01/28 15:11
→ gary9630: ottery ticket 做法蠻直覺的01/28 15:11
謝謝推薦!會從這篇追下去的
→ truehero: 菜鳥其實不建議libtorch開局,現在坑多01/28 20:46
→ truehero: ㄧ些簡易推理框架 像ncnn mnn相對簡單01/28 20:47
→ truehero: 模型壓縮或量化也都有具體實現可參考01/28 20:48
嗯嗯,其實我踩了不少xD
像是stft轉c++會出錯 官方甚至沒有istft
然後還需要一些dependencies 像是intel mkldnn等等
前輩提到的架構,我會再找時間研究看看。謝謝!
※ 編輯: DiscreteMath (111.82.123.163 臺灣), 01/28/2020 23:06:25
推 yoyololicon: 就我所知,拿掉AR直接平行運算出各個sample的wavene 01/29 11:59
→ yoyololicon: t,不用特別優化就比AR版本的快;但主觀評分AR版本 01/29 11:59
→ yoyololicon: 的分數大體上都比較高,要得到和AR版本compatible 01/29 11:59
→ yoyololicon: 的表現,模型參數會肥上非常多,所以跑realtime 也 01/29 11:59
→ yoyololicon: 不見得有優勢 01/29 11:59
推 acctouhou: 樓上那篇pruning的文章主要是在說pruning後的結構在訓 01/29 12:03
→ acctouhou: 練時有更好的表現跟這一篇想做的事無關吧? 01/29 12:03
推 yoyololicon: 非AR類比較有名的模型;waveglow, parallel wavenet 01/29 12:03
→ yoyololicon: , clarinet 01/29 12:03
→ yoyololicon: AR類除了wavenet,WaveRNN和LPCNet減少了參數量,並 01/29 12:07
→ yoyololicon: 設計一套predict sample的方法,會比wavenet更容易 01/29 12:07
→ yoyololicon: 跑realtime 01/29 12:07
→ yoyololicon: 我原先提的兩篇paper 主要在最大化wavenet inferenc 01/29 12:10
→ yoyololicon: e 時的運算資源,並沒有更改原本的架構 01/29 12:10
推 sma1033: 有神快拜 01/30 23:15
→ yoyololicon: 學弟不敢>< 01/30 23:32