→ ssd860505da: 看你model的目的是什麼 03/08 00:06
→ ssd860505da: 例如seq to seq 03/08 00:06
→ ssd860505da: 也就是影片對應一段文字敘述 03/08 00:06
→ ssd860505da: 那你就應該一段影片對一段文字 03/08 00:06
→ ssd860505da: 多筆資料同時train應該用batch的方法 03/08 00:06
→ ssd860505da: 你那樣調back propagation出來的結果好像會亂掉? 03/08 00:06
→ ssd860505da: 以上拙見 03/08 00:06
推 a75468: 假設機器的資源(GPU)是固定的,而且套件把inference最佳 03/08 00:15
→ a75468: 化了,假設某張圖進到第三層,如果要去算另外一張圖的第二 03/08 00:19
→ a75468: 層的話,第一張圖就會卡在第三層等另一張圖(資源固定) 03/08 00:19
→ a75468: 所以理論上直接讓一張圖跑到底是bottleneck比較小的方法( 03/08 00:20
→ a75468: ?) 不過我也不熟tf or pytorch的實作 等大大開示 03/08 00:22
→ aaaba: 去知乎搜尋 tensorflow queue 試試 03/08 00:33
→ gus2: 在講testing吧,training應不能這樣搞pipeline 03/08 02:05
→ gus2: 覺得樓樓上講的比較合理,不同模型的圖片大小每層所需計算 03/08 02:07
→ gus2: 不同,所以實務上不覺得現階段的dl框架有可能做這種優化 03/08 02:09
→ gus2: 就算hack的出來,感覺太多小細節需要搞定,不一定比較快 03/08 02:12
→ gus2: 亂猜的 03/08 02:12
→ Kazimir: 我覺得tf對於提高效率 一般比較往分布式的方向走 03/08 02:46
→ pipidog: 把你的圖存檔,然後用tf queue做列隊. 讓tf慢慢消化掉. 03/08 04:05
→ pipidog: 想做到跟影像同步基本上不可能.推理本就需要時間. 03/08 04:05
→ ThxThx: 原po也許誤解了,真正在運算的是CPU和GPU而不是DNN... 03/08 08:25
→ ThxThx: 如果有多台運算單元,自然可以增加workers/用pipeline串 03/08 08:25
→ ThxThx: 起來。 03/08 08:25
→ ThxThx: 另一種降低latency的方式是降低buffer size 03/08 08:25
→ followwar: 應該說GPU資源就這多...不如全力把一張處理好... 03/10 00:41
推 EGsux: 串流影像用 yolo 03/12 18:42
推 kuarcis: 我覺得沒必要 而且實際上layer並不是水管 03/14 08:45
→ kuarcis: layer沒有資源獨佔的問題 自然也不需要針對空閒(?)layer 03/14 08:47
→ kuarcis: 做最佳化 03/14 08:47