看板 DataScience 關於我們 聯絡資訊
作業系統:(ex:mac,win10,win8,win7,linux,etc...) Ubuntu 16.04 問題類別:(ex:ML,SVM,RL,DL,RNN,CNN,NLP,BD,Vis,etc...) DL 使用工具:(ex:python,Java,C++,tensorflow,keras,MATLAB,etc...) Keras,GTX970 問題內容: 大家好 剛接觸DL, 目前在用vgg16做人臉辨識 Training set 約一千張,30 epochs 每個 epoch 跑約30分鐘 有兩個問題: 1. 這個速度是正常的嗎? 沒接觸過不知道是否有哪裡做錯 2. 若是要套入一些優化技巧(提升正確率) 有什麼比較有效率的SOP嗎? 不然改一次就要train幾小時 謝謝 -- ※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 39.12.101.57 ※ 文章網址: https://www.ptt.cc/bbs/DataScience/M.1525598792.A.C81.html ※ 編輯: abcd40404 (39.12.101.57), 05/06/2018 17:31:20
f496328mm: 不正常 你這樣跑完就明天了05/06 18:39
f496328mm: watch -n 1 nvidia-smi05/06 18:40
f496328mm: 去看你的 GPU 使用量 沒有就代表你是用CPU去跑05/06 18:40
感謝~真的是用到cpu了...
NTUEE2CS: 起手勢 ,batch size開大來加速05/06 19:58
NTUEE2CS: 圖片記得存的時候存uint8,不要存float,不然放進batch前05/06 20:03
NTUEE2CS: 就占掉一堆記憶體05/06 20:03
sean50301: 你有做image augmentation嗎05/07 00:52
sean50301: 有的話train的時間會暴增許多...05/07 00:52
sean50301: 雖然準確度也可以提升許多05/07 00:53
沒有耶 ※ 編輯: abcd40404 (39.8.69.120), 05/07/2018 11:22:21
Greengene: 如果用錯增量的方法反而會讓準確度下降喔要注意選擇的 05/10 03:28
Greengene: 處理方式 05/10 03:28