看板 Python 關於我們 聯絡資訊
※ 引述《vu04y94 (今)》之銘言: : 小弟只有C++背景 剛開始寫python 有下列疑問 : 1.https://imgur.com/a/mjRYm : 書上是說這樣可以生成很多layer的wieght and bias : 每一個i值都產生一組 且shape都可以不一樣 : 我的疑問是 他們的名字都一樣 這樣每一個i的weight不會被上一個i的覆蓋掉嗎 : 而且他們都是local variable 跑for loop每一次都不見 : 最後training的時候weight應該消失了? Tensorflow在你建variable的時候就會自己另外存起來 就算你指名name一樣它還是會自己另外給一個name 可參考:https://tinyurl.com/y94mxtxf 稍微改動一下裡面的name跟變數名稱去測試應該就能理解 : 2.https://imgur.com/a/J8qRg : 請問這樣寫 跟 在最後training的時用for i in n_batch : 然後用i餵入global_step有何不同 global_step這樣子寫我想是方便自動計數 實際在跑的時候你只要run learning_step這個op 它就會自動幫你累加global_step 可參考:https://tinyurl.com/ybv6zn2k Tensorflow我也不太熟, 有錯誤再請其他大德協助更正, 謝謝 -- ※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 1.161.191.75 ※ 文章網址: https://www.ptt.cc/bbs/Python/M.1507218253.A.D4A.html ※ 編輯: Mchord (1.161.191.75), 10/05/2017 23:45:49
vu04y94: 非常感謝 我在請問一下 那如果我連續宣告兩行一模一樣的w 10/05 23:52
vu04y94: eight 後面呼叫weight它怎麼知道是哪個@@ 還是一般這種寫 10/05 23:52
vu04y94: 法只能在for loop用 一宣告就要用掉? 10/05 23:52
Mchord: 宣告兩次等於創造兩塊記憶體存變數, 你同樣都指派到weight 10/06 00:08
Mchord: 應該就類似於只把weight指向第二次宣告出來的那塊記憶體吧 10/06 00:08
Mchord: 不知道這樣是不是你說的情況 https://imgur.com/a/kn4LF 10/06 00:13
vu04y94: 對 那我大概能理解了 這一直讓我很confuse 絕大多數的te 10/06 00:22
vu04y94: nsorflow教材都沒有提到@@ 10/06 00:22
Kazimir: tensorflow背後建立了一個圖 python這邊只是和圖的交互 10/07 01:03