推 MADNUG: 發email跟老師確認和溝通,會比在這邊問更快又更準吧...02/07 00:51
這麼說也對
推 CarbonK: tf 只是 framework 啊…02/07 01:48
→ CarbonK: 現在決多數產出參數都是 gradient descent 吧?02/07 01:48
※ 編輯: winbill84063 (223.141.184.160), 02/07/2019 10:04:01
推 blackrays: tf.all_variables() 02/07 12:04
推 blackrays: @@沒看清楚內文 02/07 12:06
→ blackrays: 建議先瞭解演算法再看source code比較看的懂 02/07 12:07
推 yiefaung: 看程式碼就牽扯到設計理念 那不如先去看tensorflow白皮 02/07 15:17
→ yiefaung: 書那篇paper 02/07 15:17
推 OnePiecePR: 我文組的,猜想三樓正解,應該 opt 設 gradient desce 02/07 17:01
→ OnePiecePR: nt。然後 opt.miin之類。在opt.run 02/07 17:01
→ OnePiecePR: 文組的老師跟你老師一樣,他說不用先急著寫扣,先會 02/07 17:02
→ OnePiecePR: 講故事。 02/07 17:02
→ liang1230: ....我比較好奇你們怎麼會覺得不是 02/08 07:26
推 sherees: 我看敘述應該是去看算法啊 你們怎麼會覺得是看code 02/08 15:58
→ sherees: 還在學校應該是 算法>>程式碼 吧 02/08 16:00
推 frrr: 看算法了解吧 程式碼架構很大的 02/10 15:00
→ red0210: 你應該再跟教授確認一下問題 02/11 12:09
推 tipsofwarren: 怎麼都沒有提到隨機初始? 02/13 22:25