推 arrenwu: 有人有人方便簡單講解一下tensorflow到底怎麼搞成這樣啊 10/06 10:31
推 cybermeow: 現在Google不是都在搞jax了 雖然我就爛 只會寫pytorch 10/06 10:35
→ cybermeow: 雖然為本業也不是寫程式的lol 10/06 10:35
推 arrenwu: 近幾年學校不也都在教pytorch嗎? 10/06 10:35
→ arrenwu: 應該有些原因吧? 怎麼會沒幾年差那麼多? 10/06 10:36
→ arrenwu: 5~6年前Keras還很屌的說 10/06 10:36
推 meatybobby: 因為pytorch寫起來方便很多 效能也沒差多少 10/06 10:38
推 cloudandfree: 我自己經歷過感覺比較像 tensorflow 2.0 出來前大家 10/06 11:13
→ cloudandfree: 就對測試版的 PyTorch 開始充滿興趣、但因工程師的 10/06 11:13
→ cloudandfree: 驕傲又會瞧不起沒被整併進 tensorflow 的 Keras 10/06 11:13
→ cloudandfree: 最後就變成了 PyTorch 使用率飆高 10/06 11:13
推 arrenwu: Keras不是有被整併進tensorflow嗎? 10/06 11:22
推 pythonbetter: Keras倒是真的比較簡潔就是了 10/06 11:24
推 CauchyCon: 前一陣子做研究用tensorflow,跑別人code一直遇到舊的f 10/06 11:28
→ CauchyCon: unction depreciate有夠痛苦,目前pytorch玩起來還沒遇 10/06 11:28
→ CauchyCon: 到這個問題,可能還很新吧 10/06 11:28
推 cloudandfree: 整併進去就 2.0 的時候,但在那之前 PyTorch 就異軍 10/06 11:31
→ cloudandfree: 突起了 10/06 11:31
推 comp2468: 謝謝,已經調整好的確實比較好,只是想知道再喂資料調整 10/06 14:00
→ comp2468: 這塊 10/06 14:00
→ tomsawyer: 我是覺得 torch的forward 跟backward 要自己寫好麻煩 10/06 15:13