看板 DataScience 關於我們 聯絡資訊
使用工具:(ex:python,Java,C++,tensorflow,keras,MATLAB,etc...) 問題內容: https://i.imgur.com/e2ioXWQ.jpg 看到一門網路課做 tensorflow vs pytorch的比較(如上圖),tensorflow較麻煩。以ab相加的函數為例 ,pytorch像是寫python程式一般(右),但tensorflow要使之這麼做的寫法,就挺麻煩 (左)。 需先類似於vhdl電路設計語法(見下圖), 寫ac連通(1), ab連通(2),最後通電使a+b= c(3) https://i.imgur.com/IKvUROi.jpg 我問題是:感覺那樣的語法也是挺有體系,作者不是故意找麻煩吧?他是為什麼要特意 去取汲類似電路的風格來讓人這樣使用tensorflow呢? 網路也有人問:他想讓FPGA幫他做機器學習,能嗎? https://i.imgur.com/xRO88Yw.jpg 然後還有人這樣做: 不是在cpu也不是 GPU,而是FPGA上面如此應用。 (問問題前才看到。) 我還是不太確定...最重要的是, 要先理解tensorflow作者的深意, 問題是...那是什麼? https://youtu.be/eHeqenSj0VQ
---- Sent from BePTT on my HUAWEI PAR-LX9 -- ※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 111.83.143.224 (臺灣) ※ 文章網址: https://www.ptt.cc/bbs/DataScience/M.1635958984.A.556.html ※ 編輯: iLeyaSin365 (111.83.143.224 臺灣), 11/04/2021 01:04:32
yoyololicon: 動態靜態圖的差別吧 你去看其他靜態圖的架構也是這 11/04 08:41
yoyololicon: 個調調 11/04 08:41
RumiManiac: 跟電路沒有關係,也沒有啥深意,就只是還沒發明動態圖 11/05 07:04
yoche2000: 所以現在學界好像都是torch比較多 11/11 12:00
yoche2000: 我tf黨同事都換成torch了 11/11 12:00
toasthaha: 單純只是一開始比較流行靜態圖而已 11/13 14:32
wakawakaAAA: torch訓練過程比較可控 12/04 08:30
howboutdah: 因為 Jeff Dean 之前發明過 MapReduce 12/09 03:04