看板 Tech_Job 關於我們 聯絡資訊
小弟學店大學生 剛好上學年在這個領域有些研究可以來跟大家分享一下 原po說的類比電腦,精確一點應該說是用類比 CIM (compute in memory) 來加速神經網路 運算 主要處理的問題就是原po提到的矩陣乘法,尤其是對 CNN 的模型特別有幫助 矩陣乘法再拆細一點其實就是瘋狂算內積,而這也是 CIM 真正有加速的地方 要算內積就要把很多數字加起來,類比 CIM 簡單來說就是把一條 BL 上所有的 cell 同時 打開,再看你要用啥方法判讀上面接幾個1,我自己印象比較深刻的做法有兩個: 1. 用 ReRAM 或 MRAM 這類很潮的記憶體把0、1換成電阻值,接著在 BL 上掛電壓源,將流 出的電流接進 ADC 就可以換成數字 2. 在 SRAM cell 上加電容,每個 cell 都透過電容接到 BL 上,因此 BL 會被特定數目的 電容連到 VDD;被特定數目電容連到 GND,接著再把 BL 的分壓用 ADC 換成數字 若單看加法的部分的確是比數位暴力 adder tree 還要快又省 power,但麻煩的就是後面的 ADC ,吃 power 還會降低精準度,而精確度重不重要就真的是看使用環境 因此數位類比看來看去其實平分秋色,類比也沒有啥永遠都贏數位的優點,反而非理想效應 多人家一卡車 而且許多 CIM 都只專注在矩陣乘法這一塊,其實整個系統的 data flow 設計的好不好影響 更多 如果有興趣的話清大有個教授有在做類比 CIM,台積電也有蠻多數位 CIM 的設計,論文都 蠻好找的也算淺顯易懂,平常當作休閒科普也是挺不錯的~ -- ※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 1.200.23.138 (臺灣) ※ 文章網址: https://www.ptt.cc/bbs/Tech_Job/M.1657284288.A.D62.html ※ 編輯: jason90814 (1.200.23.138 臺灣), 07/08/2022 20:52:19
easyman : 推, 愛普 有在搞這個嗎 ? 07/08 20:57
jkamberson : 推 07/08 21:03
Kururu8079 : 推,但電源的輸入跟adc的把控真的是大難題 07/08 21:57
zhoyo99 : 推 07/08 22:06
lturtsamuel : 張孟凡? 07/08 22:30
hahahaP01NT : 推 07/08 22:43
hank780420 : 張孟凡 CIM大師 07/08 22:53
coware : 唉 30年前就知道答案的事 07/09 00:04
ppony : 這種應該是AI方面的運算比較高效率,其他的運算應該 07/09 07:26
ppony : 是沒有比較好,電路裡面ADC是裡面的成本比較高的, 07/09 07:26
ppony : 是不是這樣? 07/09 07:26
imreader : 類比就是不好控制,才會大量改用數位,幹麼走回頭路 07/09 09:37
labbat : 類比就是不少EE大學生的夢想。電子學從類比教到數 07/09 11:08
labbat : 位,再從數位教到類比,都不嫌麻煩的 07/09 11:08
ctct0513 : CIM超難做的 07/09 12:32
ShangLai : CIM很難做沒錯,但ADC未來可能會愈來愈重要,畢竟 07/09 15:49
ShangLai : 將來Serdes的潮流是走向前端ADC,後端數位處理。 07/09 15:49
ShangLai : 而ADC可能因為noise margin 不夠造成的error bit, 07/09 15:49
ShangLai : 就交給ECC來處理。 07/09 15:49
ShangLai : 至於類神經網路,其實ADC有點小error是可以接收的 07/09 15:49
ShangLai : ,畢竟CNN本身就跟透過特徵方程式刪掉不少訊息以加 07/09 15:49
ShangLai : 快處理速度,所以發生點小錯誤無傷大雅 07/09 15:49
HotDogCC : CIM很強 但很少人搞 07/09 21:48
b0117 : 聽起來這東西要量產還非常遠 07/10 02:45
KAOKAOKAO : 推 感謝釋疑 07/11 08:50