推 Shiang1225 : 這篇正解 我們看太短了 明明就是要10年20年的東西 03/22 09:06
推 sceleton : 歷史上來說就是這樣。Mainframe => PC => server => 03/22 09:09
→ sceleton : smartphone 03/22 09:09
推 CKRO : 這個想法很有意思 03/22 09:25
推 masala : 終端產品的算力被架空了,淪為一個收發器而已 03/22 09:29
→ bnn : 你這個就Edge想幹的 遲早的事 但現在沒必要 03/22 09:38
→ bnn : 因為現在架Edge你付出的就你說的額外成本不如擴大dc 03/22 09:39
→ bnn : 因為現在能回收的反而是小利基型特化 先證明能回收 03/22 09:40
→ bnn : Edge是要到普及人手一支能回收的通用p2p-like串接 03/22 09:41
→ bnn : 而目前對資料傳輸的需求連短距離都不能忍銅線要CPO 03/22 09:42
→ bnn : 你要進步到無線能傳低功耗大資料量 科技樹還沒點到 03/22 09:43
→ bnn : 就跟現在你可以幾張顯卡自架local(一台Edge主機) 03/22 09:44
→ bnn : 但顯然這是上面的PC階段 距離smartphone還很遠 03/22 09:44
→ bnn : 要解決完縮小 能耗 散熱 傳輸一堆問題 03/22 09:45
→ layer0930 : 這個目前困難性太高了,還有成本問題 03/22 09:46
→ Kayusumi : 目前一些手機上的ai運用就算是輕量化模型吧 03/22 09:54
推 cphe : 一定會這樣吧 只能說AI才剛起步,硬體無法滿足 03/22 10:29
→ cphe : 需求,未來一定會有需求緩和下來回歸正常的時候 03/22 10:29
→ cphe : 至於Edge AI目前完全不夠力 03/22 10:29
→ potionx : 兩者會並行 依照需求決定你使用什麼裝置 03/22 10:43
推 CGDGAD : 現在不是有混合專家模型嗎?專門的問題會導向專門 03/22 11:16
→ CGDGAD : 的推理路徑增加運算效率 03/22 11:16