推 qwork: 不合微軟規定也能掛AI PC吧 06/05 23:00
推 medama: 現在coplitor會調用NPU的性能嗎? 06/05 23:01
噓 a000000000: 尼這半葛業內 產業理解真的有點虛= = 06/05 23:02
推 gino0717: 對象客戶是老闆要你用內顯做AI的那種公司 06/05 23:03
→ a000000000: M軟搞ai pc這整串目的很好懂 06/05 23:03
→ a000000000: 現在尼看得到的ai pc都面向輕薄本 06/05 23:03
→ a000000000: 戰略目標94針對阿婆MBA 06/05 23:04
推 s87879961: AI PC也有人用TOPs定義 超過多少才算 06/05 23:05
我有看過,但不敢說行不行
那東西畢竟是可以疊出來的
→ s87879961: copilot也是拿chatgpt資料庫去用的 06/05 23:06
→ s87879961: copilot 會不會用到npu,會 影像處理部分就會 06/05 23:06
→ s87879961: 你需要本地端快速處理的就會用到,其他還是都上雲端 06/05 23:08
推 guaz: 因應安全性有些應用只能在local處理,會這樣發展不奇怪吧 06/05 23:08
→ mic73528: 高通的到底好不好用阿?左打I家A家右打M系列誒 06/05 23:08
→ medama: 原來如此 06/05 23:08
→ s87879961: 他主打是隨著你使用,你的copilot會越來越接近你習慣 06/05 23:09
推 aaaaooo: npu這東西水果都搞多久了 軟軟現在喊這個唬不到人的 06/05 23:09
→ cchh179: 話說npu跟獨立顯卡 哪個跑ai比較快啊? 06/05 23:09
→ s87879961: 顯卡啊 06/05 23:10
→ s87879961: 本來就還是看算力的東西 06/05 23:10
※ 編輯: justpopcorn (36.237.76.110 臺灣), 06/05/2024 23:11:08
推 s87879961: 高通的就比較省電而已 06/05 23:14
→ Killercat: 這東西就是讓你能用便宜的NPU在local端跑小模型用的 06/05 23:14
→ Killercat: 不然現在內顯的intel連7B的模型都跑得零零落落 06/05 23:16
→ scarbywind: 這個業內是門市小姐的業嗎 06/05 23:18
→ LastAttack: 樓上笑死 06/05 23:34
推 Arbin: 23樓太酸了吧 不要這樣戳破人== 06/06 04:36
推 samsonfu: 現行影像處理有用到AI的都靠GPU算 06/06 13:03