看板 C_Chat 關於我們 聯絡資訊
我算半個業內人士,目前最主要的硬體區別在於有沒有NPU這個運算單元。 根據微軟老爸爸的定義,AI PC必須要比普通電腦多出NPU,也就是神經網路處理單元,而且在軟體上還要內建Copilot( 微軟的人工智慧)。 也就是說,在硬體層面會多一個新東西之外,軟體層面也必須為人工智慧開路,像是更好的調度,或是比先前CPU+GPU還要更有能耗比等等。 這就是我目前能想到的差別,但對於普通消費者而言,這只不過是換一個名詞定義「頂尖性能」而已。 現今的CPU+GPU已經能處理大部分本地端應用,甚至NPU的效能還遠不及現在的解決方案,所以結論就是看看就好,這概念還太新,對日常使用還沒有關鍵性影響。 -- ※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 36.237.76.110 (臺灣) ※ 文章網址: https://www.ptt.cc/bbs/C_Chat/M.1717599471.A.9B1.html
qwork: 不合微軟規定也能掛AI PC吧 06/05 23:00
medama: 現在coplitor會調用NPU的性能嗎? 06/05 23:01
a000000000: 尼這半葛業內 產業理解真的有點虛= = 06/05 23:02
gino0717: 對象客戶是老闆要你用內顯做AI的那種公司 06/05 23:03
a000000000: M軟搞ai pc這整串目的很好懂 06/05 23:03
a000000000: 現在尼看得到的ai pc都面向輕薄本 06/05 23:03
a000000000: 戰略目標94針對阿婆MBA 06/05 23:04
s87879961: AI PC也有人用TOPs定義 超過多少才算 06/05 23:05
我有看過,但不敢說行不行 那東西畢竟是可以疊出來的
s87879961: copilot也是拿chatgpt資料庫去用的 06/05 23:06
s87879961: copilot 會不會用到npu,會 影像處理部分就會 06/05 23:06
s87879961: 你需要本地端快速處理的就會用到,其他還是都上雲端 06/05 23:08
guaz: 因應安全性有些應用只能在local處理,會這樣發展不奇怪吧 06/05 23:08
mic73528: 高通的到底好不好用阿?左打I家A家右打M系列誒 06/05 23:08
medama: 原來如此 06/05 23:08
s87879961: 他主打是隨著你使用,你的copilot會越來越接近你習慣 06/05 23:09
aaaaooo: npu這東西水果都搞多久了 軟軟現在喊這個唬不到人的 06/05 23:09
cchh179: 話說npu跟獨立顯卡 哪個跑ai比較快啊? 06/05 23:09
s87879961: 顯卡啊 06/05 23:10
s87879961: 本來就還是看算力的東西 06/05 23:10
※ 編輯: justpopcorn (36.237.76.110 臺灣), 06/05/2024 23:11:08
s87879961: 高通的就比較省電而已 06/05 23:14
Killercat: 這東西就是讓你能用便宜的NPU在local端跑小模型用的 06/05 23:14
Killercat: 不然現在內顯的intel連7B的模型都跑得零零落落 06/05 23:16
scarbywind: 這個業內是門市小姐的業嗎 06/05 23:18
LastAttack: 樓上笑死 06/05 23:34
Arbin: 23樓太酸了吧 不要這樣戳破人== 06/06 04:36
samsonfu: 現行影像處理有用到AI的都靠GPU算 06/06 13:03