看板 PC_Shopping 關於我們 聯絡資訊
※ 引述《ultra120 (原廠打手 !!!)》之銘言: 活動又要開打了先賺點p幣 這偏機翻翻到不知道在講三小了 所以簡單說明下 借用老外的link 有興趣可以進去看詳細資訊 https://www.servethehome.com/new-intel-cxl-details- at-intel-interconnect-day-2019/ 只講最簡單的部分, 因為細節我也不懂 CXL跟PCIE 5.0實體層是一樣的 CXL也用PCIE插槽 線路 全部都一樣 但是Protocol層不一樣. 一個插槽也無法"同時"相容PCIE/CXL 所以到時候UEFI FW可能會有個選項 讓你選擇某個插槽要給PCIE卡使用, 或是要給CXL卡 使用. 再來就是CXL Protocol 跟PCIE很大的不同就是 CXL允許CPU跟CXL卡上的加速器(Accelerator)互相直接存取對方 的資源, 包括Memory, Cache, IO. 舉例來說目前的GPU運算 你可能要先從CPU塞資料給GPU,GPU再搬到自己的記憶體 接著叫GPU算 算完再走PCIE DMA傳回系統記憶體. 可是用CXL Protocol的話對CPU來說 就像是直接搬資料進GPU的記憶體, 或是反過來GPU可以直接從CPU的系統記憶體搬資料過 去過程簡化很多, 延遲應該也會降低. 這個跟AMD當年想做的HSA我覺得其實就是很像的東西,只是異質核心(Accelerator)改外接 重要的是CPU跟這些核心之間可以直接存取對方的資源. 而且理論上這也CXL spec是公開 的, AMD的GPU/CPU要支援也是允許的才對 : Intel今天發布的CXL文件暗示了其Xe GPU雄心的未來。雖然它沒有在任何地方明確說明 : 但似乎有一個非常明顯的暗示; 連接多GPU。CXL是Intel將採用的新互連層,旨在解決 : PCIe協議的許多問題 : 而且多GPU從未正常熱起來的主要原因之一是由於缺乏一致性。而我們在將來會看到Xe : GPU以“CXL模式”來執行。 : 簡而言之Intel的Compute Express Link (CXL):適用於在PCIe Gen 5及更高版本上擴充 : 處理器的異構計算協議 : Intel在昨天的Interconnect Day 2019活動中詳細討論了其全新的處理器到處理器互連, : 稱為Compute Express Link(CXL) : 雖然我們之前已經深入討論了數據中心互連,但這個特定的工作方式可以跨物理PCIe連接 : 設備 : 我提到物理而不僅僅是PCIe的原因是因為雖然Intel CXL設計用於物理PCIe以確保通用相 : 容性 - : 但它不會使用PCIe協議,而是作為替代協議; 比其古老(即將成為)的前輩更具未來性和 : 可擴充性的產品。 : Intel今天在CXL上發表的演講主要集中在數據中心方面,但我們看到了一個更為有趣的角 : 度。雖然CXL是最終的縮放結構 : 可以將 CPU和加速器粘合在一起,但沒有理由不能用它來實現最終多GPU實現。 : PCIe擴充的主要問題之一是,通過它連接的任何設備都有一個隔離的記憶體位置,處理器 : 到處理器通訊的高延遲以及整個系統缺乏一致性 : 這就是為什麼像NVIDIA和AMD這樣的公司歷來不得不在軟體方面進行創新,採用各種多GPU : 技術 : 多個GPU並不像一個連貫的整體 - 它們獨立行動並顯示出來。CXL旨在解決所有這些問題 : 。 : 使用Intel CXL,可以創建一致的記憶體位置,並將延遲降低一個等級。整個系統將作為 : 一個有凝聚力的整體 : 並將顯著更好地擴充。這意味著如果您有一個執行Intel Xe dGPU的系統 : 您可以在備用PCIe插槽中引入另一個系統,它應該無縫擴充。CXL引入了三種協議: : CXL.io是一個IO協議,取代了PCIe。然後你還有CXL.cache和CXL.memory,這是我們最感 : 興趣的 : 這些協議允許連接設備以連貫的方式訪問記憶體和快取。在文件上這是為CPU訪問加速器 : vRAM和加速器訪問CPU快取而設計的 : 你知道VRAM永遠不會加起來的多GPU的討厭局限嗎?好吧,CXL.memory和CXL.cache一起應 : 該解決這個問題 : Intel還表示與其他互連不同,CXL是專為低延遲而設計 - 這對於多GPU來說是完美的 : 目前尚不清楚我們是否可以通過CXL實現時序,或者是否還需要像SLI橋接器那樣同步連接 : 。 : 另外Intel的CXL協議也是非對稱的它允許系統不僅接受加速器(讀取:GPU) : 還允許連貫的記憶體緩衝區以及協議不可操作性。不僅如此這是一個更加開放的標準 - : 允許非Intel處理器採用該協議 。 : Intel對其Xe GPU雄心的細節非常謹慎。我們所知道的是它可以擴充。多GPU將以某種方式 : 參與是一個相當不錯的選擇 : 通過CXL或通過MCM實現,甚至兩者都可以!目前不知道GPU的CXL模式是否會進入主流消費 : 者市場 - : 但很明顯它解決了許多原本使多GPU設置無法實現的問題。 : 來源 : https://wccftech.com/intel-xe-coherent-multi-gpu-cxl/ : XF編譯 : https://www.xfastest.com/thread-227415-1-1.html : Intel 開啟 GPU 新局 -- ※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 180.217.89.18 ※ 文章網址: https://www.ptt.cc/bbs/PC_Shopping/M.1554857814.A.C7C.html ※ 編輯: comipa (180.217.89.18), 04/10/2019 08:57:21 ※ 編輯: comipa (180.217.89.18), 04/10/2019 08:57:56
slsamg7112 : 所以GPU那邊也是看A/N兩家要做CXL或PCIe囉? 04/10 09:08
短時間應該還是PCIE大宗 因為CXL好像只有Server platform有支援吧 ※ 編輯: comipa (180.217.89.18), 04/10/2019 09:12:04
qwe753951 : 開放的有Gen-Z,CXL終究是intel主導 04/10 09:14
saito2190 : 把資料直接往對方的記憶體懟進去是吧 04/10 09:17
qqq3q : 新出的內顯 ? 04/10 09:19
ejsizmmy : 在多核心的架構上,AMD其實有不少的建樹 04/10 09:30
ejsizmmy : 像infinity fabric就是類似的東西 04/10 09:30
ejsizmmy : 當然,本質上跟HSA有差 04/10 09:31
Windcws9Z : 這樣不會有漏洞嗎?! 04/10 10:43
kira925 : 有可能 共享快取/記憶體位址本身就很容易包 04/10 11:22
kuma660224 : 這只是個傳輸協定,大概沒啥大用 04/10 14:03
kuma660224 : 因為傳輸頻寬還是卡在PCIE 04/10 14:03
kuma660224 : 除非根本不做插卡式獨顯 04/10 14:04
kuma660224 : 搞超級APU或立體堆疊高頻寬串連共用記憶體 04/10 14:05
kuma660224 : 然後主流GPGPU軟體生態系是一次搬運完 04/10 14:06
kuma660224 : 之後全部在數百GB/s高速VRAM來回運作 04/10 14:06
kuma660224 : 全部算完再從PCIE丟回結果 04/10 14:07
kuma660224 : PCIE的線路無論用甚麼傳輸協定,頻寬都小 04/10 14:08
kuma660224 : 那只是減少第一筆資料取得的延遲程度 04/10 14:08
kuma660224 : GPGPU串流處理需要超大頻寬 04/10 14:09
kuma660224 : 與其CPU/GPU傳來傳去的效率提升 04/10 14:10
kuma660224 : 多數用途應該全資料先送進VRAM,比較快 04/10 14:10
kuma660224 : 兩U之間即時拿對方資料,反而造成效能瓶頸 04/10 14:12
kuma660224 : 這改良有點像你跟隔壁大樓的朋友約好 04/10 14:13
kuma660224 : 各有對方鑰匙可開對面廚房拿食材調味料 04/10 14:14
kuma660224 : 不用事先約好時段去拿或送過去 04/10 14:15
kuma660224 : 但是.....你真的常需要這種方便好處嗎 04/10 14:15
kuma660224 : 9成運用大概寧願事先廚房擺滿食材調味料 04/10 14:16
kuma660224 : 自己搞定一切,最有效率.... 04/10 14:16
kuma660224 : 菜色弄完,再打包搭電梯過馬路送過去分享 04/10 14:17
kuma660224 : 也就是目前泛用串流運算的主流做法 04/10 14:18
kuma660224 : 缺點是兩邊大冰箱大廚房,不能共用翻倍空間 04/10 14:19
kuma660224 : 但who cares? 主流做法就塞更多VRAM 04/10 14:20
kuma660224 : 順便頻寬也因此大增而更快 04/10 14:20
kuma660224 : 怕冰箱不夠大,就買三層雙門超大冰箱 04/10 14:21
allyourshit : 這種繞過一切直接記憶體連結的東西 根本就是bug溫床 04/10 19:09
allyourshit : 還是I家一貫拿資安換效率的作法 04/10 19:10
kuma660224 : 其實應該捨棄PCIE, 膠水全部封裝在一起 04/11 01:02
kuma660224 : 各晶片用類似IF或Nvlink之類高速直連 04/11 01:03
kuma660224 : 中間黏個IO die負責存取高速大記憶體 04/11 01:06
kuma660224 : 多晶片但用膠水虛擬成HSA架構的超級APU 04/11 01:10
kuma660224 : 彼此互連速度最大化 04/11 01:11
givemeback : 樓上醒醒,科技公司不用這些手段哪能從你手上騙到錢 04/11 14:35