Intel今天发布的CXL文件暗示了其Xe GPU雄心的未来。虽然它没有在任何地方明确说明
但似乎有一个非常明显的暗示; 连接多GPU。CXL是Intel将采用的新互连层,旨在解决
PCIe协议的许多问题
而且多GPU从未正常热起来的主要原因之一是由于缺乏一致性。而我们在将来会看到Xe
GPU以“CXL模式”来执行。
简而言之Intel的Compute Express Link (CXL):适用于在PCIe Gen 5及更高版本上扩充
处理器的异构计算协议
Intel在昨天的Interconnect Day 2019活动中详细讨论了其全新的处理器到处理器互连,
称为Compute Express Link(CXL)
虽然我们之前已经深入讨论了数据中心互连,但这个特定的工作方式可以跨物理PCIe连接
设备
我提到物理而不仅仅是PCIe的原因是因为虽然Intel CXL设计用于物理PCIe以确保通用相
容性 -
但它不会使用PCIe协议,而是作为替代协议; 比其古老(即将成为)的前辈更具未来性和
可扩充性的产品。
Intel今天在CXL上发表的演讲主要集中在数据中心方面,但我们看到了一个更为有趣的角
度。虽然CXL是最终的缩放结构
可以将 CPU和加速器粘合在一起,但没有理由不能用它来实现最终多GPU实现。
PCIe扩充的主要问题之一是,通过它连接的任何设备都有一个隔离的内存位置,处理器
到处理器通讯的高延迟以及整个系统缺乏一致性
这就是为什么像NVIDIA和AMD这样的公司历来不得不在软件方面进行创新,采用各种多GPU
技术
多个GPU并不像一个连贯的整体 - 它们独立行动并显示出来。CXL旨在解决所有这些问题
。
使用Intel CXL,可以创建一致的内存位置,并将延迟降低一个等级。整个系统将作为
一个有凝聚力的整体
并将显著更好地扩充。这意味着如果您有一个执行Intel Xe dGPU的系统
您可以在备用PCIe插槽中引入另一个系统,它应该无缝扩充。CXL引入了三种协议:
CXL.io是一个IO协议,取代了PCIe。然后你还有CXL.cache和CXL.memory,这是我们最感
兴趣的
这些协议允许连接设备以连贯的方式访问内存和快取。在文件上这是为CPU访问加速器
vRAM和加速器访问CPU快取而设计的
你知道VRAM永远不会加起来的多GPU的讨厌局限吗?好吧,CXL.memory和CXL.cache一起应
该解决这个问题
Intel还表示与其他互连不同,CXL是专为低延迟而设计 - 这对于多GPU来说是完美的
目前尚不清楚我们是否可以通过CXL实现时序,或者是否还需要像SLI桥接器那样同步连接
。
另外Intel的CXL协议也是非对称的它允许系统不仅接受加速器(读取:GPU)
还允许连贯的内存缓冲区以及协议不可操作性。不仅如此这是一个更加开放的标准 -
允许非Intel处理器采用该协议 。
Intel对其Xe GPU雄心的细节非常谨慎。我们所知道的是它可以扩充。多GPU将以某种方式
参与是一个相当不错的选择
通过CXL或通过MCM实现,甚至两者都可以!目前不知道GPU的CXL模式是否会进入主流消费
者市场 -
但很明显它解决了许多原本使多GPU设置无法实现的问题。
来源
https://wccftech.com/intel-xe-coherent-multi-gpu-cxl/
XF编译
https://www.xfastest.com/thread-227415-1-1.html
Intel 开启 GPU 新局