文章详情

短信预约-IT技能 免费直播动态提醒

请输入下面的图形验证码

提交验证

短信预约提醒成功

CXL 概述

2023-09-01 20:48

关注

CXL 概述

前言

CXL协议规范很新,目前没有多少资料,所以在学习过程中,肯定是需要笔记的,准备为此开一个专栏。以后会越来越详细,我尽量少用专业名词口语化去描述,让内容更加容易理解,以CXL 2.0 规范为纲,扩展开来,查漏补缺。点赞,收藏,转发。

1. 什么是CXL

1.1 背景

1.1.1 PCIE 的现状

在这里插入图片描述
首先先看一下当前PCIE中的数据传输,无论是要创建一个PCIE内存扩展设备还是一个PCIE网卡,目前大数据量的传输都是采用生产者消费者模型,上图是说明主机向设备传输数据流程,主机要先把数据写到本地的内存,然后置标志位通知设备我写好了,设备查询标志位之后开始搬运数据到设备的本地内存,反过来是差不多的,这种方式的缺点也是显而易见的,有很多不必要的拷贝;PCIE协议可以实现主机直接访问设备内存,设备内存直接访问主机内存的,但是因为物理路径过长,以及缓存一致性问题,导致延迟很高,这样我们就会产生两个诉求:

1.1.2 技术背景

这部分就比较书面化了,总结几点就是:

总之就是一句话,PCIE协议下的主机与设备两个方向的传输可以有上面两个诉求,可以改进。

1.2 特点

就是这么宣传的,目前没有量化数据。为什么会低延时呢,后面会讲。

1.3 是什么

请添加图片描述
那么到底什么是CXL?

这个端口就是 Flex Bus.

2. Flex Bus

在这里插入图片描述
想具体了解的可以去搜相关资料,这个不太是重点。只需要知道,要使用CXL功能,你的主机或者服务器得有 Flex Bus层,这个是CXL引入的。

2.1 特性

  1. 完全支持 PCIe 规范
  2. 完全支持 CXL 规范
  3. PCIe 和 CXL 可配置协议
  4. CXL 模式下速率 32GT/s, 16GT/s或者 8GT/s
  5. CXL 模式下链接宽度支持 X16, X8,X4,X2以及X1

2.2 Flex Bus 层级

请添加图片描述
上图为 CXL 的 Flex Bus(左) 与 PCIE 的层级(右)比较。
可以先不管其中的 .io, .mem, .cache, 后面会涉及。
如图,都分为三层:事务层、链路层、物理层。我们可以用TCP/IP 的七层协议类比一下,只不过这里是三层。
其中:

3. 协议

既然 CXL 是一种新协议,那么协议的内容就是重点,这边只是入门知识,后续会发布详细介绍。
请添加图片描述
主要分为三种:

3.1 CXL.io

其中,CXL.io 协议和PCIe协议一样,是一种枚举配置协议,主要用于设备的发现和枚举、报告错误等,这个不算重点,剩下的两个才是。

3.2 CXL.mem

CXL.mem 协议,可以解决开头提出来的两个诉求之一

可以让主机像访问自己本地内存一样访问设备内存。

这个,很好理解,一个典型的例子就是我的CXL设备作为一个扩展内存插到服务器上,主机就通过此协议进行访问,就和其他DDR一样的,不过所用底层协议不一样。

在这里插入图片描述

现在简单提一下协议内容。
CXL.mem 协议中,CPU 称为 Master,负责发送请求,而设备作为 Slave 回复响应。
请求分为有数据请求和无数据请求,响应也分为有数据相应和无数据响应。

下面是一个主机读设备内存的例子:
首先声明,当前设备中只有内存,没有cache, 这很重要。
蓝色部分是 .mem 协议,红色是设备内存的操作流程,可以不用管。能理解了 .mem 协议的以一来一回即可。
在这里插入图片描述

3.3 CXL.cache

CXL.cache 协议,可以解决另一个诉求

可以使设备解决内存一致性,低延时的访问主机内存

PCIe 协议下,设备访问主机内存,无论是使用DMA还是直接访问,都会有cache一致性的问题,这方面不清楚的同学可以查询其他资料,简单地说就是,某一地址数据在主机的cache或者内存中,如果设备还要操作这个地址,那么就会出现很多复杂的操作。

CXL.cache 协议主要是通过维护设备侧Cache一致性, 提供快速访问主机内存的能力;它允许设备参与CPU的一致性缓存协议,就好像在整个系统中他是另外一个CPU而不是一个设备。.cache 协议就像CPU缓存一致性协议的一种延申。
他的目标是用在加速器上,这个加速器没有向系统提供任何资源相关的东西,但是可以直接使用系统内存和本地cache。设备具有一致的内存视图,无需软件干预,同样的,主机也可以从设备的 cache 中获取数据,不用使用内存作为中介了,使用 .cache 协议直接传输数据,保持一致性。
如下,是.cache协议的通道介绍:
H2D 主机到设备
D2H 设备到主机
两个方向,每个方向三种通道:请求、响应、数据,相互独立工作,详情请参考另一篇博文 CXL.cache
在这里插入图片描述
下面是一个 Type 1 设备读主机内存的例子,设备中只有缓存,没有内存:

  1. 设备主动发起读请求命令,缓存操作字段命令码为 RdOwn,表示读缓存行,并独占数据;
  2. 主机缓存命中,写回内存,并返回GO响应,其中的信息指示设备缓存转为E状态;
  3. 紧随GO消息之后,是主机返回数据,传到设备缓存;
    请添加图片描述

3.4 Summary

CXL.cache 本质上是设备作为请求发起者,设备必须得有cache;
而 CXL.mem 是 CPU 作为发起者。

4. 设备

上面介绍了三种协议,对于一个CXL设备,.io是必备的,因为他是一个发现配置协议,.cache和.mem是可选的,这样就组合出三种类型的设备: Type 1, Type 2, Type3。

请添加图片描述

4.1 Type 1

4.2 Type 2

4.2.1 操作模式

对于设备内存,因为有两个处理器可能会去访问它,并且这两个处理器是有各自的cache的,严格的一致性会对带宽和延迟产生负面的影响,什么叫严格的一致性,就是Type 2 设备有 cache,Host 也有 cache,所有这些 cache 都要保持一致性,比如 Host 访问设备内存的时候,会一直去 snoop 查询设备缓存中有没有这个地址的数据,很明显在做无用功。
对于很多实际场景,比如天气建模,大量数据通过CPU传到加速器设备内存,然后加速器运算处理数据,最后CPU获取结果。这个流程里面其实涉及两种使用场景,第一种就是主机往设备内存读写数据,第二种场景就是设备运算阶段会频繁访问设备内存,那么在某一时段,我们就需要确定设备内存应该与那一块cache一致。
关于这个问题, 会有两种操作模式: Host bias And Device bias。
两种模型的优点:

为了保证上述模型可以运行, 设备需要实现:
1. 实现一个 bias cache, 以页表为粒度记录 bias 表,一个Bit状态表示主机是否有 cached copy
2. 使用转换代理,主要用于把host cache中属于该页表的缓存刷回内存
3. 实现对设备内存的加载-存储命令的支持

4.2.1.1 Host Bias

这个模式是指,当操作是 Host 提交数据给设备内存的时候;
图中蓝色部分, 指令由主机写入内存,工作完成后从内存中读出,设备内存表现得和 host 内存一样;
这样,Host 对设备内存可以高吞吐量访问,缺点就是设备访问设备内存不是最优的,如果访问这块地址,需要通过主机转发,由主机解决一致性问题,如图中绿色部分。
请添加图片描述

4.2.1.2 Device Bias

当数据放入设备内存,接下来设备需要进行计算了,就可使用此模式;
该模式下,设备可以之直接通过片内总线访问自己的内存,而无需再去与 Host 交互,具有较大的带宽,host 向设备保证没有任何缓存中的行, 如红色箭头,一般用于设备运算阶段;
主机仍然可以访问设备的内存,但可能会被加速器强制放弃所有权(如如图中的绿色箭头)
请添加图片描述

4.2.2 模式管理

两种状态的切换方式,一种是软件切换,一种是硬件切换;如果设备不做bias切换相关的逻辑,则默认全都是Host Bias。
对于某些运算模式非常规律的加速器,软件可以很明确地知道某个页表上现在正在运行什么任务,那么软件可以基于页表为粒度切换偏置状态,对一致性的性能进行优化,这对于具有分阶段计算的加速器很有用,软件可以通过选择模式获得最好的性能。
这里是软件切换方式的一些特点:

软件切换对于简单的加速器是最好的选择,但实际应用中这种模式基本就是不可用的;
硬件自动切换,不依赖于软件而是由硬件根据给定页面的请求者对偏差模式进行预测
他的特点包括这些方面:

4.3 Type 3

Type 3 设备是一组内存模块,提供持久、易失或者组合的内存;
支持 .io 和 .mem 协议,Type 3 设备的例子是 Host 的内存扩展器;与Type 2 设备的区别就是没有 cache;
因为没有缓存,CPU不需要窥探设备缓存,可以使用精简的 .mem 协议,主要是从主机发送到内存的简单的读写请求,就像前面演示的那个例子一样;
请添加图片描述
在 CXL 之前,你发现与此最接近的是 PCIe 的组合基于 NVMe 设备(用于持久容量)、NVDIMM 设备,当然还有,附加DRAM。 通常,DRAM 不能用作扩展卡,因为单个 DDR4 DIMM(内部为双通道),只有 21.6 GB/s带宽。 PCIe 可以跟上,但它需要所有 16 个通道,我猜测是不可扩展的,或成本效益,或其他。但大多数情况下,当基于平台的 interleaving 可以产生每秒数百 GB 的带宽时,DRAM 的使用并不是很好。
在这里插入图片描述
在后 CXL 世界中,从操作系统负责的意义上讲,对于大部分配置情况发生了变化,这就是为什么 Type 3 设备是最从软件的角度来看很有趣。 即使 CXL 目前在 PCIe 上运行5.0,CXL 提供了跨多个设备交错的能力,因此通过交错方式的数量以倍数增加带宽。 当你采用 PCIe 6.0 带宽和交错,CXL 提供了相当强大的替代HBM 方案 ,甚至可以通过 DDR 扩展到 GPU 级别的内存带宽。

在这里插入图片描述

来源地址:https://blog.csdn.net/u014443578/article/details/125680569

阅读原文内容投诉

免责声明:

① 本站未注明“稿件来源”的信息均来自网络整理。其文字、图片和音视频稿件的所属权归原作者所有。本站收集整理出于非商业性的教育和科研之目的,并不意味着本站赞同其观点或证实其内容的真实性。仅作为临时的测试数据,供内部测试之用。本站并未授权任何人以任何方式主动获取本站任何信息。

② 本站未注明“稿件来源”的临时测试数据将在测试完成后最终做删除处理。有问题或投稿请发送至: 邮箱/279061341@qq.com QQ/279061341

软考中级精品资料免费领

  • 历年真题答案解析
  • 备考技巧名师总结
  • 高频考点精准押题
  • 2024年上半年信息系统项目管理师第二批次真题及答案解析(完整版)

    难度     813人已做
    查看
  • 【考后总结】2024年5月26日信息系统项目管理师第2批次考情分析

    难度     354人已做
    查看
  • 【考后总结】2024年5月25日信息系统项目管理师第1批次考情分析

    难度     318人已做
    查看
  • 2024年上半年软考高项第一、二批次真题考点汇总(完整版)

    难度     435人已做
    查看
  • 2024年上半年系统架构设计师考试综合知识真题

    难度     224人已做
    查看

相关文章

发现更多好内容

猜你喜欢

AI推送时光机
位置:首页-资讯-服务器
咦!没有更多了?去看看其它编程学习网 内容吧
首页课程
资料下载
问答资讯