《架构师说》第五期,DPU 正在掀起数据中心变革!
目录
前言
前段时间有幸应 CSDN《架构师说》栏目主编昕慈老师邀请,参加了《架构师说》第五期活动,主题为 “DPU 正在掀起数据中心变革!”。
DPU 是近年来 ICT 和芯片领域的新贵,国内外都有不错的创新技术和融资案例,可以算是一个肉眼可见的技术趋势。所以当收到这个邀请时,我也是非常积极的应承了下来。
最后,照惯例,访谈类的活动我都会整理一篇精简文字版的博文,以方便朋友们查阅。想看回放视频的朋友也可以关注 CSDN 微信视频号,搜索查看。
同时也推荐对软硬件融合感兴趣的朋友可以订阅我的《软硬件融合加速技术专栏》,共同探讨。
Q1:随着数字化进程加快,海量数据频发现象层出不穷,传统 CPU 解决方案在哪些场景中会受限?
我个人总结,传统 CPU 解决方案主要会在 2 个大的场景中存在限制。一个是专用计算场景,另一个是海量数据 I/O 场景。
我们知道 CPU 的定位是进行通用计算,而在某些特定的领域计算里面不适用。例如:AI/ML 领域采用 GPU 的并行计算,密码学安全领域和通信设备领域采用 FPGA 的可编程空间计算。因为 CPU 不擅长特定领域,但专注于领域的需求又不断增长,所以近几年来 DSA/DSL(领域专用架构/领域专用语言)得到了蓬勃发展。
再来就是我们知道 CPU 是计算密集型芯片,它的带宽取决于北桥总线,I/O性能是面向 Main Memory 的,而不是面向 Ports(网络端口)的。所以我们说 CPU 不是 I/O 密集型芯片。在这样的定位下,CPU 面对数据洪流环境的时候就显得力不从心了。
从需求侧,我们观察到随着 5G + IoT + Web3.0 业务的整个交叉融合的发展趋势,将会为数据中心带来爆发性增长的数据洪流。列举几个 Intel 调研发布的数字:
- 每台手机一个月会产生 25GB 的数据。
- 每台无人驾驶智能汽车一天会产生 50GB 的数据。
- 每家 5G 智慧医院一天会产生 3TB 的数据。
- 每个 5G 智慧工厂一天会产生 1PB 的数据。
- 每个 5G 智慧城市一天会产生 50PB 的数据。
出现这个现象的更本质原因是因为 5G 所引发的全面的企业数据化转型浪潮,不仅仅是以往 toC 移动互联网主要服务的互联网企业和通信企业,现在 toB 产业互联网覆盖服务了数量更多的、领域更加广泛的制造业、交通业、金融、能源、医疗等等千行百业。5G、IoT 和边缘计算技术的发展充分释放了这些传统行业的数据。
所以,相应的,从供给侧,我们也观察到为了满足日益增长的带宽需求,一些先进的算力中心或数据中心,也作出了 2 个显着的适应性演进。
- 一个是网络侧的演进:数据中心网络架构逐步从 10GbE、25GbE、到 100GbE、到 400GbE 前进,使得整个 IP Fabric 的吞吐量能够承载得住这些增长数据。这里主要讨论的是 DCN 层面的问题,是 ASIC 交换芯片和光模块技术发力的地方,目前业内还没有遇见显著的瓶颈;
- 再一个是主机侧的演进:就是传统计算机体系结构的变革 —— 从以 CPU 为中心向以 DPU 为中心演进。因为 DPU 本身就是一张网卡,它的带宽是面向 Ports(网络端口)的。在这样的前提条件下,再给 DPU 叠加了一定的控制运算能力(处理器),使其成为了数据中心的主控单位(“大脑”)。
Q2:作为网卡与处理器的结合,DPU 具备传输与计算的能力。都说 DPU 源自云计算的时代需求,这句话如何理解?
之所以说 DPU 源自云计算时代的需求,这句话很好理解,因为世界上第一张 DPU 就是出自 CSP(云计算服务提供商)之手。AWS 的 Nitro System、阿里云的神龙 MoC 卡(现在叫 CIPU)。他们都是基于自身的需求来发明 DPU 的。
需要特别补充说明的是,DPU 这个术语最早是 Fungible 提出的,NVIDIA 收购了 Mellanox 之后大力推广的。但实际上我跟 AWS 和阿里云的朋友聊过,他们不十分接受 DPU 这个商标。但我们为了方便还是统一称之为 “DPU” 卡。
今年初的时候我在 CSDN 和 AWS Builder 社区发表了一篇讲述 AWS Nitro System 发展历史的文章《看 AWS 如果通过 Nitro System 构建竞争优势》,我觉得回顾历史探究 DPU 诞生的原因是理解 DPU 其定位及需求的最好方式。
Q3:DPU 与云的结合,如何助力降本增效?
我觉得可以从 DPU 面向云计算的解决方案这个方面来回答这个问题。目前主流的解决方案我总结有以下几个:
- 存算分离
- 弹性裸金属
- BVC 资源池统一管理
- HPC 高性能计算
存算分离典型的产品是 AWS EBS,通过网络将远端的存储资源池和本地的计算实例连接到一起。这是一个很好的资源池化(超售)架构设计,具有实例秒级启动、实例秒级迁移、数据冗余高可靠、存储资源池利用率高等等优势。但现实很骨感,在没有 DPU 的年代,云平台需要面对的第一个问题就是:远端存储性能远低于本地存储,导致还是得实施本地存储,资源没有完全池化,存在浪费。再还有的问题就是计算实例和后端存储的兼容性问题。
那么 DPU 解决这些问题的方式就是统一 NVMe 协议栈。建设 NVMe SSD存储资源池,建设 NVMe-oF/RoCEv2 高速存储数据传输网络,计算实例使用统一的 NVMe 驱动。
弹性裸金属主要面向对安全和性能有最高要求的客户,裸金属实例的特征就是硬件层面的完全独占、完全隔离。常用于大数据、金融高频计算、高性能分布式数据库等场景。裸金属实例要求交付 100% 的主机资源,这意味着不能在主机上安装、运行任何的云平台管理组件,包括:网络代理组件、存储代理组件、实例生命周期管理组件等。所以,在没有 DPU 的年代,裸金属更多的是以托管的形式来进行服务,包括:机房管理、服务器租赁、运维人力外包等项目。除了不用自建机房之外,和传统的 IT 机房没有本质区别。显然,这种服务模式,完全不具备云计算“弹性、敏捷、低成本”的价值理念。
既然裸金属不能在 Host OS 上运行云平台管理组件,那么 DPU 解决这些问题的思路就是将这些组件卸载到 NIC OS 上运行。网络代理组件继续负责 IP 分配、网络接入;存储代理组件继续负责远端系统盘接入、远端数据盘接入;生命周期管理组件继续负责实例启停消删、迁入迁出等等。
弹性裸金属实例除了上面提到的优势之外,还有一个值的关注的价值,就是它能够把一台主机的资源(CPU、Main Memory)全部交给客户,例如 192个 CPU 的规格、24TB内存的规格。这些都是能够产生长尾效应的极致规格。而且客户在使用过程中不需要特别感知它是虚拟机还是物理机。
随着弹性裸金属服务的普及、未来上些规模的数据中心应该都会是 BVC(BMS、VM、Container)资源池并存的。那么如何实现 BVC 资源池统一管理自然就成为了云平台需要关注的重点,目前主流的实践方向还是 DPU,在 AWS 和阿里云技术体系内已经验证过其可行性。能够实现极简的管理平台面,极高速的数据平面。
但是在开源云平台生态内还有很长的路要走,里面存在不少的技术困难,例如:QEMU-KVM 本身不具备前后端分离卸载框架,OpenStack 对 Container 支持不友好,Kubernetes 对裸金属支持不友好,是否考虑两个平台的融合?以及如何融合?等等需要探索的问题。但整体的方向应该是坚定的。
列举的最后一个应用场景是 HPC 高性能网络。我们前面讨论了现在是一个数据洪流的时代,我们也知道数据是有价值的。现在Intel 都称自己是一家数据公司,而不是硬件平台公司。进一步从海里数据中挖掘价值离不开 BigData 和 AI 这两大工具。
先看两个数据,根据 Gartner 预测 2025 年,70% 的新应用将集成 AI 模型。根据埃森哲全球高管调研报告指出,79% 的中国企业高管认为必须借助 AI 来实现业务增长。一方面,这些调研数据让我们看见企业对 AI 的需求确实越来越高。但另一方面,现在 AI 行业确实越来越内卷。模型精度不达预期、算力成本高、定制化多、盈利率低等等都是现实的问题。
我觉得主要可以归纳为 2 点原因:
- 行业数据流通性差;
- 深度学习算力成功高。
对于第一点问题,现在有隐私计算和联邦学习这个方向在尝试解决;对于第二个问题,如何降低算力成本。我们也看到了这两年来 AWS 和阿里云推出了普惠型的 HPC 高性能计算服务。将原本成功高不可攀的 HPC 计算能力下沉到普惠市场。此外,还有 NVIDIA 面向云服务提供商的 Cloud Native supercomputing 解决方案。这些都是通过云服务化的方式来实现算力成本降级。同步的,市场上也越来越多的方案在讨论云上 AI 开发。很值得期待。
回过头来,云服务化的普惠型 HPC 的底层技术实现自然少不了 DPU 到加持。关键技术有 2 个:
- 新型拥塞控制算法实现在有损网络上建设大规模组网的 RDMA 集群,例如:AWS SRD 和阿里云的 HPCC 技术;
- 再一个就是 RDMA NIC,通过 DPU 板载内存来支持大规模的内存映射表项等等。
Q4:DPU 在边缘计算方面的应用场景都有哪些?
DPU 在边缘计算领域的应用场景目前大体上主要还是电信网络云场景,具体的有 5G MEC 场景。电信运营商对网络转发性能的刚需是一直存在的。
我们知道 5G 的 3 大支柱是超大带宽、超低延时和海量接入。尤其在面向工业互联网的 toB 场景中,低延时是重中之重。面对这一需求,通常会采用 5G UPF 下沉到工业园区的边缘计算方案。
目前国内有很多 5G UPF 的厂商都是通过 NFV 的形态来进行交付的。VNF 的技术选型上可能是 DPDK / VPP 等等,底层 SDN 是 OvS-DPDK。纯软件实现的方式,除了我们前面提到的 DPDK 占用资源过多的问题之外,还存在一个 CPU 资源竞争导致的抖动和时延问题。
将 UPF 的 GTP-U 协议卸载到 DPU 是目前主要的探索方向之一。此外,我见过国外还有公司尝试将 5G QoS 卸载到 DPU 上的探索。
Q5:百家争鸣,DPU 会是下一个半导体黄金赛道吗?
DPU 作为目前最有可能成功的数据中心第三颗大芯片,必然会为半导体市场创造一个很大的增量。我们知道一张 DPU 卡实际上会内嵌多块芯片,包括:通用处理器芯片(x86 或 ARM)、专用处理器芯片(ASIC 或 FPGA 或 NP)、甚至是 GPU 芯片等等。
同时更令我关注的是 DPU 刺激了 “3U 融合” 的技术趋势。从 NVIDIA、Intel、AMD 今年来的收购动作、市场宣讲、技术发布这几个方面来看,我认为 “3U 一体” 应该是下一个主要的竞争风口。在单芯片制程见底的现在,寻求横行扩展或许是一种好的方式。
另外一个我可以分享的信息是现在主流的网卡设备商以后都可能不再生产传统网卡了,换句话说以后可能只会有新的 DPU 设备面世。对上下游生态都会有很大的驱使影响。
Q6:数字化时代,作为新起之秀的 DPU,会是东数西算的 “成功密码” 吗?
我认为东数西算是一项超级工程,除了技术方面,更多的还有商业方面、政策方面的决定性因素。所以,DPU 在其中的作用是有限的,甚至不是最关键的,但 DPU也肯定是能够产生价值的。
因为就像是我们前面提到的,DPU 本质上是对现有计算机体系结构的一次变革,它会自下而上的影响整个 ICT 生态系统,至于它能过做到什么程度。坦率的,现在犹未可知,期待和业界的同仁们一起探索。
文章来源: is-cloud.blog.csdn.net,作者:范桂飓,版权归原作者所有,如需转载,请联系作者。
原文链接:is-cloud.blog.csdn.net/article/details/126353325
- 点赞
- 收藏
- 关注作者
评论(0)