芯片封装工艺流程DPU的数据中心霸主之路

芯片封装工艺流程DPU的数据中心霸主之路

DPU(数据处理单元)的崛起:从CPU到DPU的数据中心革命

在AI、5G和云计算技术迅猛发展的今天,数据中心正成为支撑数字化转型的关键节点。然而,传统的通用CPU和GPU已无法满足快速变化的应用需求。芯片巨头们意识到了这一点,并通过收购或自研开发了更加专用、异构的芯片以满足数据中心需求。

英伟达作为领先的一家公司,在去年十月发布了首代DPU BlueField-2,并在今年4月宣布其数据中心芯片战略升级为GPU+CPU+DPU,三者协同飞跃。此举标志着DPU迎来了它在数据中心“上位”的时刻。

那么,DPU究竟是什么?为什么能在数据中心占据重要地位?

首先,我们需要了解为什么需要DPU。在软件定义的大型机架构下,虽然灵活性大增,但也带来了巨大的负担。目前,大约20%-30%的CPU核消耗于基础架构运行。这是因为传统冯诺依曼架构无法有效应对不断增长的数据量及AI技术进步导致网络拥塞问题。

英伟达网络事业部亚太区市场开发高级总监宋庆春指出,以往计算规模较小且没有大量数据时,冯诺依曼架构很好地解决了提高计算性能的问题。但随着大规模存储与高速通信延迟问题出现,以数据库为核心新架构变得必要,这种设计能够解决网络传输中的瓶颈问题或丢包问题,从而实现10倍性能提升。

英伟达提供了一款集三个关键要素于一身SoC——多核Arm CPU、高性能网络接口以及各种灵活可编程加速引擎。这些特性使得DPU能够针对安全、网络、存储等业务进行加速,同时提供创新思路,为以数据库为核心计算模式提供支持,使得以前难以或无法实现的事项成为了现实。

例如,在云场景中,与VMWare合作推出了Monterey项目,将Hypervisor内的一些功能卸载到DPU上运行,这样可以实现业务与基础设施操作完全隔离、高安全性同时保持裸金属业务性能。此外,与RedHat合作,可让容器或虚拟化服务不再消耗任何CPU资源,而是利用100G甚至200G全线速率,将所有资源用于真正有价值的事务处理。

UCloud技术专家马彦青表示,他们选择使用英伟达蓝场卡解决原有服务器带宽瓶颈并降低成本。借助DOCA软件栈,UCloud实现了系列性能提升,如VPC管理集成到DPU内部,大幅提高转发效率;存储采用RSSD云盘作为后端存储机群,更换基于NVMe SNAP功能解耦计算和存储;安全性方面,也有显著提升,比如3.5倍加速深度包检测匹配速度等。

最后,我们看到最终目标是通过一张卡实现虚拟化和裸金属架构共融,以及探索基于InfiniBand网络如何加速AI和高性能计算。这一切都建立在英伟达持续改进硬件以及不断完善DOCA软件栈之上,最终将会释放出更强大的潜力,让我们的未来世界充满无限可能。