随着人工智能技术的飞速发展,尤其是在生成式AI推理、大语言模型(LLM)及智能代理应用的推动下,数据中心和边缘计算基础设施正面临前所未有的压力。传统静态资源配置模式已难以满足多变的AI工作负载需求,迫切需要更加灵活、高效且具备扩展性的计算资源管理方案。Liqid最新发布的基于PCIe Gen 5架构的可组合GPU服务器,整合了CXL 2.0内存池化技术,成为业内领先的创新解决方案,赋能企业实现高度动态和优化的计算资源分配。 Liqid成立以来,致力于打造可组合基础设施,将CPU、DRAM、GPU、加速卡、NVMe存储等异构资源灵活拼接,满足不同应用对硬件资源的精确需求。此前基于PCIe Gen 4设计的方案已经受到了广泛认可,但随着计算需求的增长及新硬件技术的发展,Liqid及时升级了产品架构,引入PCIe Gen 5和CXL 2.0技术,为内存共享和资源池化带来了质的飞跃。 新一代的Liqid系统通过Matrix软件实现全方位资源的智能编排,支持GPU、内存及存储资源的动态组合。
得益于Fabric-A和Fabric-B两条高速互联通道,系统分别通过PCIe交换机和CXL交换机管理加速计算资源与内存资源。尤其值得关注的是,利用CXL 2.0内存池技术,将DRAM资源脱离传统主机束缚,实现不同服务器间的共享与复用,极大提升资源利用率并降低硬件成本。 在硬件方面,Liqid此次推出了多款关键组件: 10槽式EX-5410P GPU服务器,可支持市面主流高功耗GPU如Nvidia H200、RTX Pro 6000以及Intel Gaudi 3,同时兼容FPGA、DPU、TPU及NVMe驱动器等多种加速器。 EX-5410C内存池化模块采用CXL 2.0协议,单模块最大支持100TB的可组合内存容量,彻底摆脱传统受限于主机物理内存容量的瓶颈。 LQD-5500是一款加速固态硬盘(SSD),最高容量达128TB,采用PCIe Gen 5 x16接口,包含8个标准E1.S NVMe Gen5 NAND闪存驱动,性能表现达到每秒600万次IO操作(IOPS)与50GB/s带宽。 此外,系统还包含PCIe Gen 5交换机、CXL 2.0交换机与主机总线适配器(HBA),组成一个高吞吐、低延迟的硬件平台。
通过两种配置选项的设计,Liqid满足不同规模和场景需求。UltraStack配置支持单台服务器配备最多30个GPU及100TB DRAM,针对单机高性能AI推理和训练任务进行优化。SmartStack则面向多节点服务器环境,将多达20台服务器的30个GPU及32台服务器的100TB DRAM进行池化和共享,灵活调度资源支持分布式计算与边缘部署。 软件层面,Matrix v3.6版本不仅实现了基础资源的可组合管理,还原生兼容Kubernetes、Slurm、OpenShift、VMware、Ansible等主流容器和虚拟化生态,极大方便企业集成和自动化运维。未来还计划支持Nvidia Fusion、Ultra Accelerator Link(UAL)、Ultra Ethernet Consortium(UEC)等更先进的连接协议,进一步强化系统的异构加速性能和网络互联能力。 Liqid CEO Edgar Masri指出,随着AI推理和智能代理逐步向本地部署迁移,企业需要一个灵活可扩展的平台,既能够支持最新GPU及大语言模型的繁重计算任务,又要合理控制能耗和成本。
Liqid基于PCIe 5和CXL 2.0的可组合GPU服务器,正是应对此类需求的创新利器。 在实际应用中,Liqid的可组合架构极大提升了资源利用效率和计算性能,为数据中心和边缘设备带来了显著优势。通过动态调整GPU、内存和存储的组合,企业能够根据实时工作负载调整资源分配,防止资源闲置或短缺,提高每瓦功耗的计算能力和投资回报率。同时,硬件池化降低了单一主体设备升级或维修所带来的影响,提升系统整体可靠性和弹性。 过去,Liqid已推出多代可组合系统,第四代产品以30槽EX-4410扩展机箱和PCIe Gen 4交换机为核心,成功实现异构GPU资源的多主机共享和动态分配。此次新一代解决方案基于PCIe Gen 5架构和CXL内存池,进一步突破带宽和内存共享壁垒,为人工智能和高性能计算释放更大潜能。
另一方面,Liqid的解决方案符合企业IT数据中心未来的扩展趋势。随着边缘计算的兴起,更多AI推理和智能任务需要分布式部署,资源的统一调度和高效复用尤为重要。Liqid SmartStack方案通过横跨多节点的GPU和内存池,简化了管理难度,支持异地异构资源的协同工作,为边缘智能基础设施建设提供了新标准。 品牌方面,Liqid凭借其领先的可组合技术及丰富实践经验,已获得诸多大型企业和研究机构的青睐。其产品针对不同规模的工作负载场景,既适合大规模数据中心,也覆盖高密度边缘计算,从而满足数据密集型AI训练、实时推理以及大规模数据处理的多样需求。 在未来,随着CXL生态的不断完善和PCIe Gen 5及更先进互联技术的推广,基于资源池化与动态调度的新型可组合基础设施将成为行业主流。
Liqid作为此领域的先行者,持续引领技术创新与产品迭代,将推动AI基础设施向更高性能、更低延迟、更高效率方向发展。 总体而言,Liqid推出的基于CXL 2.0的可组合GPU服务器,是当前AI计算和高性能数据中心发展的重要里程碑。其创新的硬件设计与软硬结合的Matrix平台,帮助企业在面对多样且动态的AI工作负载时,实现灵活部署、高效使用和成本控制。未来,随着更多企业加快AI数字化转型步伐,此类可组合计算解决方案必将发挥越来越关键的作用,推动智能计算向更广泛的应用场景落地。