2025年台北国际电脑展(Computex)以其全球领先的科技展示平台闻名,今年技嘉科技(Gigabyte)带来了诸多引人瞩目的服务器新品,充分体现了行业在内存扩展、人工智能计算以及散热技术方面的创新与提升。技嘉此次重点展出了搭载CXL技术的服务器及液冷AI服务器,这两大技术不仅解决了现有数据中心的性能瓶颈,还为未来计算架构提供了更高效的硬件基础。 技嘉的R284-A91-AAL3服务器吸引了大量目光,其创新结合了CXL(Compute Express Link)内存扩展和NVMe固态硬盘,采用了2U E3.S平台设计,搭载双Intel Xeon 6900系列处理器。CXL作为行业新兴的高速内存互连标准,使服务器能够突破传统内存容量限制,支持多达16个Micron CXL扩展模块,极大提升了内存扩展的灵活性和带宽。这种创新不仅让单个服务器能够处理更复杂的计算任务,也为未来支持AI训练和大数据分析等高需求应用奠定基础。在展示的服务器中,CXL模块以托盘设计的形式集成,使用者可以方便地插拔和维护。
除此之外,服务器内还配置了双M.2接口以及2.5英寸扩展位,为存储扩容提供了丰富选择,使系统的存储性能与容量得到优化。 此外,技嘉展出的4U液冷AI服务器体现了当前人工智能计算密集度与散热需求的趋势挑战。传统AI服务器普遍占用6到8U的机架空间,而液冷设计将空间压缩至仅需2U,显著提升了机架的功率密度和计算密度。通过引入CoolIT等领先液冷解决方案,技嘉实现了关键热源部件的高效散热,而非完全液冷设计。例如CPU和GPU核心采用液冷,而DIMM和SSD依旧维持空气冷却,从而在节省能耗的同时保证系统稳定。 该设计不仅降低了服务器的内部风扇数量,减少了噪音和故障率,更让服务器的高度获得大幅缩减。
较短的AI加速器冷板使得多节点布局更为紧凑,铜质直连电缆(DAC)得以替代光纤连接,在成本和可靠性两方面均表现优异。多个这样的4U液冷服务器能够叠加组成高密度AI计算机群,实现单机架内高达80张GPU的强大算力,满足大型神经网络训练和推理的需求。这种创新方案尤其适合云计算服务提供商和科研机构,提升了AI集群的能源效率和维护便捷性。 在另一侧,技嘉还展示了基于Intel Gaudi 3加速器的空气冷服务器。Gaudi 3采用Ethernet作为扩展通信协议,通过八个OSFP接口实现高速互联,优化了传统加速卡和网络接口卡(NIC)分离的问题。通过OAM加速器模块将以太网集成到加速器内核,简化了系统架构,降低了耦合复杂性。
该服务器平台配置了八个Gaudi 3加速器和丰富的存储选项,包括八个NVMe固态硬盘插槽,以及综合的管理网络接口。 搭载的Intel Xeon处理器支持8通道内存配置,每颗CPU具备16个DIMM槽,达到了32个内存插槽的较高密度,为AI推理负载和大规模数据处理提供处理基础。这款服务器在空气冷却的设计中既考虑了性能需求,又兼顾了系统的散热效率和易维护性,针对不同客户需求提供了灵活选择。 此次技嘉服务器系列的亮点,是其将新兴的CXL内存扩展技术与液冷方案巧妙结合,形成高性能、高能效、弹性扩展的服务器架构。在人工智能和云计算驱动的行业发展浪潮中,传统的内存架构和散热模式逐渐成为制约性能提升的瓶颈。技嘉借助CXL技术实现了内存的即插即用和快速扩容,满足了大数据和AI训练场景对庞大内存容量的刚需。
同时,液冷技术保障了高热密度计算单元的安全稳定运行,降低数据中心的能耗和维护成本。 结合此次展出的多节点服务器方案,技嘉充分展示出打造高密度HPC(高性能计算)集群的实力。1U双节点液冷机型和3U十节点机型适应了不同规模的数据中心部署需求,为科研、金融和能源分析等领域量身打造了高效能算力资源。液冷设计的更高密度使得机柜空间和电力资源得到极致利用,带来了经济效益和可持续发展优势。 展望未来,随着工业界对更加高效、灵活的计算平台需求不断攀升,CXL技术将逐步普及并在内存生态系统中扮演核心角色。技嘉此次展会的技术展示,体现了其在推动这一技术商业化进程中的领先地位。
与此同时,液冷服务器的应用范围也将不断拓宽,特别是在AI、边缘计算、5G和云基础设施建设方面。 综上所述,2025年台北国际电脑展上的技嘉服务器新品兼顾了先进的CXL内存扩展、创新的液冷散热设计以及多样化的AI加速器支持,打造出面向未来的数据中心优化方案。其技术的成功应用无疑将推动整个计算行业的升级换代,提升数据处理能力和能源利用效率,为全球范围的人工智能和云计算发展提供坚实的硬件支撑。对于IT专业人士和数据中心管理员来说,深入了解和部署这些新兴技术,将是提升企业竞争力和适应数字经济革新的关键一步。