近年来,人工智能(AI)领域的发展呈现出惊人的速度,尤其是大型语言模型(LLM)参数规模的指数级增长,使得计算需求和内存带宽面临前所未有的挑战。传统计算架构依赖于高速图形处理单元(GPU)和有限的高带宽存储器,逐渐暴露出"记忆墙"问题,即内存容量与带宽成为限制AI模型扩展的瓶颈。面对这一局面,SanDisk提出了革命性的高带宽闪存技术(High Bandwidth Flash,简称HBF),为AI基础设施注入强大动力,开辟了"记忆中心AI"的全新时代。顾名思义,HBF是一种基于NAND闪存的全新设计架构,旨在以经济高效的方式提供高容量和高带宽的存储支持。相比目前市场上主流的高带宽内存(HBM),HBF在容量上能够实现8至16倍的提升,同时保持相近的读带宽水平,且价格更具竞争力。这一特性使得HBF在数据中心和边缘AI应用场景中均展现出极大潜力,既能满足大规模模型运算需求,又能突破边缘计算受制于成本、功耗和空间的瓶颈。
"记忆墙"由来已久,随着AI模型参数量从几十亿飙升到万亿级别,传统DRAM性能提升缓慢,已无法满足日益增长的记忆带宽需求。早期的AI发展阶段多聚焦于提升GPU等计算单元的算力,但当算力提升速度逐渐放缓,尤其是在使用混合专家(Mixture of Experts, MoE)架构优化模型计算时,内存容量与带宽成为限制模型规模和推理速度的关键。正是在这一背景下,HBF技术应运而生,预示着AI硬件架构重心由"计算中心"向"记忆中心"转移。在实际应用中,HBF能够显著提升AI模型的内存容量,使得复杂且参数庞大的模型能在单个设备上高效运行,减少依赖分布式计算带来的通讯延迟和复杂度。以运行一个拥有4000亿参数的Llama 3.1模型为例,SanDisk的模拟测试显示,虽然HBM具备极高的带宽,但因容量局限,无法在单GPU中完整加载该模型。HBF则以更大的容量优势实现几乎无差异的读带宽表现,测试中两者性能差距仅为2.2%,充分证明了HBF在保证带宽的同时具备卓越的容量扩展能力。
此外,HBF还适用于边缘计算设备,使那些因体积、功耗、成本受限无法运行大型AI模型的场景成为可能。例如智能手机、无人机、车载系统乃至工业物联网中,可以部署模型更大、推理更加实时的AI应用,帮助实现个性化推理及持久化AI服务,真正实现智能设备自我进化与高效响应。然而革新并非一帆风顺。业内曾对基于NAND的HBF技术存在诸多质疑,如闪存的高延迟、写入速度偏低及寿命有限等传统缺点是否会制约其在高性能AI领域的应用。事实上,SanDisk重新定义了NAND技术,通过创新设计显著提升了性能指标,使HBF具备了媲美传统高带宽存储器的速度和耐用性。HBF不是普通SSD中的闪存,而是针对AI和大数据应用量身打造的高性能存储解决方案。
为了推动HBF的生态建立,SanDisk积极寻求学术界与业界合作。韩国先进科学技术院(KAIST)打造的混合存储架构便是一大典范,在HBF前端搭配100GB容量的HBM作为缓存层,配合1TB的HBF存储,以高带宽、高容量结合实现优异的性能表现和成本控制。KAIST主导者被誉为"HBM之父",其参与验证了HBF技术的行业认可度和应用潜力。此外,SanDisk组建了涵盖计算机科学权威、图形架构专家等重量级成员的技术顾问委员会,聘请如加州大学伯克利分校大卫·帕特森教授以及计算机图形领域领袖拉贾·科杜里等业界先锋,共同指导HBF技术研发及生态构建。与此同时,SanDisk联手存储巨头SK海力士,携手推动HBF产业标准的制定,保障未来技术能在全球范围内实现广泛应用与商业规模化。未来,SanDisk计划于2026年下半年交付首批HBF样品,预计2027年初推出基于HBF的AI推理设备原型。
HBF技术的问世有望重塑AI记忆体系,为数据中心和边缘设备提供海量且高效的存储资源,让AI模型的规模和推理速度突破历史极限,并带来功耗、成本上的整体优化。随着记忆容量成为AI发展的核心需求,HBF技术将成为新时代内存架构的基石,推动AI应用实现新的飞跃。总体来说,SanDisk高带宽闪存以其卓越的容量扩展能力、接近HBM的高带宽性能以及更优的成本效益,切中了当前AI发展最紧迫的存储需求。配合业界合作伙伴共建标准与生态,HBF正逐步走向成熟并即将投入实际应用。展望未来,记忆中心AI模式将在高速、大容量闪存技术的支撑下,开启更加智能、高效、灵活的人工智能新时代,赋能各行业创新发展,推动数字经济的持续繁荣。 。