随着人工智能及高性能计算需求的不断增长,硬件加速器的创新成为科技公司激烈竞争的焦点。作为行业领先的芯片制造商,AMD于2025年6月发布了全新Instinct MI350系列加速器,力求在与NVIDIA最新一代Blackwell架构产品的较量中占据一席之地。这一全新系列由两个主要型号构成,分别是MI350X和MI355X,两者在规格和性能上有所差异,但均采用了先进的3纳米制程工艺,代表了AMD目前的最高研发水平。MI350系列的发布不仅仅是简单的迭代升级,更体现了AMD技术和市场战略的明显转变,其重点放在人工智能应用的加速上,尤其是针对深度学习训练和推理任务的优化,这也是近年来AI技术爆炸性发展的必然趋势。 AMD Instinct MI350系列的诞生,继承了MI300系列的成功基因。MI300系列曾在超级计算机El Capitan中表现出色,同时也在微软Azure等云计算平台的AI加速方面取得显著成绩。
相比之下,MI350系列则更加注重架构创新,提升内存带宽和计算性能,尤其是在FP4和FP6浮点运算性能方面实现了20PetaFLOPS的突破,满足了未来AI模型对复杂计算的需求。值得一提的是,MI350系列配备了高达288GB的HBM3E高带宽内存,这不仅大幅改善了数据传输效率,还减少了因内存瓶颈而带来的性能损失。与市场竞争对手NVIDIA Blackwell架构相比,AMD在性能和功耗比方面做出了精心优化,确保在多GPU配置的服务器环境中具备强大且稳定的表现。特别是MI355X版本采用了液冷设计,在1400瓦的功耗水平下,能够提供顶级性能,适合高密度数据中心部署;而MI350X则主打空气冷却,兼顾灵活性和散热效率,满足不同客户的需求。 从技术规格来看,AMD设计了统一的UBB8八GPU模块,使得MI350系列可以无缝兼容现有的HGX 8-GPU系统架构,方便数据中心进行平滑升级和扩展。该模块化设计不仅提升了系统的整体密度,也确保了高带宽互联,降低了多GPU协调工作时的延迟。
此外,AMD计划通过开放行业标准和技术生态建设,比如支持UltraEthernet Consortium (UEC)及UALink协议,实现更大规模的集群互联和弹性扩展,推动AI计算集群从单机到机架级别的进步。未来,整合多达64至128个GPU的高性能机架级解决方案将成为主流,单个机架将拥有高达36TB的HBM3E内存,极大提升深度学习训练和推理任务的效率。 在实际性能表现上,AMD公开展示了MI355X相较于上一代MI300X以及竞争对手NVIDIA GB200和B200的多项对比测试。尤其是在热门AI模型如DeepSeek R1、Llama 3 7.0B和Llama 4 Maverick上,MI355X的推理速度和训练能力提升了3到3.3倍之多。这不仅意味着更快速的模型迭代和开发效率,同时也降低了AI应用的部署成本。AMD还强调其在预训练和微调任务中的优势,由于高带宽内存和先进的多线程设计,MI350系列在大规模模型训练时具备更低的通信延迟和更佳的扩展性。
虽然NVIDIA依然是市场的主导者,AMD这次带来的性能和成本优势预示着激烈的市场竞争将进一步加剧,用户则能从中受益获得更多选择。 AMD此次重点推广价值导向的产品策略,充分考虑到企业客户在成本效益和性能平衡方面的需求。与以往单纯追求极致性能不同,MI350系列致力于降低$ / token的计算成本,这对于大规模AI训练尤其重要。数据科学家和工程师将能够利用更高效的硬件平台,加速从研究到生产的转化进程。此外,MI350系列兼容AMD ROCm 7软件堆栈,为开发者提供成熟且灵活的编程环境,极大降低了开发难度和学习曲线。 展望未来,AMD在Instinct系列的路线图上设定了持续年度发布节奏,致力于在AI加速器领域与竞争对手保持不相上下的技术领先地位。
从MI350到即将推出的CDNA 5架构和更广泛的AI硬件生态,AMD不断拓展边界,围绕人工智能和高性能计算市场不断创新。与此同时,双方在数据中心、云计算和超级计算机领域的竞逐将促进技术进步和产业繁荣。 在MI350系列身上,我们看到了一款真正意义上的AI计算加速器,它紧扣时代脉搏,融合了顶尖工艺、创新架构和开放标准。对于企业用户而言,这意味着能够更有效地应对日益增长的AI工作负载,实现更智能的业务应用和创新。面对复杂多变的技术环境,AMD凭借Instinct MI350系列展示了其在AI计算领域的雄心和实力,注定将在未来数年成为推动行业发展的重要引擎。随着更多详细的架构解析和性能测试发布,用户和行业观察者将进一步深入了解这一系列产品的潜力与价值。
无论是科研机构、大型云服务提供商,还是创新型AI初创企业,AMD Instinct MI350系列都为下一代智能计算提供了坚实的硬件基础,谱写了新一代AI计算的辉煌篇章。