近年来,人工智能技术的高速发展引发了对高性能芯片需求的持续增长。传统GPU在AI领域具有广泛应用,但它们在功耗和架构灵活性方面的局限逐渐显现,促使产业界探索新架构和设计方案。作为开源指令集架构的代表,RISC-V凭借其开放性和可扩展性,成为芯片设计革新的重要推动力量。SiFive作为RISC-V生态中引领创新的芯片设计公司,正在积极推动其多核心解决方案在AI芯片中的集成,试图摆脱对传统GPU制造商的依赖,力求为AI算力开辟更广阔的空间。SiFive最新发布的第二代智能核心系列,专注于满足不同应用场景的需求,涵盖了从低功耗边缘设备到高性能AI加速器等多种版本。核心架构基于八级深度流水线的双发射顺序执行设计,虽然不适合通用CPU环境,却极为适合担任加速器控制单元,实现对张量核心及矩阵乘加单元的高效数据供给。
通过授权客户使用SiFive的智能核心系列,可以大幅缩短定制芯片的开发周期与成本,增强产品的市场竞争力。第二代智能核心中,X160和X180是面向物联网、无人机及机器人等低功耗应用的新品。X180采用64位架构,支持丰富的数据类型和指令集,尤其优化了AI常用的BF16格式运算。核心之间可以组成最多四核集群,支持128位向量寄存器与64位数据路径,兼顾计算与数据吞吐效率新一代接口设计则引入了标量协处理器接口,允许加速器直接访问CPU寄存器,极大提升了协同运算效率和带宽表现。与此同时,SiFive还更新了中高端智能核心X280和X390系列。新一代X280核经过缓存层级优化,采用灵活的三级缓存体系取消共享三级缓存,转而采用更大容量共享二级缓存,减少芯片面积同时提升缓存利用率。
X390系列则凭借1024位的超宽向量寄存器和更强的算力,面向高性能AI推理和训练场景,其峰值性能相比上一代提升数倍,能够支撑每秒高达1TB数据流通,满足复杂深度学习模型的巨大数据吞吐量需求。SiFive第二代智能核心支持最新RVA23指令集,新增对BF16以及多种自定义微缩数值格式的硬件支持,这些格式在现代AI模型训练与推理中扮演着重要角色,提升了算力和能效比的平衡。Google、Tenstorrent等AI巨头已采用SiFive智能核心作为其张量处理单元和AI加速器的控制单元,这彰显了RISC-V架构的逐步成熟和被主流认可的趋势。除了智能核心之外,SiFive还升级了其XM系列"即插即用"AI加速器IP方案。该方案集成了自主研发的矩阵运算引擎和多核X390智能控制核心,能够提供高达64 TFLOPS的FP8浮点性能。XM架构具备高度可扩展性,单芯片可实现超4 PFLOPS的算力输出,适用于数据中心和高端AI训练任务。
SiFive的产品 roadmap预示着更多基于第二代智能核心的定制芯片将在2026年第二季度陆续面市,意味着RISC-V架构将在AI领域掀起更大波澜。在全球AI算力需求激增的浪潮下,功耗、延迟和灵活性成为新一轮设计竞争的焦点。SiFive以其开放架构和丰富的IP授权策略为客户带来极大便利,促进芯片设计的多样化和差异化。相比传统封闭架构,RISC-V能够让芯片设计者自由定义指令集与架构扩展,更灵活地迎合特定AI应用对性能和功耗的特殊需求。此外,SiFive的设计充分考虑与AI加速器的协同,边缘AI设备与大规模数据中心应用均能受益。低功耗核心适用于传感器网络、无人机以及机器人等场景,而高性能核心和加速器则适配于先进的机器学习训练集群。
RISC-V生态的壮大也助推了硬件和软件层面的创新,包括专用编译器、深度学习框架优化以及调试工具链的完善。SiFive积极参与产业联盟与开源社区,推动生态系统的健康发展,为AI芯片行业未来的多样化发展奠定基础。虽然Nvidia作为GPU领域的领军者,对定制ASIC和RISC-V方案持谨慎态度,仍强调GPU的通用性和编程便捷性,但市场对定制加速器的需求日益增长,特别是在边缘计算和特定AI推理任务中。SiFive的策略显然是补充而非替代传统GPU,融合多核心控制和专用加速器,为不同应用提供最佳硬件组合。未来,随着AI模型愈加复杂,对算力和能效的要求将越来越高,传统方案面临的瓶颈也更明显。SiFive凭借其深耕RISC-V核心设计的技术积累与广泛客户基础,有望在AI芯片生态中占据更重要位置。
总结来看,SiFive通过持续创新和完善其第二代智能核心及AI加速器解决方案,正在推动AI计算硬件从单一架构向多核心、高度协同方向迈进。其关注低功耗边缘场景与高性能数据中心应用的组合策略契合了行业需求多样化趋势。RISC-V核心密集融合不仅助力客户实现更高性能、更低功耗的AI芯片设计,更为AI产业的硬件创新注入了新动力。未来几年,随着更多基于SiFive技术的AI芯片量产上市,RISC-V架构在AI计算领域的地位将逐步提升,推动全球人工智能技术迈入全新阶段。 。