近年来,人工智能尤其是大型语言模型(LLM)的发展迅猛,为自然语言处理、机器翻译、智能对话以及各类教育与科研应用带来深远影响。然而,大部分领先的LLM仍处于闭源状态,限制了研究人员与开发者对模型机制和数据来源的深入了解与改进。作为这一背景下的重要突破,瑞士顶尖学术与科研机构 - - 洛桑联邦理工学院(EPFL)、苏黎世联邦理工学院(ETH Zurich)与瑞士国家超级计算中心(CSCS)联合开发了Apertus,这一完全开源、透明且多语言支持的大型语言模型,为人工智能的发展注入了更多开放性与可信任的元素。 Apertus不仅是瑞士首个大规模开源大型语言模型,也是全球为数不多的真正从架构设计、模型权重到训练数据及训练方法全部公开透明的LLM之一。Apertus的名称源自拉丁语"open",直观彰显其开放性核心理念。无论是专业研究人员、AI从业者还是技术爱好者,都可以全面了解其训练细节,实现模型的定制化调整,进而构建各种创新型应用。
Apertus的发布不仅仅满足于展示一个强大的语言模型,更体现了瑞士各大科研机构将AI视为公共基础设施的远见卓识。类似于公路、水电这样的基础服务,Apertus旨在成为一个开放、可靠且可持续发展的人工智能资源,促进学术界、产业界以及社会公众的广泛参与。其核心目标之一,是实现技术主权和自主可控,减少对垄断性闭源AI平台的依赖。 技术层面,Apertus拥有两个版本,分别含有80亿与700亿参数,可满足个人和企业不同规模的需求。训练规模庞大,涵盖了超过十五万亿个训练标记,覆盖千余种语言,其中四成以上数据非英语,特别强调诸如瑞士德语和罗曼什语这类传统上在AI模型中少被关注的语言,强化了其多语种表达和理解能力。 此外,Apertus的训练数据严格遵守瑞士数据保护法规及欧盟人工智能法案(EU AI Act)中的透明度义务,精选公开可用数据源,保护个人隐私,尊重网站机器可读拒绝收录(opt-out)请求,并主动清理敏感信息,确保模型的伦理合规性。
该项目获得了超过一千万GPU小时的计算资源支持,由CSCS的超级计算平台"Alps"提供强大算力,保障了模型训练的高效完成。ETH领域理事会(ETH Board)负责监督资金与战略管理,同时借助瑞士最大电信商Swisscom的战略合作,推动Apertus快速应用与商业化推广。Swisscom已将Apertus集成至其主权AI平台,为企业客户提供安全可靠的访问入口,并在瑞士{ai}Weeks黑客松活动中提供专门接口,帮助开发者深入体验和反馈模型,促进型号迭代优化。 将开放、透明和多语言作为根本设计原则,Apertus力求兼顾技术创新与社会责任。项目组承诺定期更新模型,未来计划拓展专用领域模型,如法律、气候、医疗及教育,提升适应能力,同时保持严格的透明度和合规性。正如EPFL自然语言处理实验室负责人Antoine Bosselut教授所言,Apertus不仅是人工智能强大而开放的证明,更标志着一场长远的开源智能科技旅程的开始。
在全球范围内,Apertus代表着公共AI运动的坚实支柱。该模型通过Hugging Face平台向外界免费开放,支持全球开发者下载使用,形成一个共建共享的开源生态系统。公共AI推理工具(Public AI Inference Utility)也使全球用户能轻松访问,体现了"Apertus由公共机构为公共利益打造"的理念。 此外,瑞士{ai}Weeks活动正成为连接学术、企业开发者与公众的重要桥梁,以协作黑客松、专家座谈、创业培育等多元形式推动AI成果转化,弘扬伦理、开放与可信赖的AI应用文化。 Apertus项目体现了瑞士科研跨学科合作的典范,集合多所高校、顶级计算资源与产业伙伴,展示了如何在AI技术爆炸发展的时代,坚持透明、公正与多样性的原则,为技术自主权和数字主权提供坚实保障。未来,Apertus不但将在推动人工智能基础研究中发挥核心作用,还将引领全球开源AI技术向更安全、包容及创新方向迈进。
综上,Apertus是一款集大规模、多语言、多领域潜力与高透明度于一体的大型语言模型。它将激励更多开发者和科研人员基于公开可信的基础架构,构建具有社会价值和商业潜力的智能应用。随着更多用户参与与持续优化,这一模型必将在人工智能技术生态中占据不可替代的地位,成为公共AI时代的新标杆。 。