近年来,人工智能技术的迅猛发展引发全球范围内对于大型语言模型(LLM)的广泛关注。这类模型在自然语言处理、机器翻译、对话系统及内容生成等领域展现出巨大的潜力。但与此同时,许多现有大型语言模型往往缺乏透明性,模型的架构、权重、训练数据等关键环节通常处于封闭状态,限制了学术界和工业界的深入理解及创新应用。在此背景下,瑞士联邦理工学院洛桑分校(EPFL)、苏黎世联邦理工学院(ETH Zurich)以及瑞士国家超级计算中心(CSCS)联合推出了 Apertus - - 瑞士首个规模宏大的开源、多语言且完全透明的大型语言模型,进一步推动了可信任和开放人工智能的发展。 Apertus 以拉丁语"开放"(Apertus)命名,突出了其核心特色:从模型架构到训练数据集、训练过程甚至中间权重检查点,所有内容均以 Apache 2.0 许可协议完全开放。无论是科研人员、开发者还是AI爱好者,都可以自由获取、分析、部署该模型,并基于它开展个性化开发。
此举切实打破了传统大型语言模型的"黑盒"壁垒,促进人工智能生态系统的民主化。 Apertus目前提供8亿参数和70亿参数两个版本,适用于个人及组织的多种需求。相比许多高资源消耗且限制使用的闭源模型,Apertus的开源许可不仅支持教育科研,也允许广泛的商业应用,形成产学研跨界合作的新典范。该项目得到了包括ETH委员会和CSCS在内的大规模计算资源支持,并与瑞士领先通讯运营商Swisscom建立战略伙伴关系,充分体现了产学合作与公共资源共享的创新精神。 在多语言覆盖方面,Apertus同样展现出独特优势。训练数据涵盖超过1000种语言,覆盖15万亿个训练词元,且其中约40%非英语语料。
这样丰富的语料库不仅弥补了以往主流语言在大型模型中的偏颇,更关注弱势和少数民族语言如瑞士德语、罗曼什语的代表性与使用权利,积极促进语言多样性与文化包容。该项目强调语言模型不仅是技术产物,更是保护社会多语文化遗产的数字平台。 Apertus的训练数据严格遵守瑞士数据保护法规、版权法规及欧盟人工智能法案透明要求,确保所用数据全部为公开可用,并支持机器可读的退出请求,提前清理个人数据及敏感内容,体现了在伦理与合规性上的高标准。模型具备完全可复现的训练流程,配套文档详尽,满足了学术界和产业界对于可信人工智能的期望。 Apertus不仅是技术成果,更是一种社会责任的体现。项目负责人马丁·雅吉教授认为,Apertus展示了如何构建值得信赖、主权可控且包容的人工智能系统,是瑞士在全球人工智能版图中的重要里程碑。
CSCS的托马斯·舒尔特斯教授也指出,Apertus不仅促进从研究到产品的技术转移,更是推动人工智能创新及人才培养的关键驱动力。 Swisscom通过其主权的瑞士AI平台率先部署Apertus模型,彰显了瑞士数字主权与安全生态建设的决心。此外,配合即将举行的Swiss {ai} Weeks黑客松活动,开发者将能够直接体验模型能力,反馈使用体验,促进未来版本的持续改进,这种开放型生态也助力瑞士打造可信赖的AI社区。 Apertus并非孤立开发,而是瑞士AI倡议的重要组成部分。该倡议旨在汇聚跨学科力量和跨机构合作,打造开放、透明、合规的基础人工智能技术,惠及社会公共利益。借助超算中心雄厚的计算资源和数百万GPU小时投入,Apertus将不断升级,逐步拓展至法律、气候、健康与教育等领域的专项应用。
综上所述,Apertus代表了全球范围内少有的大型开源多语言语言模型的典范。它以开放透明为根基,强调多语言支持与道德合规,促进瑞士AI创新生态的持续繁荣。未来,随着技术的不断完善与社区的积极参与,Apertus有望成为公共基础设施般的人工智能工具,为全球范围内更公平、更安全、更包容的数字社会构建强有力支撑。 。