近年来,人工智能领域的进步主要聚焦于模型规模的不断扩大,数百亿乃至上千亿参数的巨型模型成了领先技术的代表。然而,虽然大型模型在能力上表现卓越,但其庞大的计算需求和对云端依赖的特点使得低成本、高效率的普及变得遥远。Liquid Nanos则在这样的背景下应运而生,开创了以超小规模且具备尖端性能的基础模型为核心的边缘AI新纪元。Liquid Nanos是一系列参数规模从三亿五千万到二点六十亿不等的任务专用基础模型,具备能够在现代手机、笔记本甚至嵌入式设备上本地运行的能力。它们以极低的延迟和极小的内存占用,实现在各种专业化智能任务上的卓越表现,媲美甚至超越了数百倍参数规模的大型模型。与传统AI部署模式相反,Liquid Nanos将复杂智能下沉至设备端,不再需要将所有数据传输至云端中心计算。
这种设计不仅提升了响应速度,有效降低延迟,而且在隐私保护、抗网络中断能力和能源效率方面也显著优于云计算依赖的模型,极大降低了运营成本并实现了规模化普及的可能。Liquid Nanos基于先进的预训练技术结合独特的后训练机制,专注于几个关键的智能能力模块,包括精准的数据提取与结构化输出、多语言理解、基于检索增强生成技术的长文本问答、数学推理以及工具与函数的高效调用。其占用内存范围在100MB至2GB之间,非常适合资源有限的边缘设备。特别值得一提的是,尽管模型参数量仅为传统大型模型的数百分之一甚至更小,Liquid Nanos在设计任务上能够匹配甚至超越一般人工智能巨头产品。Liquid Nanos系列现已推出首批实验性任务专用模型。例如,LFM2-Extract模型专门用于从非结构化文本中抽取信息,能够将类似发票邮件之类的文档自动转换成结构化的JSON、XML或YAML格式。
该模型支持英语、阿拉伯语、中文、法语、德语、日语、韩语等多种语言,覆盖广泛的业务场景。此抽取技术的成功关键在于采用大量多样且合成的训练数据,确保模型对不同文档类型、风格与结构的适应能力,以及各类数据分布和复杂性的覆盖。评估结果显示,与Gemma 3 27B这一拥有二十二倍参数规模的模型相比,LFM2-1.2B-Extract在输出质量和准确性上有显著提升。另一款代表性产品LFM2-350M-ENJP-MT针对中英双向翻译任务进行了专门的优化。虽然仅有三亿五千万参数,但通过全面、多样的训练内容,涵盖聊天信息、新闻文章、技术文档等多种文本类型,在公开的llm-jp-eval日英翻译测试中表现突出,甚至能够与GPT-4o匹敌。此模型尤其适合需要低延迟、高隐私以及无需联网的本地翻译环境,为移动设备和智能端提供了强大的跨语言交流能力。
LFM2-1.2B-RAG则是一款专注于检索增强生成(RAG)的模型,能够基于输入的上下文资料进行准确且基于事实的问答。无论是产品文档、内部知识库还是学术资料,这款模型都可以有效地结合检索信息,提供高质量、多轮互动的智能问答服务。它在自动评测中表现优异,较好地平衡了内容的准确性、相关性以及用户需求的满足感。此外,LFM2-1.2B-Tool专为实时工具调用场景设计,重点保证了即时响应和较低延迟的特点,非常适合车载系统、物联网设备以及客户支持等需要快速云端以外处理的领域。它在不使用内部连锁思考(chain-of-thought)机制的情况下,依然能够超越类似规模思考模型的调用表现,展现了极其高效的智能执行能力。非常值得关注的是,Liquid AI还推出了针对数学推理的LFM2-350M-Math模型,虽小巧但经强化学习精心调校,能够适应竞赛级别的复杂算题,体现了小模型通过结构化推理和测试时计算增强,攻克传统难题的可能。
还有由社区主导的Luth-LFM2系列,针对法语用户进行了专业深度微调,兼顾法语与英语服务,推动了多语言基础模型的跨语种协同发展。Liquid Nanos的技术优势显而易见。它们极大地缩减了模型大小,从不同维度满足边缘设备的内存和算力限制,实现了无云依赖的本地推理。同时,在多任务、多语言和多场景中保持了业界领先的性能。对于企业和开发者来说,Liquid Nanos带来的变革不仅是性能提升,更是灵活部署和经济规模化的解决方案。未来,随着5G与物联网的普及以及隐私法规的趋严,边缘智能的需求将愈加熠熠生辉。
Liquid Nanos预计将在汽车、消费电子、金融、电商、生命科学甚至工业机器人等众多领域深度渗透,推动智能化进程的无缝升级。开发者可通过Liquid AI的LEAP平台,在iOS、Android及桌面环境中直接使用这些模型,也能基于开放许可的Hugging Face生态实现模型定制与扩展。整体来看,Liquid Nanos不仅是技术创新的象征,更是一次AI理念的颠覆 - - 以长远的视角解决现实世界的约束难题,开启了云外智能的无限可能。未来,它有望成为AI应用普及的基石,助力各行各业迈入智能高效的新时代。 。