加密骗局与安全

Multiverse Computing引领量子网络革命,大幅压缩大型语言模型提升AI效率

加密骗局与安全
Multiverse Computing compresses LLMs 95% with "quantum" networks, raised €189M

Multiverse Computing通过创新的量子计算灵感网络技术,实现大型语言模型高达95%的压缩率,显著降低AI推理成本并提高速度,为人工智能应用开辟全新前景。本文深入解析该技术原理、市场意义及未来发展趋势。

在人工智能领域,尤其是大型语言模型(LLMs)的快速发展中,模型庞大的体量和高昂的计算成本一直是业界痛点。近日,西班牙初创企业Multiverse Computing凭借其独创的量子计算启发式压缩技术“CompactifAI”,引起了广泛关注。该技术能够将大型语言模型的规模缩减高达95%,同时保持模型性能不受影响,显著降低了模型运行的资源消耗和成本。通过最新一轮筹集的1.89亿欧元(约2.15亿美元)融资,Multiverse Computing正加速推动这项颠覆性技术的商业化应用,展现出在AI压缩与推理优化领域极具潜力的未来。 Multiverse Computing所开发的CompressifAI技术核心基于张量网络(tensor networks)理论,这种数学和物理工具最初用于模拟复杂量子系统的状态。在实际应用中,张量网络能够高效表示和处理大规模数据结构,从而实现对深度学习模型的有效压缩。

与传统的参数剪枝或稀疏化方法不同,张量网络在保留神经网络重要特征的情况下,大幅度减少冗余信息,优化参数表达,从数学层面深刻提升模型紧凑性与计算效率。 目前Multiverse Computing已针对开源的知名小型及中型语言模型,如Llama 4 Scout、Llama 3.3 70B、Llama 3.1 8B以及Mistral Small 3.1,成功建设了经过压缩的“瘦身”版本。除了即将发布的DeepSeek R1之外,团队还在积极开发更多开源及推理型模型的压缩版本,这些模型支持企业通过亚马逊云服务直接调用,或者许可在本地服务器使用,满足不同使用场景的需求。值得注意的是,目前该技术尚未覆盖OpenAI等闭源商业模型,但开源模型的广泛应用已足以验证技术价值及市场潜力。 由于压缩后的模型体积大幅减小,Multiverse的“瘦身”模型不仅显著提升推理速度,达到原模型的4至12倍,还能实现推理成本降低50%至80%。具体来看,以Llama 4 Scout Slim为例,其在AWS云平台上的推理成本仅为每百万token 10美分,而原版模型的成本为14美分。

此外,压缩后模型能源效率极高,可运行于普通PC、手机、汽车、无人机,甚至于资源受限的树莓派等嵌入式系统,使得AI推理应用变得更为普及与灵活。未来,将出现更多基于边缘设备的智能应用场景,例如物联网( IoT )设备中的自然语言处理和实时推断,彻底颠覆人工智能的使用边界。 Multiverse Computing的技术优势离不开创始团队的深厚技术积累。CTO Román Orús是西班牙Donostia国际物理中心教授,国际知名张量网络领域专家。他的研究为CompactifAI的发展奠定了坚实的理论基础。CEO Enrique Lizaso Olmos则拥有丰富的数学及金融背景,曾任大型银行副首席执行官,具备卓越的商业运营和资本运作能力。

在这样的团队力量推动下,Multiverse Computing已获得包括Bullhound Capital在内的多家知名投资机构的资金支持,投资方名单涵盖HP技术创投、Forgepoint Capital、Santander Climate VC等,彰显资本市场对其技术与商业模式的高度认可。 在企业客户方面,Multiverse Computing已在全球拓展约百余家合作伙伴,包括实力雄厚的工业巨头伊柏德罗拉(Iberdrola)、博世(Bosch)及加拿大银行等。这些企业通过引入多维度压缩模型优化AI部署,获得了显著的计算效率提升和成本节省,进一步促进了生产力提升和数字化转型进程。随着AI技术的快速普及,工业界对于低成本高性能智能解决方案的需求日益旺盛,Multiverse的创新技术无疑提供了有力的技术路径与实践方案。 Multiverse Computing的技术创新不仅助力于降低AI基础设施的运行门槛,也为实现更环保的人工智能生态贡献积极力量。由于模型压缩后计算资源需求大幅减少,服务器能耗同步降低,有助于缓解数据中心对环境造成的压力。

这种高效且绿色的AI解决方案与当下全球日益重视的可持续发展目标高度契合,为未来AI产业的可持续发展提供了良好示范。 未来,Multiverse Computing计划持续拓展更多主流开源和推理型模型的压缩适配,深入布局行业场景。随着量子计算研究的持续推进,张量网络等量子灵感数学工具应用范围将进一步扩大,或将成为AI模型优化和智能计算的关键技术路径。与此同时,公司也在积极探索将压缩模型优势结合边缘计算与5G网络布局,推动实时智能服务在各类终端上的普及应用。 综上所述,Multiverse Computing的CompactifAI技术凭借其深厚的量子计算理论支持和创新的实现路径,为大型语言模型带来了革命性的压缩能力,极大提升了模型运行的速度和节省了计算成本,彰显了未来人工智能发展的新方向。随着更多资金的注入和市场需求的增长,该公司在AI模型压缩及加速领域有望保持领先地位,推动人工智能技术更广泛的应用和普及,促进智能时代的高效与绿色变革。

加密货币交易所的自动交易 以最优惠的价格买卖您的加密货币 Privatejetfinder.com

下一步
A mathematical model that predicts human biological age
2025年08月31号 06点29分06秒 揭开衰老之谜:基于生理特征的数学模型精准预测人体生物年龄

探索一种创新的数学模型,凭借多项生理指标评估人体生物年龄,揭示遗传和环境对衰老影响的新视角,为延长健康寿命带来希望。

OpenAI Testing Agent Demo
2025年08月31号 06点30分13秒 深入解析OpenAI测试代理演示:自动化前端测试的未来之路

探索OpenAI测试代理演示如何革新自动化前端测试流程,结合CUA模型与Playwright实现智能化测试,助力开发者提升效率与质量。本文全面介绍该技术架构、使用方法及未来发展潜力。

Show HN: frep – fastest find-and-replace CLI
2025年08月31号 06点31分08秒 frep:极速查找与替换命令行工具的深度解析与实用指南

探讨frep这款高效的查找与替换命令行工具,介绍其核心功能、性能优势、安装方式及应用场景,为开发者和运维人员提供切实可行的解决方案。深入理解frep如何在大规模代码库和文件系统中实现极速查找替换,提升工作效率。

Show HN: NotebookLM Hub – Discover and share curated NotebookLM collections
2025年08月31号 06点31分53秒 探索NotebookLM Hub:连接知识社区,分享精选笔记本内容

深入了解NotebookLM Hub平台如何帮助用户发掘和分享精选的NotebookLM笔记本,促进知识交流和社区建设,涵盖从科研论文到商业指南的多样内容资源。

Serverless Async Task Queue System
2025年08月31号 06点32分35秒 无服务器异步任务队列系统:Python开发者的高效解决方案

随着现代应用对异步任务处理需求的增长,无服务器异步任务队列系统为Python开发者提供了简洁、高效且可扩展的解决方案,极大提升了开发和部署效率。本文深入探讨了该系统的核心优势、使用场景及其在实际开发中的应用价值。

Ethereum ETF inflows reach second-highest level in 2025 as ETH’s market confidence climbs
2025年08月31号 06点33分19秒 2025年以太坊ETF资金流入创新高 市场信心持续攀升

随着以太坊在2025年表现强劲,其支持的交易所交易基金(ETF)资金流入创下年度第二高记录,反映出机构投资者对以太坊资产的信心显著增强。市场动态、技术升级和监管环境的积极变化共同推动了这一趋势,为以太坊的发展注入了新活力。

Show HN: Tool-Assisted Speedrunning the Boring Parts of Animal Crossing (GCN)
2025年08月31号 06点36分26秒 用树莓派Pico加速《动物森友会》GameCube键盘控制的创新技术探秘

探讨如何通过树莓派Pico和GameCube键盘控制器实现《动物森友会》(GCN)中繁琐环节的自动化操作,提高游戏效率和体验,同时介绍相关硬件制作流程和软件开发细节。