在科技浪潮奔涌向前的大招当下 ,人工智能 (AI) 早已超越单纯技术功能的术赋范畴,成为下一代移动与消费技术的大招核心基石。当下,术赋用户对于设备端的大招需求呈现出多元化与高要求并存的态势。他们渴望从设备端直接获得即时 、术赋精准的大招实时辅助,实现无缝沟通,术赋享受个性化内容,大招同时对隐私保护和性能稳定有着严苛要求。术赋显然 ,云计算大招传统的术赋渐进式升级已难以满足这些需求 ,行业迫切需要一场根本性变革,大招以可扩展的术赋方式将性能、隐私与效率完美融合 ,大招开启全新的科技篇章。
2025 年 9 月 10 日,Arm 在其全新打造的 AI 技术领导力峰会 Arm Unlocked 2025 上海站,正式宣布推出全新 Arm® Lumex™ 计算子系统 (Compute Subsystem, CSS) 平台,这是一套专为旗舰级智能手机及下一代个人电脑加速其 AI 体验的先进计算平台。
Lumex CSS 平台集成了搭载第二代可伸缩矩阵扩展 (SME2) 技术的服务器租用最高性能 Arm CPU 、GPU 及系统 IP,不仅能助力生态伙伴更快将 AI 设备推向市场,还可支持桌面级移动游戏、实时翻译、智能助手及个性化应用等多样的丰富体验。目前 ,Arm 正积极将 SME2 技术扩展至每一个 CPU 平台。预计到 2030 年,SME 与 SME2 技术将为超过 30 亿台设备新增超 100 亿 TOPS 的计算能力 ,为端侧 AI 性能带来指数级跃升。

搭载 SME2 的 Arm C1 CPU 集群 ,为实际场景中的高防服务器 AI 驱动型任务带来了显著的 AI 性能提升:AI 性能最高可提升五倍,语音类工作负载延迟降低 4.7 倍 ,音频生成速度提升 2.8 倍,为多样化的 AI 驱动任务提供了更强大的支持。
Arm 高级副总裁兼终端事业部总经理 Chris Bergey 表示 ,Arm 在所有 CPU 平台上全面启用 SME2 技术 ,为开发者带来更强的 AI 性能 、更低的内存占用,并让端侧 AI 运行更加流畅。SME2 的推出 ,建站模板标志着移动端 AI 开发迈入对开发者更为友好的新时代 。
SME2 的价值更体现在用户日常应用的实际体验中。得益于 SME2,如今“智能瑜伽教练”应用的响应速度与效率已提升至全新水平。文本转语音性能提升 2.4 倍,用户可即时获得姿势指导反馈,同时无需担忧电池续航 。此外 ,通过 Arm 、支付宝与 vivo 的三方合作下,将大语言模型 (LLM) 的模板下载交互响应时间缩短了多达 40%,充分证明了 SME2 可为终端设备带来更快速的实时生成式 AI 体验。
SME2 不仅着眼于速度提升,更释放出传统 CPU 无可比拟的 AI 驱动实力。例如 ,在搭载 SME2 的单个核心上运行神经摄像头降噪功能,可以在 1080P 分辨率下实现帧率超 120 帧/秒 (fps) ,或在 4K 分辨率下实现帧率达 30fps。这使得智能手机用户即使身处光线最暗的场景,也能捕捉到更锐利、清晰的图像,源码库进而在日常设备上获得更流畅的操作交互与更丰富的使用体验。
不同于受到延迟、成本及隐私问题等挑战的云优先 AI ,Lumex 将智能引入设备端,能够在本地实现更快 、更安全且随时可用的智能体验。SME2 已经广受业界领先生态伙伴的采用 ,包括阿里巴巴 、支付宝 、三星 System LSI、腾讯及 vivo。
在 Lumex 平台上,开发者可以获取开机即用的 AI 开发体验 。通过 KleidiAI 与各大主流框架的集成,包括 PyTorch ExecuTorch 、Google LiteRT 、阿里巴巴 MNN 及微软 ONNX Runtime,开发者无需修改任何代码,即可自动取得 SME2 的加速能力 Gmail、YouTube 和 Google Photos 等 Google 应用现已全面支持 SME2 ,确保搭载 Lumex 的设备一经上市即可无缝运行 。支付宝等合作伙伴已上架多个基于 SME2 高效运行的端侧大语言模型 (LLM)。
以往 CPU 多是在既有组件和功能上做优化 ,此次Arm Lumex CSS 中SME2 的引入 ,助力安卓生态全面拥抱AI加速 —— 其价值不仅在于提升速度 ,更在于释放传统 CPU 难以企及的 AI 驱动功能 ,为终端设备的智能体验升级打开了全新空间 。
顶: 724踩: 18329
评论专区