Arm Lumex CSS 平台发布: 性能提升超两位数, AI 更智能更高效
近几年,Arm一直会在5月份公布新一代处理器架构,但今年的节奏明显不同。
今年早些时候,Arm首次对外强调了一个重大举措:从单纯的核心IP供应商,向完整的计算平台公司转变。
为此,Arm做了三件事:一、推出面向基础设施、移动终端、车用等细分市场的ComputeSubsystem(CSS,计算子系统);二、保留Mali作为GPU品牌,并将其纳入CSS平台架构;三是简化IP命名体系,使之与平台代系对齐,并通过Ultra、Premium、Pro、Nano等标签区分性能层级。
而这三项转变,在9月10日举办的ArmUnlockedAI技术峰会上海站上迎来了首次落地——面向移动终端市场的ArmLumexCSS平台正式发布。
全新平台的核心组件构成及优势
ArmLumexCSS平台集成了搭载第二代可伸缩矩阵扩展(SME2)技术的最高性能ArmCPU、GPU及系统IP,不仅能助力生态伙伴更快将AI设备推向市场,还可支持桌面级移动游戏、实时翻译、智能助手及个性化应用等多样的丰富体验。
而这次最关键的升级,其实是SME2技术的集成。它让CPU自己就能高效处理矩阵计算,不需要总是把数据丢给NPU或GPU。这样一来,端侧处理语音识别能快上几倍,生成音频更顺滑,大模型聊天的响应时间也缩短了约40%。
(现场展出的SME2应用案例)
至于全新ArmLumex的核心组件,可参考如下表格:
其中,ArmC1-UltraCPU相较上代Cortex-X925性能提升25%,ArmC1-Pro相较Cortex-A725性能提升12%,全新的ArmC1-Premium相较于Ultra缩小35%面积,但相对Pro能有35%单线程性能提升。
AI方面,得益于SME2的加入,ArmCPU的AI性能提升高达5倍,语音类工作负载延迟降低4.7倍,音频生成速度提升2.8倍,让实时的端侧AI推理成为现实。而对于大语言模型(LLM),在支付宝、vivo等第三方合作下,交互响应时间也能缩短高达40%。
GPU部分,MaliG1-Ultra较Immortalis-G925在AI与机器学习网络上的推理速度提升20%、能效提升9%,还支持新一代光线追踪技术,性能相比前代提升2倍,图形基准测试性能提升20%,可以流畅运行《暗区突围:无限》、《堡垒之夜》、《原神》等主流游戏。而MaliG1-Premium和MaliG1-Pro都有不同程度的AI算力和游戏图形处理性能的提升。
生态合作与产业落地
SoC厂商可以直接用Arm提供的平台方案,也可以根据需求去定制。首批落地的产品预估应该就是联发科即将在月底发布的天玑9500,考虑到今年天玑旗舰芯片又大幅缩短了交付时间,这其中是否有ArmLumexCSS的参与,得留到联发科发布会上揭晓。
此外,vivo与Arm联合实验室的最新成果在此次的发布会上正式对外亮相,双方围绕Arm新一代高性能计算技术开展联合共研与验证,深入微架构层级,实现SME2创新特性在智能手机上率先落地。vivo高级副总裁、首席技术官施玉坚明确表示,大家很快就能在vivo即将发布的全新X系列旗舰产品上,体验到这项技术进步带来的惊喜。
总结与未来展望
Arm全新的LumexCSS平台集成搭载SME2技术的Armv9.3CPU集群(含C1-Ultra、C1-Pro等型号)、MaliG1-UltraGPU及系统IP,实现高达五倍的AI性能提升。Arm高级副总裁兼终端事业部总经理ChrisBergey表示:「AI已不再仅仅是一项技术功能,它已成为下一代移动与消费技术的支撑底座。Arm正依托ArmLumex平台,持续提升端侧AI体验,以满足用户日益增长的需求与期待。」
在这样的背景下,Arm推出的Lumex平台不仅是一次单纯的硬件更新,更是对手机AI生态发展方向的一次回应。目前ArmLumexCSS平台已获阿里巴巴、支付宝、三星、腾讯、vivo等生态伙伴采用,可驱动旗舰级智能手机、下一代PC等消费电子设备实现「更智能、更高效、更个性化」的端侧AI体验。