新芒xAI 6月9日消息 昨日,面壁智能发布端侧大模型MiniCPM 4.0。
该公司称新模型通过自研CPM.cu推理框架,在极限场景下实现最高220倍提速,常规5倍提速,支持在vLLM、SGLang、LlamaFactory等框架部署。
新芒xAI评论
面壁智能最新发布的端侧大模型MiniCPM 4.0,标志着AI领域在终端设备本地化部署的竞赛中又迈出了关键一步。在行业普遍致力于将大模型“塞进”手机和个人电脑的背景下,面壁智能的策略核心不仅在于模型本身的轻量化,更在于通过自研的CPM.cu推理框架,从根本上优化了模型的运行效率。
其宣称的极限场景下高达220倍、常规场景下5倍的提速,若能在实际应用中得到广泛验证,将极大地提升AI在离线环境下的可用性和实时性,为实现更复杂的端侧智能应用扫清了性能障碍。