5月11日,面壁智能携手清华大学及OpenBMB开源社区,发布了新一代端侧多模态大模型MiniCPM-V4.6,并宣布开源。该模型参数规模为1.3B,仅需约6GB内存即可在端侧设备上流畅运行,显著降低了多模态AI在智能终端的落地门槛。MiniCPM-V4.6已在GitHub和HuggingFace等平台开源,并提供Testflight测试版本,支持iOS、Android和HarmonyOS等操作系统。
MiniCPM-V4.6在多个权威基准评测中表现优异,超越了同尺寸主流模型。在ArtificialAnalysis评测中,以13分的成绩超越了更大尺寸的模型,整体能力接近更高级别的模型。效率方面,MiniCPM-V4.6实现了参数更大、效率更高的反超,Token吞吐量达到Qwen3.5-0.8B的1.5倍,计算Token消耗仅为后者的2.5%左右。性能与效率的提升得益于LLaVA-UHDv4架构和混合视觉Token压缩模式的技术创新。
在高分辨率图像处理方面,MiniCPM-V4.6同样表现出色,处理3132×3132分辨率高清大图时,首字响应延迟约75.7毫秒,较同基座规模的Qwen3.5-0.8B快2.2倍。开源生态支持方面,MiniCPM-V4.6提供了从微调到部署的完整工具链,适配主流微调框架,并支持多个高性能推理框架。此次开源将进一步推动多模态大模型在端侧设备的应用效率。


