MMKU-Bench提出了首个面向“多模态知识更新”的系统性评测框架,聚焦于多模态大模型在真实世界知识持续演化背景下的参数化知识更新能力。不同于现有研究主要关注未知知识注入,该工作进一步引入“已知知识更新”场景,系统研究模型如何覆盖、修正乃至重构已固化于参数空间中的过时知识表示。为此,本文构建了包含 25K+ 知识实例与 49K+ 图像的大规模基准,并从知识注入效果、通用能力保持、跨模态迁移一致性等多个维度,对 SFT、RLHF 与KE等主流方法进行了深入分析。实验表明,当前多模态模型在知识更新过程中普遍存在显著的知识惯性、灾难性遗忘以及跨模态语义对齐不足等问题,揭示了多模态知识持续学习领域尚未解决的核心挑战。该工作为未来构建可持续更新的多模态大模型提供了重要的研究基础与研究方向。