近日,米哈游创始人蔡浩宇在新加坡创立的新公司Anuttacon发布了新一代视频角色表演生成模型LPM1.0(LargePerformanceModel)。该模型专注于AI交互式内容和AGI产品研发,采用17B参数的扩散Transformer架构,旨在提升复杂视频生成任务中的表达能力。LPM1.0通过逐步加噪与去噪过程学习数据分布,从随机噪声中恢复出目标内容,实现高质量生成。
LPM1.0的设计目标是面向“角色表演生成”细分场景,对人物动作、表情以及语义驱动的表现进行统一建模。该模型支持不同粒度的控制能力,包括基于文本、参考视频或图像等多种条件输入,生成具有连贯动作与表现力的角色视频内容。在推理阶段,LPM1.0能够从用户音频生成倾听视频,从合成音频生成说话视频,并支持文本提示进行动作控制,所有过程均以实时速度运行,并保持身份稳定和无限长度生成。
LPM1.0的应用场景广泛,包括对话智能体、直播角色和游戏NPC的视觉引擎等。研究团队还提出了LPM-Bench,作为首个交互式角色表演基准,LPM1.0在所有评估维度上均取得了最优结果,同时保持实时推理能力。目前,该模型仅供非商业学术使用,暂无计划对外发布模型权重、源代码、在线演示、API、产品或任何相关服务。


