Runway 发布的 Gen-4 高保真 AI 视频模型令人瞩目。它具备出色的角色场景一致性,能精准地生成与设定场景相契合的视频内容。无论是虚拟角色在现实场景中的互动,还是不同场景间的自然过渡,Gen-4 都能游刃有余地处理,呈现出高度逼真的视觉效果。这一模型为影视制作、广告等领域带来了新的可能性,大大提高了创作效率,让创作者能够更轻松地实现复杂的视觉构想,为观众带来震撼的视觉体验,推动了 AI 在视频领域的进一步发展。
4月1日,人工智能初创公司Runway发布了其最新研发的AI视频生成模型Gen-4,声称这是目前保真度最高的AI驱动视频生成工具之一。Gen-4模型已经开始向Runway的个人及企业客户推送,其核心优势在于能在不同视频场景中保持角色、地点和物体的高度一致性,创造连贯的世界环境,并能从不同视角和位置重新生成元素。
Runway获得了Salesforce、谷歌和英伟达等知名投资机构的支持,专注于提供AI视频创作工具。面对来自OpenAI和谷歌等科技巨头的竞争,Runway采取了差异化策略,与好莱坞大型电影制片厂合作,并资助使用AI生成视频技术的创作项目。Gen-4的功能包括在不同光照条件下生成外观一致的角色,以及根据用户上传的图像和文字描述生成符合要求的镜头构图。
Runway强调Gen-4在生成动态感强和逼真运动效果的视频方面表现出色,并在一致性、遵循用户指令和理解现实世界规律方面达到顶尖水平。尽管Gen-4模型通过对大量视频数据训练而成,Runway拒绝透露训练数据的具体来源,部分原因是保护商业竞争优势,也因为训练数据细节可能涉及知识产权诉讼。目前,Runway正面临艺术家群体提起的诉讼,指控其未经授权使用受版权保护的艺术作品训练AI模型,Runway主张其行为受“合理使用”原则保护。
