[2025.5.30] MotionPersona: Characteristics-aware Locomotion Control

摘要

我们提出了MotionPersona,一个新颖的实时角色控制器,允许用户通过指定属性(如身体特征、心理状态、人口统计学特征)来刻画角色,并将这些属性投射到生成的运动中来动画化角色。与现有的深度学习控制器(通常产生针对单一预定义角色的同质化动画)不同,MotionPersona考虑了现实世界中各种特征对人类运动的影响。为此,我们开发了一个基于SMPLX参数、文本提示和用户定义的运动控制信号的块自回归运动扩散模型。我们还整理了一个包含广泛运动类型和演员特征的综合数据集,以支持这种特征感知控制器的训练。与之前的工作不同,MotionPersona是首个能够生成忠实反映用户指定特征(例如老年人的蹒跚步态)的运动的方法,同时能够实时响应动态控制输入。此外,我们引入了一种小样本特征化技术作为补充条件机制,当语言提示不足时,可以通过短视频片段进行定制。通过大量实验,我们证明了MotionPersona在特征感知的运动控制方面优于现有方法,实现了卓越的运动质量和多样性。

论文:arXiv:2506.00173(2025.5.30) 项目页:https://motionpersona25.github.io/

一、核心定位

首个实时、统一、多条件的角色运动控制器,能让虚拟角色的行走/跑步等运动,精准反映用户指定的人物特征(体型、年龄、情绪、性格),同时实时响应方向/速度控制 。

二、解决的痛点

现有方法的三大问题:

  • 数据集缺人物特征多样性(多为单一演员)
  • 数据标准化抹平体型-运动关联(高矮胖瘦步态被统一)
  • 模型无法解耦运动内容与人物特质(只能生成同质化动作)

三、核心贡献

  1. MotionPersona 数据集

    • 7种 locomotion(走/跑/侧移/后退/转向)
    • 标注:SMPL‑X体型参数 + 自然语言描述人物特质
  2. 多条件自回归扩散模型

    • 输入三要素:
      • 运动控制:根节点轨迹、方向、速度
      • 体型:SMPL‑X 向量
      • 特质:文本描述(如"年迈、开心、微胖")
    • 架构:扩散模型 + 自回归,实时生成未来运动序列
  3. 小样本定制(Few‑shot Characterization)

    • 用少量示例动作片段微调模型,提取独特风格
    • 解决语言难以描述的细微动作特征