[2025.10.15]UniPhys: Unified Planner and Controller with Diffusion for Flexible

摘要

生成自然且物理上合理的角色运动仍然具有挑战性,特别是在需要处理多样化引导信号的长时程控制场景中。虽然先前的工作结合了基于扩散的高层运动规划器和低层物理控制器,但这些系统存在域间差距,会降低运动质量并需要针对特定任务进行微调。为了解决这个问题,我们提出了 UniPhys,这是一个基于扩散的行为克隆框架,将运动规划和控制统一到单一模型中。UniPhys 能够基于多模态输入(如文本、轨迹和目标)生成灵活、富有表现力的角色运动。为了应对长序列中累积的预测误差,UniPhys 采用扩散强制(Diffusion Forcing)范式进行训练,学习对噪声运动历史进行去噪并处理物理模拟器引入的差异。这种设计使 UniPhys 能够稳健地生成物理上合理、长时程的运动。通过引导采样,UniPhys 能够泛化到各种控制信号(包括未见过的信号),而无需针对特定任务进行微调。实验表明,UniPhys 在运动自然性、泛化能力和鲁棒性方面均优于先前的方法。

核心问题是什么?

输入用户控制信号,生成PD控制的目标。

相关工作

[2024.11.19]Maskedmimic: Unified physics-based character control through masked motion非常类似,这两篇文章都是输入用户控制信号,生成pd控制的目标。

核心贡献是什么?

这两篇文章的区别在于训练生成模型时所使用的pd控制目标的来源不同。

大致方法是什么?

在这篇文章中,在训练生成模型之前会对mocap数据做一个预处理。他会让mocap数据过一遍pd控制让数据强行变成一个物理合力,但是可能比较僵硬的动作数据。这个物理合理,但是动作僵硬的数据就是生成模型的GT。

有效性

所以这个方法所生成出来的动作也是物理合理,但是会有点僵硬的。

缺陷

验证

启发

这篇文章的好处是它不需要强化学习和蒸馏学习训练会更简单,在推断的时候不需要轨迹优化,只需要一个模型就可以完成推理。

遗留问题