7月25日,清华大学与生数科技联合发布模型。据介绍,作为视频大模型Vidu在智能领域延伸的重大突破,Vidar是全球首个基于通用视频大模型实现视频理解能力向物理决策系统性迁移的多视角具身模型。该模型创新性地构建了支持双臂协同任务的多视角视频预测框架,在保持SOTA性能的同时,展现出显著的少学习优势。
Vidar可在仅20分钟少样本训练下,泛化至全新机器人本体,完成多视角双臂操作任务,所需数据量约为行业领先的RDT的八十分之一,π0.5的一千两百分之一。相比以往依赖百万级动作数据的机器人控制模型,Vidar显著降低了数据门槛与训练成本。
该模型基于生数科技此前推出的视频大模型Vidu,在此基础上融入75万条双臂机器人具身数据,构建统一观测空间后进行预训练,并结合自动化动作采集与逆动力学解码器,实现从视频预测到动作控制的全链路闭环。
清华与生数科技团队还提出“任务无关动作数据”训练范式,通过ATARA方法自动采集机器人动作轨迹,仅需10小时,即可完成机器人动作空间泛化。配合高精度动作执行模型AnyPos,Vidar在实际任务中实现近100%成功率,精度远超当前行业基线33%