中证报中证网讯(记者王婧涵)8月9日,北京人形机器人创新中心在2025世界机器人大会具身智能技术与应用论坛现场发布了四项具身智能核心成果——“具身世界模型体系”“跨本体VLA模型”“人形机器人全身控制自主导航系统”和“千台机器人真实场景数据采集计划”,加速具身智能从技术突破迈向产业实用。
作为机器人认知与预判能力的基础,北京人形机器人创新中心推出“具身世界模型体系”,为机器人理解现实与预测变化提供核心大脑。这一体系包含具备物理时空理解与推理能力的72B具身多模态大模型以及实现神经网络驱动世界模拟器的具身智能世界基座模型。基于超过5000小时视频数据训练的具身世界模型Wu,则为具身机器人提供了“看见未来”的眼睛,并以未见场景下的泛化能力,解锁具身无限数据的可能性。
要让机器人在多本体与多场景中灵活适配,“跨本体VLA模型”为技术通用性和能力扩展提供关键支撑。北京人形机器人创新中心发布的跨本体VLA模型XR-1,让同一模型实现跨本体运行、多场景适配、多技能调用。多种机器人本体上的大量真实环境测试,实证了该方法的多本体、多技能、多任务、稳健泛化能力,以及其在快速掌握新技能上的巨大潜力。
北京人形机器人创新中心具身智能负责人车正平表示,当下行业期待的VLA模型还面临动作预测难、本体差异大、数据难兼容、任务泛化弱的问题。模型直接从图像像素空间映射到机器人操作空间,存在优化困难和预测不准确问题;不同构型的机器人本体外观、形态、动作表现差异大,直接应用难以兼容;模型对新任务指令和新场景环境的扩展性不足,依赖大量特定数据重新学习或者长时间适应。
为让核心能力持续进化,北京人形机器人创新中心推出“千台机器人真实场景数据采集计划”,通过搭建远程遥操作中心,让千台机器人走出实验室,深入工厂车间、物流仓储、酒店商超等真实工业场景,在执行实际作业任务的同时,持续采集多模态交互数据。与实验室场景不同,真实场景的环境变化、人为扰动、突发状况等因素,为具身智能模型提供了更加丰富、真实的训练素材。
与会嘉宾一致认为,产业化是具身智能发展的必经之路,构建一套标准化、可复制的技术跃迁方案,将是未来行业能否实现规模化落地的关键。