4月19日,《国际金融报》记者获悉,在当日举行的2026北京亦庄机器人半程马拉松现场,阿里巴巴旗下高德正式公开全球首款开放环境全自主具身机器人“高德途途”。这款四足机器人成功协助视障人士完成复杂避障、人群穿行等实战挑战,突破了从“实验室”到“开放环境”之间的技术鸿沟。
据官方介绍,高德途途能够应对导盲等严苛场景,其底层依托正是高德全新发布的ABot全栈具身技术体系。该体系基于上万种真实场景与千万级多模态Clip数据,将高德沉淀多年的空间智能资产高效转化为具身核心训练资源,打造出全球首个面向AGI的全栈具身技术体系。
ABot体系采用闭环飞轮式设计,涵盖数据、模型、应用三层。该架构并非简单堆叠,而是深度咬合、互为引擎,实现“数据驱动模型、模型服务应用、应用反哺数据”,精准击穿数据稀缺、仿真鸿沟与技能泛化三大行业瓶颈,形成持续自我进化的完整闭环。
在数据层,ABot-World通过批量合成Video、Depth、Point Cloud、Trajectory四类训练数据,配合RL Training Engine在虚拟环境中定义奖惩、反复试错。该模型以高保真仿真替代高昂的真机采集,从根本上弥合Sim-to-Real鸿沟,将数据成本压缩数个数量级。
据了解,当主流世界模型仍受困于“视觉幻觉”与动力学脱节时,ABot-World率先取得突破,成为全球首个将物理定律深度嵌入生成全流程的可微分、可进化动力学引擎。作为ABot体系的底层仿真基座,它直接决定了上层模型的物理一致性与泛化上限。正是以该引擎为核心,ABot体系彻底打通了从“虚拟训练”到“真实部署”的闭环。
架构层面,ABot-World专为具身智能设计了14B DiT架构,以观测与动作为输入,在潜空间直接生成符合时空动力学的未来状态序列,并基于千万级真实数据与多层级采样治理,突破单一任务的泛化制约。在场景构建方面,3DGS冷启动空间基座面向手机拍摄、航测图等稀疏输入,通过“粗建模、高保真修复、蒸馏回环”的自动化流程,将低质量视频转化为高质量3D场景,大幅降低数据成本。此外,ABot-World还构建了“训练+数据”双引擎并行架构,实现模型自进化。依托自有地图与脱敏数据,结合3DGS技术实现厘米级重建与光照一致性,系统已累计生产万级3D真实场景、百万级推理数据与千万级训练轨迹,覆盖99%的典型生活场景。通过接入VLA闭环,模型实现“预测即训练,演练即学习”的持续进化,并经由跨形态动作映射,统一支持多种机械形态的精确控制。
在模型层,ABot体系重点解决具身操作的通用性与导航的长程性难题。其中,ABot-M负责操作,ABot-N负责导航,两个模型分工训练,通过Model Skill机制组合调用,共同完成长程复杂任务。
在应用层,其核心是具身版“龙虾”——ABot-Claw。它通过将异构机器人统一于共享认知框架之下,打造具备调度、记忆、分层控制与社会对齐能力的“执行中枢”,以应对长程任务闭环难、知识不共享等现实挑战。
值得一提的是,为突破传统机器视觉“视野之外即荒原”的碎片化记忆瓶颈,ABot-Claw首创“Map as Memory”理念,将高德地图与用户私有地图设为全局认知锚点,形成可动态刷新、持久沉淀的“世界记忆”。新终端接入后,仅需读取全局上下文即可零成本继承环境认知,彻底打破场景孤岛。
此外,ABot-Claw还采用“云端大脑—边缘响应”两级设计,兼顾智能深度与执行可靠性,支持多种异构机器人的并行协作与任务接力。故障发生时,系统可自动接续,实现任务上下文的无缝移交与跨形态协作。这标志着机器人系统正从“单体智能”向“体系智能”演进。