北京人形“金牌导游”机器人上线:更能自主讲
发布时间:2025-12-16 10:41
“大家好,我是你们的专属解说,只需一个指令,就能给你们带来身临其境的(视频)体验。” “我的另外三位好兄弟很快就会给大家带来一场由我们‘慧思开物’协调的协同作品展示”……12月11日,在北京仿人机器人创新中心(以下简称“北京仿人”)的无人展厅,具身天宫2.0机器人带领观众参观展区。它不仅可以独立讲解,还可以同步天翼2.0机器人完成物料搬运、物料倾倒、分拣、包装等一系列作业,全部无需人工干预。其背后,是北京Humanoid近期发布的国内首个全自主无人仿人机器人导航解决方案。该解决方案基于“慧思开物”通用具身智能平台,集全自主导航、拟人交互、多机协作、智能交互于一体。全球物联网联动能力。可适应展厅、商场、景区甚至商务讲解等多种场景。具身天宫2.0机器人提供导游服务。图片/照片由受访者“慧思开物”提供,赋能机器人解锁自主导航。新京报贝壳财经记者发现,天工机器人的全自主导航能力来自于“慧思开物”平台研发的“感知-决策-执行”技术。该系统采用大型AI模型驱动的实体“大脑”、数据驱动的嵌入式“小脑”以及多模态融合感知系统,使机器人能够从引导到解释独立运行。北京仿人机器人创新中心CTO唐健向新京报贝壳财经等媒体介绍,该系统的运行基于三层能力:全自主导航(建图、定位、运动)是无人操作的基础;沉浸式讲解依托机器人与企业内部物联网系统的连接,可实现任务和应用的自动触发;全局调度依托“慧思开物”作为分布式多体现智能系统的能力,大云模型进行统一规划、任务调度和调配。特别是多模态感知系统集成了不同的传感器信息,能够准确识别语义和几何特征,使机器人能够识别人流、展品和障碍物,并实现稳定运动。 AI的“大脑”作为决策中心,负责分析形势、分解任务、指挥“小脑”;作为执行单元,“小脑”将指令转化为精确的动作,让机器人在遇到拥堵时实时重新规划路径。在t实际演示中,天宫2.0还可以同时指挥展厅大屏播放视频,依托“慧思开物”平台的全球互联能力。通过支持MQTT、TCP/IP等协议的开放接口,机器人可以直接传输现场所有物联网设备。例如,当机器人到达核心展区时,awtthe平台自动触发指令:控制展区灯光,自动将视频传输到大屏幕,并与场景显示内容同步开始演示。整个联动过程响应延迟低至50毫秒。 “慧思开物”的多智能体调度机制可以实现多机协作。此外,“慧思开物”的多智能体调度机制还实现了多机协作,导航机器人可以自主导航安排其他机器人协同工作,如在讲解过程中指挥天宫2.0、天翼2.0等机器人同时执行搬运、分拣、打包等任务,从而完成从“单点讲解”到“多机联动”的体验。自主导航解决方案可以复制 可复制的技术应该指向可扩展的业务情况。唐健介绍,这种全自主无人仿人机器人导航方案具有高度可重复性。部署在新展厅时,可通过机器人自主建图、标准化接口与客户IT系统对接、利用RAG技术导入场景等方式快速落地。 据介绍,在商业布局方面,除了聚焦物流搬运、分拣等结构化工业场景外,北京人形还将拓展到导游、导购等商业场景es,最终进入危险、肮脏、重复的“3D”领域与国家电网、福田康明斯等公司合作,同时推动全自主无人仿人机器人导航解决方案作为商业产品。谈及行业受欢迎程度,唐健坦言,如果人形机器人“忙而无用”,无法在行业实现真正的价值,无法大规模落地,就会出现泡沫。 “今年大多数企业还处于POC(概念验证)阶段,但明年行业内肯定会出现大规模的工业应用。”支撑这一商业前景的是快速演进的技术路径。唐健分析,目前的“大小脑分层”路线中,上层作为“大脑”,负责空间理解和任务拆解,下层VLA作为端到端模型,接收多模态信号并输出​​运动轨迹地区。虽然这条路线目前在数据和架构优化方面面临提升空间,但中长期来看,通过对具体场景数据的微调,可以大规模落地。 “世界模型”路径可以根据指令和当前图像生成动作视频,然后通过模型转化为实际的机器人动作,泛化能力更强。唐健还表示,中国仿人机器人产业链相当完整,硬件制造能力、运行控制算法均处于世界顶尖水平。同时,中国机器人在推动高价值场景落地方面优势明显;在VLA和世界模型等软件算法的引导下,中美两国处于速度合规状态。尤其是实体智能需要大量的真实机器数据,而中国在数据积累方面具有巨大优势。新京报S地狱财经记者 魏博雅 编辑 岳彩洲 校对 翟永军