在近日举办的一场科技发布会上,自变量机器人公司正式宣布启动新一代家用机器人推广计划。该公司计划在35天后,向首批用户交付经过家居环境优化的新一代机器人,这些机器人将搭载自主研发的具身智能基础模型WALL-B。
自变量创始人兼首席执行官王潜介绍,WALL-B是全球首个基于世界统一模型架构(World Unified Model,简称WUM)的具身智能系统。这一创新架构标志着机器人技术从传统的视觉-语言-动作(VLA)分离模式,向原生多模态融合模式的重大突破。据王潜解释,传统VLA架构类似于早期笔记本电脑的模块化设计,视觉、语言和动作系统各自独立运行,数据在传输过程中不断丢失有效信息,导致动作执行效率低下。
相比之下,WALL-B采用的WUM架构将视觉感知、自然语言处理、运动控制和物理预测等核心能力整合到单一神经网络中。这种从零开始的联合训练方式,彻底消除了模块间的数据传输壁垒,使机器人能够更高效地处理复杂任务。王潜用"数字原生大脑"来形容这种架构优势,强调其能够实现真正的多模态协同工作。
在应用场景方面,自变量机器人已与58同城达成战略合作,首批机器人将进入真实家庭环境,与专业保洁人员协同作业。这种人机协作模式不仅提升了清洁效率,还为机器人提供了宝贵的学习场景。据透露,测试阶段的机器人已展现出自主规划路径、识别物品属性等基础能力。
针对用户普遍关注的隐私保护问题,自变量团队设计了三重防护机制:首先通过设备端实时图像脱敏技术,确保原始视觉数据不出设备;其次采用显性授权模式,用户必须主动确认才能启动机器人;最后严格限定数据用途,禁止任何形式的第三方共享。王潜特别强调:"我们的机器人只认一个主人,任何异常指令都会触发安全锁定。"
尽管技术突破显著,但王潜坦言当前系统仍处于"实习阶段"。现场演示中,机器人偶尔会出现将拖鞋错放位置、清洁中途暂停等失误,需要人工远程协助。不过他指出,这种"可纠正的错误"正是系统进化的基础,随着每日新增的实景数据积累,机器人的决策能力将持续增强。特别值得关注的是,该系统具备24小时不间断学习能力,能够通过自我优化逐步减少人为干预需求。
据技术白皮书显示,WALL-B架构在物体识别准确率、任务规划效率等关键指标上,已较传统VLA系统提升40%以上。首批交付的家用机器人将配备升级版传感器阵列和更灵活的机械结构,以适应不同家庭的布局特点。自变量公司表示,未来将持续开放系统接口,吸引更多开发者参与应用生态建设。











