具身智能公司“自变量机器人(X Square Robot)”日前宣布完成数亿元Pre-A++轮融资,本轮融资由光速光合和君联资本领投,北京机器人产业基金、神骐资本跟投。融资将用于下一代统一具身智能通用大模型的训练与场景落地。
自变量机器人成立于2023年12月,致力于通过研发具身智能通用大模型,实现通用机器人。通用机器人的终极目标是像人一样通过交互、感知和行动自主执行任务,并具备高效的泛化和迁移能力。而实现这一目标的核心,就在于机器人通用具身智能大模型。
具身智能可主要分为大脑(认知与决策)和小脑(运动控制)。目前国内企业在探索不同发展路径:部分专注于大脑,提升机器人语言理解与规划能力;部分聚焦小脑,优化行走、抓取动作等运动控制;也有企业选择大小脑统一的端到端路线。
统一端到端具身智能大模型是提升机器人泛化能力和适应能力的关键。传统的分层架构虽能在特定任务上实现优化,但难以适应复杂环境的动态变化。而端到端方案,使机器人能够从感知直接映射到运动,形成高效的反馈闭环,从而在多任务、多场景中具备更强的自主学习与适应能力。
自变量从成立之初就选择了“大小脑统一的端到端大模型”路线。公司创始人兼CEO王潜表示,真正的具身智能大模型,应当由一个模型覆盖从感知信号输入到动作输出的完整过程,而不进行人为地分层或模块划分,这才是实现通用具身智能的真正解法。
而在国内,选择端到端模型的厂商中,技术路线也有所分化:部分厂商选择优先训练特定任务或单一场景的小模型;自变量则从一开始采用多任务、大量场景训练,以提升模型的通用性和适应能力。
王潜表示,目前业内对于明显超过单一操作的复杂任务,所有较好的实现结果几乎都是由具身智能大模型完成的。小模型为每个任务设计特定的模型结构,往往只能执行最基本的单一操作,无法实现泛化。与之相反,大模型则重视如何通过工程化方式实现模型的scaling-up,直至达到完全通用。二者技术栈完全不同,依赖小模型的积累并不能有效迁移实现大模型。
通用性和泛化性是定义这一代具身智能技术最核心的要素。只有达到足够的通用性、泛化性和可迁移性,才使得具身智能真正区别于传统自动化,能实现在自由环境中,不受预设环境和预设物体限制的自由操作。
去年11月,自变量机器人宣布实现了全球目前最大参数规模的具身智能通用操作大模型——Great Wall系列(GW)的WALL-A模型。该模型在通用性、泛化性上可以做到用极少的样本,完成各种物理环境变量、动作模式的泛化和迁移,同时在长序列复杂操作上具有绝对优势。
王潜表示,经过最近数月的迭代,WALL-A模型的能力已经与海外头部科技公司Skild AI、Physical Intelligence处于同一水平线上,部分能力甚至强于对方。从任务复杂度层面来看,能够完成例如拉拉链、整理衣物等精细操作,展现出在随机环境中对复杂拓扑结构、复杂物理交互的强大适应性。从复杂任务的准确率来看,在叠衣服、晾衣服等复杂柔性操作中表现出色,数分钟级别的任务成功率达到90%以上。
此外,自变量机器人的通用具身智能大模型,还能够实现无需地图和深度输入的语义导航,并能基于视频进行即时决策和实时指令跟随,也具备自主环境探索能力。
创始人兼CEO王潜本硕毕业于清华大学,是全球最早在神经网络中提出注意力机制的研究人员之一,博士期间曾在美国顶级机器人实验室参与了多项Robotics Learning的研究,研究经历涵盖机器人操作和家庭服务机器人相关的几乎所有领域。联合创始人兼CTO王昊是北大计算物理博士,曾在粤港澳大湾区数字经济研究院(IDEA研究院)担任封神榜大模型团队算法负责人,领导了国内第一个百亿级大模型和最早一批千亿级大模型之一Ziya的研发。
原文始发于微信公众号(光速光合):光速光合领投具身智能公司自变量机器人Pre-A++轮融资
2025年,人形机器人产业迎来爆发拐点。特斯拉Optimus量产在即,华为、宇树等企业加速技术突破,行业正从“实验室研发”向“规模化落地”跃迁为打通产业链上下游协作壁垒,艾邦机器人正式组建"人形机器人全产业链交流群",覆盖金属材料、复合材料、传感器、电机、减速器等全硬件环节,助力企业精准对接资源、共享前沿技术!
扫码关注公众号,底部菜单申请进群
