机器人正以肉眼可见的速度升级迭代,但在实际应用层面,具身智能仍面临关键瓶颈,不单是模型或算法本身,而是缺少训练数据,尤其是能够教会机器人“干活”的高质量数据。
这已然成为当下具身领域的行业共识,2026年第一季度刚落幕,具身数据赛道便迎来爆发式增长,多家企业相继发布相关数据集。其中,以触觉感知著称的戴盟机器人引发业内关注。4月15日,戴盟机器人联合数十家机构发布,全球最大规模含触觉全模态物理世界数据集Daimon-Infinity,其数据规模预计于年内达到数百万小时,包含近十亿条具身数据;目前面向全行业开放共享1万小时,首批数据已于阿里魔搭社区上线开源。据了解,这也是当前业内开源规模最大的具身数据集。
该数据集经验证,在用于模型预训练时,只需要十分之一的数据量,即可在轴孔装配、污痕擦拭、果蔬切削等多项精细操作任务中大幅提升成功率,训练效率提升10倍,可有效缩短具身智能商业化周期。
戴盟机器人孵化于香港科技大学的科研团队,由港科大机器人研究院创院院长王煜与其学生段江哗联合创立。作为戴盟技术护城河的视触觉技术,通过将复杂的触觉信号转化为图像数据,大幅度降低了具身模型的训练门槛。Daimon-Infinity 依托的正是戴盟自研的视触觉传感器,每秒可采集1300万组触觉数据,包含接触形貌、三维形变场、三维分布力、六维集中力、物体软硬与材质、表面纹理、接触滑移等十多项触觉模态,以行业最稀缺的触觉数据,完整还原物理交互特征。

长期以来,具身数据普遍依赖仿真合成或封闭式工厂采集。仿真难以还原真实物理交互,封闭采集则成本高、场景单一、数据同质化严重,无法满足具身智能对泛化能力的需求。面对行业痛点,戴盟还构建了全球最大规模的外发式具身数据采集网络:打破传统固定场地的采集局限,通过轻量化数据采集设备深入到家庭、产业等多元非结构化场景,大规模采集真实环境下的实操数据。让机器人不仅能学标准动作,更能积累真实场景的应变能力,真正实现低成本、规模化、高多样性的数据沉淀。
值得注意的是,本次Daimon-Infinity数据集以戴盟为主导,联合了DeepMind、中国移动、清华大学、上海交通大学、新加坡国立大学等数十家海内外顶尖学术机构与科技企业共建,并面向全行业免费开源1万小时数据。高质量数据的大规模开源共享,可赋能整机与模型厂商快速验证技术路线、降低研发成本,加速机器人走进千行百业,服务千家万户。
文/广州日报新花城记者:张露
广州日报新花城编辑:龙嘉丽