近日,全球领先的多模态生成式AI企业智象未来(HiDream.ai)与具身智能与人形机器人数据领域标杆企业诺亦腾机器人(Noitom Robotics)正式官宣战略合作,双方聚焦高质量、规模化具身智能视频数据生成展开深度协作,探索拓宽行业数据入口的创新模式,为具身智能产业突破发展瓶颈注入核心动力。

当前,高可用训练数据已成为影响具身智能产业发展的核心制约。相较于大语言模型易获取海量文本数据,具身智能依赖视觉、运动、触觉等多模态数据,传统采集模式存在成本高、效率低等问题。因此,合成数据成为行业破局关键。随着产业进入爆发期,训练数据需求向大体量、可规模化交付升级,数据获取、结构化与工程化能力直接决定具身智能系统发展上限。
依托此次合作,智象未来将毫米级可控视频生成技术与诺亦腾机器人真实数据基础设施深度融合,打造“真实数据+生成式视频数据”融合体系,年内计划合作产出数万小时以上具身智能视频数据,开辟行业高质量训练数据规模化供应新路径。签约仪式上,诺亦腾机器人创始人兼CEO戴若犁、智象未来创始人兼CEO梅涛等嘉宾共同见证合作启动。

作为具身智能数据底座构建者,诺亦腾机器人凭借高精度人体动作捕捉与多模态数据采集能力,为机器人企业、具身智能模型团队提供规模化训练数据与基础设施,推动行业数据从“获取”向“工程化、体系化”升级。诺亦腾机器人联合创始人、首席科学家韩磊博士表示:“具身智能的发展,本质上是一个以数据为核心驱动的系统工程。单一来源的数据难以支撑模型在复杂物理世界中的泛化能力。我们希望通过与智象未来的合作,将真实世界中高精度采集的人类动作数据,与可规模化生成的多样化视频数据相结合,构建兼具真实性与多样性的训练数据体系。这将有助于突破当前数据规模与质量之间的瓶颈,加速具身智能模型从‘可用’走向‘好用’。”
智象未来凭借自研多模态大模型,实现毫米级高可控视频生成,将动捕原始数据精细化放大百倍以上,把精准动作指令与丰富视觉场景深度融合,保障视频帧与操作数据精准配对,解决通用视频生成物理不一致、易产生幻觉的问题。智象未来联合创始人兼CTO姚霆博士表示:“普通的通用视频生成模型通常是为了好看,容易产生幻觉或物理不一致。为了让生成的视频数据能够达到具身智能产业需求的物理一致性,我们基于智象自研的多模态大模型,对传感动捕设备采集的数据进行了高可控性的生成式优化,使之更加符合具身智能企业进行高精度训练的要求。这种‘数据炼金术’打破了传统动捕数据的局限,为具身智能的进化提供了取之不尽的高质量‘燃料’。”

未来,双方将围绕高质量底层数据构建、VLA模型规模化演进、视频建模与动作预测协同驱动的世界模型深化合作,构建虚拟生成到物理验证的完整数据闭环,加速具身智能时代全面到来。







