群核科技官宣开源空间理解多模态模型 可用于具身智能训练等领域
2025年03月19日 15:50
作者: 谭镕
来源: 上海证券报·中国证券网
东方财富APP

方便,快捷

手机查看财经快讯

专业,丰富

一手掌握市场脉搏

手机上阅读文章

提示:

微信扫一扫

分享到您的

朋友圈

  上证报中国证券网讯(记者谭镕)3月19日,记者从群核科技获悉,在GTC2025全球大会上,群核科技宣布开源空间理解模型SpatialLM。据介绍,这是一个基于大语言模型的3D场景语义生成框架,突破了传统大语言模型对物理世界几何与空间关系的理解局限,赋予机器类似人类的空间认知和解析能力。群核科技称,这相当于为具身智能领域提供了一个基础的空间理解训练框架,企业可以针对特定场景对SpatialLM模型微调,降低具身智能训练门槛。

  群核科技相关技术负责人介绍,此次开源仅是开始,接下来SpatialLM模型将继续迭代如自然语言和场景交互等功能。

  群核科技SpatialLM模型开源页面

  据悉,该模型仅通过一段视频即可生成物理正确的3D场景布局。基于从视频中提取的点云数据,SpatialLM模型能够准确认知和理解其中的结构化场景信息。目前,SpatialLM已在HuggingFace、GitHub、魔搭社区等平台面向全球开发者开源。

  SpatialLM运行原理

  “我们希望打造一个从空间认知理解到空间行动交互闭环的具身智能训练平台。本次开源的SpatialLM空间理解模型旨在帮助具身智能机器人完成在空间认知理解上的基础训练。而去年群核科技发布的空间智能解决方案SpatialVerse,则希望进一步通过合成数据方案为机器人搭建最接近物理真实的‘数字道场’,实现机器人在仿真环境中的行动交互训练。”群核科技董事长黄晓煌介绍。

  据了解,群核空间智能平台SpatialVerse也亮相GTC,它与SpatialLM模型之间“协同合作”,打通了“现实-虚拟-现实”的闭环路径,共同为具身智能架起一座数字仿真与物理现实之间的桥梁。例如,SpatialLM模型通过从视频到结构化场景的转化,将现实世界的数据转化为虚拟环境中的丰富场景,而基于SpatialVerse的合成数据引擎,一个结构化场景又可泛化生成亿万级新场景。这也意味着,现实世界将成为SpatialVerse“数字道场”的原料来源。

  “我相信全球很快会迎来具身智能机器人的爆发性发展,在具身智能背后,是算力、算法、工程和训练数据四个板块的协同进化,这需要全行业合力推动。群核科技希望通过空间模型和数据开源一起推动技术基座建设,为这个技术奇点的来临贡献一份力量。”黄晓煌介绍。据悉,在空间和具身智能训练上,目前群核科技已与硅谷头部科技企业等在内的一批国内外具身智能企业达成合作。

(文章来源:上海证券报·中国证券网)

文章来源:上海证券报·中国证券网 责任编辑:6
原标题:群核科技官宣开源空间理解多模态模型 可用于具身智能训练等领域
郑重声明:东方财富发布此内容旨在传播更多信息,与本站立场无关,不构成投资建议。据此操作,风险自担。
举报
分享到微信朋友圈

打开微信,

点击底部的“发现”

使用“扫一扫”

即可将网页分享至朋友圈

扫描二维码关注

东方财富官网微信


扫一扫下载APP

扫一扫下载APP
信息网络传播视听节目许可证:0908328号 经营证券期货业务许可证编号:913101046312860336 违法和不良信息举报:021-61278686 举报邮箱:jubao@eastmoney.com
沪ICP证:沪B2-20070217 网站备案号:沪ICP备05006054号-11 沪公网安备 31010402000120号 版权所有:东方财富网 意见与建议:4000300059/952500