首页 资讯 正文

人形机器人运动大模型“龙跃”发布,可根据指令生成跑步、舞蹈等连贯动作

体育正文 249 0

人形机器人运动大模型“龙跃”发布,可根据指令生成跑步、舞蹈等连贯动作

人形机器人运动大模型“龙跃”发布,可根据指令生成跑步、舞蹈等连贯动作

人形机器人(jīqìrén)如何像人类一样(yīyàng)自然运动?如何通过语言指令让机器人理解并执行复杂动作? 5月29日上午,在上海张江科学会堂举办(jǔbàn)的2025张江具身智能开发者大会暨2025国际人形机器人技能(jìnéng)大赛上,国家(guójiā)地方共建人形机器人创新中心(以下简称“国地(guódì)中心”)联合复旦大学未来信息创新学院,正式发布了全球首款(shǒukuǎn)生成式人形机器人运动大模型—— “龙跃”(MindLoongGPT)。 龙跃大模型以“自然语言驱动”为核心,构建了(le)从多模态输入到高保真动作生成的(de)完整(wánzhěng)闭环,颠覆传统运动(yùndòng)控制范式。也就是说,用户无需学习专业术语或操作复杂软件,仅需像与人类对话一样(yīyàng)发出指令,例如“以优雅(yōuyǎ)的姿势递上一杯咖啡”、“挥手致意”或上传一段参考视频,龙跃大模型即可自动解析语义并生成对应的连贯动作,并支持通过追加指令实时调整(tiáozhěng)细节。这一能力,在教育、服务机器人领域具有颠覆性意义。 动作部署 本文图均为 国地(guódì)中心 供图 当前市场中的动作(dòngzuò)生成模型(móxíng)往往存在两大痛点:一是依赖高算力硬件,难以低成本部署;二是(èrshì)生成结果机械呆板,缺乏可控性。据介绍,龙跃大模型具有四大核心技术优势: 一是多模态交互、低门槛驱动(qūdòng)。MindLoongGPT支持文本、语音、图像等多模态输入,用户(yònghù)只需用自然语言驱动,模型即可“一切行动听指挥”。传统方法(fāngfǎ)依赖专业参数调整的桎梏被打破(dǎpò),真正实现“人人可用”。 二是(èrshì)拟真度与时序一致性双突破。通过将人体动作(dòngzuò)视为“时序语言”,MindLoongGPT对动作序列逐帧建模,精准捕捉动作间的连续性,解决了长序列生成中的僵硬、跳跃问题,生成的跑步(pǎobù)、舞蹈等动作不仅流畅自然,更保留真实人体的惯性(guànxìng)节奏。 三是结构(jiégòu)生成与细节优化并重。模型采用分阶段生成策略(cèlüè),从全局姿态到局部关节角度均实现毫米级精度控制。 四是轻量化设计,赋能广泛场景。在保证性能的(de)前提下,MindLoongGPT模型体积被压缩至同类型(lèixíng)产品的1/3,可在教育机器人、智能穿戴设备等嵌入式平台实时运行,为产业落地铺平道路(pūpíngdàolù)。 据了解,目前国地中心在(zài)张江拥有5000平方米训练场,集采集、测试、训练功能于一体,102台数采机器人可支撑(zhīchēng)每天3万条机器人数据(shùjù)采集、地面(dìmiàn)真值测试、人体数据采集、仿生数据采集。MindLoongGPT具有7B的模型(móxíng)参数大小(dàxiǎo),支持text2motion,、motion2text、motion2motion多任务,生成(shēngchéng)更丰富的动作。通过MindLoongGPT生成特技(tèjì)动作运动轨迹,借助全身跟踪小模型,从而可以在青龙机器人上实现丰富的全身动作。 通过“龙跃”MindLoongGPT生成特技动作运动轨迹,可以在(zài)青龙人形机器人上(shàng)实现丰富的全身动作 通过(tōngguò)“龙跃”MindLoongGPT生成特技动作运动轨迹(guǐjì),可以在青龙人形机器人上实现丰富的全身动作 国地中心5月29日同时宣布,将(jiāng)开放MindLoongGPT的开发者测试版本,并联合张江科学城打造“人形(rénxíng)机器人创新应用孵化基地”,为合作伙伴(hézuòhuǒbàn)提供技术赋能、数据共享与算力支持(zhīchí),首批合作企业包括多家全球500强科技公司与顶尖高校研究院,将共同探索人形机器人在元宇宙、智能(zhìnéng)制造等领域的深度融合。 (本文来自澎湃(pēngpài)新闻,更多原创资讯请下载“澎湃新闻”APP)
人形机器人运动大模型“龙跃”发布,可根据指令生成跑步、舞蹈等连贯动作

欢迎 发表评论:

评论列表

暂时没有评论

暂无评论,快抢沙发吧~