开启左侧

[社会] Nvidia:让机器人更像人类 打造能「连续决策」的大脑

[复制链接]
HILOVEYOUTU 发表于 2 小时前 | 显示全部楼层 |阅读模式 来自: 美国

马上注册,结交更多好友,享用更多功能,更可下载纽约情报站APP哦!

您需要 登录 才可以下载或查看,没有帐号?立即注册

x

                               
登录/注册后可看大图
  AI 机器人示意图。 (AI 生成)
辉达 (Nvidia)强攻机器人放大绝,昨(12)日宣布推出最新涵盖多达 70 亿参数的推理视觉语言模型,主打「要让机器人更像人类」,透过结合视觉感测应用,让机器人基于既有知识与概念,学会「连续决策」,并在理解后采取行动,堪称可打造机器人的推理大脑。



业界认为,这是英伟达引领全球机器人发展跨出更重要的一步,也意味 AI 算力应用再创颠峰,对致力于开发机器人的鸿海、广达等大型集团是一大助力,同时也将加速 AI 服务器建置需求。



英伟达在昨天绘图芯片业年度盛会「SIGGRAPH 2025」上,发表推理视觉语言模型「Cosmos Reason」。



英伟达说明,「Cosmos Reason」是一款专为物理 AI 应用与机器人设计的 70 亿参数「推理」视觉语言模型,具备超强大功能,并加入让机器人具备与人一样的「推理」能力,透过先验知识、物理理解和常识,让机器人与视觉 AI 代理像人类一样分析情境、判断下一步行动。



英伟达表示,机器人规划与推理技术如机器人视觉语言行动(VLA)模型的大脑,让模型可深思熟虑、有条不紊地做出决策。 「Cosmos Reason」可让机器人解读环境、在收到复杂的指令后,将指令分解为各种工作,即使在不熟悉的环境,也能运用常识执行这些工作。



英伟达强调,「Cosmos Reason」是适用实体 AI 与机器人的全新开放式、可完全定制化。 谈到「Cosmos Reason」和既有视觉语言模型(VLM)的差异,英伟达说明,自 OpenAI 推出 CLIP 模型以来,视觉语言模型(VLM)已广泛应用于对象与模式识别等计算机视觉任务,但仍难以处理多步骤任务、含糊情境或全新经验,「Cosmos Reason」可突破上述限制,这种能力对于需要连续决策的场景,如机器人任务规划或自驾车路径预测,尤其关键。



「Cosmos Reason」可用于数据管理与标注、机器人规划与推理,以及影片分析 AI 代理,让系统在面对复杂指令时,能拆解成可执行的步骤并作出符合常识的判断,即使处于陌生环境也能正确行动。
点击下面文字可快速查看发布对应的便民信息!
纽约情报站让您的生活变的更简单

电召车 顺风拼车

汽车买卖 便捷搬家

招聘求职 店铺转让

房屋出售 商家黄页
简介:纽约情报站是汇集全美75万粉丝的公众平台。除了实时新闻、找工招工信息发布、app社区互动,更有微信公众号推文探店等。如果你投稿、爆料、活动策划、商务合作,或者想邀请我们去探店,请联系主编微信: nyinfor

回复

使用道具 举报

全部回复0 显示全部楼层

发表回复

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

楼主

情报站神秘人
联系客服 关注微信 下载APP 返回顶部 返回列表