• 采购项目
  • 配套企业库
  • 销量查询
  • 盖世汽车社区
  • 盖世大学堂
  • 盖亚系统
  • 盖世汽车APP
  • 科技平权:汽车生态整合进入2.0时代
  • 2025第六届软件定义汽车论坛暨AUTOSAR中国日
  • 2025第五届中国汽车人机交互与体验设计创新大会
  • 2025第三届具身智能产业发展论坛
  • 2025第五届汽车计算大会
  • 2025第三届AI定义汽车论坛
  • 走进上汽提质增效&创新驱动论坛暨
  • 2025第三届中国汽车及零部件出海高峰论坛
  • 第八届上海-斯图加特汽车及动力系统国际研讨会
  • 2025第四届中国车联网安全大会
当前位置:首页 > 新技术 > 正文

Figure推出视觉-语言-动作模型 通过语音指令让人形机器人做家务

盖世汽车 Elisha 2025-02-25 10:00:16
核心提示:这种“通用型”视觉-语言-动作(VLA)模型将感知、语言理解和学习控制统一起来,以克服机器人技术领域的多项长期挑战。

盖世汽车讯 据外媒报道,Figure创始人兼首席执行官Brett Adcock推出用于人形机器人的新机器学习模型——HelixHelix,这是一种“通用型”视觉-语言-动作(VLA)模型,将感知、语言理解和学习控制统一起来,以克服机器人技术领域的多项长期挑战。

Figure推出视觉-语言-动作模型 通过语音指令让人形机器人做家务

(图片来源:Figure公司)

VLA是机器人技术领域的新现象,利用视觉和语言命令来处理信息,例如目前比较有名的Google DeepMind的RT-2,通过视频和大型语言模型(LLM)组合来训练机器人。Helix的工作方式与之类似,将视觉数据和语言提示结合起来,以实时控制机器人。



本文共计1000字开通高级账号后继续阅读

登录后获取已开通的账号权益

本文共计1000字开通高级账号后继续阅读

您未开通,请开通后阅读

*特别声明:本文为技术类文章,禁止转载或大篇幅摘录!违规转载,法律必究。

本文地址:https://auto.gasgoo.com/news/202502/25I70419359C409.shtml

 
0

好文章,需要你的鼓励

微信扫一扫分享该文章