• 采购项目
  • 配套企业库
  • 销量查询
  • 盖世汽车社区
  • 盖世大学堂
  • 盖亚系统
  • 盖世汽车APP
  • 联通24Q4
  • 2024第二届中国汽车设计与CMF大会
  • 第六届汽车新供应链大会
  • 2024第二届具身智能产业发展论坛
  • 2024泰国汽车市场深度考察(第二期)
当前位置:首页 > 新技术 > 正文

佐治亚理工学院开发新框架 为模仿学习创建以自我为中心的演示

盖世汽车 刘丽婷 2024-12-03 17:31:21

盖世汽车讯 模仿学习是教机器人完成洗碗或准备食物等手动任务的最有前途的方法之一。端到端模仿学习通常需要对人类完成手动任务的原始视频、图像和/或动作捕捉数据进行深度学习算法的训练。在此训练过程中,算法逐渐学会产生输出动作(即机器人关节运动、轨迹等),使机器人能够成功完成相同的任务。

虽然模仿学习技术可以增强机器人完成复杂物体操作任务的能力,但它们通常不允许机器人在训练数据集中未包含的任务中进行推广。此外,收集各种任务的训练演示可能具有挑战性,需要先进的传感器或设备。

据外媒报道,佐治亚理工学院(Georgia Institute of Technology)的研究人员最近推出新框架EgoMimic,可用于轻松收集更多不同的模仿学习演示数据。该框架已发表在arXiv预印本服务器,提供了一个可扩展的平台,用于从完成任务的人(即自我中心)的角度收集人类完成手动任务的视频演示。

佐治亚理工学院开发新框架 为模仿学习创建以自我为中心的演示

图片来源:佐治亚理工学院

研究人员Simar Kareer、Dhruv Patel及其同事在论文中写道:“我们提出了一个全栈框架EgoMimic,可以通过人类化身数据进行扩展操作,特别是以自我为中心的人类视频与3D手部追踪相结合。”



本文共计1000字开通高级账号后继续阅读

登录后获取已开通的账号权益

本文共计1000字开通高级账号后继续阅读

您未开通,请开通后阅读

*特别声明:本文为技术类文章,禁止转载或大篇幅摘录!违规转载,法律必究。

本文地址:https://auto.gasgoo.com/news/202412/3I70412380C409.shtml

文章标签: 前瞻技术
 
0

好文章,需要你的鼓励

微信扫一扫分享该文章