• 采购项目
  • 配套企业库
  • 销量查询
  • 盖世汽车社区
  • 盖世大学堂
  • 盖亚系统
  • 盖世汽车APP
  • 盖世汽车产业大数据
  • 第八届上海-斯图加特汽车及动力系统国际研讨会
  • 2025第四届中国车联网安全大会
当前位置:首页 > 新技术 > 正文

研究人员开发新的模型训练方法 可帮助自动驾驶系统抵挡攻击

盖世汽车 罗珊 2020-07-15 07:30:00
核心提示:在执行诸如自动驾驶、欺骗检测和面部识别等安全关键任务时,对抗性样本攻击一直都是一大挑战。伊利诺伊大学香槟分校研究人员提出了一种新方法,来训练端到端基于深度学习的对抗问题解决模型。

盖世汽车讯 随着深度学习技术的发展,提高算法的鲁棒性变得至关重要。在执行诸如自动驾驶、欺骗检测和面部识别等安全关键任务时,对抗性样本攻击一直都是一大挑战。通常,此种对抗性输入肉眼无法察觉,却可以对AI系统构成威胁,或导致系统出错。例如,自动驾驶汽车被入侵,可能导致车速提高,或者被路牌上粘贴的贴纸误导,而驶入错误的车道。

研究人员开发新的模型训练方法 可帮助自动驾驶系统抵挡攻击

(图片来源:analyticsindiamag.com)

据外媒报道,伊利诺伊大学香槟分校(University of Illinois at Urbana-Champaign)的研究人员提出了一种新方法来训练端到端基于深度学习的对抗问题解决模型,旨在了解对抗性攻击(adversarial attacks)对于测量空间而非信号空间的影响。



本文共计1000字开通高级账号后继续阅读

登录后获取已开通的账号权益

本文共计1000字开通高级账号后继续阅读

您未开通,请开通后阅读

*特别声明:本文为技术类文章,禁止转载或大篇幅摘录!违规转载,法律必究。

本文地址:https://auto.gasgoo.com/news/202007/15I70196774LC409.shtml

文章标签: 前瞻技术 自动驾驶
 
0

好文章,需要你的鼓励

微信扫一扫分享该文章