盖世汽车讯 据外媒报道,自动驾驶汽车虽可以避免人为的操作失误,从而拯救生命,但是欧盟网络安全局(ENISA)的一份最新报告指出,自动驾驶车辆“极易遭受各种攻击”,这可能对乘客、行人和其他车辆造成危险。这份报告中提及的攻击手段包括利用光束进行传感器攻击、使物体检测系统过载、后端恶意行为,以及在训练数据或物理世界中呈现的对抗性机器学习攻击。
(图片来源:VentureBeat)
报告显示:“这些攻击可能会使人工智能无法‘看到’行人,例如通过操纵图像识别组件,对行人进行错误分类。这可能会在道路上导致混乱,因为自动驾驶汽车可能会撞到路上或人行横道上的行人。开发人员和系统设计人员在人工智能网络安全方面缺乏足够的安全知识和专业技能,这是阻碍汽车行业对其进行安全整合的主要障碍。”
该报告显示,为自动驾驶汽车提供算力的人工智能系统和传感器等,增加了攻击面的范围。报告的作者表示,要想解决漏洞问题,政策制定者和企业将需要在整个汽车供应链中,包括第三方供应商,建立一种安全文化。报告还敦促汽车制造商采取相应措施,将创建机器学习系统视为汽车行业供应链的一部分,以降低安全风险。
这份报告关注的是采用对抗式机器学习的网络安全攻击,这种攻击含有人类无法察觉的恶意攻击风险。报告还发现,如果在车辆中使用了机器学习技术,那么车辆将需要持续对系统进行检查,以确保它们没有被恶意攻击所篡改。报告中提出的场景包括运动规划和决策算法受到攻击的可能性,以及欺骗的可能性,例如可以愚弄自动驾驶车辆,使其无法识别周围的车辆、人员和墙壁。
在过去几年里,多项研究表明,物理干扰可以在几乎毫不费力的情况下欺骗自动驾驶汽车。2017年,研究人员在停车标志上利用喷漆或贴纸,骗过了自动驾驶车辆,使其将该标志误认为限速标志。2019年,腾讯安全研究人员利用贴纸让特斯拉的自动驾驶系统转入了错误的车道。去年,有研究人员证明,可以通过在道路上有目的性地放置几条胶带,引导自动驾驶车辆系统将车速从35英里/小时快速提升到85英里/小时。
*版权声明:本文为盖世汽车原创文章,如欲转载请遵守 转载说明 相关规定。违反转载说明者,盖世汽车将依法追究其法律责任!
本文地址:https://auto.gasgoo.com/news/202102/23I70242850C601.shtml
联系邮箱:info@gasgoo.com
客服QQ:531068497
求职应聘:021-39197800-8035
新闻热线:021-39586122
商务合作:021-39586681
市场合作:021-39197800-8032
研究院项目咨询:021-39197921
版权所有2011|未经授权禁止复制或建立镜像,否则将追究法律责任。
增值电信业务经营许可证 沪B2-2007118 沪ICP备07023350号