• 采购项目
  • 配套企业库
  • 销量查询
  • 盖世汽车社区
  • 盖世大学堂
  • 盖亚系统
  • 盖世汽车APP
  • 斯凯孚SKF线上展示厅—2024北京车展
  • 2024中国汽车低碳与可持续发展论坛
  • 2024智能座舱车载声学大会
  • 2024第六届智能驾驶地图与定位大会
  • 2024第七届智能驾驶与人机共驾论坛
  • 2024第二届吉利汽车技术论坛暨前瞻技术展
当前位置:首页 > 智能网联 > 正文

腾讯科恩实验室成功攻击特斯拉autopilot系统 让车辆驶入反向车道

盖世汽车 余秋云 2019-04-02 06:30:32
核心提示:据外媒报道,腾讯科恩实验室(Tencent Keen Security Lab)的研究人员发布了一份报告,详细描述如何成功对特斯拉(Tesla)的固件进行了攻击,包括远程控制方向盘,以及对自动驾驶系统autopilot进行攻击,让车辆迷惑,从而驶进了反向车道。

腾讯科恩实验室成功攻击特斯拉autopilot系统 让车辆驶入反向车道

(图片来源:腾讯科恩实验室报告)

盖世汽车讯 据外媒报道,腾讯科恩实验室(Tencent Keen Security Lab)的研究人员发布了一份报告,详细描述如何成功对特斯拉(Tesla)的固件进行了攻击,包括远程控制方向盘,以及对自动驾驶系统autopilot进行攻击,让车辆迷惑,从而驶进了反向车道。

研究人员使用了一种攻击链,并且已经将该攻击链透漏给了特斯拉,特斯拉表示现在已经通过最新补丁,消除了攻击链。

为了实现远程控制方向盘攻击,研究人员必须越过几个冗余保护层,之后,研究人员编写了一个应用程序,该程序可让研究人员将视频游戏控制器与移动设备相连,然后控制目标车辆,越过真正的车内方向盘以及自动驾驶系统。但是此类攻击具有一定的局限性:当车辆处于停止状态(P档),或是在巡航控制下高速行驶时,研究人员可以完全接管该车;但是刚刚从R档(倒车档)换到D档(型车档)的汽车只有在时速为8公里/时时,才能被远程控制。

特斯拉汽车使用多种神经网络来实现自动驾驶和其他功能(例如可以检测挡风玻璃上的雨水并打开雨刷器);研究人员能够采用对抗样本,对神经网络做出非常小、且大多无法被人类察觉的改变,导致机器学习系统发生严重的错误,从而达到攻击目的。

最引人注目的是,研究人员攻击了特斯拉自动驾驶系统autopilot的车道检测系统。通过在车道标记上增加干扰,能够欺骗自动驾驶系统,让其完全无法检测车道,但是,研究人员在车道标记上应用的干扰措施,对于人类来说,很容易就可发现。

更严重的是,研究人员在路面上采用了“小贴纸”,让“车道”攻击生效,欺骗自动驾驶系统,让车辆进入了反向车道。而且即使目标车辆是在无雪、无灰尘或是无其他干扰情况的白天运行,此攻击方法仍然奏效。

*特别声明:本文为技术类文章,禁止转载或大篇幅摘录!违规转载,法律必究。

本文地址:https://auto.gasgoo.com/News/2019/04/020641304130I70096927C601.shtml

 
0

好文章,需要你的鼓励