腾讯科恩实验室成功攻击特斯拉autopilot系统 让车辆驶入反向车道

2019-04-03 23:47:08·  来源:IATF16949  
 
据外媒报道,腾讯科恩实验室(Tencent Keen Security Lab)的研究人员发布了一份报告,详细描述如何成功对特斯拉(Tesla)的固件进行了攻击,包括远程控制方向盘
据外媒报道,腾讯科恩实验室(Tencent Keen Security Lab)的研究人员发布了一份报告,详细描述如何成功对特斯拉(Tesla)的固件进行了攻击,包括远程控制方向盘,以及对自动驾驶系统autopilot进行攻击,让车辆迷惑,从而驶进了反向车道。


(图片来源:腾讯科恩实验室报告)
研究人员使用了一种攻击链,并且已经透漏给了特斯拉,特斯拉表示现在已经通过最新补丁,消除了该攻击链。

为了实现远程控制方向盘攻击,研究人员必须越过几个冗余保护层,之后,研究人员编写了一个应用程序,该程序可让研究人员将视频游戏控制器与移动设备相连,然后控制目标车辆,越过真正的车内方向盘以及自动驾驶系统。但是此类攻击具有一定的局限性:当车辆处于停止状态(P档),或是在巡航控制下高速行驶时,研究人员可以完全接管该车;但是刚刚从R档(倒车档)换到D档(型车档)的汽车只有在时速为8公里/时时,才能被远程控制。

特斯拉汽车使用多种神经网络来实现自动驾驶和其他功能(例如可以检测挡风玻璃上的雨水并打开雨刷器的神经网络);研究人员能够采用对抗样本,对神经网络做出非常小、且大多无法被人类察觉的改变,导致机器学习系统发生严重的错误,从而达到攻击目的。

最引人注目的是,研究人员攻击了特斯拉自动驾驶系统autopilot的车道检测系统。通过在车道标记上增加干扰,能够欺骗自动驾驶系统,让其完全无法检测车道,但是,研究人员在车道标记上应用的干扰措施,对于人类来说,很容易就可发现。

更严重的是,研究人员在路面上采用了“小贴纸”,让“车道”攻击生效,欺骗自动驾驶系统,让车辆进入了反向车道。而且即使目标车辆是在无雪、无灰尘或是无其他干扰情况的白天运行,此攻击方法仍然奏效。
分享到:
 
反对 0 举报 0 收藏 0 评论 0
沪ICP备11026917号-25