腾讯科恩实验室成功攻击特斯拉autopilot系统 让车辆驶入反向车道
(图片来源:腾讯科恩实验室报告)
研究人员使用了一种攻击链,并且已经透漏给了特斯拉,特斯拉表示现在已经通过最新补丁,消除了该攻击链。
为了实现远程控制方向盘攻击,研究人员必须越过几个冗余保护层,之后,研究人员编写了一个应用程序,该程序可让研究人员将视频游戏控制器与移动设备相连,然后控制目标车辆,越过真正的车内方向盘以及自动驾驶系统。但是此类攻击具有一定的局限性:当车辆处于停止状态(P档),或是在巡航控制下高速行驶时,研究人员可以完全接管该车;但是刚刚从R档(倒车档)换到D档(型车档)的汽车只有在时速为8公里/时时,才能被远程控制。
特斯拉汽车使用多种神经网络来实现自动驾驶和其他功能(例如可以检测挡风玻璃上的雨水并打开雨刷器的神经网络);研究人员能够采用对抗样本,对神经网络做出非常小、且大多无法被人类察觉的改变,导致机器学习系统发生严重的错误,从而达到攻击目的。
最引人注目的是,研究人员攻击了特斯拉自动驾驶系统autopilot的车道检测系统。通过在车道标记上增加干扰,能够欺骗自动驾驶系统,让其完全无法检测车道,但是,研究人员在车道标记上应用的干扰措施,对于人类来说,很容易就可发现。
更严重的是,研究人员在路面上采用了“小贴纸”,让“车道”攻击生效,欺骗自动驾驶系统,让车辆进入了反向车道。而且即使目标车辆是在无雪、无灰尘或是无其他干扰情况的白天运行,此攻击方法仍然奏效。
-
汽车测试网V课堂
-
微信公众号
-
汽车测试网手机站
编辑推荐
最新资讯
-
荷兰Zepp氢燃料电池卡车-Europa
2024-12-22 10:13
-
NCACFE -车队油耗经济性报告(2024版)
2024-12-22 10:11
-
R54法规对商用车轮胎的要求(上)
2024-12-22 10:10
-
蔚来ET9数字架构解析
2024-12-22 09:53
-
4G/5G网络新时代的高效紧急呼叫系统NG-eCal
2024-12-20 22:33