自动驾驶汽车硬件系统概述

2018-09-27 21:06:04·  来源:王石峰 上汽智行  
 

车辆运动传感器:速度和角度传感器提供车辆线控系统的相关横行和纵向信息。惯性导航+全球定位系统=组合导航,提供全姿态信息参数和高精度定位信息。

环境感知传感器:负责环境感知的传感器类似于人的视觉和听觉,如果没有环境感知传感器的支撑,将无法实现自动驾驶功能。主要依靠激光雷达、摄像头、毫米波雷达的数据融合提供给计算单元进行算法处理。V2X就是周围一切能与车辆发生关的事物进行通信,包括V2V车辆通信技术、V2I与基础设施如红绿灯的通信技术、V2P车辆与行人的通信。

驾驶员监测传感器基于摄像头的非接触式和基于生物电传感器的接触式。通过方向盘和仪表台内集成的传感器,将驾驶员的面部细节以及心脏、脑电等部位的数据进行收集,再根据这些部位数据变化,判断驾驶员是否处于走神和疲劳驾驶状态。

计算单元部分:各类传感器采集的数据统一到计算单元处理,为了保证自动驾驶的实时性要求,软件响应最大延迟必须在可接受的范围内,这对计算的要求非常高。目前主流的解决方案有基于GPU、FPGA、ASIC等。

车辆控制:自动驾驶需要用电信号控制车辆的转向、制动、油门系统,其中涉及到车辆地盘的线控改装,目前在具备自适应巡航、紧急制动、自动泊车功能的车上可以直接借用原车的系统,通过CAN总线控制而不需要过度改装。

警告系统:主要是通过声音、图像、振动提醒司机注意,通过HMI的设计有效减少司机困倦、分心的行为。

2自动驾驶的传感器

摄像头:主要用于车道线、交通标示牌、红绿灯以及车辆、行人检测,有检测信息全面、价格便宜的特定,但会受到雨雪天气和光照的影响。由镜头、镜头模组、滤光片、CMOS/CCD、ISP、数据传输部分组成。光线经过光学镜头和滤光片后聚焦到传感器上,通过CMOS或CCD集成电路将光信号转换成电信号,再经过图像处理器(ISP)转换成标准的RAW,RGB或YUV等格式的数字图像信号,通过数据传输接口传到计算机端。

激光雷达:激光雷达使用的技术是飞行时间法(Time of Flight)根据光线遇到障碍的折返时间计算距离。为了覆盖一定角度范围需要进行角度扫描,从而出现了各种扫描原理。主要分为:同轴旋转、棱镜旋转、MEMS扫描、相位式、闪烁式。激光雷达不光用于感知也应用于高精度地图的测绘和定位是公认L3级以上自动驾驶必不可少的传感器。

毫米波雷达:主要用于交通车辆的检测,检测速度快、准确,不易受到天气影响,对车道线交通标志等无法检测。毫米波雷达由芯片、天线、算法共同组成,基本原理是发射一束电磁波,观察回波与入射波的差异来计算距离、速度等。成像精度的衡量指标为距离探测精度、角分辨率、速度差分辨率。毫米波频率越高,带宽越宽,成像约精细,主要分为77GHz和24GHz两种类型 。

组合导航:GNSS板卡通过天线接收所有可见GPS卫星和RTK的信号后,进行解译和计算得到自身的空间位置。当车辆通过遂道或行驶在高耸的楼群间的街道时,这种信号盲区由于信号受遮挡而不能实施导航的风险。就需要融合INS的信息,INS具有全天候、完全自主、不受外界干扰、可以提供全导航参数(位置、速度、姿态)等优点,组合之后能达到比两个独立运行的最好性能还要好的定位测姿性能。

3自动驾驶传感器的产品定义

这张表总结了常见自动驾驶功能所使用的传感器,以及各个传感器的应用。

针对L1、L2的自动驾驶功能各国也纷纷出台了相关标准,加速了市场的发展和产品落地。欧盟新车安全评鉴协会(E-NCAP)从 2013 年起便在评分规则中增加了ADAS内容,计划到 2017 年速度辅助系统(SAS)、自动紧急制动 (AEB)、车道偏离预警/车道偏离辅助(LDW/LKD)的加分要求为系统,装机量达到100%。美国国家公路交通安全管理局(NHTSA)和高速公路安全保险协(IIHS)也提出2022年将自动紧急制动(AEB)等 ADAS 功能纳入技术标准。

自动驾驶要求局限于车辆的ODD(Operational Design Domain),即设计适用范围。城市道路+城际高速是自动驾驶汽车普遍的适用范围。我国城市封闭道路最高限速80公里/小时,高速公路限速120公里/小时。干燥的柏油路面摩擦系数是0.6,根据刹车距离公式:S=V*V/2gμ 去计算刹车距离得出第一行的表格,再结合自动驾驶系统反应时间和制动系统反应时间得出下表。

从两个表格可以看出,刹车距离与速度的平方成正比,与摩擦系数成反比。当摩擦系数一定时,刹车距离取决于车速,如果车速增加1倍,刹车距离将增大至4倍。摩擦系数μ主要与路面材质和天气相关。

自动驾驶传感器在中国最高限速120公里的情况下,探测距离达到150m就可以满足需求了,自动驾驶的技术开发者可以根据实际场景的速度来选择所需要的传感器,没有必要一味追求传感器的性能提高整体成本。

传感器的分辨率和物体探测的关系可以用atan反正切函数来计算,图中给出的公式多除以了个2,主要是为了保证在传感器探测时当最小角度是最小目标一半时,任意情况都能覆盖到某个像素保证分辨。避免物体恰好不是在一个角度内而产生漏检。

理论上分辨率0.4度时100m外就可以探测到一辆车,而在0.1度分辨率下400m外就能探测到。但检测只是识别到有个物体并不代表能识别,从自动驾驶的算法角度来讲,比如激光雷达物体识别需要4到5条线扫描上才能识别出物体的类别。从这个角度看自动驾驶系统如果用0.4度分辨率的激光雷达在50m范围内才能真正识别出一辆车。

自动驾驶离不了多传感器融合,其中激光雷达和摄像头都是光学类的传感器,核心零部件和处理电路相似。有望将两个传感器前端融合到一起,直接输出R、G、B、X、Y、Z颜色+点云融合信息。在传感器内部实现数据融合可大幅度降低后端的计算处理量。

其中以AEye为代表 ,其iDAR智能感知系统能够瞬间将2D真实世界的色彩信息智能地叠加在3D数据上。其动态扫描和发射图纹技术、通过控制每束激光脉冲的扫描,可查询每个点的三维坐标和像素。

4自动驾驶的大脑

分享到:
 
反对 0 举报 0 收藏 0 评论 0
沪ICP备11026917号-25