一文读懂基于DL的无人驾驶视觉感知系统的应用场景
基于深度学习的计算机视觉,应用于无人驾驶的视觉感知系统中,主要分为四大块:
- 动态物体检测(Dynamic Object Detection)
- 通行空间(Free Space)
- 车道线检测(Lane Detection)
- 静态物体检测(Static Object Detection)
主要从需求、难点、实现三个方面对每项感知部分做剖析。上述检测的难度从难到易排序:DOD>FS=LD>SOD。
1.动态物体检测
检测需求:对车辆(轿车、卡车、电动车、自行车)、行人等动态物体的识别;
检测难点:(三座大山:检测类别多、多目标追踪难度大、测距精度足够准)
(1)遮挡情况情况较多,heading朝向的问题,测距精准度
(2)行人、车辆类型种类较多,难以覆盖,容易误检(集装箱vs卡车、树干vs行人)
(3)加入追踪,id切换的问题。3D物体检测
绿色代表可通行区域
4.静态物体检测:
Tesla Model3 Autopilot渲染在HMI界面的车道线结果(极其稳定,极其鲁棒)
静态物体检测:
检测需求:对交通红绿灯、交通标志等静态物体的检测识别;
检测难点:(1)红绿灯、交通标识属于小物体检测,在图像中所占的像素比极少,尤其远距离的路口,识别难度更大。如下图红绿灯在1920*1208的像素层面上占据的像素大小仅为18*45pixel左右,在强光照的情况下,人眼都难以辨别,而停在路口的斑马线前的汽车,需要对红绿灯进行正确的识别才能做下一步的判断。
实现方案:通过感知去识别红绿灯,有一种舍身取义的感觉,效果一般,适应性差,条件允许的话(如固定园区限定场景),该装V2X就装V2X,多个备份冗余,V2X > 高精度地图 > 感知识别。若碰上GPS信号弱的时候,感知识别可以出场了,大部分情况,V2X足以Cover掉大部分的场景。感知方案的具体实现参照文章,主要为红绿灯数据集采集,标签处理,检测模型训练,算法部署,追踪后端优化,接口开发;
红绿灯的算法开发可以参考:
(1)真值的来源。定义,校准,分析比对,绝不是看检测结果的map或帧率,需要以激光的数据或者RTK的数据作为真值来验证测距结果在不同工况(白天、雨天、遮挡等情况下)的准确性;
(2)硬件帧率、资源消耗。多个网络共存,多个相机共用都是要消耗cpu、gpu资源的,如何处理好这些网络的分配,多个网络的前向推理可能共用一些卷积层,能否复用;引入线程、进程的思想来处理各个模块,更高效的处理协调各个功能块;在多相机读取这一块,做到多目输入的同时不损失帧率,在相机码流的编解码上做些工作。
(3)多目融合的问题。一般在汽车上会配备4个(前、后、左、右)四个相机,对于同一物体从汽车的后方移动到前方,即后视相机可以看到,再移至侧视相机能看到,最后移至前视相机能看到,在这个过程中,物体的id应保持不变(同一个物体,不因相机观测的变化而改变)、距离信息跳变不宜过大(切换到不同相机,给出的距离偏差不宜太大,)
(4)多场景的定义。针对不同的感知模块,需要对数据集即场景定义做明确的划分,这样在做算法验证的时候针对性更强;如对于动态物体检测,可以划分车辆静止时的检测场景和车辆运动时的场景。对于交通灯的检测,可以进一步细分为左转红绿灯场景、直行红绿灯、掉头红绿灯等特定场景。公用数据集与专有数据集的验证。
(5)回放工具验证,感知输出的离线数据分析。肉眼观察视觉感知的效果是不可靠的,需要将视觉检测的结果,激光的结果,RTK的结果都统一在回放工具上,对视觉检测的结果进行离线分析,包括距离误差的分析、检测效果与距离的分析、曲线拟合的分析等等,完成这些工作需要统一时间戳,同时输出视觉检测结果的类别信息,距离信息和作为真值传感器的输出信息,进行分析对比,以此验证视觉感知结果的好坏。上述为视觉感知中的具体实现模块功能。
目前围绕无人驾驶汽车做基于深度学习开发的独角兽企业(融资过亿美刀):
图森(基于深度学习计算机视觉的智能集卡)
momenta(提供基于深度学习的计算视觉解决方案,自主泊车)
地平线(基于深度学习的芯片硬件设计,提供整套软硬件方案)
Pony.ai(整车系统开发的无人驾驶)
围绕深度学习开发的大厂:
华为、滴滴、百度、上汽、蔚来。
-
汽车测试网V课堂
-
微信公众号
-
汽车测试网手机站
编辑推荐
最新资讯
-
汽车技术合规与海外市场准入系列:墨西哥
2024-12-25 12:00
-
1.5亿欧元投资!采埃孚西安基地扩能及研发
2024-12-25 08:35
-
车载定位标准GB/T 45086.1-2024测试技术网
2024-12-25 08:33
-
电动汽车爆胎控制系统技术解析
2024-12-25 08:22
-
ENCAP2026对前向碰撞避免的要求②
2024-12-25 07:39