DADA数据集包含2000个视频序列,包含658,746帧,每一视频帧均提供了不少于5人观测的注意力数据。据调研,DADA是目前最大规模的驾驶注意预测数据集。经过参与者种类之间的关系,标注了54种突发事故场景类型(类型种类拓扑图如图1所示)。同时对于事故区间、事故目标进行了细致的标注。包含白天、夜间时段;各种天气条件(晴天、雨天、雪天);高速、城区、乡村、隧道等各种场景类型。
图1.根据参与者类型,划分的事故类型种类拓扑图
(1)数据属性统计
A.根据光照、天气、场景类型区分,数据分布如下表所示。
B. 根据事故时间区间将每个视频序列分成事故前、事故区间(Accident Window,简称AW)、事故后三个区间。事故区间分布特性如下表所示。需要注意的是,数据集中的序列长度没有认为设定固定长度,这种策略更加自然一些,避免了人为的经验参与。由下表可见,数据序列平均长度为10s左右,其中事故前保持在平均5s长度。事故区间占比较小,仅占到约1/5的长度。
(2)数据格式
数据采集通过SMI250眼动仪收集,每个序列被至少5名具有驾驶经验的观测者观测两次。每个数据序列帧率为30fps。通过观察发现,观测者对于突发的事故物体为出现长时间的聚焦效应。与以往视觉注意采集不同之处在于,DADA中的驾驶注意保存了观测者的注意时长属性。
图2. 典型事故类型的驾驶注意数据展示
(3)与其他相关数据集的比较
A.与事故检测数据集的属性比较
B.与驾驶注意数据集的属性比较
通过与相关的数据集属性比较,DADA数据集目前规模最大,多样性最丰富。
(4)数据利用
A.结合DADA数据集,项目主要贡献者进行了“驾驶注意可以可以帮助事故预测?(Can Driving Accident be Predicted by Driver Attention? Analyzedby A Benchmark)”这一问题的探讨。更多信息可以参见发表于ITSC2019的论文,论文网址https://arxiv.org/abs/1904.12634
B.设计了一种新颖的语义引导的双通道自注意融合的驾驶注意预测模型(MSAFNet)。通过对比,取得最好的预测性能。目前DADA数据集已经公开,并可在github项目站点:https://github.com/JWFangit/LOTVS-DADA下载。添加模型的论文网址为https://arxiv.org/abs/1912.12148v1
驾驶注意预测可以通过计算机模拟人类驾驶员驾驶过程中的视觉注意机制,可以帮助计算机快速定位到可能造成交通事故的目标物体,避免由于注意缺失造成的突发事件。同时驾驶注意又包含与周围环境的交互,可以用于重要交通参与者的定位(important object detection)、驾驶场景新颖性检测(novelty detection)、人眼中央窝视觉(periphery-fovea vision)启发的驾驶模型设计、辅助搜寻安全驾驶路径(routine searching)等。
参考论文列表:
[1].J. Fang, D. Yan, J. Qiao, J. Xue, H. Wang, and S. Li,“DADA-2000: can driving accident be predicted by driver attention? Analyzed by A benchmark,” in IEEE Intelligent Transportation Systems Conference (ITSC),2019, pp. 4303–4309.
[2]. J. Fang, D. Yan, J. Qiao, J.Xue, “DADA: A Large-scale Benchmark and Model for Driver Attention Prediction in Accidental Scenarios,” CoRR abs/1912.12148, 2019.