本文来源:整数智能AI研究院
(相关资料图)
/ 导读 /
目前关于自动驾驶数据集你想知道的,应该都在这里了,这是自动驾驶数据集八大系列分享之系列六:
「本期划重点」
支持端到端的深度强化学习的研究:StreetLearn
包含城市和郊区驾驶的新特性,如高度动态环境、回旋、斜坡道路、建筑绕行、激进驾驶等:UTBM RoboCar
第一个使用同步立体事件相机收集数据的数据集:Multi Vehicle Stereo Event Camera
小区域内高度密集的数据:comma2k19
「八大系列概览」
自动驾驶数据集分享是我们推出的一个全新分享系列,在这个系列中,我们将介绍目前为止各大科研机构和企业推出的所有公开自动驾驶数据集。数据集主要分为八个系列:
系列一:目标检测数据集
系列二:语义分割数据集
系列三:车道线检测数据集
系列四:光流数据集
系列五:Stereo Dataset
系列六:定位与地图数据集
系列七:驾驶行为数据集
系列八:仿真数据集
下面共包括7个数据集:
「StreetLearn」
发布方:DeepMind
下载地址:http://streetlearn.cc
论文地址:
https://xueshu.baidu.com/usercenter/paper/show?paperid=1r4304w0c47q0xx0sb3m06c0fc659763
发布时间:2019年
简介: 为了支持通过探索和与环境的互动来直接学习导航策略的研究(例如使用端到端的深度强化学习),DeepMind设计了StreetLearn,它是一个交互式的、第一人称的、部分观察的视觉环境,使用谷歌街景的照片内容和广泛的覆盖范围,包括匹兹堡和纽约市这两大区域,并给出了一个具有挑战性的目标驱动的导航任务的性能基线
特征: 照片分辨率高;展示了多种城市场景;以真实的街道连接图横跨城市规模的区域;作者开发了几个遍历任务,要求代理在较长的距离内从一个目标导航到另一个目标
纽约(时代广场、中央公园)和伦敦(圣保罗大教堂)的不同景观和相应的当地地图
「UTBM RoboCar」
发布方:贝尔福-蒙贝利亚尔技术大学
下载地址:https://epan-utbm.github.io/utbm_robocar_dataset/
论文地址:https://arxiv.org/abs/1909.03330
发布时间:2019年
简介: 该数据集通过一个多传感器平台收集数据,该平台集成了11个异质传感器,包括各种相机和激光雷达、雷达、IMU(惯性测量单元)和GPS-RTK(全球定位系统/实时运动学),同时利用基于ROS(机器人操作系统)的软件来处理感官数据。该数据集用于自主驾驶,以应对许多新的研究挑战(如高动态环境),特别是长期的自主性(如创建和维护地图)
特征: 完全基于ROS;记录了城市和郊区的地图数据,并包含了许多城市和郊区驾驶的新特性,如高度动态环境(车辆里程测量中的大量移动对象)、回旋、斜坡道路、建筑绕行、激进驾驶等;提供了GPS-RTK记录的地面真实轨迹,用于车辆定位;捕捉了日常和季节变化,特别适合长期的车辆自主研究;实现了loam velodyne和LeGO-LOAM作为基线的激光雷达里程测量基准;提供了各种迂回数据旨在开展车辆行为预测的相关研究,帮助减少此类情况下的装车事故
在谷歌地图上绘制的数据收集行程,左:用于长期数据。右:用于迂回数据
「Multi Vehicle Stereo Event Camera」
发布方:宾夕法尼亚大学
下载地址:https://daniilidis-group.github.io/mvsec
论文地址:
https://xueshu.baidu.com/usercenter/paper/show?paperid=db1a3beb87eca6e87b799b1c1d87111d
发布时间:2018年
简介: 该数据集由一个同步的基于事件的立体对相机系统在各种不同的照明水平和环境下收集数据,该系统由一个手持式设备携带,由一架六旋翼飞机飞行,在汽车顶部驱动,并安装在摩托车上。每台摄像机中,提供了事件流、灰度图像和IMU读数。此外,作者利用IMU、一个刚性安装的激光雷达系统、室内和室外运动捕捉和GPS的组合,以高达100Hz的频率为每个摄像机提供准确的姿势和深度图像
特征: 基于事件的相机通过检测图像的对数强度变化来感知世界,精确地记录数十微秒级的变化和异步的、几乎是及时的反馈,允许极低的延迟响应;提供了来自两个同步和校准的动态视觉和主动像素传感器的事件流,具有各种照明和速度下的长室内和室外序列;精确的深度图像和高达100Hz的频率
「Comma2k19」
发布方:comma.ai
下载地址:https://github.com/commaai/comma2k19
论文地址:https://arxiv.org/abs/1812.05752
发布时间:2018年
简介: comma2k19是加利福尼亚280高速公路上超过33小时通勤的数据集。它将加利福尼亚州圣何塞和旧金山之间20公里的高速公路上行驶记录的数据分为2019段,每段1分钟。它是一个完全可重现且可扩展的数据集。该数据集是使用comma EONs收集,其传感器与任何现代智能手机的传感器相似,包括一个面向道路的摄像头,手机GPS,温度计和9轴IMU。此外,EON还使用comma grey panda捕获原始GNSS测量值和汽车发送的所有CAN数据
特征: 有一个面向道路的摄像头、一个9轴IMU、车辆传输的CAN信息和原始GNSS测量的日志;所有数据都集中在一个非常小的区域,在各种条件下对同一地点的反复观察与原始GNSS日志相结合使该数据集更适合开发高性能的定位和映射算法;基于GNSS、INS和视觉的三维估计驱动路径和观察到的车道投射到视频上
基于GNSS、INS和视觉的三维估计驱动路径和观察到的车道投射到视频上
「The Annotated Laser Dataset」
发布方:卡内基梅隆大学(CMU)
下载地址:http://any.csie.ntu.edu.tw/data/
论文地址:https://journals.sagepub.com/doi/pdf/10.1177/0278364910389840
发布时间:2011年
简介: 该数据集注释了激光测距数据、航位推算轨迹和三摄像头图像进行了注释。它旨在通过提供高度精确的相对姿态、物体分割和MOD,对定位、映射和MOD进行广泛评估。所有的数据都是同步的,都有仔细的注释,并以空间分割的纯文本格式进行格式化。作者还提供了一个交互式的网络界面以促进对数据和注释的访问
特征: 标注了真实的运动目标信息,让该数据集可以应用于运动目标跟踪(MOT)的研究;具有地面真实平稳的目标信息,可以获得精确的数据集度量图,可用于同步定位与测绘(SLAM)研究
航拍图像上人工标注的地面真实轨迹。从右上角的气球B开始,试验台沿工作空间逆时针方向行驶了两次
「Ford」
发布方:密西根大学
下载地址:avdata.ford.com
论文地址:https://arxiv.org/abs/2003.07969
发布时间:2010年
简介: 该数据集由福特自动驾驶车队在2017-18年的不同天数和时间收集。这些车辆在密歇根州平均行驶了66公里,包括底特律机场、高速公路、城市中心、大学校园和郊区社区等多种驾驶场景。用于数据采集的车辆都配备了3d激光雷达扫描仪,6台Point Grey 1.3万像素摄像机布置在车顶,实现360度覆盖,1台Point Grey 5万像素摄像机安装在挡风玻璃后,用于前方视野。该数据集展示了动态城市环境中天气、照明、建筑和交通条件的季节性变化,可以帮助自动驾驶汽车和多智能体系统设计稳健的算法。数据集中的每个日志都有时间戳,包含来自所有传感器的原始数据、校准值、位姿轨迹、地面真实位姿和3D地图。所有数据都是Rosbag格式,可以使用开源的机器人操作系统(ROS)进行可视化、修改和应用。除此之外该数据集还提供了最先进的基于反射的本地化的输出,以用于基准测试
特征: 包含天气、照明、建筑和交通状况季节性变化的多智能体数据集;来自4台激光雷达和7台相机的全分辨率时间标记数据;GPS数据、IMU位姿轨迹和SLAM校正地面真实位姿;高分辨率2D地面激光雷达反射率和3D点云图;所有数据都可以使用开源的机器人操作系统(ROS)进行可视化、修改和应用
可视化和开发工具的示例输出。(a)地图和传感器数据的RViz可视化(b)反射率和三维点云图(c)多激光雷达实时数据可视化
「Oxford RobotCar」
发布方:牛津大学
下载地址:https://robotcar-dataset.robots.ox.ac.uk/downloads/
论文地址:https://robotcar-dataset.robots.ox.ac.uk/documentation/
发布时间:2015年
简介: 通过长时间在不同条件下行驶同一条路线,该数据集收集了由于光照、天气、动态物体、季节影响和施工等因素导致的场景外观和结构的大范围变化
特征: 近2000万张图像;数据集被分为单独的路径,每个路径对应一次单程traversal,为了减少下载文件的大小,又进一步将每个traversal划分为块,其中每个块对应于大约6分钟的路径片段,在一次traversal中,来自不同传感器的块将在时间上重叠;但是,块在不同遍历之间不对应。每个区块都被打包为tar归档文件,以便下载;拥有所有天气条件下收集的数据(大雨、夜间、阳光直射和降雪等);拥有不同的道路场景外观(动态物体、施工等因素的影响)
数据集中来自不同地区的样本3D地图
- End -