哪家网站建设服务好啊,网站页面设置手机版,做个免费的网站,eclipse网站建设1.Nuscenes
数据集链接#xff1a;nuScenes
nuscenes数据集下有多个任务#xff0c;涉及Detection#xff08;2D/3D#xff09;、Tracking、prediction、激光雷达分割、全景任务、规划控制等多个任务#xff1b;
nuScenes数据集是一个具有三维目标注释的大型自动驾驶数…1.Nuscenes
数据集链接nuScenes
nuscenes数据集下有多个任务涉及Detection2D/3D、Tracking、prediction、激光雷达分割、全景任务、规划控制等多个任务
nuScenes数据集是一个具有三维目标注释的大型自动驾驶数据集也是目前主流算法评测的benchmark它的特点
● 全套传感器套件1个激光雷达、5个雷达、6个摄像头、IMU、GPS
● 1000个20s的场景
● 1400000张相机图像
● 39万次激光雷达扫描
● 两个不同的城市波士顿和新加坡
● 左侧交通与右侧交通
● 详细地图信息
● 为23个目标类手动注释的1.4M 3D边界框
2.KITTI
数据集官网The KITTI Vision Benchmark Suite (cvlibs.net)
ITTI数据集由德国卡尔斯鲁厄理工学院和丰田美国技术研究院联合创办该数据集用于评测立体视觉(stereo)光流(optical flow)视觉测距(visual odometry)3D物体检测(object detection)和3D跟踪(tracking)等计算机视觉技术在车载环境下的性能。KITTI包含市区、乡村和高速公路等场景采集的真实图像数据每张图像中最多达15辆车和30个行人还有各种程度的遮挡与截断。整个数据集由389对立体图像和光流图39.2 km视觉测距序列以及超过200k 3D标注物体的图像组成 以10Hz的频率采样及同步。总体上看原始数据集被分类为’Road’, ’City’, ’Residential’, ’Campus’ 和 ’Person’。对于3D物体检测label细分为car, van, truck, pedestrian, pedestrian(sitting), cyclist, tram以及misc组成。
因为数据量少目前很多算法验证都在nuscenes上啦~~~
3.Wamyo 年份2020年 作者Waymo LLC和Google LLC 场景数共1150个场景主要采集自San FranciscoMountain ViewPhoenix等 类别数共4类分别是VehiclesPedestriansCyclists及Signs 是否360°采集是 数据总量共包含 2030个片段每个片段长度为20秒 标注总数约12,600,000个3D标注框 传感器型号包含1个mid-range LiDAR4个short-range LiDARs5个相机前置及侧面同时LiDAR和相机是经过同步和标定处理过的 数据集链接https://waymo.com/open/
简介Waymo是自动驾驶领域最重要的数据集之一规模很大主要用以支持自动驾驶感知技术的研究。Waymo主要由两个数据集组成Perception Dataset及Motion Dataset。其中Perception Dataset包含3D标注2D全景分割标注关键点标注3D语义分割标注等。Motion Dataset主要用于交互任务的研究共包含103,354个20s片段标注了不同物体及对应的3D地图数据。
4.BDD100K
BDD100K数据集是2018年5月由伯克利大学AI实验室BAIR所发布同时设计了一个图片标注系统。BDD100K数据集包含10万段高清视频每个视频约40秒/720p/30 fps 。每个视频的第10秒对关键帧进行采样得到10万张图片图片分辨率为1280*720并对其进行标注。数据库集包含了不同天气、场景、时间的图片具有规模大多样化的特点。
主要任务视频、可行使区域、车道线、语义分割、实力分割、全景分割、MOT、检测任务、Pose等
数据集链接Berkeley DeepDrive 5.Lyft L5数据集 年份2019年 作者Woven Planet Holdings 场景数共1805个场景室外 类别数共9类包括CarPedestriantraffic lights等 是否360°采集是 数据总量包括46,000张图像数据及其对应的点云数据 标注总数约1300,000个3D标注框 传感器型号包括2个LiDARs分别是40线和64线安装在车顶及保险杠上其分辨率为0.2°在10Hz下采集约216,000个点。此外还包括6个360°相机和1个长焦相机摄像机与LiDAR采集频率一致。 数据集链接https://level-5.global/data/
简介Lyft L5是一整套L5级自动驾驶数据集据称“业内最大的自动驾驶公共数据集”涵盖了Prediction Dataset及Perception Dataset。其中Prediction Dataset涵盖了自动驾驶测车队在Palo Alto沿线遇到的各类目标如CarsCyclists和Pedestrians。Perception Dataset则涵盖了自动驾驶车队装置的LiDARs和摄像机采集的真实数据并通过人工方式标注了大量的3D边界框。
6.H3D数据集 年份2019年 作者Honda Research Institute 场景数共160个场景室外 类别数共8类 是否360°采集否 数据总量包括27,000张图像数据及其对应的点云数据 标注总数约1100,000个3D标注框 传感器型号共配备了3个相机型号为Grasshopper 3分辨率均为1920x1200除了背面的相机FOV为80°其他的2个相机的FOV为90°使用了一个64线的LiDAR型号为Velodyne HDL64E S2以及一个GNSSIMU型号为ADMA-G
数据集链接http://usa.honda-ri.com/H3D
简介本田研究所于2019年3月发布其无人驾驶方向数据集H3D。该数据集使用3D LiDAR扫描仪收集的包括3D多目标检测和跟踪数据包含160个拥挤且高度互动的交通场景在27,721帧中有超过100万个标记实例。
主要任务包括
7.ApplloScape数据集 年份2019年 作者Baidu Research 场景数共103个场景室外 类别数共26类包括small vehiclesbig vehiclespedestrianmotorcyclist等 是否360°采集否 数据总量包括143,906张图像数据及其对应的点云数据 标注总数标注总数未知
传感器型号共配置了2个VUX-1HA laser scanners6个VMX-CS6相机其中两个前置相机分辨率为3384x2710还有一个IMU/GNSS设备laser scanners利用两束激光来扫描其周围环境与常用的Velodyne HDL64E相比scanner可以获得更高密度的点云同时具备更高精度5mm/3mm
数据集链接http://apolloscape.auto/index.html
简介ApolloScape由RGB视频和对应的稠密点云组成。包含超过140K张图片并且每张图片都有像素级的语义信息。在国内采集的数据所以相比于国外的一些数据集ApolloScape数据集包含的交通场景较复杂各类目标数量较多且与KITTI数据集类似同样包含EasyModerateHard三个子集。
主要任务包括车道线、定位、轨迹预测、检测、跟踪、双目、场景识别等 8.Argoverse数据集 年份2019年 作者Argo AI等 场景数共113个场景室外包括USAPennsylvaniaMiamiFlorida等 类别数共15类包括VehiclePedestrianStrollerAnimal等 是否360°采集是 数据总量包括44,000张图像数据及其对应的点云数据 标注总数 传感器型号与KITTI及nuScenes相似Argoverse数据集配置了两个32线LiDAR传感器型号为VLP-32。同时包括7个高分辨率环视相机分辨率为1920x12002个前置相机分辨率为2056x2464
数据集链接https://www.argoverse.org/
主要任务3D跟踪、运动预测等任务
简介Argoverse中的数据来自Argo AI的自动驾驶测试车辆在迈阿密和匹兹堡这两个美国城市面临不同的城市驾驶挑战和当地驾驶习惯运行的地区的子集。包括跨不同季节天气条件和一天中不同时间的传感器数据或“日志段”的记录以提供广泛的实际驾驶场景。其包含了共113个场景的3D跟踪注释每个片段长度为15-30秒共计包含11052个跟踪目标。其中70%的标注对象为车辆其余对象为行人、自行车、摩托车等此外Argoverse包含高清地图数据主要囊括匹兹堡和迈阿密290公里的车道地图如位置、连接、交通信号、海拔等信息。 9.Argoversev2数据集
Argoverse 2是一个开源自动驾驶数据和高清HD地图的集合来自美国六个城市奥斯汀、底特律、迈阿密、匹兹堡、帕洛阿尔托和华盛顿特区。本次发布建立在Argovverse“Argoverse1”的首次发布基础上Argovverse1是首批包含用于机器学习和计算机视觉研究的高清地图的数据发布之一。
Argoverse 2包括四个开源数据集
Argoverse 2传感器数据集包含1000个带有激光雷达、立体图像和环形摄像头图像的3D注释场景。该数据集改进了Argoverse 1 3D跟踪数据集
Argoverse 2运动预测数据集包含250000个场景其中包含许多对象类型的轨迹数据。该数据集改进了Argoverse 1运动预测数据集
Argoverse 2激光雷达数据集包含20000个未标记的激光雷达序列
Argoverse 2地图更改数据集包含1000个场景其中200个场景描述了真实世界的高清地图更改
Argoverse 2数据集共享一种通用的高清地图格式该格式比Argoverse 1中的高清地图更丰富。Argoverse 2数据集还共享一个通用的API允许用户轻松访问和可视化数据和地图。
10.Occ3D
清华大学和英伟达出品第一个大规模占用栅格benchmark
数据集链接Occ3D: A Large-Scale 3D Occupancy Prediction Benchmark for Autonomous Driving (tsinghua-mars-lab.github.io)
作者生成了两个3D占用预测数据集Occ3D nuScenes和Occ3D Waymo。Occ3D nuScenes包含600个用于训练的场景、150个用于验证的场景和150个用于测试的场景总计40000帧。它有16个公共类和一个额外的通用对象GO类。每个样本覆盖范围为[-40m、-40m、-1m、40m、40m、5.4m]体素大小为[0.4m、0.4m、0.4m]。Occ3D Waymo包含798个用于训练的序列202个用于验证的序列累积了200000帧。它有14个已知的目标类和一个额外的GO类。每个样本覆盖的范围为[-80m、-80m、-1m、80m、80m和5.4m]极细的体素大小为[0.05m、0.05m、0.05m]。 11.nuPlan
nuPlan是世界上第一个自动驾驶的大规模规划基准虽然越来越多的基于ML的运动规划人员但由于缺乏既定的数据集、模拟框架和指标限制了该领域的进展。自动驾驶汽车运动预测的现有基准Argovest、Lyft、Waymo专注于其他智能体的短期运动预测而不是自我汽车的长期规划。这导致以前的工作使用基于L2的指标进行开环评估这不适合公平评估长期规划。这个基准测试通过提供一个训练框架来开发基于机器学习的规划者、一个轻量级闭环模拟器、特定于运动规划的指标和一个可视化结果的交互式工具克服了这些限制。
提供了一个大规模数据集其中包含来自美国和亚洲4个城市波士顿、匹兹堡、拉斯维加斯和新加坡的1200小时人类驾驶数据。数据集使用最先进的Offline Perception系统自动标记。与现有的这种大小的数据集相反不仅发布了数据集中检测到的对象的3d框还提供了10%的原始传感器数据120h。
数据集链接nuPlan (nuscenes.org) 12.ONCE (One Million Scenes)
● 发布方华为
● 发布时间2021
● 简介ONCEOne millioN sCenEs是自动驾驶场景下的3D物体检测数据集。ONCE 数据集由 100 万个 LiDAR 场景和 700 万个对应的相机图像组成。这些数据选自 144 个驾驶小时比 nuScenes 和 Waymo 等其他可用的 3D 自动驾驶数据集长 20 倍并且是在一系列不同的地区、时期和天气条件下收集的。由组成100 万个 LiDAR 帧700 万个相机图像 200 平方公里的驾驶区域144 个驾驶小时 15k 个完全注释的场景分为 5 个类别汽车、公共汽车、卡车、行人、骑自行车的人 多样化的环境白天/夜晚、晴天/雨天、城市/郊区。
● 下载地址https://opendatalab.org.cn/ONCE
● 论文地址https://arxiv.org/pdf/2106.1103
13.Cityscape
● 发布方达姆施塔特工业大学 · 马克斯普朗克信息学研究所
● 发布时间2016
● 简介Cityscapes是一个大型数据库专注于对城市街道场景的语义理解。它为分为8个类别 (平面人类车辆构造对象自然天空和虚空) 的30个类提供语义实例和密集的像素注释。数据集由大约5000个精细注释图像和20000个粗糙注释图像组成。在几个月白天和良好的天气条件下在50个城市中捕获了数据。它最初被记录为视频因此手动选择帧以具有以下功能: 大量动态对象不同的场景布局和不同的背景。
● 下载地址https://opendatalab.org.cn/CityScapes
● 论文地址https://arxiv.org/pdf/1604.0168
14.YouTube Driving Dataset
● 发布方香港中文大学 · 加州大学
● 发布时间2022
● 简介从YouTube上抓取第一视图驾驶视频。收集总长度超过120小时的134视频。这些视频涵盖了具有各种天气条件 (晴天雨天下雪等) 和区域 (农村和城市地区) 的不同驾驶场景。每一秒钟采样一个帧得到130万帧的数据集。将YouTube驾驶数据集分为具有70% 数据的训练集和具有30% 数据的测试集并在训练集上进行ACO的训练。
● 下载地址https://opendatalab.org.cn/YouTube_Driving_Dataset
● 论文地址https://arxiv.org/pdf/2204.02393.pdf
15. A2D2
● 发布方奥迪
● 发布时间2020
● 简介我们已经发布了奥迪自动驾驶数据集 (A2D2)以支持从事自动驾驶的初创公司和学术研究人员。为车辆配备多模式传感器套件记录大型数据集并对其进行标记是耗时且费力的。A2D2数据集消除了这种高进入壁垒并使研究人员和开发人员可以专注于开发新技术。数据集具有2D语义分割3D点云3D边界框和车辆总线数据。
● 下载地址https://opendatalab.org.cn/A2D2
● 论文地址https://arxiv.org/pdf/2004.0632
16.Cam2BEV
● 发布方亚琛工业大学
● 发布时间2020
该数据集包含两个合成的、语义分割的道路场景图像子集它们是为开发和应用论文“A Sim2Real Deep Learning Approach for the Transformation of Images from Multiple Vehicle-Mounted Cameras to a Semantically Segmented”中描述的方法而创建的。该数据集可以通过 Github 上描述的 Cam2BEV 方法的官方代码实现来使用。
数据集链接Cam2BEV-OpenDataLab
17.SemanticKITTI
● 发布方波恩大学
● 发布时间2019
这是一个基于 KITTI Vision Benchmark 的大规模数据集并使用了里程计任务提供的所有序列。我们为序列 00-10 的每个单独扫描提供密集注释这使得能够使用多个顺序扫描进行语义场景解释如语义分割和语义场景补全。剩余的序列即序列 11-21被用作测试集显示大量具有挑战性的交通情况和环境类型。未提供测试集的标签我们使用评估服务对提交进行评分并提供测试集结果。
● 下载地址https://opendatalab.org.cn/SemanticKITTI
● 论文地址https://arxiv.org/pdf/1904.0141
18. OpenLane
● 发布方上海人工智能实验室 · 上海交通大学 · 商汤科技研究所
● 发布时间2022
OpenLane 是迄今为止第一个真实世界和规模最大的 3D 车道数据集。我们的数据集从公共感知数据集 Waymo Open Dataset 中收集有价值的内容并为 1000 个路段提供车道和最近路径对象CIPO注释。简而言之OpenLane 拥有 200K 帧和超过 880K 仔细注释的车道。我们公开发布了 OpenLane 数据集以帮助研究界在 3D 感知和自动驾驶技术方面取得进步。
● 下载地址https://opendatalab.org.cn/OpenLane
● 论文地址https://arxiv.org/pdf/2203.11089.pdf
19. OpenLane-V2
● 发布方上海人工智能实验室
● 发布时间2023
全球首个自动驾驶道路结构感知和推理基准。数据集的首要任务是场景结构感知和推理这需要模型能够识别周围环境中车道的可行驶状态。该数据集的任务不仅包括车道中心线和交通要素检测还包括检测到的对象的拓扑关系识别。
● 下载地址https://opendatalab.org.cn/OpenLane-V2