在 TUM数据集主页找到它的下载链接。https://vision.in.tum.de/data/datasets/rgbd-dataset/download

我们的数据位于本章目录的 data/下,以压缩包形式提供(data.tar.gz)。由于 TUM数据集是从实际环境中采集的,需要解释一下它的数据格式(数据集一般都有自己定义的格式)。在解压后,你将看到以下这些文件:
1. rgb.txt 和 depth.txt 记录了各文件的采集时间和对应的文件名。
2. rgb/ 和 depth/目录存放着采集到的 png 格式图像文件。彩色图像为八位三通道,深
度图为 16 位单通道图像。文件名即采集时间。
3. groundtruth.txt 为外部运动捕捉系统采集到的相机位姿,格式为
(time, t x , t y , t z , q x , q y , q z , q w ),

我们可以把它看成标准轨迹。
请注意彩色图、深度图和标准轨迹的采集都是独立的,轨迹的采集频率比图像高很多。在使用数据之前,需要根据采集时间,对数据进行一次时间上的对齐,以便对彩色图和深度图进行配对。原则上,我们可以把采集时间相近于一个阈值的数据,看成是一对图像。并把相近时间的位姿,看作是该图像的真实采集位置。TUM 提供了一个 python 脚本“associate.py”(或使用 slambook/tools/associate.py)帮我们完成这件事。请把此文件放到数据集目录下,运行:
 

python associate.py rgb.txt depth.txt > associate.txt

这段脚本会根据输入两个文件中的采集时间进行配对,最后输出到一个文件 associate.txt。输出文件含有被配对的两个图像的时间、文件名信息,可以作为后续处理的来源。

请注意彩色图、深度图和标准轨迹的采集都是独立的,轨迹的采集频率比图像高很多。在使用数据之前,需要根据采集时间,对数据进行一次时间上的对齐,以便对彩色图和深度图进行配对。

  1. TUM RGB-D数据集

自带Ground-truth轨迹与测量误差的脚本(python写的,还有一些有用的函数)。网址:点击打开链接

RGBD数据集下载地址(有两种格式,一种是压缩文件形式,另一种是rosbag格式):
http://vision.in.tum.de/data/datasets/rgbd-dataset/download

数据集格式:
http://vision.in.tum.de/data/datasets/rgbd-dataset/file_formats

测评工具下载地址: [evo早先版]
https://svncvpr.in.tum.de/cvpr-ros-pkg/trunk/rgbd_benchmark/rgbd_benchmark_tools/

使用方法介绍:
http://vision.in.tum.de/data/datasets/rgbd-dataset/tools

当我把它的测评工具下载下来,发现它的所有东西都是基于rosbuild,所以得先解决这个问题(本人使用的是catkin)。记得以前配置过catkin和rosbuild共存,于是乎这个问题就解决了。
配置方法:
http://my.phirobot.com/blog/2013-12-overlay_catkin_and_rosbuild.html

配置好后将下载的测评工具放在rosbuild中的sandbox文件夹中,然后进入测评工具文件夹内并调用rosmake进行编译。

duang。。。。。。。。出错了!!!!提示无法找到依赖项opencv2.

解决办法:
1.在CmakeLists.txt中添加以下两条语句:

find_package(OpenCV REQUIRED)
include_directories(${OpenCV_INCLUDE_DIRS})

2.将manifest.xml中下面语句删掉:

<depend package="opencv2">

 

再进行编译就会成功!!!!!

注意:
1. 当你使用某个测评脚本的时候有可能会出错,莫要惊慌,按照提示一步步进行修改。
2. 在编译时也可能会提示你缺少依赖项,这个最简单,安装依赖项就ok了。

 

 

Logo

开放原子开发者工作坊旨在鼓励更多人参与开源活动,与志同道合的开发者们相互交流开发经验、分享开发心得、获取前沿技术趋势。工作坊有多种形式的开发者活动,如meetup、训练营等,主打技术交流,干货满满,真诚地邀请各位开发者共同参与!

更多推荐