阅读一些有关视觉测距的论文,很多都使用反深度。它只是深度的数学倒数(表示1 / d)还是代表其他东西。使用它的好处是什么?

#1 楼

太阳和云等要素以及距离很远的其他事物的距离估计为inf。这会引起很多问题。为了绕开它,估计距离的倒数。所有inf都变为零,这往往会引起较少的问题。

评论


$ \ begingroup $
不太了解,如果我使用kinect设备,则由于太近或太远或反射或视差,无效区域的输出值在内部都设置为0。那有……吗?与反深度有关?
$ \ endgroup $
–张绍臣
16年5月17日在13:54



$ \ begingroup $
@zhangxaochen逆深度参数化在单眼SLAM中得到了广泛使用,它有助于估计3D点的深度。 Kinect提供3D信息或该点的深度。我认为在Kinect中使用逆深度不会有太大的需求。
$ \ endgroup $
–nbsrujan
19-09-25在5:53

#2 楼

逆深度参数化表示地标距照相机的距离d,正好与它说的一样,与估计算法中的1 / d成比例。该方法背后的理由是,诸如扩展卡尔曼滤波器(EKF)之类的滤波方法假设与特征相关的误差是高斯分布。

在视觉里程表中,通过跟踪一系列帧上的关联特征,然后使用诱导的视差来估计地标的深度。但是,对于较远的特征(相对于相机的位移),所得的视差将很小,并且重要的是,与深度相关的误差分布在接近最小深度并带有长尾巴的情况下高度达到峰值(即无法通过A高斯分布)。要查看示例,请参阅Civera等人的论文中的图7(由@freakpatrol提及)或Fallon等人的图4。 ICRA 2012“使用RGB-D相机进行鲁棒的蒙特卡洛定位的高效场景仿真”。

通过表示反深度(即1 / d),该误差变为高斯。此外,它允许代表很远的点,例如指向无穷大。

使用的表示形式的重要方面是Civera的论文,在其论文的II B部分中进行了解释(请参见公式(3))。在此,相对于从中看到的第一台摄像机的姿态(位置和方向)表示了一个地标。此姿势在等式(3)的前五个参数中捕获,而第六个参数$ \ rho_ {i} $表示反深度。式(4)提供了一个用于恢复点的世界位置的表达式(即,将逆深度转换为深度的深度为$ 1 / \ rho_ {i} $)

评论


$ \ begingroup $
ICRA 2012链接已断开。
$ \ endgroup $
– ..
19/12/20在5:57

#3 楼

戴维森(Davison)介绍该方法的论文很容易理解:

Javier Civera,Andrew J. Davison和J. M.MartınezMontiel对单眼SL​​AM进行反深度参数化DOI:10.1109 / TRO.2008.2003276

评论


$ \ begingroup $
确保在回答中添加一些简短的摘要。这并不能真正回答用户的问题,它只是链接到一篇论文,而该论文以后可能在该链接中不可用!
$ \ endgroup $
–布莱恩·林奇(Brian Lynch)
2015年11月4日,下午5:47

$ \ begingroup $
另外,最好提一下论文的标题,最好是DOI,因为这意味着如果该特定URL消失了,将来会更容易找到。
$ \ endgroup $
– Mark Booth♦
2015年11月4日在10:52

#4 楼

除了关于反深度的数值条件的其他答案中提到的原因外,在专门的视觉测距学文献中出现此术语的主要原因还在于,根据立体视觉计算深度的方式是:校正后,从3D信息中推断出3D信息。两个相机的图像中点出现的位置之间的X距离。

深度$ Z $然后根据视差$ d $计算为$ Z = \ frac {fB} { d} $,其中$ f $和$ B $分别是焦距(以像素为单位)和相机基线(以米为单位)。因此,在反深度空间中进行操作也会使您也进入视差空间中,直接估算数量,并且更容易处理该数量中的分布或误差。