有什么区别?
其他问题:
如果我可以忘记肯尼迪,但必须还记得预测是更复杂的链接吗?
我怎么能想象不确定性矩阵变成椭圆形? (我通常看到,面积是不确定的,但我指的是边界)
仅在假设每个传感器都读取不同物体的情况下,才可能在IF中简单添加信息? (因此没有关联问题,我在此处发布了
#1 楼
他们是完全一样的。信息矩阵(aka精度矩阵)是协方差矩阵的逆矩阵。遵循这个。协方差更新$$ P _ {+} =(I-KH)P $$可以通过定义$ K $来扩展为$$ P _ {+} = P-KHP $$
$$ P _ {+} = P-PH ^ T(HPH ^ T + R)^ {-1} HP $$
现在应用矩阵求逆引理,我们有:
$$ P _ {+} = P-PH ^ T(HPH ^ T + R)^ {-1} HP $$
$$ P _ {+} =(P ^ { -1} + H ^ TR ^ {-1} H)^ {-1} $$
这意味着:
$$ P _ {+} ^ {-1} = P ^ {-1} + H ^ TR ^ {-1} H $$
术语$ P ^ {-1} $被称为先验信息$ H ^ TR ^ {-1} H $是传感器信息(传感器方差的倒数),这使我们获得$ P ^ {-1} _ + $,这是后验信息。
我在掩盖实际状态的估算值,但这很简单。我看到的最好的介绍不是Thrun的书,而是Ben Grocholsky的博士学位论文。 (只是介绍资料)。称为多传感器平台的信息理论控制。这是链接。
编辑
回答所提出的问题。
预测并不复杂,由于您必须将$ n \ times n $协方差矩阵求逆才能获得真实的状态输出,因此计算开销更大。
要从协方差矩阵查看椭圆,只需注意协方差矩阵具有很好的奇异值分解。椭圆的特征值的平方根或椭圆的奇异值的平方根将定义椭圆的主轴。
不,信息的添加仅取决于测量噪声的独立性。如果要使用两个信息过滤器来跟踪两个对象,那很好。或者,如果您想使用IF来跟踪两个对象,那也很好。您所需要做的就是正确地关联度量,以便知道要更新状态的哪一部分(对象1或对象2)。
评论
$ \ begingroup $
论文中的解释很不错!对于一些问题:1.使用IF可以忘记KF,但必须记住预测是更复杂的链接。2.如何想象不确定性矩阵变成椭圆形? (我通常看到,面积是不确定的,但我指的是边界)3.仅在假设每个传感器读取不同物体的情况下,才可能在IF中简单添加信息? (因此没有关联问题,我在这里发布了
$ \ endgroup $
– josh131
13年4月10日在12:09
$ \ begingroup $
我回答了你的问题。我还将它们添加到您的原始问题中,因为这是询问相关问题的首选方式。
$ \ endgroup $
–乔什·范德·胡克(Josh Vander Hook)
2013年10月10日14:02
$ \ begingroup $
太好了,很抱歉没有考虑更新主要问题
$ \ endgroup $
– josh131
13年4月11日在8:10
#2 楼
卡尔曼滤波器和信息滤波器之间的差异出现在高斯信念表示中。在卡尔曼滤波器中,高斯信念由其矩(均值和协方差)表示。信息过滤器以规范表示形式表示高斯,它由信息矩阵和信息矢量组成。评论
$ \ begingroup $
这里的规范表示是什么意思?
$ \ endgroup $
–GENIVI-LEARNER
20 Mar 28 '20在21:58
#3 楼
简短说明-信息过滤器和Klaman过滤器之间存在显着差异。
尽管它们在数学上相似(彼此相反),但边际化在Kalman过滤器中很简单,而在信息过滤器中则很复杂。但是,信息过滤器中的平滑处理比较简单,而卡尔曼过滤器中的平滑处理则比较复杂。
由于现代状态估计技术倾向于采用平滑处理来减轻非线性影响,提高精度并允许闭环,因此信息过滤器就可以使用上升。
评论
$ \ begingroup $
好的答案。我对问题中的“规范参数化而不是矩参数化”的含义感到困惑?
$ \ endgroup $
–GENIVI-LEARNER
20-3-28在21:53
评论
您可能会从Thrun等人那里摘到《概率机器人学》一书。等了解信息过滤器,尤其是在机器人技术方面。如果您有特定问题,请随时在这里提问:)我认为他有一个很好的问题:有什么区别?所以我回答了。我认为这是很好的参考,也是因为Thrun的书并不那么好,而且很昂贵。