状态估计的概率解释
运动和观测方程:
(1.1){xk=f(xk1,uk)+wkzk=h(yj,xk)+vk,jk=1,…,N,j=1,…,M" role="presentation">{xk=f(xk1,uk)+wkzk=h(yj,xk)+vk,jk=1,…,N,j=1,…,M(1.1)
其中,各个参数的含义如下:
-
xk" role="presentation">xk :机器人的位姿。
-
uk" role="presentation">uk :系统在k时刻的输入量。
-
wk" role="presentation">wk:位姿变化的随机噪声。
-
zk" role="presentation">zk :系统的观测值,传感器采集的观测数据。
-
yj" role="presentation">yj :路标,或者说是观测点。
-
vk,j" role="presentation">vk,j:观测过程中的随机噪声。
我们的目标则是利用系统在k时刻的输入量uk" role="presentation">uk和系统的观测量zk" role="presentation">zk,估计机器的位姿xk" role="presentation">xk和路标点yj" role="presentation">yj的概率分布。
在比较常见且合理的情况下,我们可以假设状态量和噪声项服从高斯分布——这意味这我们在程序中只需要存储他们的均值和协方差矩阵即可。均值可以看作变量的最最优估计,协方差则可以度量变量的不确定性。
由于位姿xk" role="presentation">xk和路标点yj" role="presentation">yj都是需要我们估计的变量,这里我们改变符号的意义。令xk" role="presentation">xk为k时刻所有的未知量,记作:
(1.2)xk=def{xk,y1,…,ym}" role="presentation">xk=def{xk,y1,…,ym}(1.2)
根据上述(1.1)和(1.2)可以将运动方程和观测方程写成如下形式:
(1.3){xk=f(xk1,uk)+wkzk=h(xk)+vk,jk=1,…,N" role="presentation">{xk=f(xk1,uk)+wkzk=h(xk)+vk,jk=1,…,N(1.3)
现在考虑第k时刻的情况,我们希望使用过去0到时刻的数据来估计现在的状态分布:
(1.4)P(xk|x0,u1:k,z1:k)" role="presentation">P(xk|x0,u1:k,z1:k)(1.4)
根据贝叶斯公式,可以得到如下公式:
(1.5)P(xk|x0,u1:k,z1:k)∝P(zk|xk)P(xk|x0,u1:k,z1:k−1)" role="presentation">P(xk|x0,u1:k,z1:k)∝P(zk|xk)P(xk|x0,u1:k,z1:k−1)(1.5)
这里的第一项称为似然,第二项称为先验。似然由观测方程给定,而先验部分,xk" role="presentation">xk是基于过去所有状态估计而来的。至少,它会受到xk−1" role="presentation">xk−1的影响,于是我们以xk−1" role="presentation">xk−1时刻为条件概率展开:
(1.6)P(xk|x0,u1:k,z1:k−1)=∫P(xk|xk−1,x0,u1:k,z1:k−1)P(xk−1|x0,u1:k,z1:k−1)dxk−1" role="presentation">P(xk|x0,u1:k,z1:k−1)=∫P(xk|xk−1,x0,u1:k,z1:k−1)P(xk−1|x0,u1:k,z1:k−1)dxk−1(1.6)
对于后续的操作,有很多的方法。
在这里,我们先了解卡尔曼滤波的原理和应用。
线性系统和卡尔曼滤波
根据上文,我们假设了这个系统符合马尔可夫性,我们可以对公式(1.6)做出一些简化。
观察上述公式,我们可以知道,我们实际上在做“如何把k-1时刻的状态分布推导至k时刻”这一件事请。
我们假设状态量服从高斯分布,从最简单的线性高斯系统开始,得到如下公式:
(2.3){xk=Akxk−1+uk+wkzk=Ckxk+vk,jk=1,…,N" role="presentation">{xk=Akxk−1+uk+wkzk=Ckxk+vk,jk=1,…,N(2.3)
假设所有的状态和噪声都符合高斯分布,这里的噪声可以记作:(这里省略了R和Q的下标)
(2.4)wk∼N(0,R)vk∼N(0,Q)" role="presentation">wk∼N(0,R)vk∼N(0,Q)(2.4)
利用马尔可夫性,假设我们已知k-1时刻的状态,也就是k-1时刻的后验状态估计x^k−1" role="presentation">x^k−1及其协方差P^k−1" role="presentation">P^k−1,现在要根据k时刻的输入,确认xk" role="presentation">xk的后验。
这里我们使用x^k" role="presentation">x^k表示后验分布,使用x~k" role="presentation">x~k表示先验分布。
卡尔曼滤波第一步: 通过运动方程确认xk" role="presentation">xk的先验分布。这一步是线性的,高斯分布的线性变换依然是高斯分布,所以可以得到如下公式:
(2.5)P(xk|xk−1,x0,u1:k,z1:k−1)=N(Akx^k−1+uk,AkP^k−1AkT+R)" role="presentation">P(xk|xk−1,x0,u1:k,z1:k−1)=N(Akx^k−1+uk,AkP^k−1ATk+R)(2.5)
这里协方差的推导可以参考《概率论与数理统计》的P112页,关于n维正态随机变量的协方差矩阵。
这一步称为预测。可以记作:
(2.6)x~k=Akx^k−1+uk,P~k=AkP^k−1AkT+R" role="presentation">x~k=Akx^k−1+uk,P~k=AkP^k−1ATk+R(2.6)
卡尔曼滤波第二步: 根据观测方程,我们可以计算莫格时刻应该产生怎样的观测数据:
(2.7)P(zk|xk)=N(Ckxk,Q)" role="presentation">P(zk|xk)=N(Ckxk,Q)(2.7)
我们已经假设状态量符合高斯分布,根据贝叶斯公式,可以得到如下公式:
(2.8)N(x^k,P^k)=ηN(Ckxk,Q)⋅N(x~k,P~k)" role="presentation">N(x^k,P^k)=ηN(Ckxk,Q)⋅N(x~k,P~k)(2.8)
两侧都是高斯分布,我们带入高斯分布的公式,只需要保证指数部分相同,无需理会前面的因子部分。可以得到如下公式:
(2.9)(xk−x^k)TP^−1k(xk−x^k)=(zk−Ckxk)TQ^k−1(zk−Ckxk)+(xk−x~k)TP~k−1(xk−x~k)" role="presentation">(xk−x^k)TP^−1k(xk−x^k)=(zk−Ckxk)TQ^−1k(zk−Ckxk)+(xk−x~k)TP~−1k(xk−x~k)(2.9)
我们需要根据上述这个公式推导出x^k" role="presentation">x^k和P^k" role="presentation">P^k。
这里是通过系数相等进行了化简,我在这里简写一下:
(2.10){P^k−1=CkTQ−1Ck+P~k−1−2x^kTP^k−1xk=−2zkTQ−1Ckxk−2x~kTP~k−1xk" role="presentation">⎧⎩⎨⎪⎪⎪⎪⎪⎪P^−1k=CTkQ−1Ck+P~−1k−2x^TkP^−1kxk=−2zTkQ−1Ckxk−2x~TkP~−1kxk(2.10)
我们记作K=P^kCkTQ−1" role="presentation">K=P^kCTkQ−1得到如下公式:
(2.11){P^k=(I−KCk)P~kx^k=x~k+K(zk−Ckx^k)" role="presentation">⎧⎩⎨⎪⎪P^k=(I−KCk)P~kx^k=x~k+K(zk−Ckx^k)(2.11)
这个部称为更新。
总结kalmanFilter的用法
-
预测
(2.12)x~k=Akx^k−1+uk,P~k=AkP^k−1AkT+R" role="presentation">x~k=Akx^k−1+uk,P~k=AkP^k−1ATk+R(2.12)
-
更新:先计算K(卡尔曼增益), 然后更新后验概率的分布。
(2.13)K=P^kCkT(CkP~kCkT+Qk)−1P^k=(I−KCk)P~kx^k=x~k+K(zk−Ckx^k)" role="presentation">K=P^kCTk(CkP~kCTk+Qk)−1P^k=(I−KCk)P~kx^k=x~k+K(zk−Ckx^k)(2.13)