본문 바로가기
유도항법제어/칼만필터를 넘어서

이노베이션 (Innovation)의 확률적 특성

by 깊은대학 2024. 12. 15.

칼만필터(Kalman filter)의 이노베이션(innovation) 또는 측정 잔차는 측정값(measurement)과 측정 예측값(measurement prediction)의 차이로서 칼만필터가 작동 중에 유일하게 실제값과 비교하여 알 수 있는 값이다. 따라서 이 값과 이 값의 확률적 특성을 이용하면 칼만필터가 설계대로 잘 작동하고 있는지 여부를 판단할 수 있을 뿐만 아니라 칼만필터 설계값들을 튜닝할 수 있는 근거가 된다.

먼저 칼만필터 알고리즘을 간략히 살펴본 후 이노베이션의 확률적 특성에 대해서 알아보자. 다음과 같이 선형 시스템이 있다.

 

(1)xt+1=Ftxt+Gtut+Γtwtzt=Htxt+vt

 

여기서 xtRnx, utRnu, ztRnz, wtRnw, vtRnz 이며 하첨자 t 는 시간스텝(time step)을 의미한다.

프로세스 노이즈 wt 와 센서 노이즈 vt 는 평균이 0 인 가우시안 화이트 노이즈(white noise)로서 그 값은 다음과 같이 주어진다.

 

(2)E[wt]=0,     E[wtwlT]=Qtδtl,     Qt>0E[vt]=0,     E[vtvlT]=Rtδtl,     Rt>0E[wtvlT]=0,     E[x0wtT]=0,     E[x0vtT]=0

 

여기서 δtl 는 크로넥커 델타(Kronecker delta) 함수로서 t=l 이면 δtl=1 이고 tl 이면 δtl=0 이다. 노이즈 공분산 QtRt 는 정정행렬(positive-definite matrix)이다. 식 (1)에서 Γtwt=w~t 로 단순하게 표기하는 경우도 많은데 이 경우 공분산은 ΓtQtΓtT0 으로서 반정정행렬(positive semi-definite matrix)이 될 수도 있다.

 

 

수학으로 풀어보는 칼만필터 알고리즘 | 박성수 - 교보문고

수학으로 풀어보는 칼만필터 알고리즘 | 수학 때문에 칼만필터에 장벽을 느끼는 분들을 위한 책입니다!칼만필터는 수학 알고리즘이다. 따라서 수학식 없이는 칼만필터를 이해할 수도, 사용할

product.kyobobook.co.kr

 

식 (1)과 (2)에 대해서 칼만필터 알고리즘은 다음과 같다.

 

(3)x^t+1|t=Ftx^t|t+GtutPt+1|t=FtPt|tFtT+ΓtQtΓtTνt=ztHtx^t|t1St=HtPt|t1HtT+RtKt=Pt|t1HtTSt1x^t|t=x^t|t1+KtνtPt|t=Pt|t1KtStKtT=(IKtHt)Pt|t1(IKtHt)T+KtRtKtT

 

여기서 νt 를 이노베이션(innovation)이라고 한다. 특성은 다음과 같이 정리할 수 있다.

 

(4)νtN(0,St)E[νtνlT]=Stδtl

 

즉, 이노베이션은 평균이 0이고 공분산이 S_t인 가우시안 화이트 노이즈(Gaussian white noise)다.

이제 이를 증명한다. 먼저 평균이 0이라는 것은 최소평균제곱오차(MMSE, minimum mean-square error) 추정기가 바이어스(bias)가 없는 추정라는 점을 이용하면 증명할 수 있다.

 

(5)E[νt|z0:t1]=E[ztz^t|t1|z0:t1]=E[zt|z0:t1]z^t|t1=z^t|t1z^t|t1=0

 

이번에는 이노베이션이 화이트 노이즈라는 것을 증명한다. 이노베이션을 전개해 보면,

 

(6)νt=ztHtx^t|t1=Htxt+vtHtx^t|t1=Htx~t|t1+vt

 

이다. 여기서 x~t|t1=xtx^t|t1 은 사전(a priori) 추정 오차다. 사전 추정 오차를 다음 시간스텝으로 전개하면 다음과 같다.

 

(7)x~t+1|t=xt+1x^t+1|t=Ftxt+Gtut+Γtwt(Ftx^t|t+Gtut)=Ftxt+ΓtwtFt(x^t|t1+Kt(Htxt+vtHtx^t|t1))=(FtFtKtHt)xt(FtFtKtHt)x^t|t1+ΓtwtFtKtvt=F¯tx~t|t1+w¯t

 

여기서

 

F¯=(FtFtKtHt),     w¯t=ΓtwtFtKtvt

 

이다. 식 (7)은 x~t|t1 에 대한 선형 이산시간(discrete-time) 방정식이므로 해를 다음과 같이 구할 수 있다.

 

(8)x~t|t1=Φt,ix~i|i1+j=it1Φt,j+1w¯j

 

여기서 Φt,i 는 상태천이행렬(state transition matrix)로서 다음과 같다.

 

(9)Φt,i={F¯t1F¯t2F¯i,t>iI,t=i

 

그러면 사전 추정 오차의 자기공분산(autocovariance)는 다음과 같이 구할 수 있다.

 

(10)E[x~t|t1x~i|i1T]=E[(Φt,ix~i|i1+j=it1Φt,j+1w¯j)x~i|i1T]

 

그런데 위 식에서

 

E[w¯jx~i|i1T]=E[(ΓjwjFjKjvj)x~i|i1T]=ΓjE[wjx~i|i1T]FjKjE[vjx~i|i1T]

 

인데, 여기서 x~i|i1 은 시간스텝 i1 이전의 시간스텝에서의 wi1vi1 에만 영향을 받을 뿐 wjvj, ji 과는 무관하기 때문에 다음 식이 성립한다.

 

(11)E[w¯jx~i|i1T]=0,     ji

 

식 (11)을 (10)애 대입하면 다음과 같이 자기공분산 식이 간단해진다.

 

(12)E[x~t|t1x~i|i1T]=Φt,iE[x~i|i1x~i|i1T]=Φt,iPi|i1

 

이번에는 사전 추정 오차와 측정 노이즈의 상호공분산(cross-covariance)을 구해보자.

 

(13)E[x~t|t1viT]=E[(Φt,ix~i|i1+j=it1Φt,j+1w¯j)viT]

 

위 식에서 같은 이유로 E[x~i|i1viT]=0 이고,

 

(14)E[w¯jviT]=E[(ΓjwjFjKjvj)viT]=ΓjE[wjviT]FjKjE[vjviT]={0,j>iFiKiRi,j=i

 

이다. 따라서 식 (13)은 다음과 같이 된다.

 

(15)E[x~t|t1viT]=Φt,i+1FiKiRi

 

 

 

이제 ti 에서 이노베이션의 자기공분산을 구해보자.

 

(16)E[νtνiT]=E[(Htx~t|t1+vt)(Htx~i|i1+vi)T]

 

만약 t=i 이라면, 식 (16)은 다음과 같이 된다.

 

(17)E[νtνtT]=HtE[x~t|t1x~i|i1T]HtT+E[vtvtT]=HtPt|t1HtT+Rt=St

 

t>i 에서는 식 (16)은 다음과 같이 된다.

 

(18)E[νtνiT]=E[(Htx~t|t1+vt)(Htx~i|i1+vi)T]=HtE[x~t|t1x~i|i1T]HiT+HtE[x~t|t1viT]+E[vtx~i|i1T]HiT

 

여기서 t>i 이기 때문에 x~i|i1vt 와는 무관하다. 따라서 E[vtx~i|i1T]=0 이다. 식 (12)와 (15)를 식 (18)에 대입하면 다음과 같이 된다.

 

(19)E[νtνiT]=HtΦt,iPi|i1HiTHtΦt,i+1FiKiRi=HtΦt,i+1(F¯iPi|i1HiTFiKiRi)

 

F¯i=(FiFiKiHi) 이므로 식 (19)에 대입하면,

 

(20)E[νtνiT]=HtΦt,i+1((FiFiKiHi)Pi|i1HiTFiKiRi)=HtΦt,i+1(FiPi|i1HiTFiKiHiPi|i1HiTFiKiRi)=HtΦt,i+1(FiPi|i1HiTFiKi(HiPi|i1HiT+Ri))

 

이 되고 식 (3)에 의하면

 

Ki=Pi|i1HiT(HiPi|i1HiT+Ri)

 

이므로 위 식을 식 (20)에 대입하면,

 

(21)E[νtνiT]=HtΦt,i+1(FiPi|i1HiTFiPi|i1HiT)=0,     t>i

 

이 된다. 따라서 이노베이션은 화이트 노이즈다.

 

 

또한 모든 확률 함수가 가우시안이고 시스템이 선형이므로 이노베이션도 가우시안이다. 이로써 이노베이션이 평균이 0인 가우시안 화이트 노이즈임을 증명하였다.