ari23の研究ノート

メーカ勤務エンジニアの技術ブログです

データ同化|カルマンフィルタと尤度

データ同化の1つであるカルマンフィルタと尤度について、自分なりの理解をまとめます🐜

この記事を書くにあたり色々調査したところ、素晴らしい記事がたくさんありますので、それをうまく参照しながら整理します。

カルマンフィルタの難しさ

カルマンフィルタはよく使われる技術ではあるんですが、理解がすごく難しいなぁと思っています。 というのも、例えばカルマンフィルタを解説する技術書や記事を見ても、その目的が制御なのか推定なのか、次元が一次元なのか多次元なのか、などで書きぶりがかなり変わってくるように感じています。

特に制御理論で発展した技術なので、著者が制御の人間かどうかで解説の仕方もかなり違う印象です。

以降でカルマンフィルタを解説しますが、このブログでは『データ同化入門-次世代のシミュレーション技術-(朝倉書店)』の内容に軸足を置き、制御理論との間を少しだけ埋めるよう意識します。

線形・ガウス状態空間モデル

以前の記事で、データ同化の基本である状態空間モデルを扱った。

データ同化|データ同化とは ざっくり解説 - ari23の研究ノート

上記の記事では、システムモデルと観測モデルの線形性や、システムノイズや観測ノイズの確率分布に言及していない。

カルマンフィルタでは、システムノイズと観測モデルは線形モデルであり、システムノイズや観測ノイズはガウス分布(正規分布)に従うとする。つまり、状態空間モデルを以下のように書くことができる。

 \displaystyle
\begin{align}
\boldsymbol{x}_t &= F_t \boldsymbol{x}_{t-1} + G_t \boldsymbol{v}_t \qquad \boldsymbol{v}_t \sim N(\boldsymbol{0}, Q_t)\\
\boldsymbol{y}_t &= H_t \boldsymbol{x}_t + \boldsymbol{w}_t \qquad \quad \ \boldsymbol{w}_t \sim N(\boldsymbol{0}, R_t)
\end{align}

各変数の説明と形は以下の通り。ただし、※がついた名称は一般的ではない可能性があることに注意されたい。

変数 次元 説明
 \boldsymbol{x}_t  k 時刻 t の状態変数(ベクトル)
 \boldsymbol{x}_{t-1}  k 時刻 t-1 の状態変数(ベクトル)
 F_t  k \times k 時刻 t のシステム行列※または遷移行列
 G_t  k \times m 時刻 t のシステムノイズ行列※
 \boldsymbol{v}_t 時刻 t のガウス分布 N(\boldsymbol{0}, Q_t) に従うシステムノイズ
 Q_t  m \times m 時刻 t のシステムモデルの分散共分散行列
 \boldsymbol{y}_t  \ell 時刻 t の観測値(ベクトル)
 H_t  \ell \times k 時刻 t の観測行列※
 \boldsymbol{w}_t 時刻 t のガウス分布 N(\boldsymbol{0}, Q_t) に従う観測ノイズ
 R_t  \ell \times \ell 時刻 t の観測モデルの分散共分散行列

分散共分散行列とは、分散の概念を一次元から多次元(多変量)の確率変数に拡張し行列で表現したものである。 以下に、ガウス分布(正規分布) N(\boldsymbol{\mu}, \boldsymbol{\Sigma}) に従う二次元確率変数 \boldsymbol{x} の確率密度関数 f(\boldsymbol{x}) を示す。

 \displaystyle
f(\boldsymbol{x}) = \frac{1}{\sqrt{(2\pi)^2 |\Sigma|}} \exp \biggl( -\frac{1}{2} (\boldsymbol{x} - \boldsymbol{\mu})^{\prime} \Sigma^{-1} (\boldsymbol{x} - \boldsymbol{\mu}) \biggr)

参考として、一次元の確率分布を以下に示す。

 \displaystyle
f(x) = \frac{1}{\sqrt{2\pi \sigma^{2}}} \exp \biggl( -\frac{(x-m)^{2}}{2 \sigma^{2}} \biggr)

制御理論の場合

制御理論、特に現代制御では状態空間モデルを、例えば以下のように表すことが多いと思います(MATLABのカルマンフィルターを参考)。

 \displaystyle
\begin{align}
x[n+1] &= Ax[n] + Bu[n] + Gw[n] \\
y_v[n] &= Cx[n] + v[n]
\end{align}

変数の違いはもちろんですが、一番の違いは入力の Bu[n] です。私は制御もかじっているせいか、この Bu[n] によってかなり混乱しました。しかし本質はまったく同じで、この入力を状態変数 \boldsymbol{x} に入れてしまえば、最初に出した状態空間モデルと一致します。

予測とフィルタ

カルマンフィルタのアルゴリズムに入る前に、予測とフィルタ(濾波ともいう)の考えを導入する。

データ同化は、モデルと観測値をうまく馴染ませる技術であると説明した。

データ同化|データ同化とは ざっくり解説 - ari23の研究ノート

今、時刻 t において、状態変数 \boldsymbol{x}_t を予測することを考えたい。
このとき、手元には時刻 1 から t-1 までの(時刻 t 以外の)観測値があり、これを \boldsymbol{y}_{1:t-1} と書くことにする。 \boldsymbol{x}_t の確率(密度)は、 \boldsymbol{y}_{1:t-1} を条件とする、条件確率として以下のように書ける。

 \displaystyle
p(\boldsymbol{x}_t | \boldsymbol{y}_{1:t-1})

これを予測分布と呼ぶ。

次に、同じく時刻 t のときに観測値 \boldsymbol{y}_{t} が追加されたとする。新たに情報が追加され、 \boldsymbol{x}_t の条件確率が更新される。

 \displaystyle
p(\boldsymbol{x}_t | \boldsymbol{y}_{1:t})

これをフィルタ分布と呼ぶ。

カルマンフィルタをはじめとする、逐次ベイズフィルタでは、この(一期先)予測ステップとフィルタステップ(更新ステップともいう)を交互に操作して分布を求める。以下は、この予測とフィルタを図示したものである。

予測とフィルタ
予測とフィルタ

ここでの「分布を求める」とは、各ステップでのガウス分布の平均と分散共分散行列を求めることを意味する。つまり、推定値はフィルタステップで得た平均値である。

また、フィルタステップでは観測値が追加され、より真値に近い分布に更新されるので、分散がその分だけ小さくなるイメージを持てば良い。

ところで、以下の分布は全区間での観測値を使って求める時刻 t での分布であり、これを平滑化分布と呼ぶが、ここでは扱わない。

 \displaystyle
p(\boldsymbol{x}_t | \boldsymbol{y}_{1:T})

以上を次の表でまとめる。

分布名 表記 観測値の区間
予測分布  p(\boldsymbol{x}_t \mid \boldsymbol{y}_{1:t-1}) 1ステップ前まで
フィルタ分布  p(\boldsymbol{x}_t \mid \boldsymbol{y}_{1:t}) 今のステップまで
平滑化分布  p(\boldsymbol{x}_t \mid \boldsymbol{y}_{1:T}) 全区間

カルマンフィルタ

カルマンフィルタのアルゴリズムは次の通り。なお、 {F_t}^{\prime}  F_t の転置行列を表す。参考として、線形・ガウス状態空間モデルも再掲する。

線形・ガウス状態空間モデル(再掲)

 \displaystyle
\begin{align}
\boldsymbol{x}_t &= F_t \boldsymbol{x}_{t-1} + G_t \boldsymbol{v}_t \qquad \boldsymbol{v}_t \sim N(\boldsymbol{0}, Q_t)\\
\boldsymbol{y}_t &= H_t \boldsymbol{x}_t + \boldsymbol{w}_t \qquad \quad \ \boldsymbol{w}_t \sim N(\boldsymbol{0}, R_t)
\end{align}


カルマンフィルタアルゴリズム

<初期条件>
 \boldsymbol{x}_{0|0} を初期の状態変数、 V_{0|0} を初期の状態変数の分散共分散行列とし、時刻 t=1, 2, ..., T に対して、次の操作を行う。

<一期先予測>

 \displaystyle
\begin{align}
\boldsymbol{x}_{t|t-1} &= F_t \boldsymbol{x}_{t-1|t-1} \\
V_{t|t-1} &= F_t V_{t-1|t-1} {F_t}^{\prime} + G_t Q_t {G_t}^{\prime}
\end{align}

<フィルタ>

 \displaystyle
\begin{align}
\boldsymbol{e}_t &= \boldsymbol{y}_t - H_t \boldsymbol{x}_{t|t-1} \\
D_{t|t-1} &= H_t V_{t|t-1} {H_t}^{\prime} + R_t \\
K_t &= V_{t|t-1} {H_t}^{\prime} {D_{t|t-1}}^{-1} \\
\boldsymbol{x}_{t|t} &= \boldsymbol{x}_{t|t-1} + K_t \boldsymbol{e}_t \\
V_{t|t} &= V_{t|t-1} - K_t H_t V_{t|t-1}
\end{align}

各変数の説明は以下の通り。

変数 説明
 \boldsymbol{x}_{t \mid t-1} 時刻 t-1 までの観測値で推定した時刻 t の推定値、または時刻 t の予測分布の平均ベクトル
 V_{t \mid t-1} 時刻 t-1 までの観測値で推定した時刻 t の推定値の誤差の分散、または時刻 t の予測分布の分散共分散行列
 \boldsymbol{e}_t 時刻 t の観測値と予測ステップでの推定値から得られるであろう観測値との誤差、または観測残差(イノベーションという)
 D_{t \mid t-1} 観測残差の分散共分散行列
 K_t 最適カルマンゲイン
 \boldsymbol{x}_{t \mid t} 観測値が追加され更新した時刻 t での推定値、または時刻 t のフィルタ分布の平均ベクトル
 V_{t \mid t} 観測値が追加され更新した時刻 t での予測値の誤差の分散、または時刻 t のフィルタ分布の分散共分散行列

カルマンフィルタでは原則、この一期先予測とフィルタの操作を交互に繰り返して、状態変数の平均ベクトルと分散共分散行列を求めながら、真値に近い値を推定する。その様子を図示したものは以下の通り。

カルマンフィルタの予測とフィルタ
カルマンフィルタの予測とフィルタ

例えば、時刻 t=2 での予測分布は p(\boldsymbol{x}_{2}|\boldsymbol{y}_{1}) \sim N(\boldsymbol{x}_{2|1}, V_{2|1}) であり、フィルタ分布は p(\boldsymbol{x}_{2}|\boldsymbol{y}_{2}) \sim N(\boldsymbol{x}_{2|2}, V_{2|2}) であることを示す。

アルゴリズムの導出

カルマンフィルタのアルゴリズムとその導出については、以下の記事を参考にされたい1

尤度

カルマンフィルタなどデータ同化を扱うときに最も難しいのは、真値がわからない状態でノイズなどのパラメタを設定することである。このとき、パラメタ設定の指標として尤度を使うのが一般的である。

尤度とは全区間の観測値の同時確率であり、 p(\boldsymbol{y}_{1:T}) と表現できる。これを乗法定理 p(\boldsymbol{a}, \boldsymbol{b}) = p(\boldsymbol{a}|\boldsymbol{b})p(\boldsymbol{b}) を使うと、以下のように書き下せる。

 \displaystyle
\begin{align}
p(\boldsymbol{y}_{1:T}) &= p(\boldsymbol{y}_T, \boldsymbol{y}_{T-1}, ..., \boldsymbol{y}_1) \\
&= p(\boldsymbol{y}_T|\boldsymbol{y}_{1:T-1}) p(\boldsymbol{y}_{1:T-1}) \\
&= p(\boldsymbol{y}_T|\boldsymbol{y}_{1:T-1}) p(\boldsymbol{y}_{T-1}|\boldsymbol{y}_{1:T-2}) p(\boldsymbol{y}_{1:T-2}) \\
&= \prod_{t=1}^{T}p(\boldsymbol{y}_t|\boldsymbol{y}_{1:t-1})
\end{align}

 p(\boldsymbol{y}_t|\boldsymbol{y}_{1:t-1}) は、時刻 t の観測値に対して、最初から1ステップ前の過去の観測値 \boldsymbol{y}_{1:t-1} をもとに予測したときの実際の観測値 \boldsymbol{y}_t の確率である。(一期先予測尤度ともいう。)

この p(\boldsymbol{y}_t|\boldsymbol{y}_{1:t-1}) について、予測分布から考えてみたい。
時刻 t の予測分布は p(\boldsymbol{x}_t | \boldsymbol{y}_{1:t-1}) であり、線形・ガウス状態空間モデルであれば平均ベクトルが \boldsymbol{x}_{t|t-1} で、分散共分散行列が V_{t|t-1} であるガウス分布に従う。

次に観測モデル \boldsymbol{y}_t = H_t \boldsymbol{x}_t + \boldsymbol{w}_t を通すと、  p(\boldsymbol{y}_t | \boldsymbol{y}_{1:t-1}) は平均ベクトルが H_t \boldsymbol{x}_{t|t-1} で、分散共分散行列が D_{t|t-1} であるガウス分布に従うとわかる。

予測分布と一期先予測尤度
予測分布と一期先予測尤度

つまり、 p(\boldsymbol{y}_t | \boldsymbol{y}_{1:t-1}) は以下のように書ける。 1  \ell の違いに注意すること。

 \displaystyle
\begin{align}
p(\boldsymbol{y}_t|\boldsymbol{y}_{1:t-1}) &= \frac{1}{\sqrt{(2\pi)^\ell \ |D_{t|t-1}|}} \exp \biggl( -\frac{1}{2} (\boldsymbol{y}_t - H_t \boldsymbol{x}_{t|t-1})^{\prime} {D_{t|t-1}}^{-1} (\boldsymbol{y}_t - H_t \boldsymbol{x}_{t|t-1}) \biggr) \\
&= \frac{1}{\sqrt{(2\pi)^\ell \ |D_{t|t-1}|}} \exp \biggl( -\frac{1}{2} {\boldsymbol{e}_t}^{\prime} {D_{t|t-1}}^{-1} {\boldsymbol{e}_t} \biggr)
\end{align}

ところで、もし p(\boldsymbol{y}_{1:T}) にパラメタベクトル \boldsymbol{\theta} (例えばシステムノイズなど)が含まれる場合は、 p(\boldsymbol{y}_{1:T})  \boldsymbol{\theta} の関数とみなせるので、 p(\boldsymbol{y}_{1:T}|\boldsymbol{\theta}) と書いて、これを尤度関数 L(\boldsymbol{\theta}) と呼ぶ。

整理すると以下の通り。

 \displaystyle
\begin{align}
L(\boldsymbol{\theta}) &= p(\boldsymbol{y}_{1:T}|\boldsymbol{\theta}) \\
&= \prod_{t=1}^{T} p(\boldsymbol{y}_t| \ \boldsymbol{y}_{1:t-1}, \boldsymbol{\theta}) \\
&= \prod_{t=1}^{T} \frac{1}{\sqrt{(2\pi)^\ell \ |D_{t|t-1}|}} \exp \biggl( -\frac{1}{2} {\boldsymbol{e}_t}^{\prime} {D_{t|t-1}}^{-1} {\boldsymbol{e}_t} \biggr)
\end{align}

ただし、尤度関数 L(\boldsymbol{\theta}) は非常に小さい値であるため、ハイスペックな計算機でもアンダフローを起こしてしまう。そこで、尤度関数に対数を導入した対数尤度関数 l(\boldsymbol{\theta}) を求めることで、アンダフローを回避するのが一般的である。

 \displaystyle
\begin{align}
l(\boldsymbol{\theta}) &= \log L(\boldsymbol{\theta}) \\
&= \log \prod_{t=1}^{T} p(\boldsymbol{y}_t| \ \boldsymbol{y}_{1:t-1}, \boldsymbol{\theta}) \\
&= \sum_{t=1}^{T} \log p(\boldsymbol{y}_t| \ \boldsymbol{y}_{1:t-1}, \boldsymbol{\theta})
\end{align}

ここで、 \log p(\boldsymbol{y}_t| \ \boldsymbol{y}_{1:t-1}, \boldsymbol{\theta}) だけに注目する。

 \displaystyle
\begin{align}
\log p(\boldsymbol{y}_t| \ \boldsymbol{y}_{1:t-1}, \boldsymbol{\theta})
&= \log \Biggl(\frac{1}{\sqrt{(2\pi)^\ell \ |D_{t|t-1}|}} \exp \biggl( -\frac{1}{2} {\boldsymbol{e}_t}^{\prime} {D_{t|t-1}}^{-1} {\boldsymbol{e}_t} \biggr) \Biggr)\\
&= \log \Biggl( \biggl( (2\pi)^\ell \ |D_{t|t-1}| \biggr) ^{-\frac{1}{2}} \exp \biggl( -\frac{1}{2} {\boldsymbol{e}_t}^{\prime} {D_{t|t-1}}^{-1} {\boldsymbol{e}_t} \biggr) \Biggr)\\
&= -\frac{1}{2} \log \biggl( (2\pi)^\ell \ |D_{t|t-1}| \biggr) + \biggl( -\frac{1}{2} {\boldsymbol{e}_t}^{\prime} {D_{t|t-1}}^{-1} {\boldsymbol{e}_t} \biggr) \\
&= -\frac{\ell}{2} \log 2\pi - \frac{1}{2} \log |D_{t|t-1}| - \frac{1}{2} {\boldsymbol{e}_t}^{\prime} {D_{t|t-1}}^{-1} {\boldsymbol{e}_t}
\end{align}

改めて l(\boldsymbol{\theta}) に戻ると、以下のように書ける。

 \displaystyle
\begin{align}
l(\boldsymbol{\theta}) &= \log L(\boldsymbol{\theta}) \\
&= \sum_{t=1}^{T} \log p(\boldsymbol{y}_t| \ \boldsymbol{y}_{1:t-1}, \boldsymbol{\theta}) \\
&= \sum_{t=1}^{T} \biggl( -\frac{\ell}{2} \log 2\pi - \frac{1}{2} \log |D_{t|t-1}| - \frac{1}{2} {\boldsymbol{e}_t}^{\prime} {D_{t|t-1}}^{-1} {\boldsymbol{e}_t} \biggr) \\
&= -\frac{T\ell}{2} \log 2\pi - \frac{1}{2} \sum_{t=1}^{T} \log |D_{t|t-1}| - \frac{1}{2} \sum_{t=1}^{T} {\boldsymbol{e}_t}^{\prime} {D_{t|t-1}}^{-1} {\boldsymbol{e}_t}
\end{align}

結局、尤度を計算するのは難しいため、この対数尤度関数の値を指標とする。多くの組み合わせの中から、対数尤度関数の値が最大となるパラメタを、最も確からしいとして採用する。この対数尤度関数を単に尤度と呼ぶこともあるので注意する。

なお、このように尤度を比較する場合、 l(\boldsymbol{\theta}) の最終結果にある係数 \frac{1}{2} は本質的に意味をなさないため、アンダフローを回避する目的で省略することもある。

おわりに

データ同化の代表技術の1つである、カルマンフィルタについて整理しました。 特に参考書などで省略されがちな尤度の式展開をとても丁寧に書いてみました。(これが一番大変でしたw)

本記事と、途中でご紹介した素晴らしいリンクを見比べながら、読み進めていただくと理解しやすいと思います。

参考になれば幸いです(^^)

なお、放物線投げ上げをカルマンフィルタで予測する例は以下の通りです。これらもぜひご覧ください。

データ同化|カルマンフィルタと斜方投射への適用例 - ari23の研究ノート

データ同化|斜方投射のカルマンフィルタをPythonで実装 - ari23の研究ノート

参考文献

参考文献は以下の通りです。

  • データ同化入門 (予測と発見の科学)
    データ同化分野で私にとってのバイブルです。決して簡単ではないですが、数学的議論がかなりきちんとなされています。データ同化に取り組むときは、まずこれを読んでいます。

  • カルマンフィルタの基礎
    工学の視点からカルマンフィルタが丁寧に説明されています。カルマンフィルタならこれがおすすめです。

  • 時系列解析の方法 (統計科学選書)
    カルマンフィルタはもちろん、タイトル通り時系列解析の手法が解説されています。比較的読みやすいです。





  1. 紹介した記事がとても素晴らしいため、自分で書くのはやめて、その分各変数の説明を丁寧に書きました。