KDOG Notebook

どうも、古くからの友人です。

一次元ガウス混合モデルのベイズ推論〜ギブスサンプリング

はじめに

前回の記事と同様、ガウス混合モデルによる一次元データのクラスタリングを行います。ただし、今回はギブスサンプリングを用います。

モデル

前回と同じです。

kdog08.hatenablog.com

ギブスサンプリング

ギブスサンプリングでは、潜在変数とパラメータに分けてサンプリングを繰り返します。

f:id:kdog08:20181012155131p:plain:h90

潜在変数$S$の事後分布は

f:id:kdog08:20181012163856p:plain:h80

となります。パラメータ${{\boldsymbol \mu},{\boldsymbol \lambda}}$の事後分布は

f:id:kdog08:20181012164458p:plain:h160

f:id:kdog08:20181012164704p:plain:h160

となります。続いて${{\boldsymbol \pi}}$の事後分布は

f:id:kdog08:20181012164846p:plain:h90

です。変分推論では期待値計算をしていましたが、ギブスサンプリングではサンプルされたデータを利用します。

実験

前回と同じデータを用いてギブスサンプリングによる学習過程を観察してみました。

f:id:kdog08:20181014032555g:plain

参考文献

機械学習スタートアップシリーズ ベイズ推論による機械学習入門 (KS情報科学専門書)