こちらの文献をパラパラとめくる。
- 生物の目的は感覚入力の予測能力を最大化すること。
- 言い換え、感覚入力のサプライズを最小化すること
- サプライズとは、予測の難しさ
- 不完全な感覚と、それを補うための推論を繰り返す。
- 推論の際に、生成過程を内部に実装して、それを使って推論している。
- 推論の際に、参考にする分布
- 無意識におこなっている推論を、情報理論・ベイズ推論の枠組みで定式化する。
じゃあ、自由エネルギーとは?
- 感覚入力の予測の困難さを表すサプライズの上限が、変分自由エネルギーとなること
- サプライズの最小化
数理の人にとって、自由エネルギー原理とは?
- 脳の中あるいは境界で起きる事柄は、感覚入力のサプライズを少なくする。
- 感覚入力のベクトルをsとする
- 感覚入力を受け取る側が持っているモデルに条件づけされた、感覚入力の生成分布
- どれくらい起こりにくいかを表す。
外界の生成過程を数理的に説明すると?
- 知覚=内部モデルの最適化
- サプライズの期待値
- 知覚の目的は、
の最小化
- 生成過程について
- 隠れ状態xの時間発展の確率微分方程式
- 感覚入力
- generative model
- 隠れ状態xの時間発展の確率微分方程式
- 神経学とのアナロジーがある。
もう少ししっかりと数理的な背景を見ていこう。特に、推論及び学習の部分がまだ、数理的な説明がないので、そこが欲しい。
サプライズの上限値、変分自由エネルギーについて、次から入る
- サプライズ
- この計算が面倒なので、代理的に、Variational free energyを使う。
- variational free energy
- Fの最小値を与える
は、Sの最小値を与えるので、良いコスト関数となっている。
どうして、変分自由エネルギーを使っているかと、サプライズとの関係性、サプライズの重要性がわかった。
ここからは、知覚とは何かと言うことについて、推論・学習、最適化という観点から入っていくことにする。
- blind source separation
- ブラインド信号源分離、複数の入力を受けたときに、信号を分離して、興味ある情報を抽出する方法
- カクテルパーティ効果と同様
推論と学習をどうやって更新しているか。
- 変分ベイズ法
ここでの更新則を具体的なモデルとして扱い、neural networkに落とし込むためのお作法をこの後に書いてある。
そこの、generalized Gaussian filteringと、Markov decision processが書いてある。
- ガウス分布は、形として、二次関数的な意味合いが強い。
- つまり、平均という名の軸と、分散という名の、2次の項の係数をちょっといじったもの
- 今回求めたい対象の、期待値の類を、最頻値の周りで2次のTaylor expansionをして、近似する。
- つまり、
- 同様に、ガウス分布で近似していくと、いい感じの更新則が出来る。
離散系モデルとしての実装について、
マルコフ決定過程で、確率微分方程式を離散的な形で近似して、隠れ状態などのダイナミクスを表現する。
- 具体的な形の、Generative model
ここまで、知覚と推論・学習について扱ってきたが、行動方策の最適化についてここから扱う。
一旦ここまでをまとめておこう。
我々の知覚において、得られる情報量みたいなものを定義した、これがサプライズ
それを最小化する方向に推論・学習なる、アルゴリズムを組むことで、外界を認識している。
変分自由エネルギーが、このサプライズの計算において使える。
行動については、次の記事で見ていくことにする。