[DL輪読会]Deep Learning for Sampling from Arbitrary Probability Distributions

191 Views

February 19, 18

スライド概要

2018/2/16
Deep Learning JP:
http://deeplearning.jp/seminar-2/

シェア

またはPlayer版

埋め込む »CMSなどでJSが使えない場合

(ダウンロード不可)

関連スライド

各ページのテキスト
1.

DEEP LEARNING JP [DL Papers] Deep Learning for Sampling from Arbitrary Probability Distributions with サンプリングの基礎:モンテカルロとMCMC 冨山 翔司 松尾研究室,DeepX http://deeplearning.jp/

2.

書誌情報 • Arxiv 12 Jan 2018. • Felix Horger, Tobias W¨ urfl, Vincent Christlein and Andreas Maier • Pattern Recognition Lab of the Friedrich-Alexander-University Erlangen-Nuremberg • ディープラーニングによって任意の分布からのサンプリングをします(タイ トル直訳) – ??? • サンプリングについて⾊々話してみます. 2

3.

サンプリングとは • ある確率分布からサンプルを抽出すること. – トートロジー • サンプリングの実⽤的なメリットとして,低コストで分布の期待値(あるい は積分)を近似計算できる. – 多くの場合,分布の積分は解析的に解けない • サンプリングの話は, 𝑝(𝑥)は既知であるという前提の話 – 確率密度関数はわかってるんだけど,そのサンプリングは難しい. 3

4.

モンテカルロサンプリングによる期待値の近似計算 • 𝑥がある確率分布𝑝(𝑥)に従う時の関数𝑓(𝑥)の期待値を,抽出されたサンプル の平均値によって近似する 𝑠 = ∫ 𝑝 𝑥 𝑓 𝑥 𝑑𝑥 = 𝐸+ [𝑓 𝑥 ] を 3 1 𝑠̂ = 1 𝑓(𝑥 2 ) 𝑥 2 ~𝑝(𝑥) 𝑛 245 によって推定(不偏推定量) 𝑝(𝑥)からランダムサンプリングしたい! のだけど, 𝑝(𝑥)から計算機上で簡単にサンプリングできるのは 正規分布とか⼀様分布ぐらい. 4

5.

逆関数サンプリング法 • 確率分布𝑝(𝑥)の,累積分布(CDF)を𝐹(𝑥)とする. – 1.標準⼀様分布𝑈(0,1)に従う乱数𝑢を発⽣させる. – 2.𝑢に𝐹 =5 を作⽤させ,𝑣 = 𝐹 =5 (𝑢)を得る.この𝑣がp(𝑥)に従う. 𝐹(𝑥) 𝑢~𝑈(0,1) 𝑝(𝑥) 𝑣 = 𝐹 =5 (𝑢) 問題点:𝐶𝐷𝐹及びその逆関数を解析的に求められないといけない 5

6.

棄却サンプリング • 提案分布𝑔(𝑥)からサンプリングされた値を定数倍(𝑀 ∗ 𝑔(𝑥))し,[0, 𝑀 ∗ 𝑔(𝑥)]から乱数をサンプリングし,それが⽬標分布の値𝑓(𝑥)以下であれば, 受理,そうでなければ棄却する. – 提案分布・・・サンプリング可能な分布 http://aidiary.hatenablog.com/entry/20140712/1405165815 6

7.

棄却サンプリングの問題 • + E F∗G(E) が⼩さいと,サンプリング効率が悪い. – 全然違うスライドですが,下で⾔うと緑のような提案分布だと棄却ばかりされる. – 特に⾼次元だと,どんどん棄却される割合が⾼くなる • e.g. N次元球と,それを囲う⽴⽅体の⽐の極限は0 http://www.juergenwiki.de/old_wiki/lib/exe/fetch.php?w=500&tok=8a7dbf&media=public:murray_mlss2009talk_mcmc_13.png 7

8.

重点サンプリング • 𝑝 𝑥 𝑓 𝑥 =𝑞 𝑥 + E I(E) J(E) と分解できることを利⽤ – 𝑞 𝑥 からサンプリングして, + E で重み付け. J(E) 3 1 𝑠̂ = 1 𝑓(𝑥 2 ) 𝑥 2 ~𝑝(𝑥) 𝑛 245 3 1 𝑝(𝑥 2 )𝑓(𝑥 2 ) 2 𝑠OJ = 1 𝑥 ~𝑞(𝑥) 𝑛 𝑞 𝑥2 245 問題点:推定量の分散は𝑉 𝑠̂J = 𝑉𝑎𝑟 + E I E J E /𝑛で,𝑞(𝑥)の選択に⼤きく依存する 8

9.

マルコフ連鎖モンテカルロ法(MCMC) • サンプリングしたい⽬標分布に対して,それを「不変分布」とするマルコフ 連鎖を構成する. – http://ebsa.ism.ac.jp/ebooks/sites/default/files/ebook/1881/pdf/vol3_ch10.pdf • MCMCでサンプリングしたい理由 – 𝑥が⾼次元の時や,サンプリングしたい分布𝑝(𝑥)が複雑である時,前述の⽅法だと,サ ンプリング容易かつ分布𝑝(𝑥)に近い提案分布𝑞(𝑥)を選ぶことが難しい. • MCMCでは,初めに初期分布を決めるとそれがだんだん⽬標分布へ近づいていく 9

10.

マルコフ連鎖 • ある時点での条件付き確率分布が,前の状態のみに依存する(マルコフ性) ような確率過程 Pr(𝑥 ST5 = 𝑗|𝑥 S = 𝑖) • 𝑝 𝑖, 𝑗 = 𝑃𝑟(𝑥 ST5 = 𝑗|𝑥 S = 𝑖)とすると,現在の状態が𝑖である時,𝑗にいく確率 を表す遷移⾏列が次のように書ける – 𝑥は1次元の確率変数でその状態空間は𝜒 ∈ {1, … 𝑘}とする • 初期状態𝑥 \ の確率分布を𝜋 \ とする.と, 𝜋S = 𝜋\𝑇S 10

11.

MCMCでやりたいこと 𝑥 S ~𝜋 S = 𝜋 \ 𝑇 S • 最終的に⽬標分布𝜋に収束させるために,適切な遷移⾏列𝑇と初期状態𝜋 \ を 設定したい! • では,どのような遷移⾏列𝑇を選べば(初期状態𝜋 \ は実は何でもいい)⽬標 分布に収束してくれるのか???? – 既約性 – ⾮周期性 – 不変分布 11

12.

既約性 • 連鎖がどのような状態から出発したとしても, 有限回のステップで別の状 態にたどり着くことができる性質のこと • 例えばこれは,状態1もしくは状態2からは状態3にはどうやっても⾏けな い. 12

13.

⾮周期性 • ⼀定の時間間隔で訪れる状態がないこと • 下は,例えば状態1からはじまると再び状態1に戻るのは偶数タイムステッ プ後になる,周期2のマルコフ連鎖 13

14.

不変分布 • ある確率分布𝜋が,𝜋 = 𝜋𝑇を満たす時,𝜋は𝑇の不変分布. 14

15.

マルコフ連鎖モンテカルロの収束定理 • マルコフ連鎖が既約性と⾮周期性を持ち, 𝜋が𝑇の不変分布である時, 任意の初期分布𝜋 \ は,𝜋に収束する – ⽬標分布𝜋からのサンプリングが可能に!!! • 既約性と⾮周期性を持つような𝑇を作るのは簡単だけど,問題は⽬標分布が 不変分布となるような𝑇にしなければいけないってところ. – そこで出てくるのが,詳細釣り合い条件! 15

16.

詳細釣り合い条件とは • 𝜋が𝑇の不変分布であるための⼗分条件 𝜋2 𝑝 𝑖, 𝑗 = 𝜋a 𝑝(𝑗, 𝑖) – ある状態𝑖にいてかつそこから状態𝑗にいく確率と,ある状態𝑗にいてかつそこから状態𝑖 にいく確率が等しい. • 上を満たすように𝑇を作ればオッケー! • 今までの議論は連続状態空間でも同様に成り⽴つ • (ちなみに詳細釣り合い条件は⼗分条件で,それを緩和した条件で不変分布 を満たしてMCMCをする,諏訪モンテカルロなるものがあるらしい) 16

17.

今⽇紹介する代表的なMCMCアルゴリズム • メトロポリス・ヘイスティングス法 • ハミルトニアンモンテカルロ • ギブスサンプリング • これらのアルゴリズムは,適当な分布が⽬標分布へ収束することが保証され ているマルコフ連鎖を構築する,というわけです. 17

18.

メトロポリス・ヘイスティングス(MH)法 (1)初期値𝑥 \ ~𝜋 \ を決める. (2)t=0,1,…に対して以下を繰り返す (i)𝑥b ST5 ~ 𝑞 𝑥b ST5 𝑥 S (ii)𝑢を⼀様分布𝒰(0,1)から発⽣させる (iii)𝛼 𝑥, 𝑥b ST5 = min{1, g Eb hij J(E|Eb hij ) } g(E)J(Eb hij |E h ) ST5 ST5 (iv)𝑢 < 𝛼 𝑥, 𝑥b ST5 であれば, 𝑥 = 𝑥b そうでなければ,𝑥 ST5 = 𝑥 S • 𝑞 𝑥b ST5 𝑥 S を提案分布と呼ぶ. – あらかじめ決める任意の分布 • 例えば提案分布を標準正規分布とすれば,𝛼 = min{1, g Eb hij g Eh }となる – つまり,⽬標分布の確率が⾼い⽅へ⾏くときは必ずサンプリングは受理され,そうでない時は確率的 に棄却される • ⽬標分布は正規化されている必要がない – ⼤事!!! • 正規化定数だけがわからないってのはよくあるケース • MH法によって⽣成されるマルコフ連鎖は,詳細釣り合い条件を満たしています(調べてみ てください) 18

19.

メトロポリス・ヘイスティングス法の提案分布 • 酔歩連鎖(random walk chain) 𝑥b ST5 = 𝑥 + 𝜖, 𝜖~𝒩(0, 𝜎 q 𝐼) – 採択確率𝛼が,⽬標分布のみの関数に簡略化される(前ページの通り) – これが,メトロポリス法(1953) – 𝜎をステップサイズと呼ぶ. – 酔歩連鎖はガウス分布に限らず, 𝑞 𝑥b ST5 𝑥 S = 𝑞 𝑥 S 𝑥b ST5 となるような提案分布だった らなんでもそう呼ぶみたいです. • ⼀様分布とかでも酔歩連鎖 • 問題点 – 提案分布は⽬標分布の情報を全く使わない • サンプリングされる点は⽬標分布の確率が⾼い点(モード)がいいよね. 19

20.

メトロポリス・ヘイスティングス法の提案分布 • ランジェバンダイナミクス 𝑥b ST5 𝜎 q 𝜕𝑙𝑜𝑔𝜋(𝑥) =𝑥+ + 𝜖, 2 𝜕𝑥 𝜖~𝒩(0, 𝜎 q 𝐼) – ⽬標分布において確率が⾼いところへ⾏きやすくなる – 𝑥の勾配を確率勾配にしたやつがStochastic Gradient Langevin Dynamics • 最近良く聞く気がする 20

21.

ハミルトニアンモンテカルロ(HMC) • メトロポリスヘイスティングでは,提案分布の選択がサンプリング効率に⼤きく 影響する – 混合のされやすさ – 受理のされやすさ • HMCでは,ハミルトニアンが⼀定であるところを遷移し,時々外⼒を加えて違 うハミルトニアンの値に移動する,という遷移をする. – ある物体の位置エネルギーをU(𝑥)とし,運動エネルギーをK(𝑣) (ハミルトニアン的には運動 量𝑝とするのが普通だけど,確率分布の𝑝と被るので・・・)とすると,ハミルトニアンはその 和. 𝐻 = 𝑈 𝑥 + 𝐾(𝑣) – 外⼒の加わらない孤⽴系において,ハミルトニアンが保存されるように物体は移動していく • これを確率分布で再現する • めんどくさいので質量𝑚は省略します(m=1) 21

22.

わかりやすいGIFその1 • From https://qiita.com/kenmatsu4/items/71141e0249c266c1b653 22

23.

わかりやすいGIFその2 • http://arogozhnikov.github.io/2016/12/19/markov_chain_monte_car lo.html 23

24.

HMCのポイント • 確率分布に対応するハミルトニアンはどうやって構築する? • 運動エネルギーを保存したまま複雑な確率分布上を移動するって,計算でき るんだっけ? – リープフロッグ法 24

25.

確率分布とハミルトン⼒学系の関係 • 外⼒がかからない孤⽴系を考えると,ある位置および運動量を持つ粒⼦の数 は,以下の確率分布に従う 𝑝 𝑥, 𝑣 = 1 exp(−𝐻 𝑥, 𝑣 ) 𝑍 • ハミルトニアンの位置エネルギーと運動エネルギーを𝑈 𝑥 , K(v)とすると, ハミルトニアンはその和なので, 𝑝 𝑥, 𝑣 ∝ exp −𝐻 𝑥, 𝑣 = exp(−𝐾 𝑣 )exp(−𝑈 𝑥 ) ∝ 𝑝 𝑥 𝑝(𝑣) – 𝑝(𝑥)と𝑝(𝑣)は独⽴! 25

26.

確率分布に対応する位置エネルギー • サンプリングしたい確率分布𝑝(𝑥)の位置エネルギーは, 𝑝 𝑥 ∝ exp(−𝑈 𝑥 ) ⟹ 𝑈 𝑥 = − log 𝑝 𝑥 + 𝑐 • ということで,確率分布のサンプリングは,この位置エネルギーと,𝑝(𝑥)と 独⽴である運動量を適当にサンプリングすることで⾏える! 26

27.

正規分布の例 • 𝑝 𝑥 = 5 qg exp(− Eˆ q ) からサンプリングをしたい! • この位置エネルギーは,𝑈 𝑥 = −𝑙𝑜𝑔𝑝 𝑥 + 𝐶 = 𝑥 q + 𝐶 5 • ハミルトニアンは,𝐻 𝑥, 𝑣 = 𝑥 q + 𝑣 q q – 調和振動⼦に対応. • アルゴリズム – 0:𝑥 \ を適当に決める – 1:𝑣を正規分布からサンプリング – 2:求まったハミルトニアンに従って,リープフロッグ法によって𝑥をLステップ動かしていく – 3:Lステップ後に得られる𝑥bと𝑣bを,以下の確率で採択 min(1, exp{𝐻 𝑥2T5 , 𝑣2T5 − 𝐻 𝑥b2T5 , 𝑣b2T5) ) – 1に戻る 同ハミルトニアン上を動くので右は常に1のはずだけど,リープフロッグは近似計算なので誤差が⽣じうる • 周期性を持ってしまう場合があるので,それを回避するために都度𝑣をサンプリングするということらし い 27

28.

わかりやすいGIFその1再び • From https://qiita.com/kenmatsu4/items/71141e0249c266c1b653 28

29.

HMCのpro con • Pros – 提案分布いらない – ほぼ100パーセントサンプルが受理される – 𝑣を加えるおかげで,混合がMCMCよりは促されやすくなる • Cons – 確率分布の勾配を計算できる必要 29

30.

ICLR2018であったHMCの研究 • GENERALIZING HAMILTONIAN MONTE CARLO WITH NEURAL NETWORKS – リープフロッグの際に,求めた𝑣に従ってどれだけ進むかのステップ幅をニューラル ネットワークによって決定する – これを紹介するつもりだったんですけど時間が⾜りない&ごちゃごちゃしてるのでやめ ました. • HMCを理解すれば読めると思います. 30

31.

ギブスサンプリング • ギブスサンプリングは提案分布を必要としない • ⼀⽅で,全ての 𝑖 に関して, 𝜋(𝑥2 |𝑥=2 ) がサンプリング可能である必要がある. – 例えば正規分布に従うデータの事後分布からのサンプリングとかはギブスサンプリング でできる. 31

32.

MCMCによるサンプリングの問題点 • 初期分布が⽬標分布に収束するまでにかかる時間(burn in)は,わからな い. – ⽬標分布に収束したかどうかを判定する⽅法もちゃんとはわからないようです. ⽬で⾒るとか,サンプルを⼆つに切って同じ統計量を持ってるか,みたいな⽅法らしい • 時間的に連続するサンプル同⼠は相関を持ってしまう – ⻑い時間間隔をあければサンプル同⼠の相関は消える • 分離されたモードのサンプリングに失敗することがある – 結局峰がたくさんある分布は実際にはサンプリングが難しい. 良い例 混合ができない例 32

33.

Deep Learning for Sampling from Arbitrary Probability Distributions • 𝑢~𝒰(−1,1)を,ニューラルネットワーク𝑓‰ (𝑢)にかませた結果が,⽬標分布 𝑝(𝑥)からのランダムサンプリングになる(ようにニューラルネットワークを 訓練する) – 全ての結果が受理されるのでサンプル効率は当然良い – モード混合問題も関係ない – 独⽴したサンプルを出せる 33

34.

訓練⽅法 • 1.𝑢2 ~𝒰(−1,1)を発⽣させ,ミニバッチを作る. • 2.ニューラルネットワークによって,𝑦2 = 𝑓‰ (𝑢2 )を計算 • 3.得られた𝑦2 について,カーネル密度推定によって関数を推定 • 4.推定された関数と⽬標分布が⼀致するように⽬的関数を設定する – ⼆乗誤差 – JS-Divergence 34

35.

(カーネル密度推定) • データ標本から確率密度関数を推定するノンパラメトリックな⽅法 • 各観測値を中⼼とした分布を想定し,それを積み上げれば滑らかな形状の分 布が得られる,というアイディア – ガウシアンカーネルとかがよく⽤いられる 35

36.

⽬的関数 ⼆乗誤差 or • 𝑞(𝑦)が,カーネル密度推定によって推定された関数 • 𝑦はミニバッチ内の𝑢2 にニューラルネットワークをかませることによってサ ンプリングされ,それらの値を⽤いて上の積分をモンテカルロ近似. – ⼆乗誤差の場合は𝑝(𝑦)と𝑞(𝑦)の⼆乗誤差. • 実験的にはJS-divergenceのほうが良かったようです. 36

37.

実験設定 • 𝑢2 ~𝒰(−1,1) を500個サンプルした結果を⼀つのベクトルとしてみて(?), 𝑦を⽣成. – 相関するに決まってるんだけど,そうしたほうが⽬標分布への収束が早いらしい(検証 されてないし説明良くわからない) – 相関させたくない時は,1個だけサンプルしたのをベクトルとする. • 全結合NNで,500ユニット×10レイヤー – でかい • 全結合NNって4レイヤーくらい積むと挙動がおかしくなるんじゃなかったっけ • 訓練には10‹ の𝑢を使⽤ 37

38.

実験1 • 上のbimodal gaussianの⽬標分布からサンプリングしたい – ⼀次元だ • 下が結果 – よくフィッティングできてる – サンプルが相関してる 38

39.

実験2 • 上の⽬標分布からサンプリングしたい – これは逆関数法が使えるのでそれと⽐較 • 下が結果 – 左が提案⼿法,右が逆関数法.どっちもうまくできてる • だからなんなんだっけ... 39

40.

実験3 • 上の⽬標分布からサンプリングしたい – これは逆関数法が使えるのでそれと⽐較 • 下が結果 – 左が提案⼿法,真ん中が棄却サンプリング,右がMH.全部うまくできてる • だからなんなんだっけ... 40

41.

実験4 • ⼆次元のbimodal Gaussianを⽬標分布とした場合 – できてる • でも⼆次元って・・・ 41

42.

実験まとめ • 既存のサンプリング⼿法と同じようにサンプリングができる,というだけ. • ⾼次元での有効性は⽰されていない – 多分ニューラルネットワークの訓練がうまくできないのではないか • KDEで⾼次元の分布をうまく推定するにはかなりサンプル必要そう • モード障壁の話も無し • サンプリングの速さについても実験なし – これは⽐較となる提案分布𝑞(𝑥)を筆者が⾃分で決めないといけないから,フェアな実験 が難しいのかもしれない 42

43.

まとめ • アイディアは⾯⽩いけど実験結果がアレ – もしかしたらアップデート版ですごい実験結果が出るかもかもしれない 43