16. 変分オートエンコーダ (VAE)#
この章では、変分オートエンコーダ(VAE: Variational Autoencoder)について説明する。 VAEは、データの潜在的な表現を学習するために提案されたモデルであるが、近年では生成モデルの文脈でも非常に重要な役割を果たしている。 混合ガウスモデルの章で導入したKLダイバージェンスやELBOの概念はVAEの理解にも不可欠であるため、重複する部分もあるが、改めて説明を行う。
多数の要素が絡み合うため、VAEの理解には時間がかかるかもしれないが、焦らず一歩一歩進めていこう。
16.1. 生成モデルの考え方#
何らかのデータを生成するモデルのことをざっくりと 生成モデル (Generative Model) と呼ぶことにしよう。
以下では、そんな生成モデルで実現したいタスクが「様々な犬の写真を生成する」であると仮定して説明を進める。
現実世界での犬の写真データは、非常に多様であり犬種や背景、個体ごとの違いなどがある。 しかし、犬の写真データをピクセル値として扱うと、それらは非常に高次元の空間で好き勝手バラバラに向いている訳ではない。 なぜなら、砂嵐のような画像は完全なランダム値であり、ピクセル値の空間では等方的に分布するだろうし、ラーメンの写真を大量に集めるとそれらはやはり、犬の写真が持つピクセル値の分布とは異なっているであろう。
ここで、もし、犬の写真データがもつ共通の特徴を捉えた低次元空間での潜在変数が存在すると仮定する。 もとのピクセル値が \(D\) 次元のベクトルによって表されるとすると、その潜在変数は \(d\) 次元 (\(d \ll D\)) のベクトルで表されるとする。
加えて、その潜在変数を"種"に、犬の写真データを生成してくれるモデル(例えばニューラルネットワーク)があるとする。
すると、その潜在空間の中で \(z_1, z_2, \ldots\) といった潜在変数をサンプリングし、それらの種をニューラルネットワークに入力することで、様々な犬の写真データ \(x_1, x_2, \ldots\) を生成できることになる。
犬の部分を、より広い集合である「画像データ」に置き換えれば、生成モデルの役割は、「現実世界に存在するような画像データを生成すること」にすることもできる。これが潜在変数を用いた生成モデルの基本的な考え方である。
実際にどのようにそのような潜在空間を見つけていくのか、また、生成モデルをどのように学習していくのかが肝になるが、まずは、VAEでのデータ生成の流れを説明しよう。
16.2. VAEによるデータ生成の流れ#
変分オートエンコーダは、オートエンコーダの一種として位置付けられることもあるが、オートエンコーダとは異なり、データの生成過程をモデル化することを目的とした生成モデルとして解釈するのが一般的である。
その際、潜在変数を導入し、データが潜在変数から生成されると仮定する。 VAEでは、潜在変数の分布を近似するために変分推論を使用し、データの生成過程を学習していく。
VAEによるデータ生成の基本的な流れは以下の通りである。
潜在変数のサンプリング: 潜在変数 \(z\) を事前分布 \(p(z)\) (通常、正規分布)からサンプリングする。
観測変数の生成: 潜在変数 \(z\) から観測変数 \(x\) を生成するために、条件付き分布 \(p_\theta(x|z)\) (例: ニューラルネットワークの出力+正規分布)を用いる。
単一の潜在変数ではなく、その確率分布を考えることで、より多様なデータ生成が可能になる。 また、ニューラルネットワークの出力値は入力値に対して確定的な値であるが、VAEではニューラルネットワークの出力を平均値とし、分散を持たせることで、同じ潜在変数からでも異なる観測変数が生成されるようにしているとも理解できる。
出力したいデータの種類によっては、分布の形状を変えることもある。例えば観測変数が0から1の範囲に収まるようなデータであれば、ベルヌーイ分布を用いることもある。
16.3. 生成モデルの学習#
では、VAEの生成モデルをどのように学習していくのか。
VAEでは、観測変数 \(x\) のモデル分布 \(p_{\theta}(x)\) を与えられたデータセット \(\{x^{(i)}\}_{i=1}^{N}\)に対して、モデルを特徴づけるパラメータ \(\theta\) を調整することで、データセットの分布をよく表現するようにしてやる。 (モデルが単なる正規分布であれば、\(\theta\)は平均や分散だし、ニューラルネットワークであれば、\(\theta\)はその重みやバイアスになる。) 下に、模式図を示す。
これは、以下の対数尤度を最大化することと同値である。
\(p_{\theta}(x^{(i)})\)は、正規分布のような単純な分布であれば解析的に計算できるが、VAEのように潜在変数を導入した生成モデルでは、以下のように潜在変数 \(z\) に関して積分を行う必要がある。
この積分についてもやはり解析的に計算することは難しい。\(z\)のサンプルを用いてモンテカルロ積分を行うこともできるが、計算コストが高くなってしまう。
そこで、VAEでは変分推論の考え方を用いて、潜在変数 \(z\) の事後分布 \(p_{\theta}(z|x)\) を近似するための近似分布 \(q(z)\) を導入する。
まず、具体的な確率分布がどう与えられるかとは関係なく、対数尤度を以下のように変形できることを思い出そう。
ここで、赤字で示した部分を ELBO (Evidence Lower Bound) と呼ぶ。 また、黄色で示した部分はKLダイバージェンスであり、常に非負であることから、ELBOは対数尤度の下限 であることが分かる。 したがって、左辺の対数尤度を直接手に負えないのであれば、ELBOを最大化することで、対数尤度の下限を最大化することができる、というのがELBOを用いる動機・利点である。
仮にこの \(q(z)\) をパラメータ \(\phi\) で特徴づけるとしよう(正規分布の場合は、平均や分散に相当する)。 とくにVAEでは、観測変数 \(x\) に依存するように \(q_{\phi}(z|x)\) を定義するので、以降は \(q(z)\) を \(q_{\phi}(z|x)\) と書くことにする。
すると、ELBOは以下のように書ける。
少々くどいが、\(\theta\)はDecoderのパラメータ、\(\phi\)はEncoderのパラメータであることを思い出しておこう。
ここで、ELBOの最大化が対数尤度の下限を最大化することに繋がることもじっくりと確認しておこう。 よくよく考えると上で出てきた確率分布 \(q(z)\) (いまは \(q_{\phi}(z|x)\))は、規格化された確率分布であり左辺とはなんの関係もなかったはずである。なので、パラメータ \(\phi\)を変化させても、左辺の対数尤度にはなんの影響も与えないはずである。しかし、右辺のELBOは、\(\phi, \theta\)の変化を通して影響を受ける。
\(\phi\)に着目する限りは左辺(2つの項の総和)は変わらないのだから、ELBOを最大化することは、KLダイバージェンスを最小化する(\(q_{\phi}(z)\)を \(p_{\theta}(z|x)\)に近づける)ことに他ならない。
計算の難しい事後分布 \(p_{\theta}(z|x)\) を直接扱うのではなく、近似分布 \(q_{\phi}(z|x)\) を導入し、ELBOを最大化することで、事後分布を近似するというのがVAEの基本的な考え方で、これは変分推論の枠組みの一種であることから、variationalという名前が付けられている。
16.4. 近似分布のパラメータの確率分布#
上の式では、あるタイミングでこっそりと、データの足に対する添字を落としている。 実際には、データセット \(\{x^{(i)}\}_{i=1}^{N}\) の各データ点 \(x^{(i)}\) に対して、近似分布 \(q_{\phi}(z|x^{(i)})\) のパラメータ \(\phi\) は異なる値を取ることになる。 したがって、ELBOも各データ点ごとに異なる値を取ることになる。
しかしながら、大きなデータセットに対しては、各データ点ごとに異なるパラメータを持つのは非効率・非現実的である。 そこで、近似分布のパラメータ \(\phi\) 自体もニューラルネットワークを用いて入力データ \(x^{(i)}\) から計算するようにする。
これは、観測変数 \(x\) から潜在変数 \(z\) へのマッピングを学習するエンコーダ (Encoder)を導入することを意味している。 今度はencoderのパラメータを \(\phi\) と表記しよう。すると、近似分布 \(q(z)\) は、ニューラルネットワークの出力 \(\phi(x^{(i)}; \phi)\) によって与えられることになる。
図にすると以下のようになる。
encoderによって生成される近似分布が正規分布であるとすると、\(\Sigma\)を生成することも考えられなくはないが、計算コストの観点から、\(\Sigma\)を対角行列とする(独立な各次元の分散を生成させる)のが一般的であろう。
16.5. ELBOの計算#
ELBOを最大化することで、対数尤度の下限を最大化できることは分かったが、実際にELBOをどのように計算するのか。少し式を変形してみよう。
最後の表式の第1項は、潜在変数 \(z\) に関する期待値であり、第2項はKLダイバージェンスである。 第1項は、\(z\)を \(q_{\phi}(z|x)\) からサンプリングすることで近似的に計算できる。 VAEでは大胆にも、サンプルサイズを1にして、以下のように近似することが多い。
つまり、前者の項は、サンプルされた潜在変数をデコーダに入力したときの観測変数の対数尤度を計算すれば良いことになる。 デコーダの出力 \(\hat{x}\)と、入力 \(x\) の差を損失関数として用いると、これは再構成誤差 と呼ぶこともできる。
第2項のKLダイバージェンスは、\(q_{\phi}(z|x)\) と \(p(z)\) の具体的な形状によっては解析的に計算できる。 例えば、\(q_{\phi}(z|x)\) と \(p(z)\) がともに多変量正規分布であれば、KLダイバージェンスは以下のように計算できる。
ここで \(d\) は潜在変数の次元数、\(\mu_{j}\)と\(\sigma_{j}\)はそれぞれ\(j\)番目の次元に対応する平均と標準偏差 (エンコーダによる出力) である。
16.6. ELBOの最大化と変数変換トリック#
ここまでで、VAEの基本的な構成要素が出揃ってきた。
ELBOを最大化するためには、ELBOの勾配を計算し、その勾配に基づいてEncoder/Decoderのパラメータ \(\theta\) と \(\phi\) を更新していく必要がある。
しかしながら、ELBOの第1項は、近似分布 \(q_{\phi}(z|x)\) からサンプリングした潜在変数 \(z\) に依存しているため、直接的に \(\phi\) に関する勾配を計算することが難しい。 そこで、変数変換トリック (Reparameterization Trick) と呼ばれる手法を用いることで、勾配の計算を可能にする。
具体的には、潜在変数 \(z\) を以下のように変数変換する。
ここで、\(\odot\) は要素ごとの積を表す。 つまり、\(z\)自体をサンプリングするのではなく、標準正規分布からサンプリングした \(\epsilon\) を用いて \(z\) を生成するようにする。
これにより計算グラフが \(\phi\) に対して連続的になるため、勾配を計算できるようになる。
16.7. MNISTデータセットでのVAEの実装例#
Epoch 1, Loss: 41.18
Epoch 2, Loss: 33.83
Epoch 3, Loss: 32.58
Epoch 4, Loss: 32.01
Epoch 5, Loss: 31.66
Epoch 6, Loss: 31.39
Epoch 7, Loss: 31.22
Epoch 8, Loss: 31.03
Epoch 9, Loss: 30.91
Epoch 10, Loss: 30.79
Epoch 11, Loss: 30.68
Epoch 12, Loss: 30.60
Epoch 13, Loss: 30.48
Epoch 14, Loss: 30.43
Epoch 15, Loss: 30.35
学習済みのVAEで、手書き数字画像を生成してみる...