konchangakita

KPSを一番楽しんでいたブログ 会社の看板を背負いません 転載はご自由にどうぞ

【DeepLearning特訓】MLPの基礎 バッチ正規化(Batch Normalization)

E資格向けの自習アウトプット
自分用メモ

Batch Normalization(Batch Norm)は、ミニバッチ単位で正規化を行いスケールを揃えること。重みの初期値が適切だと、各層のアクティベーション分布に適切な広がりをもち、学習がスムーズに行える 
Batch Norm は、各層のアクティベーション分布を適度な広がりを持つように調整することにある
Batch Norm のレイヤをアフィン変換と活性化関数の間に挿入する

【Batch Norm のメリット】
・学習を速く進行させることができる
・初期値にそれほど依存しない
過学習を抑制する

f:id:konchangakita:20210110183724p:plain

Batch Normalization のアルゴリズム

ミニバッチの単位で正規化する
1.入力 x の平均をとる
f:id:konchangakita:20210110175635p:plain

2.分散をもとめ
f:id:konchangakita:20210110175659p:plain

3.正規化する
f:id:konchangakita:20210110180615p:plain

Batch Norm を計算グラフであらわすと

こんな感じでよいのだろうか
f:id:konchangakita:20210111154320p:plain

まとめ

一旦 MLPの基礎としてはここまで
これからは画像認識や自然言語処理強化学習など、いよいよディープラーニングの本番に突入