言語モデルで使われるレイヤー正規化(Layer Normalization)は、学習の安定性を高めるための手法です。訓練中にデータの分布(平均や標準偏差)が大きく変動することを防ぎ、学習を安定かつ効率的に進めることができます。 この目的は、画像処理でよく ...
深層学習において、学習の安定性や収束速度を高めるために使われる「正規化手法」。 その代表例が Batch Normalization(バッチ正規化) と Layer Normalization(レイヤー正規化) です。 本記事では、これらの正規化手法の違いや使用場面、そして覚えておきたい ...