Batchnorm 是 batch normalization(批量归一化) 的常用简称,指在训练神经网络时,对每一批(batch)数据的中间激活值进行标准化(并带可学习的缩放与平移),以稳定分布、加速收敛并提升训练效果。(在不同语境下也可能泛指该层/该操作。)
We added batchnorm after each convolution layer to make training more stable.
我们在每个卷积层后加入了 batchnorm,使训练更稳定。
Although batchnorm can speed up convergence, it may behave differently when batch sizes are very small, so we tuned the settings carefully.
尽管 batchnorm 能加快收敛,但在 batch 很小时表现可能不同,因此我们仔细调整了相关设置。
/ˈbætʃ nɔːrm/
Batchnorm 来自短语 batch normalization 的口语/书面缩写:batch(一批数据)+ norm(normalization 的缩写,表示“归一化/规范化”)。该术语在深度学习论文与工程实践中常被简化使用。