[source]

BatchNormalization

keras.layers.BatchNormalization(axis=-1, momentum=0.99, epsilon=0.001, center=True, scale=True, beta_initializer='zeros', gamma_initializer='ones', moving_mean_initializer='zeros', moving_variance_initializer='ones', beta_regularizer=None, gamma_regularizer=None, beta_constraint=None, gamma_constraint=None)

批次归一化层(Ioffe和Szegedy,2014年).

在每批中对上一层的激活进行归一化,即应用一个转换,将平均激活保持在0附近并将激活标准偏差保持在1附近.

Arguments

  • axis :整数,应归一化的轴(通常是要素轴). 例如,后Conv2D层用data_format="channels_first"设定axis=1BatchNormalization .
  • 动量 :移动平均值和移动方差的动量.
  • epsilon :将小浮点数添加到方差以避免被零除.
  • center :如果为True,则将beta偏移量添加到标准化张量. 如果为False,则忽略beta .
  • 比例尺 :如果为True,则乘以gamma . 如果为False,则不使用gamma . 当下一层是线性的时(例如nn.relu ),可以禁用此功能,因为缩放将由下一层完成.
  • beta_initializer :Beta权重的初始化程序.
  • gamma_initializer :伽玛权重的初始化程序.
  • moving_mean_initializer :移动平均值的初始化器.
  • moving_variance_initializer :移动方差的初始化程序.
  • beta_regularizer :beta权重的可选正则化器.
  • gamma_regularizer :伽玛权重的可选正则化器.
  • beta_constraint :beta权重的可选约束.
  • gamma_constraint :伽玛权重的可选约束.

输入形状

随便 当将此层用作模型的第一层时,请使用关键字参数input_shape (整数元组,不包括示例轴).

输出形状

与输入形状相同.

References