Я обнаружил, что Imagenet и другие крупные CNN используют слои нормализации локального отклика. Однако я не могу найти столько информации о них. Насколько они важны и когда их следует использовать?
С http://caffe.berkeleyvision.org/tutorial/layers.html#data-layers :
«Уровень нормализации локального отклика выполняет своего рода« боковое торможение »путем нормализации по локальным входным областям. В режиме ACROSS_CHANNELS локальные области распространяются по соседним каналам, но не имеют пространственного экстента (т. Е. Имеют форму local_size x 1 x 1) В режиме WITHIN_CHANNEL локальные области расширяются пространственно, но находятся в отдельных каналах (т. Е. Имеют форму 1 x local_size x local_size). Каждое входное значение делится на (1+ (α / n) ∑ix2i) β, где n это размер каждой локальной области, а сумма берется по области с центром в этом значении (при необходимости добавляется нулевое заполнение). "
Редактировать:
Кажется, что эти виды слоев оказывают минимальное воздействие и больше не используются. По сути, их роль отыгрывается другими методами регуляризации (такими как отсев и нормализация партии), улучшенными инициализациями и методами обучения. Смотрите мой ответ ниже для более подробной информации.