Существуют некоторые варианты нормализации изображений, но большинство, похоже, используют эти два метода:
- Вычтите среднее значение для канала, рассчитанное для всех изображений (например, VGG_ILSVRC_16_layers )
- Вычесть по пикселю / каналу, рассчитанному по всем изображениям (например, CNN_S , также см. Эталонную сеть Caffe )
Естественный подход будет в моем уме нормализовать каждое изображение. Изображение, полученное при ярком дневном свете, вызовет больше нейронов, чем изображение в ночное время, и хотя оно может сообщить нам о времени, когда мы обычно заботимся о более интересных функциях, присутствующих на краях и т. Д.
В 3.3.3 Пьер Серманет ссылается на локальную нормализацию контраста , которая будет основана на каждом изображении, но я не сталкивался с этим ни в одном из примеров / учебных пособий, которые я видел. Я также видел интересный вопрос Quora и пост Сюй-Шэнь Вэя, но они, кажется, не поддерживают два вышеупомянутых подхода.
Что именно мне не хватает? Это проблема нормализации цвета или есть документ, который на самом деле объясняет, почему так много людей используют этот подход?